Nous pouvons écrire le théorème de Bayes comme
où est la postérieure, f (X | \ theta) est la distribution conditionnelle et p (\ theta) est la précédente.
ou
où est la fonction postérieure, est la fonction de vraisemblance et est l'a priori.
Ma question est
- Pourquoi l'analyse bayésienne est-elle effectuée en utilisant la fonction de vraisemblance et non la distribution conditionnelle?
- Pouvez-vous dire en mots quelle est la différence entre la probabilité et la distribution conditionnelle? Je sais que la probabilité n'est pas une distribution de probabilité et .
bayesian
likelihood
kzoo
la source
la source
Réponses:
Supposons que vous ayez variables aléatoires (dont les valeurs seront observées dans votre expérience) qui sont conditionnellement indépendantes, étant donné que , avec des densités conditionnelles , pour . Ceci est votre modèle statistique (conditionnel) (postulé), et les densités conditionnelles expriment, pour chaque valeur possible du paramètre (aléatoire) , votre incertitude sur les valeurs des , avant d'avoir accès à tout des données réelles. À l'aide des densités conditionnelles, vous pouvez, par exemple, calculer des probabilités conditionnelles commeX1,…,Xn Θ=θ fXi∣Θ(⋅∣θ) i=1,…,n θ Θ Xi
Une fois que vous avez accès à un échantillon réel de valeurs (réalisations) des qui ont été observées en une seule fois de votre expérience, la situation change: il n'y a plus d'incertitude sur les observables . Supposons que le aléatoire assume des valeurs dans un espace de paramètres . Maintenant, vous définissez, pour ces valeurs connues (fixes) une fonction par Notez que , connue sous le nom de "fonction de vraisemblance" est une fonction de(x1,…,xn) Xi X1,…,Xn Θ Π (x1,…,xn)
Pour répondre à votre question, pour comprendre les différences entre les concepts de densité conditionnelle et de vraisemblance, gardez à l'esprit leurs définitions mathématiques (qui sont clairement différentes: ce sont des objets mathématiques différents, avec des propriétés différentes), et rappelez-vous également que la densité conditionnelle est un "pré -échantillon "objet / concept, tandis que la probabilité est un" après-échantillon ". J'espère que tout cela vous aidera également à répondre à la raison pour laquelle l'inférence bayésienne (en utilisant votre façon de le dire, qui ne me semble pas idéale) se fait "en utilisant la fonction de vraisemblance et non la distribution conditionnelle": l'objectif de l'inférence bayésienne est pour calculer la distribution postérieure, et pour cela nous conditionnons sur les données observées (connues).
la source
La proportionnalité est utilisée pour simplifier l'analyse
L'analyse bayésienne se fait généralement via un énoncé encore plus simple du théorème de Bayes, où nous ne travaillons qu'en termes de proportionnalité par rapport au paramètre d'intérêt. Pour un modèle IID standard avec une densité d'échantillonnage nous pouvons exprimer ceci comme:f(X|θ)
Cette déclaration de mise à jour bayésienne fonctionne en termes de proportionnalité par rapport au paramètre . Il utilise deux simplifications de proportionnalité: une dans l'utilisation de la fonction de vraisemblance (proportionnelle à la densité d'échantillonnage) et une dans la partie postérieure (proportionnelle au produit de vraisemblance et a priori). Puisque le postérieur est une fonction de densité (dans le cas continu), la règle de normalisation définit alors la constante multiplicative qui est nécessaire pour produire une densité valide (c'est-à-dire pour la faire s'intégrer à une).θ
Cette méthode d'utilisation de la proportionnalité a l'avantage de nous permettre d'ignorer tous les éléments multiplicatifs des fonctions qui ne dépendent pas du paramètre . Cela tend à simplifier le problème en nous permettant de balayer les parties inutiles des mathématiques et d'obtenir des déclarations plus simples du mécanisme de mise à jour. Ce n'est pas une exigence mathématique (puisque la règle de Bayes fonctionne aussi sous sa forme non proportionnelle), mais cela rend les choses plus simples pour nos petits cerveaux d'animaux.θ
Un exemple appliqué: considérons un modèle IID avec les données observées . Pour faciliter notre analyse, nous définissons les statistiques et , qui sont les deux premiers moments de l'échantillon. Pour ce modèle, nous avons une densité d'échantillonnage:X1,...,Xn∼IID N(θ,1) x¯=1n∑ni=1xi x¯¯=1n∑ni=1x2i
Maintenant, nous pouvons travailler directement avec cette densité d'échantillonnage si nous le voulons. Mais notez que les deux premiers termes de cette densité sont des constantes multiplicatives qui ne dépendent pas de . Il est ennuyeux de devoir garder une trace de ces termes, alors débarrassons-nous-en, nous avons donc la fonction de vraisemblance:θ
Cela simplifie un peu les choses, car nous n'avons pas à suivre un terme supplémentaire. Maintenant, nous pourrions appliquer la règle de Bayes en utilisant sa version d'équation complète, y compris le dénominateur intégral. Mais encore une fois, cela nous oblige à garder une trace d'une autre constante multiplicative ennuyeuse qui ne dépend pas de (plus ennuyeux car nous devons résoudre une intégrale pour l'obtenir). Appliquons donc simplement la règle de Bayes sous sa forme proportionnelle. En utilisant le conjugué précédent , avec un paramètre de précision connu , nous obtenons le résultat suivant (en complétant le carré ):θ θ∼N(0,λ0) λ0>0
Ainsi, à partir de ce travail, nous pouvons voir que la distribution postérieure est proportionnelle à une densité normale. Puisque le postérieur doit être une densité, cela implique que le postérieur est cette densité normale:
On voit donc qu'a posteriori le paramètre est normalement distribué avec la moyenne et la variance postérieures données par:θ
Maintenant, la distribution postérieure que nous avons dérivée a une constante d'intégration à l'avant de celle-ci (que nous pouvons trouver facilement en recherchant la forme de la distribution normale ). Mais notez que nous n'avons pas eu à nous soucier de cette constante multiplicative - tout notre travail a supprimé (ou introduit) des constantes multiplicatives chaque fois que cela simplifiait les mathématiques. Le même résultat peut être dérivé tout en gardant une trace des constantes multiplicatives, mais c'est beaucoup plus compliqué.
la source
Je pense que la réponse de Zen vous dit vraiment comment la fonction de vraisemblance et la densité conjointe des valeurs des variables aléatoires diffèrent conceptuellement. Toujours mathématiquement en fonction à la fois des x s et de θ, ils sont identiques et en ce sens, la probabilité peut être considérée comme une densité de probabilité. La différence que vous signalez dans la formule de la distribution postérieure de Bayes n'est qu'une différence de notation. Mais la subtilité de la différence est bien expliquée dans la réponse de Zen.i
Ce problème est apparu dans d'autres questions discutées sur ce site concernant la fonction de vraisemblance. D'autres commentaires de kjetil et Dilip semblent également appuyer ce que je dis.
la source