Probabilité vs distribution conditionnelle pour l'analyse bayésienne

12

Nous pouvons écrire le théorème de Bayes comme

p(θ|x)=f(X|θ)p(θ)θf(X|θ)p(θ)dθ

où est la postérieure, f (X | \ theta) est la distribution conditionnelle et p (\ theta) est la précédente.p(θ|x)f(X|θ)p(θ)

ou

p(θ|x)=L(θ|x)p(θ)θL(θ|x)p(θ)dθ

p(θ|x) est la fonction postérieure, L(θ|x) est la fonction de vraisemblance et p(θ) est l'a priori.

Ma question est

  1. Pourquoi l'analyse bayésienne est-elle effectuée en utilisant la fonction de vraisemblance et non la distribution conditionnelle?
  2. Pouvez-vous dire en mots quelle est la différence entre la probabilité et la distribution conditionnelle? Je sais que la probabilité n'est pas une distribution de probabilité et L(θ|x)f(X|θ) .
kzoo
la source
1
Il n'y a pas de différence! La probabilité est que la distribution conditionnelle , eh bien, est proportionnelle à, ce qui est tout ce qui compte. f(X|θ)
kjetil b halvorsen
1
Le paramètre a la densité . si la réalisation de a une valeur alors que est la valeur observée d'une variable aléatoire , alors la valeur de la fonction de vraisemblance est précisément , la valeur de la densité conditionnelle de . La différence est que pour toutes les réalisations de . Cependant, en fonction deΘpΘ(θ)ΘθxXL(θx) f(xθ)fXΘ(xΘ=θ)X
fXΘ(xΘ=θ)dx=1
Θθ(et fixe ), n'est pas une densité:xL(θx)
L(θx)dθ1
Dilip Sarwate

Réponses:

10

Supposons que vous ayez variables aléatoires (dont les valeurs seront observées dans votre expérience) qui sont conditionnellement indépendantes, étant donné que , avec des densités conditionnelles , pour . Ceci est votre modèle statistique (conditionnel) (postulé), et les densités conditionnelles expriment, pour chaque valeur possible du paramètre (aléatoire) , votre incertitude sur les valeurs des , avant d'avoir accès à tout des données réelles. À l'aide des densités conditionnelles, vous pouvez, par exemple, calculer des probabilités conditionnelles comme X1,,XnΘ=θfXiΘ(θ)i=1,,nθΘXi

P{X1B1,,XnBnΘ=θ}=B1××Bni=1nfXiΘ(xiθ)dx1dxn,
pour chaque .θ

Une fois que vous avez accès à un échantillon réel de valeurs (réalisations) des qui ont été observées en une seule fois de votre expérience, la situation change: il n'y a plus d'incertitude sur les observables . Supposons que le aléatoire assume des valeurs dans un espace de paramètres . Maintenant, vous définissez, pour ces valeurs connues (fixes) une fonction par Notez que , connue sous le nom de "fonction de vraisemblance" est une fonction de(x1,,xn)XiX1,,XnΘΠ(x1,,xn)

Lx1,,xn:ΠR
Lx1,,xn(θ)=i=1nfXiΘ(xiθ).
Lx1,,xnθ . Dans cette situation "après avoir des données", la probabilité contient, pour le modèle conditionnel particulier que nous considérons, toutes les informations sur le paramètre contenu dans cet exemple particulier . En fait, il arrive que soit une statistique suffisante pour .Lx1,,xnΘ(x1,,xn)Lx1,,xnΘ

Pour répondre à votre question, pour comprendre les différences entre les concepts de densité conditionnelle et de vraisemblance, gardez à l'esprit leurs définitions mathématiques (qui sont clairement différentes: ce sont des objets mathématiques différents, avec des propriétés différentes), et rappelez-vous également que la densité conditionnelle est un "pré -échantillon "objet / concept, tandis que la probabilité est un" après-échantillon ". J'espère que tout cela vous aidera également à répondre à la raison pour laquelle l'inférence bayésienne (en utilisant votre façon de le dire, qui ne me semble pas idéale) se fait "en utilisant la fonction de vraisemblance et non la distribution conditionnelle": l'objectif de l'inférence bayésienne est pour calculer la distribution postérieure, et pour cela nous conditionnons sur les données observées (connues).

Zen
la source
Je pense que Zen a raison quand il dit que la probabilité et la probabilité conditionnelle sont différentes. Dans la fonction de vraisemblance, θ n'est pas une variable aléatoire, elle est donc différente de la probabilité conditionnelle.
Martine
1

La proportionnalité est utilisée pour simplifier l'analyse

L'analyse bayésienne se fait généralement via un énoncé encore plus simple du théorème de Bayes, où nous ne travaillons qu'en termes de proportionnalité par rapport au paramètre d'intérêt. Pour un modèle IID standard avec une densité d'échantillonnage nous pouvons exprimer ceci comme:f(X|θ)

p(θ|x)Lx(θ)p(θ)Lx(θ)i=1nf(xi|θ).

Cette déclaration de mise à jour bayésienne fonctionne en termes de proportionnalité par rapport au paramètre . Il utilise deux simplifications de proportionnalité: une dans l'utilisation de la fonction de vraisemblance (proportionnelle à la densité d'échantillonnage) et une dans la partie postérieure (proportionnelle au produit de vraisemblance et a priori). Puisque le postérieur est une fonction de densité (dans le cas continu), la règle de normalisation définit alors la constante multiplicative qui est nécessaire pour produire une densité valide (c'est-à-dire pour la faire s'intégrer à une).θ

Cette méthode d'utilisation de la proportionnalité a l'avantage de nous permettre d'ignorer tous les éléments multiplicatifs des fonctions qui ne dépendent pas du paramètre . Cela tend à simplifier le problème en nous permettant de balayer les parties inutiles des mathématiques et d'obtenir des déclarations plus simples du mécanisme de mise à jour. Ce n'est pas une exigence mathématique (puisque la règle de Bayes fonctionne aussi sous sa forme non proportionnelle), mais cela rend les choses plus simples pour nos petits cerveaux d'animaux.θ

Un exemple appliqué: considérons un modèle IID avec les données observées . Pour faciliter notre analyse, nous définissons les statistiques et , qui sont les deux premiers moments de l'échantillon. Pour ce modèle, nous avons une densité d'échantillonnage:X1,...,XnIID N(θ,1)x¯=1ni=1nxix¯¯=1ni=1nxi2

f(x|θ)=i=1nf(xi|θ)=i=1nN(xi|θ,1)=i=1n12πexp(12(xiθ)2)=(2π)n/2exp(12i=1n(xiθ)2).=(2π)n/2exp(n2(θ22x¯θ+x¯¯))=(2π)n/2exp(nx¯¯2)exp(n2(θ22x¯θ))

Maintenant, nous pouvons travailler directement avec cette densité d'échantillonnage si nous le voulons. Mais notez que les deux premiers termes de cette densité sont des constantes multiplicatives qui ne dépendent pas de . Il est ennuyeux de devoir garder une trace de ces termes, alors débarrassons-nous-en, nous avons donc la fonction de vraisemblance:θ

Lx(θ)=exp(n2(θ22x¯θ)).

Cela simplifie un peu les choses, car nous n'avons pas à suivre un terme supplémentaire. Maintenant, nous pourrions appliquer la règle de Bayes en utilisant sa version d'équation complète, y compris le dénominateur intégral. Mais encore une fois, cela nous oblige à garder une trace d'une autre constante multiplicative ennuyeuse qui ne dépend pas de (plus ennuyeux car nous devons résoudre une intégrale pour l'obtenir). Appliquons donc simplement la règle de Bayes sous sa forme proportionnelle. En utilisant le conjugué précédent , avec un paramètre de précision connu , nous obtenons le résultat suivant (en complétant le carré ):θθN(0,λ0)λ0>0

p(θ|x)Lx(θ)p(θ)=exp(n2(θ22x¯θ))N(θ|0,λ0)exp(n2(θ22x¯θ))exp(λ02θ2)=exp(12(nθ22nx¯θ+λ0θ2))=exp(12((n+λ0)θ22nx¯θ))=exp(n+λ02(θ22nx¯n+λ0θ))exp(n+λ02(θnn+λ0x¯)2)N(θ|nn+λ0x¯,n+λ0).

Ainsi, à partir de ce travail, nous pouvons voir que la distribution postérieure est proportionnelle à une densité normale. Puisque le postérieur doit être une densité, cela implique que le postérieur est cette densité normale:

p(θ|x)=N(θ|nn+λ0x¯,n+λ0).

On voit donc qu'a posteriori le paramètre est normalement distribué avec la moyenne et la variance postérieures données par:θ

E(θ|x)=nn+λ0x¯V(θ|x)=1n+λ0.

Maintenant, la distribution postérieure que nous avons dérivée a une constante d'intégration à l'avant de celle-ci (que nous pouvons trouver facilement en recherchant la forme de la distribution normale ). Mais notez que nous n'avons pas eu à nous soucier de cette constante multiplicative - tout notre travail a supprimé (ou introduit) des constantes multiplicatives chaque fois que cela simplifiait les mathématiques. Le même résultat peut être dérivé tout en gardant une trace des constantes multiplicatives, mais c'est beaucoup plus compliqué.

Ben - Réintègre Monica
la source
0

Je pense que la réponse de Zen vous dit vraiment comment la fonction de vraisemblance et la densité conjointe des valeurs des variables aléatoires diffèrent conceptuellement. Toujours mathématiquement en fonction à la fois des x s et de θ, ils sont identiques et en ce sens, la probabilité peut être considérée comme une densité de probabilité. La différence que vous signalez dans la formule de la distribution postérieure de Bayes n'est qu'une différence de notation. Mais la subtilité de la différence est bien expliquée dans la réponse de Zen.i

Ce problème est apparu dans d'autres questions discutées sur ce site concernant la fonction de vraisemblance. D'autres commentaires de kjetil et Dilip semblent également appuyer ce que je dis.

Michael R. Chernick
la source