J'ai des difficultés avec Likelihoods . Je comprends le théorème de Bayes
qui peut être directement déduit de l'application . Ainsi, dans mon interprétation, leLes fonctions du théorème de Bayes sont en quelque sorte toutes des probabilités, qu'elles soient marginales ou conditionnelles. J'ai donc pensé que la vraisemblance en tant que concept était davantage une vision fréquentiste de la probabilité inverse.
Cependant, j'ai maintenant vu à plusieurs reprises des déclarations dans les livres des bayésianistes qui disent que la probabilité n'est pas une distribution de probabilité. En lisant le livre de MacKay hier, je suis tombé sur la déclaration suivante
"[...] il est important de noter que les termes vraisemblance et probabilité ne sont pas synonymes. La quantité est fonction des deux et . Pour fixe, définit une probabilité sur , pour fixe , définit la ressemblance de . "
Je comprends cela comme suit: est une probabilité de sous donné , donc une fonction . Mais en considérant une valeur donnée et évaluer la dépendance de différents nous utilisons en fait une fonction différente .
Cette interprétation est-elle correcte?
Peut-on alors dire que les méthodes du maximum de vraisemblance pourraient être motivées par le théorème bayésien, où l'a priori est choisi pour être constant?
la source
Réponses:
Je pense que la meilleure façon d'expliquer la notion de probabilité est peut-être de considérer un exemple concret. Supposons que je dispose d'un échantillon d'observations IID tirées d'une distribution de Bernoulli avec une probabilité de réussite inconnuep : Xi∼Bernoulli(p) , i=1,…,n , de sorte que la fonction de masse de probabilité conjointe de l'échantillon est
Par exemple, supposons et l'échantillon était . Intuitivement, nous conclurions que est plus susceptible d'être plus proche de que de , car nous en avons observé plus. En effet, nous avons Si nous traçons cette fonction sur , nous pouvons voir comment la vraisemblance confirme notre intuition. Bien sûr, nous ne savons pas que la vraie valeur de aurait pu être plutôt que , mais la fonction de vraisemblance nous indique que la première est beaucoup moins probable que la seconde. Mais si nous voulons déterminer une probabilitén=5 x=(1,1,0,1,1) p 1 0
Donc, ce que nous avons essentiellement fait ici est la règle de Bayes appliquée: Ici, est une distribution antérieure sur le (s) paramètre (s) , le numérateur est la probabilité qui est également la distribution conjointe de
la source