Supposons que la quantité que nous voulons inférer soit une distribution de probabilité. Tout ce que nous savons, c'est que la distribution provient d'un ensemble déterminé, disons, par certains de ses moments et nous avons un antérieur .
Le principe d'entropie maximale (MEP) dit que le qui a le moins d'entropie relative de (c'est-à-dire ) est la meilleure à sélectionner. Alors que la règle de sélection bayésienne a un processus de sélection du postérieur étant donné le prieur qui est soutenu par le théorème de Bayes.
Ma question est de savoir s'il existe un lien entre ces deux méthodes d'inférence (c'est-à-dire si les deux méthodes s'appliquent au même problème et ont quelque chose en commun)? Ou si dans l'inférence bayésienne le cadre est complètement différent du cadre mentionné ci-dessus? Ou est-ce que je n'ai pas de sens?!
Réponses:
Cela peut arriver un peu tard, mais la question doit être reformulée: comme défini par Jaynes , l'entropie maximale est un moyen de construire une distribution antérieure qui (a) satisfait aux contraintes imposées par et (b) a l'entropie maximale, par rapport à une mesure de référence dans le cas continu: Ainsi, l'entropie maximale (de Jaynes) fait clairement partie de la boîte à outils bayésienne. Et l'a priori d'entropie maximale ne fournit pas la distribution a priori la plus proche du vrai a priori, comme le suggère la question d' Ashok .E
L'inférence bayésienne sur une distribution est un problème tout à fait différent, géré par les non paramétriques bayésiens (voir, par exemple, ce livre récent de Hjort et al.). Cela nécessite d'avoir des observations de , ce qui ne semble pas être le cadre de la question actuelle ...Q Q
la source