Ce qui suit est un problème de Bayesian Data Analysis 2nd ed , p. 97. Andrew Gelman n'a pas inclus sa solution dans le guide sur son site Web et cela m'a rendu fou toute la journée. Littéralement toute la journée.
Pour certaines données , modélisées comme une distribution binomiale avec la population et paramètres de probabilité , tous deux inconnus. Le problème pose la question avec ces informations: (1) L'établissement d'un a priori sur est difficile, car il ne prend que des nombres naturels positifs, il est donc traité comme , où \ mu est inconnu. (2) Pour définir l'a priori sur (N, \ theta) , nous avons \ lambda = \ mu \ theta . (La logique ici est qu'il peut être plus facile de formuler un a priori en considérant l'attente inconditionnelle des observations, plutôt que la moyenne du N non observé.) (3) Un a priori potentiel non informatif est .
La partie du problème sur laquelle je suis accroché est de savoir comment transformer les variables et déterminer .
L'approche que j'ai tentée est d'écrire et d'éliminer les \ lambda indésirables via l'intégration, c'est-à-dire , et en remplaçant out par la relation . Cette approche se réduit à , où est la constante de proportionnalité introduite à partir de (3).
Ce résultat me préoccupe, car il implique que la probabilité conjointe de certaines valeurs de et ne dépend que de , et non de . De plus, quelques vagues cloches sonnent de mon calcul multivariable assez décrépit, essayant de me rappeler les Jacobiens et de coordonner les transformations, mais je ne suis pas certain que cette approche d'intégration soit même appropriée.
J'apprécie votre aide et votre perspicacité.
la source
Réponses:
J'ai posé toutes les questions des quatre premiers chapitres il y a six ans. Voici ce que j'ai:
Donc
Vous n'avez pas à vous inquiéter du fait que ne dépend pas de . Cela signifie simplement que l'a priori pour est uniforme sur , ce qui est cool pour un paramètre de Bernoulli.p(N,θ) θ θ [0,1]
la source