Soit , , ..., iid RV avec une plage mais une distribution inconnue. (Je suis d'accord avec l'hypothèse que la distribution est continue, etc., si nécessaire.)
Définissez .
On me donne et je demande: que puis-je déduire, de manière bayésienne, à propos de ?
Autrement dit, on me donne la somme d'un échantillon de taille des VR, et je voudrais savoir ce que je peux déduire de la distribution de la somme de tous les RV, en utilisant une approche bayésienne (et en supposant des a priori raisonnables sur le Distribution).
Si le support était au lieu de , alors ce problème est bien étudié, et (avec des a priori uniformes) vous obtenez des distributions composées bêta-binomiales pour la distribution inférée sur . Mais je ne sais pas comment l'aborder avec comme plage ...
Divulgation complète : J'ai déjà posté cela sur MathOverflow , mais on m'a dit qu'il serait mieux de le publier ici, c'est donc une re-publication.
Réponses:
Considérons l'analyse non paramétrique bayésienne suivante.
Définissez et laissez être les sous-ensembles Borel de . Soit une mesure finie non nulle sur .X=[0,1] B X α (X,B)
Soit un processus de Dirichlet avec le paramètre , et supposons que sont conditionnellement iid, étant donné que , tel que , pour chaque .Q α X1,…,Xn Q=q μX1(B)=P{X1∈B}=q(B) B∈B
D'après les propriétés du processus de Dirichlet, nous savons que, étant donné , la distribution prédictive d'une observation future comme est la mesure over défini parX1,…,Xk Xk+1 β (X,B)
Maintenant, définissez comme le champ sigma généré par , et utilisez la mesurabilité et la symétrie des pour obtenir presque sûrement.Fk X1,…,Xk Xi
Pour trouver une réponse explicite, supposons que soit . En définissant , nous avons presque sûrement (la distribution conjointe de ), où . Dans la limite "non informative" de , l'ancienne attente se réduit à , ce qui signifie que, dans ce cas, votre estimation postérieure pour est juste fois la moyenne du premierα(⋅)/α(X) U[0,1] c=α(X)>0
la source
Pardonnez le manque de théorie de la mesure et les abus de notation dans ce qui suit ...
Puisqu'il s'agit d'une inférence bayésienne, il doit y avoir un certain a priori sur l'inconnu dans le problème, qui dans ce cas est la distribution de , un paramètre de dimension infinie prenant des valeurs dans l'ensemble des distributions sur (appelez-le ). La distribution de données converge vers une distribution normale, donc si est assez grand ( théorème de Berry-Esseen ), nous pouvons simplement gifler cette normale comme approximation. De plus, si l'approximation est exacte, le seul aspect du antérieur qui importe en termes pratiques est le prior induit sur .X1 [0,1] π Sk|π k p(π) (Eπ(X1),Varπ(X1))=(μ,σ2)
Maintenant, nous faisons une prédiction bayésienne standard et mettons les densités approximatives. ( est soumis à la même approximation que .)Sn Sk
Pour les limites de l'intégrale, , évidemment; Je pense que ?μ∈[0,1] σ2∈[0,14]
Ajouté plus tard: non,C'est bien - les valeurs autorisées de dépendent de , donc les informations dans les données sur sont également pertinentes pour .σ2∈[0,μ(1−μ)]. σ2 μ μ σ2
la source
Soit chaque appartenir à la famille de distribution et avoir des paramètres .Xi F θ
Étant donné, , nous avons une distribution sur :Sk θ
Et, notre distribution sur , estSn n≥k
(et de même pour )n<k
Ces deux équations ont de belles formes lorsque est une distribution dans la famille exponentielle qui est fermée sous la somme d'éléments iid comme la distribution normale, la distribution gamma et la distribution binomiale. Cela fonctionne également pour leurs cas particuliers comme la distribution exponentielle et la distribution de Bernoulli.F
Il pourrait être intéressant de considérer que est la famille de distributions binomiales échelonnées (par ) avec des "essais" connus , et prenant la limite lorsque va à l'infini.F 1n n n
la source