Estimation du paramètre d'une distribution uniforme: a priori incorrect?

10

Nous avons N échantillons, , d'une distribution uniforme où est inconnue. Estimer partir des données.Xi[0,θ]θθ

Donc, la règle de Bayes ...

f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)

et la probabilité est:

f(Xi|θ)=i=1N1θ (edit: quand pour tout , et 0 sinon - merci whuber)0Xiθi

mais sans aucune autre information sur , il semble que l'a priori devrait être proportionnel à (ie uniforme) ou à (Jeffreys avant?) sur mais alors mes intégrales ne ne converge pas, et je ne sais pas comment procéder. Des idées?θ11L[0,]

Volonté
la source
2
Votre probabilité est incorrecte: elle sera nulle chaque fois que est inférieur au plus grand . X iθXi
whuber
Pouvez-vous montrer quelles intégrales vous prenez?
Oui, donc, je suppose que je ne sais tout simplement pas comment gérer le mauvais avant. Par exemple, je veux écriref[Xi]=Θf(Xi|θ)f(θ)dθ
Le
1
Pour un a priori incorrect, = = et pour les antérieurs, vous obtenez égalementParce que presque sûrement, il est certain que les intégrales convergeront. f[Xi]=Θf(Xi|θ)f(θ)dθmax ( X i ) 1 - N / ( N - 1 )max(Xi)θNdθmax(Xi)1N/(N1)max ( X i ) - N / N . max X i > 0f(θ)1/θmax(Xi)N/N.maxXi>0
whuber
1
La référence postérieure de Bernardo est Pareto - voir le catalogue des prieurs non informatifs .
Stéphane Laurent

Réponses:

4

Cela a généré un débat intéressant, mais notez que cela ne fait vraiment pas beaucoup de différence sur la question d'intérêt. Personnellement, je pense que parce que est un paramètre d'échelle, l'argument du groupe de transformation est approprié, conduisant à un prior deθ

p(θ|I)=θ1log(UL)θ1L<θ<U

Cette distribution a la même forme lors de la mise à l'échelle du problème (la probabilité reste également "invariante" lors de la mise à l'échelle). Le noyau de cet a priori, peut être dérivé en résolvant l'équation fonctionnelle . Les valeurs dépendent du problème et ne comptent vraiment que si la taille de l'échantillon est très petite (comme 1 ou 2). Le postérieur est une pareto tronquée, donnée par:f(y)=y1af(ay)=f(y)L,U

p(θ|DI)=NθN1(L)NUNL<θ<UwhereL=max(L,X(N))
X(N)E(θ|DI)=N((L)1-N-U1-N) Où est le Nième la statistique d'ordre ou la valeur maximale de l'échantillon. On obtient la moyenne postérieure de Si nous mettez et obtenir l'expression plus simple .X(N)
E(θ|DI)=N((L)1NU1N)(N1)((L)NUN)=NN1L(1[LU]N11[LU]N)
UL0E(θ|DI)=NN1X(N)

Mais supposons maintenant que nous utilisons un a priori plus général, donné par (notez que nous gardons les limites pour nous assurer que tout est correct - pas de calcul singulier alors ). Le postérieur est alors le même que ci-dessus, mais avec remplacé par - à condition que . En répétant les calculs ci-dessus, nous la moyenne postérieure simplifiée dep(θ|cI)θc1L,UNc+Nc+N0

E(θ|DI)=N+cN+c1X(N)

Donc, l'a priori uniforme ( ) donnera une estimation de condition que (la moyenne est infinie pour ). Cela montre que le débat ici est un peu comme s'il faut utiliser ou comme diviseur dans l'estimation de la variance.c=1N1N2X(N)N2N=2NN1

Un argument contre l'utilisation de l'uniforme impropre antérieur dans ce cas est que le postérieur est incorrect lorsque , car il est proportionnel à . Mais cela n'a d'importance que si ou est très petit.N=1θ1N=1

probabilitéislogique
la source
1

Étant donné que le but ici est vraisemblablement d'obtenir une estimation valide et utile de , la distribution antérieure doit être cohérente avec la spécification de la distribution de la population dont provient l'échantillon. Cela ne signifie en aucune façon que nous «calculons» l'a priori en utilisant l'échantillon lui-même - cela annulerait la validité de la procédure entière. Nous savons que la population dont provient l'échantillon est une population de iid variables aléatoires uniformes, chacune comprise dans . Il s'agit d'une hypothèse maintenue et fait partie des informations antérieures que nous possédons (et cela n'a rien à voir avec l' échantillon , c'est-à-dire avec une réalisation spécifique d'un sous-ensemble de ces variables aléatoires).[ 0 , θ ]θ[0,θ]

Supposons maintenant que cette population se compose de variables aléatoires (alors que notre échantillon se compose de réalisations de variables aléatoires). L'hypothèse maintenue nous dit que n < m n max i = 1 , . . . , N { X i } max j = 1 , . . . , m { X j } θmn<mn

maxi=1,...,n{Xi}maxj=1,...,m{Xj}θ

compacité . Ensuite, nous avons qui peut également s'écrire θ X θ = c X maxi=1,...,n{Xi}XθX

θ=cXc1

La fonction de densité du des iid rv uniformes compris dans est N [ 0 , θ ] f X ( x ) = N ( x ) N - 1maxN[0,θ]

fX(x)=N(x)N1θN

pour le support , et zéro ailleurs. Ensuite, en utilisant et en appliquant la formule de changement de variable, nous obtenons une distribution préalable pour qui est cohérente avec l'hypothèse maintenue: θ = c X θ f p ( θ ) = N ( θ[0,θ]θ=cXθ

fp(θ)=N(θc)N1θN1c=NcNθ1θ[x,]

ce qui peut être incorrect si nous ne spécifions pas la constante convenablement. Mais notre intérêt réside dans le fait d'avoir un postérieur approprié pour , et aussi, nous ne voulons pas restreindre les valeurs possibles de (au-delà de la restriction impliquée par l'hypothèse maintenue). On laisse donc indéterminé. Puis en écrivant le postérieur estcθθc
X={x1,..,xn}

f(θX)θNNcNθ1f(θX)=ANcNθ(N+1)

pour une constante de normalisation A. Nous voulons

Sθf(θX)dθ=1xANcNθ(N+1)dθ=1

ANcN1NθN|x=1A=(cx)N

Insérer dans le postérieur

f(θX)=(cx)NNcNθ(N+1)=N(x)Nθ(N+1)

Notez que la constante indéterminée de la distribution précédente s'est commodément annulée.c

Le postérieur résume toutes les informations que l'échantillon spécifique peut nous donner concernant la valeur de . Si nous voulons obtenir une valeur spécifique pour nous pouvons facilement calculer la valeur attendue de la partie postérieure, θθ

E(θX)=xθN(x)Nθ(N+1)dθ=NN1(x)NθN+1|x=NN1x

Y a-t-il une intuition dans ce résultat? Eh bien, à mesure que le nombre de augmente, le plus probable est que la réalisation maximale parmi eux sera de plus en plus proche de leur limite supérieure, - ce qui est exactement ce que reflète la valeur moyenne postérieure de : si, disons , , mais si . Cela montre que notre tactique concernant la sélection du prieur était raisonnable et cohérente avec le problème en question, mais pas nécessairement "optimale" dans un certain sens.θ θ N = 2 E ( θ X ) = 2 x N = 10 E ( θ X ) = 10XθθN=2E(θX)=2xN=10E(θX)=109x

Alecos Papadopoulos
la source
1
Baser le prieur sur les données me semble louche. Comment justifiez-vous cette approche?
whuber
2
Je n'ai rien contre le fait que votre prieur n'est pas "le meilleur". Où ai-je dit quelque chose comme ça? J'essaie juste de comprendre votre approche. Je ne comprends pas encore cette égalité. Si est constant dans l'égalité , cela signifie-t-il que et sont pas aléatoires? Soit dit en passant , vous n'utilisez le fait que dans la dérivation du prieur, pensez - vous? (cc @whuber)θ = c X X θ c 1cθ=cXXθc1
Stéphane Laurent
1
Et le support de votre a priori dépend des données? ( )θ[x,[
Stéphane Laurent
3
Un avant dépendant (même si ce n'est qu'à travers le support) sur les données sonne mal: vous ne pouvez pas connaître le maximum de l'échantillon avant que l'échantillon ne soit généré . De plus, vous prétendez que est une égalité presque sûre, avec à la fois et aléatoire (il y a donc une corrélation ). Mais cela implique que la distribution postérieure de (qui est la distribution conditionnelle de étant donné l'échantillon) est la masse de Dirac à . Et cela contredit votre dérivation de la distribution postérieure. ... (plus aucun personnage ...) θ X 1 θ θ c x θ=cXθX1θθcx
Stéphane Laurent
1
La distribution postérieure de est Dirac à signifie que est . Le théorème de Bayes n'est pas la cause. Vous détruisez tout en supposant que . Cela implique , donc la distribution conditionnelle de étant est la masse de Dirac à , alors que l'hypothèse originale est que cette distribution est la distribution uniforme sur . θcxθ cxθ=cXX=θ/cXθθ/c(0,θ)
Stéphane Laurent
0

Théorème de distribution a priori uniforme (cas d'intervalle):

"Si la totalité de Vos informations sur externes aux données est capturée par la proposition unique alors Votre seule spécification antérieure logique cohérente en interne est θD

B={{Possible values for θ}={the interval (a,b)},a<b}
f(θ)=Uniform(a,b)

Ainsi, votre spécification antérieure doit correspondre à celle de Jeffrey si vous croyez vraiment au théorème ci-dessus. "

Ne fait pas partie du théorème de distribution préalable uniforme:

Alternativement, vous pouvez spécifier votre distribution précédente comme une distribution de Pareto, qui est la distribution conjuguée de l'uniforme, sachant que votre distribution postérieure devra être une autre distribution uniforme par conjugaison. Cependant, si vous utilisez la distribution Pareto, vous devrez alors spécifier les paramètres de la distribution Pareto d'une manière ou d'une autre.f(θ)


la source
4
D'abord, vous dites que la seule réponse logique possible en interne est une distribution uniforme, puis vous proposez une alternative. Cela me semble illogique et incohérent :-).
whuber
2
Je ne suis pas d'accord. Par exemple, est également l'ensembleLorsque le PDF de est pour . Mais selon le "théorème" dont le pdf est dans cet intervalle. En bref, bien que la proposition ne dépende pas de la façon dont le problème est paramétré, la conclusion du "théorème" dépend de la paramétrisation, d'où elle est ambiguë. B{θ|θ3(a3,b3)}.ΘUniform(a,b),Ψ=Θ31/(3ψ2/3(ba))a3<ψ<b3ΨUniform(a3,b3)1/(b3a3)
whuber
2
BabakP: Comment pourrait-on dire que c'est un théorème ? Un théorème est une affirmation mathématique avec une preuve mathématique. Ce «théorème» serait plus adéquatement appelé «principe», mais il n'est pas sensé car il est contradictoire, comme le montre @whuber.
Stéphane Laurent
2
Merci pour la référence BabakP. Je voudrais souligner que le "croquis de preuve" est faux. Draper divise l'intervalle en un nombre fini de valeurs également espacées et «passe à la limite». N'importe qui peut diviser l'intervalle en valeurs espacées pour approximer la densité qu'il aime et passer de la même manière à la limite, produisant parfaitement arbitraire "uniquement des spécifications préalables logiquement cohérentes en interne". Ce genre de choses - à savoir, l'utilisation de mauvaises mathématiques dans le but de montrer que les non-Bayésiens sont illogiques - donne à l'analyse bayésienne une mauvaise réputation (à tort). (cc @ Stéphane.)
whuber
1
@ Stéphane Veuillez pardonner mon insensibilité ( insensibilité ) - J'admire votre habileté à interagir ici dans une deuxième langue et je n'utilise pas sciemment des termes obscurs! Bogus est un adjectif qui vient d'un terme d'argot américain vieux de 200 ans faisant référence à une machine pour la contrefaçon d'argent. Dans ce cas, c'est une machine mathématique pour les théorèmes de la contrefaçon :-).
whuber