Sur l'existence de l'UMVUE et le choix de l'estimateur de dans la population

10

Soit soit un échantillon aléatoire tiré de population où .(X1,X2,,Xn)N(θ,θ2)θR

Je recherche l'UMVUE de .θ

La densité conjointe de est(X1,X2,,Xn)

fθ(x1,x2,,xn)=i=1n1θ2πexp[12θ2(xiθ)2]=1(θ2π)nexp[12θ2i=1n(xiθ)2]=1(θ2π)nexp[1θi=1nxi12θ2i=1nxi2n2]=g(θ,T(x))h(x)(x1,,xn)Rn,θR

, où g(θ,T(x))=1(θ2π)nexp[1θi=1nxi12θ2i=1nxi2n2] et h(x)=1 .

Ici, g dépend de θ et de x1,,xn à T(x)=(i=1nxi,i=1nxi2) et h est indépendant de θ . Ainsi, selon le théorème de factorisation de Fisher-Neyman, la statistique bidimensionnelle T(X)=(i=1nXi,i=1nXi2) est suffisante pour θ .

Cependant, T n'est pas une statistique complète. En effet,

Eθ[2(i=1nXi)2(n+1)i=1nXi2]=2n(1+n)θ2(n+1)2nθ2=0θ

et la fonction n'est pas identique à zéro.g(T(X))=2(i=1nXi)2(n+1)i=1nXi2

Mais je sais que est une statistique minimale suffisante.T

Je ne suis pas certain mais je pense qu'une statistique complète peut ne pas exister pour cette famille exponentielle courbe. Alors, comment dois-je obtenir l'UMVUE? S'il n'existe pas de statistique complète, un estimateur non biaisé (comme dans ce cas) qui est fonction d'une statistique minimale suffisante peut-il être l'UMVUE? (Fil associé: Quelle est la condition nécessaire pour qu'un estimateur sans biais soit UMVUE? )X¯

Et si je considère le meilleur estimateur linéaire sans biais (BLEU) de ? Le BLEU peut-il être l'UMVUE?θ

Supposons que je considère l'estimateur linéaire sans biais de où et . Puisque nous savons que . Mon idée est de minimiser pour que soit le BLEU de . Would être alors le UMVUE de ?θ c ( n ) = T(X)=aX¯+(1a)cSθS2=1c(n)=n12Γ(n12)Γ(n2)Eθ(cS)=θVar(T)TθTθS2=1n1i=1n(XiX¯)2Eθ(cS)=θVar(T)TθTθ

J'ai pris un estimateur linéaire sans biais basé sur et car est également suffisant pour . S( ˉ X ,S2)θX¯S(X¯,S2)θ

Éditer:

De nombreux travaux ont en effet été effectués dans l'estimation de dans la famille plus générale où est connu. Voici quelques-unes des références les plus pertinentes:N ( θ , a θ 2 ) a > 0θN(θ,aθ2)a>0

J'ai trouvé la première de ces références dans cet exercice de l'inférence statistique de Casella / Berger:

entrez la description de l'image ici

entrez la description de l'image ici

Ma question ne concerne cependant pas cet exercice.

La note finale (l'extrait du chapitre) indique que l' UMVUE de n'existe pasθ car la statistique minimale suffisante n'est pas complète. Je voudrais savoir ce qui nous permet de conclure qu'un UMVUE n'existe pas simplement parce qu'une statistique complète suffisante ne peut pas être trouvée? Y a-t-il un résultat connexe à ce sujet? Je vois l'existence d'UMVUE même lorsque des statistiques complètes suffisantes n'existent pas dans le thread lié.

En supposant maintenant qu'il n'existe pas d'estimateur sans biais de variance minimale uniforme, quels devraient être nos prochains critères pour choisir le «meilleur» estimateur? Cherchons-nous le MSE minimum, la variance minimum ou le MLE? Ou le choix des critères dépendrait-il de notre objectif d'estimation?

Par exemple, supposons que j'ai un estimateur sans biais et un autre estimateur biaisé de . Supposons que le MSE de (qui est sa variance) soit supérieur à celui de . Étant donné que la minimisation de l'ESM signifie la minimisation du biais ainsi que de la variance simultanément, je pense devrait être un «meilleur» choix d'estimateur que bien que le premier soit biaisé.T 2 θ T 1 T 2 T 2 T 1T1T2θT1T2T2T1

Les choix probables d'estimateurs de sont énumérés à la page 4 de la dernière note.θ

L'extrait suivant est tiré de Theory of Point Estimation de Lehmann / Casella (deuxième édition, pages 87-88):

entrez la description de l'image ici

entrez la description de l'image ici

Il est très probable que j'ai tout mal compris, mais la dernière phrase dit-elle que sous certaines conditions, l'existence de statistiques complètes est nécessaire pour l'existence d'UMVUE? Si oui, est-ce le résultat que je devrais rechercher?

Ce dernier résultat dû à RR Bahadur qui est mentionné tout à la fin fait référence à cette note.

Après une recherche plus approfondie, j'ai trouvé un résultat indiquant que si la statistique minimale suffisante n'est pas complète, alors une statistique complète n'existe pas. Donc, au moins, je suis à peu près convaincu qu'une statistique complète n'existe pas ici.

Un autre résultat que j'ai oublié de considérer est celui qui dit grosso modo qu'une condition nécessaire et suffisante pour qu'un estimateur sans biais soit l'UMVUE est qu'il doit être non corrélé avec chaque estimateur sans biais de zéro. J'ai essayé d'utiliser ce théorème pour montrer qu'un UMVUE n'existe pas ici, et aussi le fait qu'un estimateur sans biais comme n'est pas l'UMVUE. Mais cela ne fonctionne pas aussi simple que cela, par exemple ici , dans l'illustration finale.X¯

TêtuAtom
la source

Réponses:

3

Mettre à jour:

Considérons l'estimateur où est donné dans votre message. Il s'agit d'un estimateur non biaisé de et sera clairement corrélé avec l'estimateur donné ci-dessous (pour toute valeur de ).c0a

0^=X¯cS
c0a

Le théorème 6.2.25 de C&B montre comment trouver des statistiques suffisantes complètes pour la famille exponentielle tant que contient un ensemble ouvert dans . Malheureusement cette distribution donne et qui ne forme PAS un ensemble ouvert dans (puisque ). C'est pour cette raison que la statistique n'est pas complète pour , et c'est pour la même raison que l'on peut construire un estimateur sans biais de qui sera corrélée avec tout estimateur non biaisé de

{(w1(θ),wk(θ)}
Rkw1(θ)=θ2w2(θ)=θ1R2w1(θ)=w2(θ)2(X¯,S2)θ0θ basé sur des statistiques suffisantes.

Une autre mise à jour:

À partir de là, l'argument est constructif. Il doit y avoir un autre estimateur non biaisé tel que pour au moins un .θ~Var(θ~)<Var(θ^)θΘ

Preuve: Supposons que , et (pour une valeur de ). Considérons un nouvel estimateur Cet estimateur est clairement sans biais avec la variance Soit .E ( 0 ) = 0 C o v ( θ , 0 ) < 0 θ ~ θ =E(θ^)=θE(0^)=0Cov(θ^,0^)<0θ

θ~=θ^+b0^
Var(θ~)=Var(θ^)+b2Var(0^)+2bCov(θ^,0^)
M(θ)=2Cov(θ^,0^)Var(0^)

Par hypothèse, il doit exister un tel que . Si nous choisissons , alors à . Par conséquent, ne peut pas être l'UMVUE. M ( θ 0 ) > 0 b (θ0M(θ0)>0b(0,M(θ0))Var(θ~)<Var(θ^) θ0θ^

En résumé: le fait que soit corrélé avec (pour tout choix de ) implique que nous pouvons construire un nouvel estimateur qui soit meilleur que pour au moins un point , violant l'uniformité de revendique la meilleure impartialité.θ^0^aθ^ θ0θ^


Examinons de plus près votre idée des combinaisons linéaires.

θ^=aX¯+(1a)cS

Comme vous le faites remarquer, est un estimateur raisonnable car il est basé sur des statistiques suffisantes (bien que incomplètes). De toute évidence, cet estimateur est sans biais, donc pour calculer le MSE, nous devons seulement calculer la variance.θ^

MSE(θ^)=a2Var(X¯)+(1a)2c2Var(S)=a2θ2n+(1a)2c2[E(S2)E(S)2]=a2θ2n+(1a)2c2[θ2θ2/c2]=θ2[a2n+(1a)2(c21)]

En différenciant, nous pouvons trouver le «optimal » pour une taille d'échantillon donnée .an

aopt(n)=c211/n+c21
c2=n12(Γ((n1)/2)Γ(n/2))2

Un tracé de ce choix optimal de est donné ci-dessous. aentrez la description de l'image ici

Il est quelque peu intéressant de noter qu'en tant que , nous avons (confirmé via Wolframalpha).a o p t1naopt13

Bien qu'il n'y ait aucune garantie qu'il s'agit de l'UMVUE, cet estimateur est l'estimateur de variance minimale de toutes les combinaisons linéaires non biaisées des statistiques suffisantes.

knrumsey
la source
Merci pour la mise à jour. Je n'ai pas suivi C&B comme un manuel, j'ai seulement regardé les exercices.
StubbornAtom
1
@StubbornAtom J'ai ajouté une preuve démontrant pourquoi ne peut pas être UMVUE (emprunté fortement à C&B page 344). Jetez un coup d'œil et faites-moi savoir si cela aide du tout. θ^
knrumsey