Comment montrer qu'une statistique suffisante n'est PAS minimale suffisante?

8

Mon problème de devoirs est de donner un contre-exemple où une certaine statistique n'est en général pas suffisamment minimale. Quels que soient les détails de la recherche d'un contre-exemple particulier pour cette statistique particulière, cela me pose la question suivante:

Question: Comment peut-on formuler la condition de ne pas être une statistique suffisante minimale de manière à prouver qu'une statistique suffisante satisfait à la condition?

Travail à ce jour: La définition de statistique minimale suffisante dans mon manuel (Keener, Theoretical Statistics: Topics for a Core Course ) est la suivante:

  • Une statistique est minimale suffisante si est suffisante et, pour chaque statistique suffisante il existe une fonction telle que ae .TTT~fT=f(T~)P

Notez que (ae ) signifie que l'ensemble où l'égalité échoue est un ensemble nul pour chaque distribution de probabilité dans le modèle statistique , .PPPPP

En essayant de nier cela, j'arrive à:

  • Une statistique n'est pas minimale suffisante si au moins l'une des hypothèses suivantes: T
    1. T n'est pas suffisant.
    2. Il existe au moins une statistique suffisante pour laquelle il n'y a pas de fonction telle que ae .T~fT=f(T~)P

Donc, si une statistique est suffisante, il semble qu'il serait extrêmement difficile de montrer qu'elle n'est pas suffisante minimale, même si elle n'est pas suffisante minimale. (Parce qu'il faudrait montrer 2. au lieu de 1., car 1. est faux - mais 2. serait très difficile à montrer parce que, même si l'on a une statistique de contre-exemple à l'esprit, on a toujours pour montrer la non-existence d' une fonction avec cette propriété. Et la non-existence est souvent difficile à montrer.)T~

Mon manuel ne donne aucune condition équivalente (c'est-à-dire nécessaire et suffisante) pour qu'une statistique soit une statistique minimale suffisante. Il ne donne même aucune autre condition nécessaire pour qu'une statistique soit une statistique minimale suffisante (en plus d'être une statistique suffisante).

Par conséquent, pour mon problème de devoirs, si je ne peux pas montrer que la statistique n'est pas suffisante (parce qu'elle l'est), alors comment pourrais-je jamais montrer qu'elle n'est pas minimale suffisante?

Chill2Macht
la source
3
Avez-vous envisagé de commencer avec une statistique minimale suffisante, puis de l'agrandir pour inclure davantage de composants?
whuber
3
En mathématiques en général, on prouve souvent la non-existence de quelque chose en supposant qu'il existe et en l'utilisant pour trouver une contraction.
Kodiologist
2
Une statistique est une fonction vectorielle des données. Il a des composants. Par exemple, une statistique minimale suffisante pour la famille normale de distributions est le vecteur à deux vecteurs composé de la moyenne de l'échantillon et de la variance de l'échantillon. Adjoindre plus de composants - ajoutez l'exemple d'asymétrie et de kurtosis - vous donne une statistique avec quatre composants. Mon indice a simplement énoncé l'évidence: cette nouvelle statistique est évidemment suffisante, car ses deux premières composantes sont déjà suffisantes. Mais est-ce un minimum suffisant?
whuber
2
Je ne vois pas en quoi ces observations sur les bijections ou les homéomorphismes pourraient être pertinentes. Utilisez-vous une définition inhabituelle de «statistique» ou «suffisante»?
whuber
3
Vous semblez utiliser une sorte de définition non conventionnelle de la suffisance. Dans mon exemple, tout ce qui compte, c'est que les nouvelles statistiques soient de véritables statistiques - des fonctions mesurables des données. La carte deR4 à R2(qui récupère les deux statistiques originales, la minimale suffisante) est mesurable (en effet, différenciable). C'est tout ce que vous devez vérifier.
whuber

Réponses:

1

Comme vous l'avez dit:

S'il existe x1,x2X tel que f(x1)=f(x2) mais g(x1)g(x2), puis g ne peut pas être écrit en fonction de f, c'est-à-dire qu'il n'existe aucune fonction h avec g=hf.

Ainsi, par exemple, dans le cas où X1,....,Xnsont des variables aléatoires de Bernoulli indépendantes. Nous pouvons prouver que(x1,....,xn) n'est pas minimalement suffisant en montrant qu'il n'est pas fonction de xi. Cela est évident, car la fonction doit mapper1 aux deux (1,0,0...,0,0,0) et (0,0,0...,0,0,1).

Euclide
la source
2

J'ai pensé à ce problème plus récemment, et voici ce que j'ai trouvé.

Laisser Ωêtre un espace de probabilité, puis une variable aléatoire X est une fonction mesurable X:ΩX, où X est un espace mesurable (X a désigné σ-algèbre, et X est mesurable par rapport à cette σ-algèbre et σ-algèbre sur Ω). La répartition desX est juste la mesure de retrait X, c'est à dire PX(A)=PΩ(X1(A)). Ensuite, une statistique deX est une fonction mesurable * f:XY, où Y est un autre espace mesurable arbitraire.

Étant donné deux statistiques f:XY, g:XZ, qu'est-ce que cela signifie pour "g être fonction de f"?

Pour autant que je sache, cela semble signifier qu'il existe une fonction mesurable ** h:YZ tel que g=hf, c'est-à-dire que gpeut être pris en compte parf.

(En d'autres termes, "g doit être bien défini en fonction de f(X)Y".)

Alors, quand un tel affacturage est-il possible? Pensons en termes de relations d'équivalence. Plus précisément, définissez la relation d'équivalencef sur X par x1fx2f(x1)=f(x2), de même, définir la relation d'équivalence g sur X par x1gx2g(x1)=g(x2).

Ensuite, pour g être factorisable par f, les relations d'équivalence f et g doivent être compatibles les uns avec les autres, dans le sens *** que pour tout x1,x2X, x1fx2x1gx2, c'est à dire g ne peut pas prendre deux éléments équivalents sous f et les mapper à des valeurs qui ne sont pas équivalentes sous g, c'est à dire "g ne peut pas annuler la réduction d'informations précédemment effectuée par f".

En d'autres termes, g doit être bien défini en fonction de X/ff(X)c'est-à-dire qu'il doit exister une fonction g~:X/fZ tel que g=g~πf, où πf est la projection canonique XX/f. (Pour ceux qui ne sont pas à l'aise avec le non-sens abstrait,πf est essentiellement f, et g~ est essentiellement h. La formulation ci-dessus rend plus claires les analogies avec d'autres situations.)

En termes les plus simples possibles, g peut être écrit en fonction de f si et seulement si, pour tout x1,x2X, f(x1)=f(x2)g(x1)=g(x2).

Par exemple, prenez X=Y=Z=R et X une variable aléatoire arbitraire à valeur réelle, puis g:xx2 peut être écrit en fonction de f:xx, mais pas l'inverse, car x1=x2x12=x22, mais 12=(1)2 mais 11.

En particulier, supposons que chaque classe d'équivalence sous f est un singleton (c.-à-d. fest injective ). alorsg peut toujours être écrit en fonction de f, depuis X/fX, c'est à dire f(x1)=f(x2)x1=x2 signifie que x1=x2f(x1)=f(x2) (en général, pour les injections non nécessairement f, une seule direction tient), donc notre condition devient x1=x2g(x1)=g(x2), qui est trivialement satisfait pour tout g:XZ. (Définirh, il peut faire tout ce qu'il veut sur Yf(X) tant qu'il est mesurable, puis pour tout yf(X), c'est-à-dire tels que y=f(x) pour certains xX, définir h être h:y=f(x)g(x). Ceci est bien défini lorsquefest injectif parce qu'il y a un unique xX tel que f(x)=y. Plus généralement, cela n'est défini que lorsque, quel que soitx nous choisissons f1(y), g(x) est toujours la même valeur, à savoir f(x1)=f(x2) (=y)g(x1)=g(x2).)

De plus, en regardant le théorème 3.11 dans Keener, sa déclaration est un peu maladroite, mais en pensant dans les termes ci-dessus, je pense qu'elle peut être réécrite comme:

Supposer Test une statistique suffisante ****. Une condition suffisante pourT être minimal suffisant est qu'il peut être écrit en fonction du rapport de vraisemblance.

À partir de cela, il devient immédiatement clair que le rapport de vraisemblance doit lui-même être minimal suffisant.

Cela conduit également à la conclusion que:

S'il existe x1,x2X tel que f(x1)=f(x2) mais g(x1)g(x2), puis gne peut pas être écrit en fonction def, c'est-à-dire qu'il n'existe aucune fonctionh avec g=hf.

Ainsi, la condition n'est pas aussi difficile à montrer que je le pensais.


* Keener n'aborde pas la question de savoir si une statistique doit être une fonction mesurable ou simplement arbitraire ou non. Cependant, je suis assez sûr qu'une statistique doit être une fonction mesurable, car sinon nous ne pourrions pas définir une distribution pour elle , c'est-à-dire une mesure de retrait.

**Si h n'étaient pas mesurables, nous aurions une contradiction car les deux f et gsont mesurables et la composition des fonctions mesurables est à nouveau mesurable. Tout au moins,h doit être mesurable limité à f(X)Y, bien que je pense que cela signifierait dans la plupart des cas raisonnables que h devrait se mettre d'accord sur f(X) avec une fonction mesurable sur tous Y (prendre h|f(X) sur f(X) et par exemple z sur Yf(X) s'il existe un point mesurable zZ, notez que les deux f(X) et Yf(X) devrait être mesurable Y) alors wlog h peut être supposé être mesurable sur tous Y.

*** Au moins, cela est nécessaire et suffisant pour l'existence d'une fonction arbitraire prenant en compte g et plus f, et je pense que ** implique que si une telle fonction arbitraire existe, cette fonction doit également être mesurable, car les deux f et g sont, ce serait vraiment une statistique YZ.

**** La condition donnée est équivalente à T étant suffisant par le théorème de factorisation, 3.6.

Chill2Macht
la source
1
Comment définissez-vous le rapport de vraisemblance?
Xi'an
@ Xi'an Je ne me souviens pas vraiment de toutes les choses stupides que j'ai écrites ci-dessus, donc pour être honnête, je ne sais pas de quelle partie vous parlez. Si vous suggérez implicitement que je prouve d'abord que la statistique du rapport de vraisemblance est minimale suffisante, puis que je réduise toute autre preuve de suffisance minimale à une "équivalence de suffisance" appropriée avec la statistique du rapport de vraisemblance, cela est probablement utile en pratique, mais au moins théoriquement semble seulement donner un coup de pied au bas de la route (car alors comment comprendre la preuve de la suffisance minimale de la statistique LR?)
Chill2Macht