Mon problème de devoirs est de donner un contre-exemple où une certaine statistique n'est en général pas suffisamment minimale. Quels que soient les détails de la recherche d'un contre-exemple particulier pour cette statistique particulière, cela me pose la question suivante:
Question: Comment peut-on formuler la condition de ne pas être une statistique suffisante minimale de manière à prouver qu'une statistique suffisante satisfait à la condition?
Travail à ce jour: La définition de statistique minimale suffisante dans mon manuel (Keener, Theoretical Statistics: Topics for a Core Course ) est la suivante:
- Une statistique est minimale suffisante si est suffisante et, pour chaque statistique suffisante il existe une fonction telle que ae .
Notez que (ae ) signifie que l'ensemble où l'égalité échoue est un ensemble nul pour chaque distribution de probabilité dans le modèle statistique , .
En essayant de nier cela, j'arrive à:
- Une statistique n'est pas minimale suffisante si au moins l'une des hypothèses suivantes:
- n'est pas suffisant.
- Il existe au moins une statistique suffisante pour laquelle il n'y a pas de fonction telle que ae .
Donc, si une statistique est suffisante, il semble qu'il serait extrêmement difficile de montrer qu'elle n'est pas suffisante minimale, même si elle n'est pas suffisante minimale. (Parce qu'il faudrait montrer 2. au lieu de 1., car 1. est faux - mais 2. serait très difficile à montrer parce que, même si l'on a une statistique de contre-exemple à l'esprit, on a toujours pour montrer la non-existence d' une fonction avec cette propriété. Et la non-existence est souvent difficile à montrer.)
Mon manuel ne donne aucune condition équivalente (c'est-à-dire nécessaire et suffisante) pour qu'une statistique soit une statistique minimale suffisante. Il ne donne même aucune autre condition nécessaire pour qu'une statistique soit une statistique minimale suffisante (en plus d'être une statistique suffisante).
Par conséquent, pour mon problème de devoirs, si je ne peux pas montrer que la statistique n'est pas suffisante (parce qu'elle l'est), alors comment pourrais-je jamais montrer qu'elle n'est pas minimale suffisante?
Réponses:
Comme vous l'avez dit:
Ainsi, par exemple, dans le cas oùX1, . . . . ,Xn sont des variables aléatoires de Bernoulli indépendantes. Nous pouvons prouver que(X1, . . . . ,Xn) n'est pas minimalement suffisant en montrant qu'il n'est pas fonction de ∑Xje . Cela est évident, car la fonction doit mapper1 aux deux ( 1 , 0 , 0 ... , 0 , 0 , 0 ) et ( 0 , 0 , 0 ... , 0 , 0 , 1 ) .
la source
J'ai pensé à ce problème plus récemment, et voici ce que j'ai trouvé.
LaisserΩ être un espace de probabilité, puis une variable aléatoire X est une fonction mesurable X: Ω → X , où X est un espace mesurable (X a désigné σ -algèbre, et X est mesurable par rapport à cette σ -algèbre et σ -algèbre sur Ω ). La répartition desX est juste la mesure de retrait X , c'est à dire PX( A ) =PΩ(X- 1( A ) ) . Ensuite, une statistique deX est une fonction mesurable * F: X→ Y , où Oui est un autre espace mesurable arbitraire.
Pour autant que je sache, cela semble signifier qu'il existe une fonction mesurable **h : Y→ Z tel que g= h ∘ f , c'est-à-dire que g peut être pris en compte parF .
(En d'autres termes, "g doit être bien défini en fonction de F( X) ⊆ Y ".)
Alors, quand un tel affacturage est-il possible? Pensons en termes de relations d'équivalence. Plus précisément, définissez la relation d'équivalence∼F sur X par x1∼FX2⟺F(X1) =f(X2) , de même, définir la relation d'équivalence ∼g sur X par X1∼gX2⟺g(X1) =g(X2) .
Ensuite, pourg être factorisable par F , les relations d'équivalence ∼F et ∼g doivent être compatibles les uns avec les autres, dans le sens *** que pour tout X1,X2∈ X , X1∼FX2⟹X1∼gX2 , c'est à dire g ne peut pas prendre deux éléments équivalents sous F et les mapper à des valeurs qui ne sont pas équivalentes sous g , c'est à dire "g ne peut pas annuler la réduction d'informations précédemment effectuée par F ".
En d'autres termes,g doit être bien défini en fonction de X/∼F≅F( X) c'est-à-dire qu'il doit exister une fonction g~: X/∼F→ Z tel que g=g~∘πF , où πF est la projection canonique X→X/∼f . (Pour ceux qui ne sont pas à l'aise avec le non-sens abstrait,πf est essentiellement f , et g~ est essentiellement h . La formulation ci-dessus rend plus claires les analogies avec d'autres situations.)
Par exemple, prenezX=Y=Z=R et X une variable aléatoire arbitraire à valeur réelle, puis g:x↦x2 peut être écrit en fonction de f:x↦x , mais pas l'inverse, car x1=x2⟹x21=x22 , mais 12=(−1)2 mais 1≠−1 .
En particulier, supposons que chaque classe d'équivalence sous∼f est un singleton (c.-à-d. f est injective ). alorsg peut toujours être écrit en fonction de f , depuis X/∼f≅X , c'est à dire f(x1)=f(x2)⟹x1=x2 signifie que x1=x2⟺f(x1)=f(x2) (en général, pour les injections non nécessairement f , une seule direction tient), donc notre condition devient x1=x2⟹g(x1)=g(x2) , qui est trivialement satisfait pour tout g:X→Z . (Définirh , il peut faire tout ce qu'il veut sur Y∖f(X) tant qu'il est mesurable, puis pour tout y∈f(X) , c'est-à-dire tels que y=f(x) pour certains x∈X , définir h être h:y=f(x)↦g(x) . Ceci est bien défini lorsquef est injectif parce qu'il y a un unique x∈X tel que f(x)=y . Plus généralement, cela n'est défini que lorsque, quel que soitx nous choisissons f−1(y) , g(x) est toujours la même valeur, à savoir f(x1)=f(x2) (=y)⟹g(x1)=g(x2) .)
De plus, en regardant le théorème 3.11 dans Keener, sa déclaration est un peu maladroite, mais en pensant dans les termes ci-dessus, je pense qu'elle peut être réécrite comme:
À partir de cela, il devient immédiatement clair que le rapport de vraisemblance doit lui-même être minimal suffisant.
Cela conduit également à la conclusion que:
Ainsi, la condition n'est pas aussi difficile à montrer que je le pensais.
* Keener n'aborde pas la question de savoir si une statistique doit être une fonction mesurable ou simplement arbitraire ou non. Cependant, je suis assez sûr qu'une statistique doit être une fonction mesurable, car sinon nous ne pourrions pas définir une distribution pour elle , c'est-à-dire une mesure de retrait.
**Sih n'étaient pas mesurables, nous aurions une contradiction car les deux f et g sont mesurables et la composition des fonctions mesurables est à nouveau mesurable. Tout au moins,h doit être mesurable limité à f(X)⊆Y , bien que je pense que cela signifierait dans la plupart des cas raisonnables que h devrait se mettre d'accord sur f(X) avec une fonction mesurable sur tous Y (prendre h|f(X) sur f(X) et par exemple z sur Y∖f(X) s'il existe un point mesurable z∈Z , notez que les deux f(X) et Y∖f(X) devrait être mesurable Y ) alors wlog h peut être supposé être mesurable sur tous Y .
*** Au moins, cela est nécessaire et suffisant pour l'existence d'une fonction arbitraire prenant en compteg et plus f , et je pense que ** implique que si une telle fonction arbitraire existe, cette fonction doit également être mesurable, car les deux f et g sont, ce serait vraiment une statistique Y→Z .
**** La condition donnée est équivalente àT étant suffisant par le théorème de factorisation, 3.6.
la source