Je viens de commencer à étudier les statistiques et je n'arrive pas à comprendre intuitivement la suffisance. Pour être plus précis, je ne comprends pas comment montrer que les deux paragraphes suivants sont équivalents:
En gros, étant donné un ensemble X de données indépendantes distribuées de manière identique conditionnées sur un paramètre inconnu θ, une statistique suffisante est une fonction T (X) dont la valeur contient toutes les informations nécessaires pour calculer toute estimation du paramètre.
Une statistique T (X) est suffisante pour le paramètre sous-jacent θ précisément si la distribution de probabilité conditionnelle des données X, compte tenu de la statistique T (X), ne dépend pas du paramètre θ.
(J'ai pris les citations de statistique suffisante )
Bien que je comprenne la deuxième affirmation et que je puisse utiliser le théorème de factorisation pour montrer si une statistique donnée est suffisante, je ne peux pas comprendre pourquoi une statistique avec une telle propriété a également la propriété qu'elle "contient toutes les informations nécessaires pour calculer tout estimation du paramètre ". Je ne cherche pas de preuve formelle, ce qui aiderait de toute façon à affiner ma compréhension, je voudrais obtenir une explication intuitive de la raison pour laquelle les deux déclarations sont équivalentes.
Pour récapituler, mes questions sont: pourquoi les deux affirmations sont équivalentes? Quelqu'un pourrait-il fournir une explication intuitive de leur équivalence?
Réponses:
Suite aux commentaires de @whuber et @Kamster, j'ai probablement mieux compris. Lorsque nous disons qu'une statistique suffisante contient toutes les informations nécessaires pour calculer une estimation du paramètre, ce que nous voulons dire en réalité, c'est qu'il suffit de calculer l'estimateur du maximum de vraisemblance (qui est une fonction de toutes les statistiques suffisantes).
Étant donné que je réponds à ma propre question et que je ne suis donc pas sûr à 100% de la réponse, je ne la marquerai pas comme correcte tant que je n'aurai pas reçu de commentaires. Veuillez ajouter tout commentaire et voter si vous pensez que je me trompe / imprécis / etc ...
(Faites-moi savoir si cela n'est pas compatible avec l'étiquette SE, étant ma première question, je vous demande votre clémence si je viole une règle)
la source
Pendant que j'étudiais la suffisance, je suis tombé sur votre question parce que je voulais aussi comprendre l'intuition de ce que j'ai rassemblé, c'est ce que je trouve (faites-moi savoir ce que vous pensez, si je fais des erreurs, etc.).
Soit un échantillon aléatoire d'une distribution de Poisson avec une moyenne θ > 0 .X1, … , Xn θ > 0
Nous savons que est une statistique suffisante pour θ , puisque la distribution conditionnelle de X 1 , … , X n étant donné que T ( X ) est libre de θ , en d'autres termes, ne signifie pas dépendent de θ .T( X ) = ∑ni = 1Xje θ X1, … , Xn T( X ) θ θ
Or, le statisticien sait que X 1 , … , X n i . i . d ∼ P o i s s o n ( 4 ) et crée n = 400 valeurs aléatoires à partir de cette distribution:UNE X1, … , Xn∼i . i . réPoisson(4) n=400
Pour les valeurs créées par le statisticien , il en prend la somme et demande au statisticien B :A B
"J'ai ces valeurs d'échantillon tirées d'une distribution de Poisson. Sachant que ∑ n i = 1 x i = y = 4068 , que pouvez-vous me dire à propos de cette distribution?"x1,…,xn ∑ni=1xi=y=4068
Donc, sachant seulement que (et le fait que l'échantillon provienne d'une distribution de Poisson) est-il suffisant pour que le statisticien B dise quelque chose sur θ ? Puisque nous savons qu'il s'agit d'une statistique suffisante, nous savons que la réponse est "oui".∑ni=1xi=y=4068 B θ
Pour obtenir des informations sur la signification de ceci, procédons comme suit (extrait de "Introduction to Mathematical Statistics" de Hogg & Mckean & Craig, 7ème édition, exercice 7.1.9):
" décide de créer de fausses observations, qu'il appelle z 1 , z 2 , … , z n (comme il le sait, elles ne seront probablement pas égales aux valeurs x d' origine ) comme suit. Il note que la probabilité conditionnelle de Poisson indépendant les variables aléatoires Z 1 , Z 2 … , Z n étant égal à z 1 , z 2 , … , z n , étant donné ∑ z i = y , estB z1,z2,…,zn x Z1,Z2…,Zn z1,z2,…,zn ∑zi=y
puisque a une distribution de Poisson avec une moyenne n θ . Cette dernière distribution est multinomiale avec y essais indépendants, chacun se terminant de l'une des n manières mutuellement exclusives et exhaustives, chacune ayant la même probabilité 1 / n . En conséquence, B exécute une telle expérience multinomiale y des essais indépendants et obtient z 1 , … , z n . "Oui= ∑ Zje n θ y n 1/n B y z1,…,zn
C'est ce que dit l'exercice. Alors, faisons exactement cela:
Et voyons à quoi ressemble (je trace également la densité réelle de Poisson (4) pour k = 0 , 1 , … , 13 - tout ce qui est supérieur à 13 est pratiquement nul -, pour comparaison):Z k=0,1,…,13
Donc, ne connaissant rien à et ne connaissant que la statistique suffisante Y = ∑ X i, nous avons pu récupérer une "distribution" qui ressemble beaucoup à une distribution de Poisson (4) (à mesure que n augmente, les deux courbes deviennent plus similaires).θ Y=∑Xi n
Maintenant, comparant et Z | y :X Z|y
Nous voyons qu'ils sont assez similaires aussi (comme prévu)
la source
Permettez-moi de vous donner une autre perspective qui pourrait vous aider. Ceci est également qualitatif, mais il existe une version rigoureuse de celle-ci particulièrement importante dans la théorie de l'information - connue sous le nom de propriété Markov.
la source