Deux définitions de la valeur de p: comment prouver leur équivalence?

11

Je lis le livre de Larry Wasserman, All of Statistics , et actuellement sur les valeurs de p (page 187). Permettez-moi d'abord de présenter quelques définitions (je cite):

Définition 1 La fonction de puissance d'un test avec une région de rejet est définie par La taille d'un test est définie comme Un test est dit de niveau \ alpha si sa taille est inférieure ou égale à \ alpha .R

β(θ)=Pθ(XR)
α=supθΘ0β(θ)
αα

Cela signifie essentiellement que α , la taille est la "plus grande" probabilité d'une erreur de type I. La valeur p est alors définie via (je cite)

Définition 2 Supposons que pour chaque α(0,1) nous avons un test de taille α avec la région de rejet Rα . Ensuite,

p-value=inf{α:T(Xn)Rα}
Xn=(X1,,Xn) .

Pour moi, cela signifie: étant donné un \ alpha spécifique, αil existe une région de test et de rejet Rα afin que α=supθΘ0(α)Pθ(T(Xn)Rα) . Pour la valeur p je prends simplement le plus petit de tous ces α .

Question 1 Si tel était le cas, alors je pourrais clairement choisir α=ϵ pour arbitrairement petit ϵ . Quelle est ma mauvaise interprétation de la définition 2, c'est-à-dire que signifie-t-elle exactement?

Maintenant Wasserman continue et énonce un théorème pour avoir une définition "équivalente" de la valeur de p que je connais (je cite):

Théorème Supposons que le test de taille soit de la forme Ensuite, où est la valeur observée de .α

reject H0T(Xn)cα
p-value=supθΘ0Pθ(T(Xn)T(xn))
xnXn

Voici donc ma deuxième question:

Question 2 Comment puis-je réellement prouver ce théorème? C'est peut-être dû à ma mauvaise compréhension de la définition de la valeur , mais je ne peux pas le comprendre.p

math
la source
4
Il est vraiment étrange que Wasserman définisse le pouvoir comme " ", car le symbole est presque universellement utilisé pour le taux d'erreur de type II (c'est-à-dire power = 1- pour presque tous les autres auteurs discutant du pouvoir). J'ai du mal à imaginer un choix de notation capable d'engendrer une plus grande confusion sauf en voulant délibérément la provoquer. βββ
Glen_b -Reinstate Monica
1
Je suis d'accord que c'est bizarre, Glen - cependant, Casella et Berger font la même chose et leur texte est, à mon avis, l'étalon-or de la théorie statistique.
Matt Brems du

Réponses:

6

Nous avons quelques données multivariées , tirées d'une distribution avec un paramètre inconnu . Notez que sont des exemples de résultats.D θ xxDθx

Nous voulons tester une hypothèse sur un paramètre inconnu , les valeurs de sous l'hypothèse nulle sont dans l'ensemble .θ θ 0θθθ0

Dans l'espace du , on peut définir une région de rejet , et la puissance de cette région est alors définie comme . Donc, la puissance est calculée pour une valeur particulière de comme la probabilité que le résultat de l'échantillon soit dans la région de rejet lorsque la valeur de est . Évidemment, la puissance dépend de la région et de la choisie .R R P R ˉ θ = P ˉ θ ( x R ) ˉ θ θ x R θ ˉ θ R ˉ θXRRPθ¯R=Pθ¯(xR)θ¯θxR θθ¯Rθ¯

La définition 1 définit la taille de la régionR comme le supremum de toutes les valeurs de pour dans , donc uniquement pour les valeurs de sous . Il est évident que cela dépend de la région, donc . ˉ θ θ 0 ˉ θ H 0 α R = s u p ˉ θθ 0 P R ˉ θPθ¯Rθ¯θ0θ¯H0αR=supθ¯θ0Pθ¯R

Comme dépend de nous avons une autre valeur lorsque la région change, et ceci est la base pour définir la valeur p: changez la région, mais de telle manière que la valeur observée de l'échantillon appartient toujours à la région, pour chacune de ces régions, calculer le tel que défini ci - dessus et de prendre la borne inférieure: . La valeur de p est donc la plus petite taille de toutes les régions contenant . R α R p v ( x ) = i n f R | x R α R xαRRαRpv(x)=infR|xRαRx

Le théorème n'est alors qu'une «traduction» de celui-ci, à savoir le cas où les régions sont définies à l'aide d'une statistique et pour une valeur vous définissez une région comme . Si vous utilisez ce type de région dans le raisonnement ci-dessus, le théorème suit.T c R R = { x | T ( x ) c } RRTcRR={x|T(x)c}R

MODIFIER en raison des commentaires:

@ user8: pour le théorème; si vous définissez des régions de rejet comme dans le théorème, alors une région de rejet de taille est un ensemble qui ressemble à pour certains .R α = { X | T ( X ) c α } c ααRα={X|T(X)cα}cα

Pour trouver la valeur de p d'une valeur observée , c'est-à-dire vous devez trouver la plus petite région , c'est-à-dire la plus grande valeur de telle que contient toujours , ce dernier (la région contient ) équivaut (en raison de la façon dont les régions sont définies) à dire que , donc vous devez trouver le plus grand tel quep v ( x ) R c { X | T ( X ) c } x x c T ( x ) c { X | T ( X ) c & c T ( x ) }xpv(x)Rc{X|T(X)c} xxcT(x)c{X|T(X)c&cT(x)}

De toute évidence, le plus grand tel que devrait être , puis l'ensemble ci-dessus devientc T ( x ) c = T ( x ) { X | T ( X ) c = T ( x ) } = { X | T ( X ) T ( x ) }ccT(x)c=T(x){X|T(X)c=T(x)}={X|T(X)T(x)}


la source
Merci beaucoup pour votre réponse. Pour la question de la validation du théorème: n'y a-t-il pas en quelque sorte un sur manquant? αinfα
math
@ user8: J'ai ajouté un paragraphe à la fin de ma réponse, vous voyez le point avec l'infimum maintenant?
7

Dans la définition 2, la valeur d'une statistique de test est la plus grande borne inférieure de tous les sorte que l'hypothèse est rejetée pour un test de taille . Rappelons que plus nous faisons , moins nous tolérons les erreurs de type I, donc la région de rejet diminuera également. Donc (très) de manière informelle, la valeur est le plus petit nous puissions choisir, ce qui nous permet toujours de rejeter pour les données que nous avons observées. Nous ne pouvons pas choisir arbitrairement un plus petit car à un moment donné,α α α R α p α H 0 α R αpαααRαpαH0αRα sera si petit qu'il exclura (c'est-à-dire qu'il ne contiendra pas) l'événement que nous avons observé.

Maintenant, à la lumière de ce qui précède, je vous invite à reconsidérer le théorème.

heropup
la source
Je suis encore un peu confus. Donc tout d'abord, dans la définition la statistique fixe pour tout ? Je ne suis pas d'accord avec votre affirmation: "... à un moment donné, sera si petit qu'il exclura (c'est-à-dire qu'il ne contiendra pas) l'événement que nous avons observé." Parfaitement bien, si est si petit qu'il ne contient pas l'échantillon observé, nous ne rejetons pas . Quel est le problème avec ça? merci pour votre aide / patienceT α R α R α H 02TαRαRαH0
mathématiques
Oui. La statistique de test est une fonction fixe prédéterminée de l'échantillon, où "fixe" dans ce sens signifie que la forme de la fonction ne change pour aucun . La valeur qu'il prend peut (et devrait) dépendre de l'échantillon. Votre énoncé «nous ne rejetons pas » révèle pourquoi votre désaccord est incorrect: par définition , comprend l'ensemble de toutes les valeurs pour lesquelles la statistique de test conduit au rejet de la valeur nulle . C'est pourquoi il est étiqueté éjection "R". Je publierai une mise à jour de ma réponse pour l'expliquer plus en détail. α H 0 R α RTαH0RαR
heropup
Merci beaucoup pour votre réponse rapide et à l'avance pour votre version mise à jour. Ce que je voulais dire était le suivant: Nous rejetons si , où est l'échantillon observé. Disons que je suis très extrême et choisissez très petit, de sorte que pour l'échantillon donné ce qui signifie simplement que nous NE rejetons . Donc, un petit n'est pas apriori une mauvaise chose. De toute évidence, à un moment donné, il est si petit, qu'il est très très très peu probable d'observer un échantillon appartenant à . Encore une fois, merci pour votre patience / aide. vraiment apprécié! T ( x n ) R α x n R α T ( x n ) R α H 0 R α R αH0T(xn)RαxnRαT(xn)RαH0RαRα
math
2
La définition donnée de la valeur de p requiert explicitement que la statistique de test pour l'échantillon se trouve dans la région de rejet . Vous n'êtes pas libre de modifier cette partie de la définition de la valeur de p.
Glen_b -Reinstate Monica
@Glen_b Merci pour le commentaire. En effet, mon commentaire précédent viole la définition. Merci de l'avoir signalé.
mathématiques du