Récemment, j'ai trouvé dans un article de Klammer et al. une déclaration indiquant que les valeurs-p doivent être uniformément distribuées. Je crois les auteurs, mais je ne comprends pas pourquoi.
Klammer, AA, Park, CY et Stafford Noble, W. (2009) Étalonnage statistique de la fonction SEQUEST XCorr . Journal of Proteome Research . 8 (4): 2106-2113.
Réponses:
Pour clarifier un peu. La valeur p est uniformément distribuée lorsque l'hypothèse nulle est vraie et que toutes les autres hypothèses sont satisfaites. La raison en est vraiment la définition de alpha comme la probabilité d'une erreur de type I. Nous voulons que la probabilité de rejeter une hypothèse nulle soit alpha, nous rejetons lorsque le observé , la seule façon que cela se produise pour toute valeur de alpha est lorsque la p-valeur provient d'un uniforme. Distribution. L’utilisation de la bonne distribution (normale, t, f, chisq, etc.) a pour but de transformer la statistique de test en une valeur p uniforme. Si l'hypothèse nulle est fausse, la distribution de la valeur p sera (espérons-le) davantage pondérée vers 0.p-value<α
Les fonctions
Pvalue.norm.sim
etPvalue.binom.sim
du package TeachingDemos pour R simulent plusieurs ensembles de données, calculent les valeurs p et les tracent pour illustrer cette idée.Regarde aussi:
pour plus de détails.
Modifier:
Puisque les gens lisent encore cette réponse et commentent, j'ai pensé que j'adresserais le commentaire de @ whuber.
Il est vrai qu'en utilisant une hypothèse nulle composée comme , les p-valeurs ne seront distribuées uniformément que lorsque les 2 moyennes sont exactement égales et ne seront pas uniformes si est une valeur inférieure à . Cela peut être facilement vu en utilisant la fonction et en la configurant pour faire un test unilatéral et en simulant avec la simulation et des hypothèses supposées signifie différentes (mais dans la direction de rendre le null vrai).μ 1 μ 2μ1≤μ2 μ1 μ2
Pvalue.norm.sim
En ce qui concerne la théorie statistique, cela n'a pas d'importance. Si je prétendais que je suis plus grand que tous les membres de votre famille, envisagez de vérifier cette affirmation en comparant ma taille à celle de chaque membre de votre famille, un à la fois. Une autre option serait de trouver le membre de votre famille qui est le plus grand et de comparer sa taille avec la mienne. Si je suis plus grand que cette personne, alors je suis plus grand que les autres et mon affirmation est vraie. Si je ne suis pas plus grand que cette personne, alors mon affirmation est fausse. Tester un NULL composite peut être vu comme un processus similaire, plutôt que de tester toutes les combinaisons possibles où nous pouvons tester uniquement la partie égalité, car si nous pouvons rejeter cela, en faveur deμ 1 = μ 2 μ 1 > μ 2 μ 1 < μ 2 μ 1 < μ 2 α μ 1 μ 2 αμ1≤μ2 μ1=μ2 μ1>μ2 alors nous savons que nous pouvons aussi rejeter toutes les possibilités de . Si nous examinons la distribution des valeurs p dans les cas où la distribution ne sera pas parfaitement uniforme mais comportera plus de valeurs plus proches de 1 que de 0, ce qui signifie que la probabilité d'une erreur de type I sera inférieure à la valeur sélectionnée , ce qui en fait un test conservateur. L'uniforme devient la distribution limite à mesure que se rapproche deμ1<μ2 μ1<μ2 α μ1 μ2 (Les gens qui sont plus au courant de la théorie de la statistique pourraient probablement mieux le dire en termes de supremum de distribution ou quelque chose comme ça). Donc, en construisant notre test en supposant que la partie égale de la valeur null même lorsque la valeur null est composite, nous concevons notre test de manière à avoir une probabilité d'erreur de type I égale à au plus pour toutes les conditions dans lesquelles la valeur null est vraie.α
la source
\leq
dans TeX)!Sous l'hypothèse nulle, votre statistique de test a la distribution (par exemple, normale standard). Nous montrons que la valeur a une distribution de probabilité en d’autres termes, est distribué uniformément. Ceci est valable tant que est inversible, une condition nécessaire est que ne soit pas une variable aléatoire discrète.T F(t) P=F(T)
Ce résultat est général: la distribution d'un CDF inversible d'une variable aléatoire est uniforme sur .[0,1]
la source
Soit la variable aléatoire avec la fonction de distribution cumulative pour tout . En supposant que soit inversible, nous pouvons déduire la distribution de la valeur aléatoire p comme suit:T F(t)≡Pr(T<t) t F P=F(T)
à partir de laquelle nous pouvons conclure que la distribution de est uniforme sur .P [0,1]
Cette réponse est similaire à celle de Charlie, mais évite de devoir définir .t=F−1(p)
la source
Simulation simple de la distribution des valeurs p en cas de régression linéaire entre deux variables indépendantes:
la source
Je ne pense pas que la plupart de ces réponses répondent à la question en général. Ils sont limités au cas où il existe une hypothèse nulle simple et lorsque la statistique de test a un CDF inversible (comme dans une variable aléatoire continue ayant un CDF strictement croissant). Ces cas sont les cas sur lesquels la plupart des gens ont tendance à se soucier avec le test z et le test t, bien que pour tester une moyenne binomiale (par exemple), on ne dispose pas d'un tel CD. Ce qui est fourni ci-dessus semble correct à mes yeux pour ces cas restreints.
Si les hypothèses nulles sont composites, les choses sont un peu plus compliquées. La preuve la plus générale de ce fait que j'ai vue dans le cas composite en utilisant certaines hypothèses concernant les régions de rejet est fournie dans "Test des hypothèses statistiques" de Leshmann et Romano, pages 63-64. Je vais essayer de reproduire l'argument ci-dessous ...
Nous testons une hypothèse nulle par rapport à une autre hypothèse basée sur une statistique de test, que nous désignons comme la variable aléatoire . La statistique de test est supposée provenir d’une classe paramétrique, c’est-à-dire , où est un élément de la famille des distributions de probabilités , et est un espace de paramètres. L'hypothèse nulle et l'hypothèse alternative forment une partition de dans laquelleH0 H1 X X∼Pθ Pθ P≡{Pθ∣θ∈Θ} Θ H0:θ∈Θ0 H1:θ∈Θ1 Θ Θ=Θ0∪Θ1
où
Θ0∩Θ1=∅.
Le résultat du test peut être noté où pour tout ensemble nous définissons Ici est notre niveau de signification, et désigne la région de rejet du test pour le niveau de signification .ϕα(X)=1Rα(X) S 1S(X)={1,0,X∈S,X∉S. α Rα α
Supposons que les régions de rejet satisfassent le si . Dans ce cas de régions de rejet imbriquées, il est utile de déterminer non seulement si l'hypothèse nulle est rejetée à un niveau de signification donné , mais également de déterminer le niveau de signification le plus petit pour lequel l'hypothèse nulle serait rejetée. Ce niveau est connu sous le nom de valeur-p , ce nombre nous donne une idée de force des données (telles qu'elles sont décrites dans la statistique de test ) en contradiction avec l'hypothèse nulle .Rα⊂Rα′ α<α′ α p^=p^(X)≡inf{α∣X∈Rα}, X H0
Supposons que pour certains et que . Supposons en outre que les régions de rejet obéissent à la propriété de nidification indiquée ci-dessus. Ensuite, ce qui suit est valable:X∼Pθ θ∈Θ H0:θ∈Θ0 Rα
Si pour tout , puis pour ,supθ∈Θ0Pθ(X∈Rα)≤α 0<α<1 θ∈Θ0 Pθ(p^≤u)≤ufor all0≤u≤1.
Si pour nous avons pour tout , alors pour nous avonsθ∈Θ0 Pθ(X∈Rα)=α 0<α<1 θ∈Θ0 Pθ(p^≤u)=ufor all0≤u≤1.
Notez que cette première propriété nous indique simplement que le taux de faux positifs est contrôlé à en rejetant lorsque la valeur p est inférieure à , et que la deuxième propriété nous indique (avec une hypothèse supplémentaire) que les valeurs p sont uniformément réparties sous la valeur null. hypothèse.u u
La preuve est la suivante:
Soit , et supposons que pour tout . Ensuite, par définition de , nous avons pour tout . Par monotonie et par hypothèse, il s'ensuit que pour tout . En laissant , il s’ensuit que .θ∈Θ0 supθ∈Θ0Pθ(X∈Rα)≤α 0<α<1 p^ {p^≤u}⊂{X∈Rv} u<v Pθ(p^≤u)≤Pθ(X∈Rv)≤v u<v v↘u Pθ(p^≤u)≤u
Soit et supposons que pour tout . Puis , et par monotonie, il en résulte que . Considérant (1), il s'ensuit que .θ∈Θ0 Pθ(X∈Rα)=α 0<α<1 {X∈Ru}⊂{p^(X)≤u} u=Pθ(X∈Ru)≤Pθ(p^≤u) Pθ(p^(X)≤u)=u
Notez que l'hypothèse entre (2) ne tient pas lorsqu'une statistique de test est discrète, même si l'hypothèse nulle est simple plutôt que composite. Prenons par exemple avec et . C'est-à-dire lancer une pièce dix fois et vérifier si elle est juste vs biaisée vers les têtes (codée en 1). La probabilité de voir 10 têtes sur 10 lancers de pièces justes est de (1/2) ^ 10 = 1/1024. La probabilité de voir 9 ou 10 têtes sur 10 lancers de pièces est de 11/1024. Pour tout strictement compris entre 1/1024 et 11/1024, vous rejetteriez la valeur null si , mais nous n'avons pas ce nom pour les valeurs de quandX∼Binom(10,θ) H0:θ=.5 H1:θ>0.5 α X=10 Pr(X∈Rα)=α α θ=0.5 . Au lieu de cela pour un tel . Pr(X∈Rα)=1/1024 α
la source
Si les valeurs p sont uniformément réparties sous le H0, cela signifie qu'il est tout aussi probable qu'une valeur p de 0,05 soit considérée comme une valeur p de 0,80, mais ce n'est pas vrai, car il est moins probable d'observer une valeur p. une valeur de 0,05 à une valeur de p de 0,80, car c’est précisément la définition de la distribution normale à partir de laquelle la valeur de p est prise. Par définition, il y aura plus d'échantillons entrant dans la fourchette de normalité qu'en dehors de celle-ci. Par conséquent, plus susceptibles de trouver des valeurs p plus grandes que les plus petites.
la source