Je suis curieux d'une affirmation faite dans l'article de Wikipedia sur la taille de l'effet . Plus précisément:
[...] une comparaison statistique non nulle montrera toujours des résultats statistiquement significatifs à moins que la taille de l'effet de population soit exactement nulle
Je ne suis pas sûr de ce que cela signifie / implique, sans parler d'un argument pour le sauvegarder. Je suppose qu'après tout, un effet est une statistique, c'est-à-dire une valeur calculée à partir d'un échantillon, avec sa propre distribution. Est-ce à dire que les effets ne sont jamais dus à une variation aléatoire (ce que je comprends que cela signifie ne pas être significatif)? Considérons-nous alors simplement si l'effet est suffisamment fort - ayant une valeur absolue élevée?
Je considère l'effet que je connais le mieux: le coefficient de corrélation de Pearson r semble contredire cela. Pourquoi un serait-il statistiquement significatif? Si est petit, notre droite de régression r y = a x + b = r ( s y
Pour small, proche de 0, un test F contiendra probablement un intervalle de confiance contenant 0 pour la pente. N'est-ce pas un contre-exemple?
Réponses:
À titre d'exemple simple, supposons que j'évalue votre taille en utilisant un certain mumbo statistique.
Vous avez toujours déclaré aux autres que vous mesuriez 177 cm (environ 5 pi 10 po).
Si je testais cette hypothèse (que votre taille est égale à 177 cm, ), et que je pourrais réduire suffisamment l'erreur dans ma mesure, alors je pourrais prouver que vous n'êtes pas en fait 177 cm. Finalement, si j'estime votre hauteur à suffisamment de décimales, vous dévieriez presque sûrement de la hauteur indiquée de 177,00000000 cm. Vous mesurez peut-être 177,02 cm; Je n'ai qu'à réduire mon erreur à moins de 0,02 pour découvrir que vous n'êtes pas à 177 cm.h=177
Comment réduire l'erreur dans les statistiques? Obtenez un plus grand échantillon. Si vous obtenez un échantillon suffisamment grand, l'erreur devient si petite que vous pouvez détecter les écarts les plus minuscules par rapport à l'hypothèse nulle.
la source
Comme le souligne @Kodiologist, il s'agit vraiment de ce qui se passe pour les grands échantillons. Pour les petits échantillons, il n'y a aucune raison pour que vous ne puissiez pas avoir de faux positifs ou de faux négatifs.
Je pense que le test rend le cas asymptotique plus clair. Supposons que nous ayons X 1 , … , X n iid ∼ N ( μ , 1 ) et que nous voulons tester H 0 : μ = 0 vs H A : μ ≠ 0 . Notre statistique de test est Z n = ˉ X n - 0z X1,…,Xn∼iidN(μ,1) H0:μ=0 HA:μ≠0
doncZn=√X¯n∼ N( μ , 1n) . Nous nous intéressons àP(|Zn|≥α).
P(|Zn|≥α)=P(Zn≤-α)+P(Zn≥α)=1+Φ(-α-μ √Zn= n--√X¯n∼ N( μ n--√, 1 ) P( | Zn| ≥α)
la source
On peut soutenir que ce qu’ils ont dit est faux, si ce n’est pour une autre raison que leur utilisation de «cela arrive toujours ».
Je ne sais pas si c'est le noeud de la confusion que vous rencontrez , mais je le posterai parce que je pense que beaucoup le font et seront confus par ceci:
" se produit si est suffisamment grand"nX n ne signifie PAS "Si , alors ".n > n 0 Xn > n0 X
Cela signifie plutôt .limn → ∞Pr ( X) = 1
Ce qu'ils disent littéralement se traduit par ce qui suit:
Ce qu'ils essayaient de dire, cependant, est le suivant:
Il existe ici des différences cruciales:
Il n'y a aucune garantie. Vous êtes plus susceptible d'obtenir un résultat significatif avec un échantillon plus grand. Maintenant, ils pourraient esquiver une partie du blâme ici, car jusqu'à présent, ce n'est qu'un problème de terminologie. Dans un contexte probabiliste, il est entendu que l'expression "si n est assez grand alors X" peut également être interprétée comme signifiant "X devient de plus en plus vraisemblable à mesure que n grandit" .
Cependant, cette interprétation sort de ma fenêtre dès qu'ils disent que cela se produit "toujours". La terminologie appropriée ici aurait été de dire que cela se produit " avec une forte probabilité " 1 .
Ceci est secondaire, mais leur formulation est source de confusion - cela semble impliquer que vous fixez la taille de l'échantillon pour qu'elle soit «suffisamment grande», puis l'énoncé reste vrai pour tout niveau de signification. Cependant, quelle que soit l'énoncé mathématique précis, cela n'a pas vraiment de sens: vous fixez toujours d'abord le niveau de signification, puis vous choisissez la taille de l'échantillon pour être suffisamment grande.n > n0
Mais la suggestion selon laquelle cela peut être en quelque sorte l'inverse met malheureusement l' accent sur l' interprétation de "assez grand", ce qui aggrave encore le problème ci-dessus.
Mais une fois que vous comprenez la littérature, vous obtenez ce qu'ils essaient de dire.
(Note latérale: incidemment, c'est exactement l'un des problèmes constants que beaucoup de gens ont avec Wikipedia. Fréquemment, il n'est possible de comprendre ce qu'ils disent que si vous connaissez déjà le matériel, donc c'est seulement bon pour une référence ou comme un rappel , pas comme matériel d'auto-apprentissage.)
1 Pour les autres pédants (salut!), Oui, le terme a une signification plus spécifique que celle à laquelle je suis lié. Le terme technique le plus vague que nous voulons probablement ici est "asymptotiquement presque sûrement" . Voyez ici .
la source
Mon exemple préféré est le nombre de doigts par sexe. La grande majorité des gens ont 10 doigts. Certains ont perdu des doigts à cause d'accidents. Certains ont des doigts supplémentaires.
Je ne sais pas si les hommes ont plus de doigts que les femmes (en moyenne). Toutes les preuves facilement disponibles suggèrent que les hommes et les femmes ont tous deux 10 doigts.
Cependant, je suis très confiant que si je faisais un recensement de tous les hommes et de toutes les femmes, j'apprendrais qu'un sexe a plus de doigts (en moyenne) que l'autre.
la source