J'essaie de comprendre exactement quelle est la différence entre les tests et les tests .z
Pour autant que je sache, pour les deux classes de tests, on utilise la même statistique de test, quelque chose de la forme
où est un exemple de statistique, est une constante de référence (emplacement) (qui dépend des détails du test), et est la norme erreur de . C ^ soi ( b ) b
La seule différence, donc, entre ces deux classes de tests est que dans le cas des tests , la statistique de test ci-dessus suit une distribution (pour certains degrés de liberté déterminés par l'échantillon ), alors que dans le cas de -tests, la même statistique de test suit une distribution normale standard . (Cela suggère à son tour que le choix d'un test ou d'un test dépend de la taille de l'échantillon.)t d z N ( 0 , 1 ) z t
Est-ce correct?
Réponses:
Les noms " -test" et " -test" sont généralement utilisés pour faire référence au cas spécial lorsque est normal , et . Vous pouvez bien sûr également construire des tests de " type test" dans d'autres paramètres (le bootstrap me vient à l'esprit), en utilisant le même type de raisonnement.z X N ( μ , σ 2 ) b = ˉ x C = μ 0 tt z X N(μ,σ2) b^=x¯ C=μ0 t
Quoi qu'il en soit, la différence se situe dans la partie :s.e.(b^)
Par conséquent, le choix entre un test et un test dépend du fait que soit connu ou non avant la collecte des données .z σt z σ
La raison pour laquelle la distribution des deux statistiques diffère est que la statistique contient plus d'inconnues. Cela le rend plus variable, de sorte que sa distribution a des queues plus lourdes. À mesure que la taille de l'échantillon augmente, l'estimateur se rapproche beaucoup du vrai , de sorte que est essentiellement connu. Ainsi, lorsque la taille de l'échantillon est grande, les quantiles peuvent également être utilisés pour le test .n σ σ σ N ( 0 , 1 ) tt n σ^ σ σ N(0,1) t
la source