Comment Pearson a-t-il établi les statistiques du chi carré Pearson suivantes en 1900?
que
A-t-il pensé au chi carré et conçu la métrique (approche ascendante), ou a-t-il conçu la statistique et prouvé plus tard qu'elle suit la distribution du khi carré (de haut en bas)?
Je veux savoir pourquoi il a choisi cette forme spécifique et pas d'autres telles que ou, et aussi pourquoi il a divisé le carré avec le dénominateur.
Réponses:
Le document de Pearson datant de 1900 n'est plus protégé par le droit d'auteur, nous pouvons donc le lire en ligne .
Vous devriez commencer par noter que cet article porte sur la qualité du test d'ajustement, et non sur le test d'indépendance ou d'homogénéité.
Il procède en travaillant avec la normale multivariée, et le chi carré apparaît comme une somme de variables normales normalisées au carré.
Vous pouvez voir dans la discussion sur p160-161 qu'il discute clairement de l'application du test aux données distribuées multinomiales (je ne pense pas qu'il utilise ce terme nulle part). Il comprend apparemment la normalité multivariée approximative du multinomial (certainement il sait que les marges sont approximativement normales - c'est un résultat très ancien - et connaît les moyennes, les variances et les covariances, car elles sont énoncées dans l'article); je suppose que la plupart de ces choses sont déjà anciennes en 1900. (Notez que la distribution chi carré elle-même remonte au travail par Helmert au milieu des années 1870.)
Puis, au bas de p163, il dérive une statistique du chi carré comme "une mesure de la qualité de l'ajustement" (la statistique elle-même apparaît dans l'exposant de l'approximation normale multivariée).
Il continue ensuite à discuter de la façon d'évaluer la valeur de p *, puis il donne correctement la zone de la queue supérieure d'un au-delà de 43,87 à 0,000016. [Cependant, vous devez garder à l'esprit qu'il n'a pas correctement compris comment ajuster les degrés de liberté pour l'estimation des paramètres à ce stade, donc certains des exemples dans ses articles utilisent un df trop élevé]χ212
* (notez que ni les paradigmes de test de Fisherian ni de Neyman-Pearson n'existent, nous le voyons néanmoins clairement appliquer déjà le concept d'une valeur de p.)
Vous remarquerez qu'il n'écrit pas explicitement des termes comme . Au lieu de cela, il écrit m 1 , m 2, etc. pour les comptes attendus et pour les quantités observées, il utilise m ′ 1 et ainsi de suite. Il définit ensuite e = m - m ′ (moitié inférieure p160) et calcule e 2 / m pour chaque cellule (voir éq. (Xv) p163 et la dernière colonne du tableau en bas de p167) ... quantités équivalentes, mais en notation différente.(Oi−Ei)2/Ei m1 m2 m′1 e=m−m′ e2/m
Une grande partie de la manière actuelle de comprendre le test du chi carré n'est pas encore en place, mais d'un autre côté, beaucoup est déjà là (du moins si vous savez quoi chercher). Il s'est passé beaucoup de choses dans les années 1920 (et au-delà) qui ont changé notre façon de voir ces choses.
Quant à savoir pourquoi nous divisons par dans le cas multinomial, il arrive que même si la variance des composants individuels dans un multinomial est plus petite que E i , lorsque nous tenons compte des covariances, cela équivaut à simplement diviser par E i , ce qui fait pour une belle simplification.Ei Ei Ei
Ajouté en édition:
L'article de 1983 de Plackett donne une bonne partie du contexte historique, et quelque chose comme un guide de l'article. Je recommande fortement d'y jeter un œil. Il semble que ce soit gratuit en ligne via JStor (si vous vous connectez), vous ne devriez donc même pas avoir besoin d'un accès via une institution pour le lire.
Plackett, RL (1983),
«Karl Pearson et le test du chi carré» ,
Revue statistique internationale ,
vol. 51, n ° 1 (avril), p. 59-72
la source