Je suis sur le point d'introduire la table normale standard dans mon cours d'introduction aux statistiques et je me suis demandé: qui a créé la première table normale standard? Comment l'ont-ils fait avant l'arrivée des ordinateurs? Je frémis en pensant à une calculatrice en force brute que mille sommes Riemann à la main.
normal-distribution
algorithms
history
tables
Daniel Smolkin
la source
la source
Réponses:
Laplace a été le premier à reconnaître le besoin de tabulation et a fourni l'approximation suivante:
Le premier tableau moderne de la distribution normale a ensuite été construit par l'astronome français Christian Kramp dans Analyse des fractions astronomiques et terrestres (Par le citoyen Kramp, Professeur de Chymie et de Physique expérimentale à l'école centrale du Département de la Roer, 1799) . Des tableaux relatifs à la distribution normale: un bref historique Auteur (s): Herbert A. David Source: The American Statistician, Vol. 59, n ° 4 (nov. 2005), p. 309-311 :
Mais ... quelle précision pourrait-il avoir? OK, prenons2.97 comme exemple:
Incroyable!
Passons à l'expression moderne (normalisée) du pdf gaussien:
Le pdf deN(0,1) est:
oùz=x2√ . Et par conséquent, x=z×2–√ .
Alors, allons à R et cherchons le ... OK, pas si vite. Nous devons d’abord nous rappeler que s’il existe une constante qui multiplie l’exposant dans une fonction exponentielle , l’intégrale sera divisée par cet exposant: . Puisque nous essayons de reproduire les résultats dans les anciennes tables, nous multiplions en fait la valeur de par , ce qui devra apparaître dans le dénominateur.PZ(Z>z=2.97) eax 1/a x 2–√
De plus, Christian Kramp n’ayant pas normalisé, nous devons donc corriger les résultats donnés par R en conséquence, en multipliant par . La correction finale ressemblera à ceci:2π−−√
Dans le cas ci-dessus, et . Maintenant passons à R:z=2.97 x=z×2–√=4.200214
Fantastique!
Allons au sommet de la table pour le plaisir, disons ...0.06
Que dit Kramp? .0.82629882
Si proche ...
La chose est ... à quelle distance, exactement? Après tous les votes positifs reçus, je ne pouvais pas laisser la réponse réelle en suspens. Le problème était que toutes les applications de reconnaissance optique de caractères (OCR) que j'avais essayées étaient incroyablement inactives - ce qui n'a rien d'étonnant si vous avez jeté un coup d'œil à l'original. J'ai donc appris à apprécier Christian Kramp pour la ténacité de son travail, car j'ai personnellement saisi chaque chiffre dans la première colonne de son tableau Première .
Après une aide précieuse de @Glen_b, il peut maintenant être très précis et il est prêt à copier et coller sur la console R dans ce lien GitHub .
Voici une analyse de la précision de ses calculs. Préparez vous...
mean(abs(difference))
avecdifference = R - kramp
:Sur l'entrée dans laquelle ses calculs étaient les plus divergents par rapport à [R], la première décimale différente se situait à la huitième position (cent millionième). En moyenne (médiane), sa première "erreur" était dans le dixième chiffre décimal (dixième milliardième!). Et, bien qu'il ne soit absolument pas d'accord avec [R] dans aucun cas, l'entrée la plus proche ne divergent que jusqu'à la 13 entrée numérique.
mean(abs(R - kramp)) / mean(R)
(identique àall.equal(R[,2], kramp[,2], tolerance = 0)
):sqrt(mean(difference^2))
:Si vous trouvez une photo ou un portrait de Chistian Kramp, éditez ce message et placez-le ici.
la source
Selon HA, David [1] Laplace a reconnu la nécessité de disposer de tables de distribution normale "dès 1783" et la première table normale a été produite par Kramp en 1799.
Laplace a suggéré deux approximations en série, une pour l'intégrale de à de (qui est proportionnelle à une distribution normale avec variance ) et une pour la queue supérieure.x e - t 2 10 x e−t2 12
Cependant, Kramp n'a pas utilisé ces séries de Laplace, car il y avait un intervalle dans les intervalles pour lesquelles elles pourraient être utilement appliquées.
En fait, il part de 0 pour l'intégrale de la zone de la queue, puis applique une expansion de Taylor sur la dernière intégrale calculée. En calculant de nouvelles valeurs dans le tableau, il décale le de son expansion de Taylor de (où est l'intégrale donnant la partie supérieure de la queue).G ( x + h ) Gx G(x+h) G
Pour être précis, citant les quelques phrases pertinentes:
David indique que les tables ont été largement utilisées.
Ainsi, plutôt que des milliers de sommes Riemann, il s’agissait de centaines d’agrandissements de Taylor.
Sur une note plus petite, avec un pincement (coincé avec seulement une calculatrice et quelques valeurs mémorisées du tableau normal), j'ai assez bien appliqué la règle de Simpson (et les règles associées pour l'intégration numérique) pour obtenir une bonne approximation à d'autres valeurs; ce n'est pas tout ce que fastidieux de produire une table abrégée * à quelques chiffres de précision. [Produire des tableaux d'échelle et de précision de Kramp serait une tâche assez lourde, même avec une méthode plus intelligente, comme il l'a fait.]
* Par tableau abrégé, je veux dire un tableau dans lequel vous pouvez vous échapper avec une interpolation entre les valeurs tabulées sans perdre trop de précision. Si vous voulez seulement dire une précision d'environ 3 chiffres, vous n'avez vraiment pas besoin de calculer autant de valeurs. J'ai utilisé efficacement l'interpolation polynomiale (plus précisément, les techniques de différences finies appliquées), ce qui permet d'obtenir un tableau avec moins de valeurs que l'interpolation linéaire - même si l'effort requis à l'étape d'interpolation est plus important - et j'ai également effectué une interpolation avec une transformation logit, qui rend l’interpolation linéaire considérablement plus efficace, mais n’est utile que si vous avez une bonne calculatrice).
[1] Herbert A. David (2005),
"Tableaux relatifs à la distribution normale: une courte histoire",
The American Statistician , vol. 59, n ° 4 (nov.), P. 309-311
[2] Kramp (1799),
Analyse des fractions astronomiques et terrestres,
Leipzig: Schwikkert.
la source
Question intéressante! Je pense que la première idée n’est pas venue de l’intégration de formules complexes; plutôt le résultat de l'application des asymptotiques en combinatoire. La méthode du stylo et du papier peut prendre plusieurs semaines; pas si difficile pour Karl Gauss par rapport au calcul du gâteau pour ses prédécesseurs. Je pense que l'idée de Gauss était courageuse; le calcul était facile pour lui.
Exemple de création d'une table z standard à partir de zéro-
1. Prenez une population de n nombres (disons que n vaut 20) et dressez une liste de tous les échantillons possibles de taille r (disons que r est égale à 5).
2. calculer les moyennes d'échantillon. Vous obtenez des moyennes d'échantillon nCr (ici, 20c5 = 15504 signifie).
3. Leur moyenne est la même que la moyenne de la population. Trouver le stdev des moyennes d'échantillon.
4. Trouvez les scores z des moyennes d'échantillon en utilisant ces moyennes pop et stdev des moyennes d'échantillon.
5. Triez z par ordre croissant et trouvez la probabilité que z se situe dans une plage de vos valeurs nCr z.
6. Comparez les valeurs avec des tables normales. Plus petit n est bon pour les calculs manuels. Plus grand n produira des approximations plus proches des valeurs normales de la table.
Le code suivant est en r:
Probabilité que z tombe entre 0 et une valeur positive q inférieure; comparer avec un tableau connu. Manipulez q ci-dessous entre 0 et 3,5 pour comparer.
la source