Une méthode naïve pour approximer une distribution normale consiste à additionner peut-être variables aléatoires IID uniformément réparties sur , puis plus récentes et redimensionnées, en s'appuyant sur le théorème de la limite centrale. ( Remarque : il existe des méthodes plus précises telles que la transformée de Box – Muller .) La somme des variables aléatoires IID est connue sous le nom de distribution de somme uniforme ou distribution d' Irwin – Hall .
Quelle est l'erreur dans l'approximation d'une distribution de somme uniforme par une distribution normale?
Chaque fois que ce type de question se pose pour approximer la somme des variables aléatoires IID, les gens (y compris moi) font apparaître le théorème de Berry-Esseen , qui est une version efficace du théorème central limite étant donné que le troisième moment existe:
où est la fonction de distribution cumulative pour la somme rééchelonnée de variables aléatoires IID, est le troisième moment central absolu, est l'écart-type, et est une constante absolue qui peut être prise égale à ou même .
Ce n'est pas satisfaisant. Il me semble que l'estimation de Berry – Esseen est la plus proche de forte sur les distributions binomiales qui sont discrètes, avec la plus grande erreur à pour une distribution binomiale symétrique. La plus grande erreur survient au plus grand saut. Cependant, la distribution de somme uniforme n'a pas de sauts.
Les tests numériques suggèrent que l'erreur diminue plus rapidement que .
En utilisant , l'estimation de Berry – Esseen est
qui pour est d'environ , et 0,103 , respectivement. Les différences maximales réelles pour n = 10, 20, 40 semblent être d'environ 0,00281 , 0,00139 et 0,000692 , respectivement, qui sont beaucoup plus petites et semblent tomber en c / n au lieu de c / \ sqrt n .0,205 0,145 0,103 n = 10 , 20 , 40 0,00281 0,00139 0,000692 c / n c / √
Réponses:
Soit des variables aléatoires iid et considérons la somme normalisée et la norme où est la distribution de .U ( - b , b ) S n = √U1, U2, … U( - b , b ) sup δ n = sup x ∈ R | F n ( x ) - Φ (
Lemme 1 ( Uspensky ): La borne suivante sur est . δ n <δn
Preuve . Voir JV Uspensky (1937), Introduction à la probabilité mathématique , New York: McGraw-Hill, p. 305.
Cela a été amélioré par la suite par R. Sherman.
Lemme 2 ( Sherman ): L'amélioration suivante sur la limite d'Uspensky tient.
Preuve : Voir R. Sherman, Erreur de l'approximation normale à la somme de N variables aléatoires , Biometrika , vol. 58, non. 2, 396–398.
La preuve est une application assez simple de l'inégalité du triangle et des bornes classiques sur la queue de la distribution normale et sur appliquée aux fonctions caractéristiques de chacune des deux distributions.( péchéx ) / x
la source