Existe-t-il une preuve que le CLT n'utilise pas de fonctions caractéristiques, une méthode plus simple?
Peut-être les méthodes de Tikhomirov ou de Stein?
Quelque chose de autonome que vous pouvez expliquer à un étudiant universitaire (première année de mathématiques ou de physique) et qui prend moins d'une page?
Réponses:
Vous pouvez le prouver avec la méthode de Stein, mais c'est discutable si la preuve est élémentaire. Le côté positif de la méthode de Stein est que vous obtenez une forme légèrement plus faible de limites Berry Esseen essentiellement gratuitement. De plus, la méthode de Stein n'est rien de moins que de la magie noire! Vous pouvez trouver une exposition de la preuve dans la section 6 de ce lien . Vous trouverez également d'autres preuves du CLT dans le lien.
Voici un bref aperçu:
1) Démontrer, en utilisant une simple intégration par parties et la densité de distribution normale, que pour tout différentiellement continu si s A est N ( 0 , 1 ) distribué. C'est plus facile à montrer Une normale implique le résultat et un peu plus difficile à montrer l'inverse, mais peut-être peut-on le croire.EF′( A ) - XF( A ) = 0 UNE N(0 , 1 ) UNE
2) Plus généralement, si pour chaque f différenciable en continu avec f , f ′ borné, alors X n converge vers N ( 0 , 1 ) dans la distribution. La preuve ici est encore une fois par intégration par parties, avec quelques astuces. Plus précisément, nous devons savoir que la convergence dans la distribution est équivalente à E g ( X n ) → EEF(Xn) - XnF( Xn) → 0 F F, f′ Xn N( 0 , 1 ) pour toutes les fonctions continues bornées g . Fixant g , il est utilisé pour reformuler:Eg( Xn) → Eg( A ) g g
où l'on résout pour utilisant la théorie de base de l'ODE, puis montre que f est agréable. Ainsi, si nous pouvons trouver un si joli f , par hypothèse, le rh va à 0, et donc le côté gauche aussi.F F F
3) Enfin, prouver le théorème central limite pour oùXiest iid avec la moyenne 0 et la variance 1. Ceci exploite à nouveau l'astuce de l'étape 2, où pour chaquegnous trouvons unftel que:Yn:=X1+⋯+Xnn√ Xi g f
la source
Voici comment je le ferais si j'étais au lycée.
Prenez n'importe quelle distribution de probabilité avec la densité , obtenez sa moyenne et sa variance μ x , σ 2 x . Ensuite, il se rapproche de la variable aléatoire z qui a la forme suivante: z = μ x - σ x + 2 σ x ξ , où ξ est Bernoulli variable aléatoire avec le paramètre p = une / 2 . Vous pouvez voir que μ z = μ x etF( x ) μX, σ2X z
On peut maintenant regarder la somme = n ( μ x - σ x ) + 2 σ x n ∑ i = 1 ξ i
Vous pouvez reconnaître la distribution binomiale ici: , où η ~ B ( n , 1 / 2 ) . Vous n'avez pas besoin d'une fonction caractéristique pour voir qu'elle converge vers la forme d'une distribution normale .η= ∑ni = 1ξje η~ B ( n , 1 / 2 )
Donc, à certains égards, on pourrait dire que le Bernoulli est l'approximation la moins précise pour toute distribution, et même elle converge vers la normale.
Par exemple, vous pouvez montrer que les moments correspondent à la normale. Définissons un regard sur la variable:y= ( Sn/ n- μX) n--√
la source