Preuve du théorème central limite n'utilisant pas de fonctions caractéristiques

11

Existe-t-il une preuve que le CLT n'utilise pas de fonctions caractéristiques, une méthode plus simple?

Peut-être les méthodes de Tikhomirov ou de Stein?

Quelque chose de autonome que vous pouvez expliquer à un étudiant universitaire (première année de mathématiques ou de physique) et qui prend moins d'une page?

skan
la source
2
J'ai esquissé une telle approche élémentaire sur stats.stackexchange.com/a/3904/919 . On peut dire que l'utilisation des fonctions de génération de cumul est la méthode la plus simple possible: votre "plus simple" est probablement destiné à lire "plus élémentaire".
whuber
2
Dans des conditions plus restrictives que lorsque vous utilisez des fonctions caractéristiques, vous pouvez utiliser des fonctions génératrices de moments à la place (en effet, le premier CLT que j'ai vu était de cette forme) - mais l'exposition est assez similaire.
Glen_b -Reinstate Monica
@Glen_b J'ai également pensé que cela pourrait être plus facile avec des moments. Quoi qu'il en soit, je laisse la question ouverte au cas où quelqu'un d'autre publierait une autre démonstration.
skan
En tant que preuve, ce n'est en fait pas plus facile (la preuve avec cfs peut être écrite sous la même forme que la preuve avec mgfs), mais peut être préférable pour les étudiants qui peuvent ne pas avoir de fond avec des fonctions impliquant . Autrement dit, vous pouvez économiser l'introduction de nouveaux concepts, mais s'ils ont déjà ces concepts, une preuve de la déclaration correspondante avec cfs n'est en fait pas plus difficile à faire (bien que ce soit plus général). Que ce soit mieux dépend des élèves avec qui vous avez affaire. je
Glen_b -Reinstate Monica
Je me souviens que mon professeur de statistique de première année a fourni une "preuve" visuelle de la CLT en montrant des distributions d'échantillonnage de la moyenne avec sous divers modèles de probabilité. La normale, bien sûr, n'a montré aucune tendance, mais les distributions exponentielles, bernoulli et diverses queues lourdes sont toutes "arrondies" à la forme familière visuellement pour chaque augmentation de . n=dix,100,1000n
AdamO

Réponses:

6

Vous pouvez le prouver avec la méthode de Stein, mais c'est discutable si la preuve est élémentaire. Le côté positif de la méthode de Stein est que vous obtenez une forme légèrement plus faible de limites Berry Esseen essentiellement gratuitement. De plus, la méthode de Stein n'est rien de moins que de la magie noire! Vous pouvez trouver une exposition de la preuve dans la section 6 de ce lien . Vous trouverez également d'autres preuves du CLT dans le lien.

Voici un bref aperçu:

1) Démontrer, en utilisant une simple intégration par parties et la densité de distribution normale, que pour tout différentiellement continu si s A est N ( 0 , 1 ) distribué. C'est plus facile à montrer Une normale implique le résultat et un peu plus difficile à montrer l'inverse, mais peut-être peut-on le croire.EF(UNE)-XF(UNE)=0UNEN(0,1)UNE

2) Plus généralement, si pour chaque f différenciable en continu avec f , f borné, alors X n converge vers N ( 0 , 1 ) dans la distribution. La preuve ici est encore une fois par intégration par parties, avec quelques astuces. Plus précisément, nous devons savoir que la convergence dans la distribution est équivalente à E g ( X n ) EEF(Xn)-XnF(Xn)0FF,FXnN(0,1) pour toutes les fonctions continues bornées g . Fixant g , il est utilisé pour reformuler:Eg(Xn)Eg(UNE)gg

Eg(Xn)-Eg(UNE)=EF(Xn)-XnF(Xn),

où l'on résout pour utilisant la théorie de base de l'ODE, puis montre que f est agréable. Ainsi, si nous pouvons trouver un si joli f , par hypothèse, le rh va à 0, et donc le côté gauche aussi.FFF

3) Enfin, prouver le théorème central limite pour Xiest iid avec la moyenne 0 et la variance 1. Ceci exploite à nouveau l'astuce de l'étape 2, où pour chaquegnous trouvons unftel que:Yn: =X1++XnnXigf

Eg(Xn)Eg(A)=Ef(Xn)Xnf(Xn).
Alex R.
la source
6

Voici comment je le ferais si j'étais au lycée.

Prenez n'importe quelle distribution de probabilité avec la densité , obtenez sa moyenne et sa variance μ x , σ 2 x . Ensuite, il se rapproche de la variable aléatoire z qui a la forme suivante: z = μ x - σ x + 2 σ x ξ ,ξ est Bernoulli variable aléatoire avec le paramètre p = une / 2 . Vous pouvez voir que μ z = μ x etF(X)μX,σX2z

z=μX-σX+2σXξ,
ξp=1/2μz=μX .σz2=σX2

On peut maintenant regarder la somme = n ( μ x - σ x ) + 2 σ x n i = 1 ξ i

Sn=je=1nzje
=n(μX-σX)+2σXje=1nξje

Vous pouvez reconnaître la distribution binomiale ici: , où η ~ B ( n , 1 / 2 ) . Vous n'avez pas besoin d'une fonction caractéristique pour voir qu'elle converge vers la forme d'une distribution normale .η=je=1nξjeηB(n,1/2)

Donc, à certains égards, on pourrait dire que le Bernoulli est l'approximation la moins précise pour toute distribution, et même elle converge vers la normale.

Par exemple, vous pouvez montrer que les moments correspondent à la normale. Définissons un regard sur la variable: y=(Sn/n-μX)n

y=σX(-1+2η/n)n

μy=σX(-1+2(n/2)/n)n=0
Vuner[y]=σX2Vuner[2η/n]n=4σX2/nn(1/4)=σX2

n

Aksakal
la source
Intéressant. Est-il possible de transformer cette idée en une preuve complète?
Elvis
@Elvis, j'essayais de penser comme moi il y a de nombreuses années, et je n'étais pas tellement dans les preuves. Une chose à laquelle j'ai pensé est de représenter la distribution continue comme une combinaison de bernoullis, mais je ne sais pas si c'est possible
Aksakal
Ce que vous avez écrit ci-dessus pourrait être bien meilleur. Pas besoin d'approximer étroitement la distribution: une approximation grossière par une variable prenant deux valeurs différentes ferait l'affaire.
Elvis
Autrement dit, s'il est possible de dériver une certaine limite sur la précision de l'approximation normale. Comme, l'approximation normale est au moins aussi bonne pour la distribution d'origine que pour le Bernoulli à l'échelle. Ou plus probablement quelque chose de plus faible mais qui permet quand même de conclure.
Elvis