En convergence en probabilité ou en convergence par rapport à quelle mesure est la probabilité?

8

Je présentais des preuves de WLLN et une version de SLLN (en supposant le 4ème moment central borné) quand quelqu'un a demandé quelle mesure est la probabilité avec respect aussi et j'ai réalisé que, après réflexion, je n'étais pas tout à fait sûr.

Il semble que ce soit simple, car dans les deux lois, nous avons une séquence de VR indépendants de avec une moyenne et une variance finie identiques. Il n'y a qu'une seule variable aléatoire en vue, à savoir le , donc la probabilité doit être par rapport à la distribution du , non? Mais cela ne semble pas tout à fait approprié pour la loi forte, car la technique de preuve typique consiste alors à définir un nouveau RV et à travailler avec cela , et la limite est à l' intérieur de la probabilité:XiXiXiSn:=i=1nXi

Pr[limn1ni=1nXi=E[Xi]]=1

Alors maintenant, il semble que le RV soit les sommes sur n termes, donc la probabilité est sur la distribution des sommes Sn , où n n'est plus fixe. Est-ce exact? Si tel est le cas, comment procéder pour construire une mesure de probabilité appropriée sur les séquences de sommes partielles?

Heureux de recevoir des réponses intuitives sur ce qui se passe ainsi que des réponses formelles en utilisant par exemple une analyse réelle ou complexe, des probabilités / statistiques de premier cycle, une théorie de mesure de base. J'ai lu Convergence en probabilité vs convergence presque sûre et liens associés, mais je n'y trouve aucune aide.

Bob Durrant
la source
1
Vous pouvez également être intéressé par cette question récente , qui touche à certains points connexes.
cardinal
@cardinal Merci - et +1 pour la x-ref qui est clairement liée.
Bob Durrant

Réponses:

12

La mesure de probabilité est la même dans les deux cas, mais la question d'intérêt est différente entre les deux. Dans les deux cas, nous avons (infiniment) une séquence infinie de variables aléatoires définies sur un espace de probabilité unique . Nous considérons , et comme les produits infinis dans chaque cas (il faut faire attention, ici, à ce que nous ne parlions que de mesures de probabilité car nous pouvons rencontrer des problèmes autrement).(Ω,F,P)ΩFP

Pour le SLLN, nous nous soucions de la probabilité (ou mesure) de l'ensemble de tous les où les sommes partielles mises à l'échelle NE convergent PAS. Cet ensemble a la mesure zéro (wrt ), précise le SLLN.ω=(ω1,ω2,)P

Pour le WLLN, nous nous soucions du comportement de la séquence de mesures de projection , où pour chaque , est le projection de sur l'espace mesurable fini . Le WLLN dit que la probabilité (projetée) des cylindres (c'est-à-dire les événements impliquant ), sur laquelle les sommes partielles mises à l'échelle ne convergent pas, va à zéro dans la limite comme va à l'infini.(Pn)n=1nPnPΩn=i=1nΩiX1,,Xnn

Dans le WLLN, nous calculons des probabilités qui semblent être retirées de l'espace produit infini, mais elles ne se sont jamais réellement éloignées - elles étaient là depuis le début. Tout ce que nous faisions était de projeter sur le sous-espace de 1 à et de prendre ensuite la limite. Qu'une telle chose soit possible, qu'il soit possible de construire une mesure de probabilité sur un espace produit infini de telle sorte que les projections pour chaque correspondent à ce que nous pensons qu'elles devraient faire et faire ce qu'elles sont censées faire, est l'une des conséquences du théorème d'extension de Kolmogorov .nn

Si vous souhaitez en savoir plus, j'ai trouvé la discussion la plus détaillée de points subtils comme ceux-ci dans "Probability and Measure Theory" de Ash, Doleans-Dade. Il y en a quelques autres, mais Ash / DD est mon préféré.


la source
+1, j'ai commencé à écrire ma propre explication, mais la vôtre est bien meilleure.
mpiktas
1
+1. Puis-je simplement ajouter, pour l'orientation visuelle, que nous traçons souvent le chemin de l'échantillon et nous attendons à ce que le graphique se stabilise autour de l'attente pour le grand . C'est précisément ce que le SLLN prévoit. Le WLLN dit quelque chose de plus vague, et il ne garantit pas que le graphique se nivellera éventuellement. Puisque le SLLN est vrai, il le sera, mais il y a d'autres contre-exemples qui montrent que nous pouvons avoir une convergence en probabilité et pourtant avec une probabilité le chemin de l'échantillon ne sera pas de niveau. (n,1nSn)n
NRH
@mpiktas, merci. @NRH, oui, vous avez exactement raison. Si j'ai du temps plus tard ce soir, je pourrais peut-être ajouter un graphique comme vous en parliez.
@NRH Merci pour la suggestion; J'ai fait quelques graphiques, mais ils semblaient mieux placés dans l'autre question ici: stats.stackexchange.com/questions/2230/…
@G. Jay, super, et tu as aussi +1 pour cette réponse.
NRH