Concernant la convergence des probabilités

12

Soit une suite de variables aléatoires st en probabilité, où est une constante fixe. J'essaie de montrer ce qui suit: et tous deux en probabilité. Je suis ici pour voir si ma logique était bonne. Voici mon travail{Xn}n1Xnaa>0

Xna
aXn1

TENTATIVE

Pour la première partie, nous avons Notez que Il s'ensuit alors que

|Xna|<ϵ|Xna|<ϵ|Xn+a|=ϵ|(Xnsqrta)+2a|
ϵ|Xna|+2ϵa<ϵ2+2ϵa
ϵ2+2ϵa>ϵa
P(|Xna|ϵ)P(|Xna|ϵa)1asn
Xnainprobability

Pour la deuxième partie, nous avons Maintenant, puisque as , nous avons que est une séquence bornée. En d' autres termes, il existe un nombre réel st . Ainsi, En le regardant en probabilité, nous avons X na n X n M < | X n | M | X n - a | < ϵ | X n |

|aXn1|=|XnaXn|<ϵ|Xna|<ϵ|Xn|
XnanXnM<|Xn|MP ( | a
|Xna|<ϵ|Xn||Xna|<ϵM
P(|aXn1|>ϵ)=P(|Xna|>ϵ|Xn|)P(|Xna|>ϵM)0asn

Je suis assez confiant dans le premier, mais je suis assez incertain dans le second. Ma logique était-elle solide?

Henry sauvage
la source
6
Considérons la séquence où et . Il me semble que depuis cette séquence converge vers en probabilité, mais elle est clairement illimitée puisque . Pr ( X n = a ) = 1 - 1 / n Pr ( X n = n ) = 1 / n 1 - 1 / n 1 a sup ( X n ) = max ( a , n ) XnPr(Xn=a)=11/nPr(Xn=n)=1/n11/n1asup(Xn)=max(a,n)
whuber
2
Théorème de cartographie continue?
Christoph Hanck

Réponses:

13

Les détails des preuves importent moins que de développer une intuition et des techniques appropriées. Cette réponse se concentre sur une approche conçue pour y parvenir. Il se compose de trois étapes: une «configuration» dans laquelle l'hypothèse et les définitions sont introduites; le "corps" (ou une "étape cruciale") dans lequel les hypothèses sont en quelque sorte liées à ce qui doit être prouvé, et le "dénouement" dans lequel la preuve est complétée. Comme dans de nombreux cas avec les preuves de probabilité, l'étape cruciale ici est de travailler avec des nombres (les valeurs possibles de variables aléatoires) plutôt que de traiter les variables aléatoires beaucoup plus compliquées elles-mêmes.


La convergence en probabilité d'une séquence de variables aléatoires vers une constante signifie que, quel que soit le voisinage de vous choisissez, chaque se trouve finalement dans ce voisinage avec une probabilité arbitrairement proche de . (Je ne préciserai pas comment traduire "éventuellement" et "fermer arbitrairement" en mathématiques formelles - toute personne intéressée par ce message le sait déjà.) a 0 Y n - a 1Yna0Yna1

Rappelons qu'un voisinage de est un ensemble de nombres réels contenant un ensemble ouvert dont est membre.000

La configuration est routinière. Considérez la séquence et laissez être n'importe quel voisinage de . L'objectif est de montrer que finalement aura une chance arbitrairement élevée de mentir dans . Puisque est un voisinage, il doit y avoir un pour lequel l'intervalle ouvert . Nous pouvons réduire si nécessaire pour garantir également . Cela garantira que les manipulations suivantes sont légitimes et utiles.O 0 Y n - 1 O O ϵ > 0 ( - ϵ , ϵ ) O ϵ ϵ < 1Yn=a/XnO0Yn1OOϵ>0(ϵ,ϵ)Oϵϵ<1

L'étape cruciale sera de connecter à . Cela ne nécessite aucune connaissance des variables aléatoires. L'algèbre des inégalités numériques (exploitant l'hypothèse ) nous dit que l'ensemble des nombres , pour tout , est en correspondance biunivoque avec l'ensemble de tous les pour lesquelsX n a > 0 { Y n ( ω )YnXna>0 ε > 0 X n ( ω ){Yn(ω)|Yn(ω)1(ϵ,ϵ)}ϵ>0Xn(ω)

a1+ϵ<Xn(ω)<a1ϵ.

De manière équivalente,

Xn(ω)a(aϵ1+ϵ,aϵ1ϵ)=U.

Puisque , le côté droit est en effet un voisinage de . (Cela montre clairement ce qui tombe en panne lorsque )U 0 a = 0a0U0a=0

Nous sommes prêts pour le dénouement.

Parce que en probabilité, nous savons que finalement chaque se trouvera dans avec une probabilité arbitrairement élevée. De manière équivalente, finira par se trouver dans avec une probabilité arbitrairement élevée, QED .X n - a U Y n - 1 ( - ϵ , ϵ ) OXnaXnaUYn1(ϵ,ϵ)O

whuber
la source
Je m'excuse pour la meilleure réponse tardive. La semaine a été chargée. Merci beaucoup pour cela !!!
Savage Henry
5

On nous donne que

limnP(|Xnα|>ϵ)=0

et nous voulons montrer que

limnP(|αXn1|>ϵ)=0

Nous avons ça

|αXn1|=|1Xn(αXn)|=|1Xn||Xnα|

Donc, de manière équivalente, nous examinons la limite de probabilité

limnP(|1Xn||Xnα|>ϵ)=?0

Nous pouvons diviser la probabilité en deux probabilités conjointes mutuellement exclusives

P(|1Xn||Xnα|>ϵ)=P(|1Xn||Xnα|>ϵ,|Xn|1)+P(|1Xn||Xnα|>ϵ,|Xn|<1)

Pour le premier élément, nous avons la série des inégalités

P(|1Xn||Xnα|>ϵ,|Xn|1)P[|Xnα|>ϵ,|Xn|1]P[|Xnα|>ϵ]

La première inégalité vient du fait que nous considérons la région oùest supérieur à l'unité et donc sa réciproque est plus petite que l'unité. La seconde inégalité car une probabilité conjointe d'un ensemble d'événements ne peut pas être supérieure à la probabilité d'un sous-ensemble de ces événements. La limite du terme le plus à droite est zéro (c'est la prémisse), donc la limite du terme le plus à gauche est également zéro. Le premier élément de la probabilité qui nous intéresse est donc zéro.|Xn|

Pour le deuxième élément, nous avons

P(|1Xn||Xnα|>ϵ,|Xn|<1)=P(|Xnα|>ϵ|Xn|,|Xn|<1)

Définissez. Depuis iciest borné, il s'ensuit que peut être rendu arbitrairement petit ou grand, et il est donc équivalent à . Nous avons donc l'inégalitéδϵmax|Xn||Xn|δϵ

P[|Xnα|>δ,|Xn|<1]P[|Xnα|>δ]

Encore une fois, la limite du côté droit est nulle par notre prémisse, donc la limite du côté gauche est également nulle. Par conséquent, le deuxième élément de la probabilité qui nous intéresse est également nul. QED.

Alecos Papadopoulos
la source
5

Pour la première partie, prenez et notez que Par conséquent, pour tout , définissant , nous avons quand , ce qui implique que .x,a,ϵ>0

|xa|ϵ|xa|ϵaa|xa|ϵax+a|(xa)(x+a)|ϵa|xa|ϵa.
ϵ>0δ=ϵa
Pr(|Xna|ϵ)Pr(|Xna|δ)0,
nXnPra

Pour la deuxième partie, reprenez , et trichez dans la réponse de Hubber (c'est l'étape clé ;-) pour définir Maintenant, Le contrapositif de cette déclaration est x,a,ϵ>0

δ=min{aϵ1+ϵ,aϵ1ϵ}.
|xa|<δaδ<x<a+δaaϵ1+ϵ<x<a+aϵ1ϵa1+ϵ<x<a1ϵ1ϵ<ax<1+ϵ|ax1|<ϵ.
|ax1|ϵ|xa|δ.

Par conséquent, lorsque , impliquant que .

Pr(|aXn1|ϵ)Pr(|Xna|δ)0,
naXnPr1

Remarque: les deux éléments sont les conséquences d'un résultat plus général. Tout d'abord, souvenez-vous de ce lemme: si et seulement si pour une sous-séquence il y a une sous-séquence tel que presque sûrement quand . De plus, souvenez-vous de Real Analysis que est continu à un point limite de si et seulement si pour chaque séquence dans il considère que implique . Par conséquent, siXnPrX{ni}N{nij}{ni}XnijXjg:ARxA{xn}Axnxg(xn)g(x)gest continue et presque sûrement, alors et il s'ensuit que presque sûrement. De plus, étant continu et , si nous choisissons une sous-séquence , alors, en utilisant le Lemme, il y a une sous-séquence telle sorte que presque sûrement lorsque . Mais alors, comme nous l'avons vu, il s'ensuit que presque sûrement quandXnX

Pr(limng(Xn)=g(X))Pr(limxXn=X)=1,
g(Xn)g(X)gXnPrX{ni}N{nij}{ni}XnijXjj { n i } N g ( X n ) Pr g ( X ) g ( x ) = g(Xnij)g(X)j. Puisque cet argument est valable pour chaque sous-séquence , en utilisant le lemme dans l'autre sens, nous concluons que . Par conséquent, pour répondre à votre question, vous pouvez simplement définir les fonctions continues et , pour , et appliquer ce résultat.{ni}Ng(Xn)Prg(X) h(x)=a/xx>0g(x)=xh(x)=a/xx>0
Zen
la source
Merci Zen pour ta réponse. C'était très clair!
Savage Henry