Si et , ?

9

Ce ne sont pas des devoirs.

Soit X une variable aléatoire. Si E[X]=kR et Var[X]=0 , est-ce que Pr(X=k)=1 ?

Intuitivement, cela semble évident, mais je ne sais pas comment je le prouverais. Je sais pertinemment que d'après les hypothèses, il s'ensuit que E[X2]=k2 . Donc

(Rx dF(x))2=Rx2 dF(x).
Cela ne me mène nulle part. Je pourrais essayer
Var[X]=E[(Xk)2].
Maintenant depuis (Xk)20 , il s'ensuit que E[(Xk)2]0 également.

Mais si je devais utiliser l'égalité,

E[(Xk)2]=0
alors mon instinct est que (Xk)20 , de sorte que Xk .

Comment pourrais-je le savoir? Je suppose une preuve par contradiction.

Si, au contraire, Xk pour tous X , puis (Xk)2>0 et E[(Xk)2]>0 pour tout X . Nous avons une contradiction, donc Xk .

Ma preuve est-elle solide - et si oui, existe-t-il peut-être une meilleure façon de prouver cette affirmation?

Clarinettiste
la source
@ user777 J'ai essayé cette méthode à l'origine (comme vous pouvez le voir dans mon Équation ), mais je ne savais pas trop comment procéder.
Rx dF(x)=Rx2 dF(x)
Clarinettiste
3
Je crois que l'inégalité de Chebyshev répond immédiatement à cette question.
whuber
@whuber: au moins la déclaration de Wikipédia sur l'inégalité de Chebyshev nécessite explicitement une variance non nulle . Je ne vois pas vraiment si nous avons besoin d'une sorte de preuve élémentaire pour le cas de la variance nulle ...
Stephan Kolassa
1
@Stephan Vous pouvez facilement mélanger dans n'importe quelle distribution non dégénérée avec une plage et appliquer l'inégalité pour montrer que pour tous et tout . (δ,δ)Pr(|Xk|>δ)εε>0δ>0
whuber

Réponses:

6

Voici une preuve théorique de mesure pour compléter les autres, en utilisant uniquement des définitions. Nous travaillons sur un espace de probabilité . Notez que et considérez l'intégrale . Supposons que pour certains , il existe tel que sur et . Alors rapproche de d'en bas, donc par la définition standard de comme le supremum d'intégrales de fonctions simples se rapprochant d'en bas, (Ω,F,P)Y:=(XEX)20EY:=Y(ω)P(dω)ϵ>0AFY>ϵAP(A)>0ϵIAYEY

EYϵIAP(dω)=ϵP(A)>0,
ce qui est une contradiction. Ainsi, , . Terminé.ϵ>0P({ω:Y>ϵ})=0
ekvall
la source
5

Prouvez cela par contradiction. Par la définition de la variance et vos hypothèses, vous avez

0=VarX=R(xk)2f(x)dx,

où est la densité de probabilité de . Notez que et sont pas négatifs.fX(xk)2f(x)

Maintenant, si , alorsP(X=k)<1

U:=(R{k})f1(]0,[)

est de mesure supérieure à zéro, et . Mais alorskU

U(xk)2f(x)dx>0,

(un argument -style pourrait être inclus ici) et doncϵ

0=VarX=R(xk)2f(x)dxU(xk)2f(x)dx>0,

et votre contradiction.

Stephan Kolassa
la source
2

Qu'est-ce que ? Est-ce la même chose que as?XkX=k

ETA: Iirc,XkX(ω)=k  ωΩX=k a.s.

Quoi qu'il en soit, il est évident que

(XE[X])20

Supposer

E[XE[X])2]=0

alors

(XE[X])2=0 a.s.

La dernière étape, je crois, implique la continuité des probabilités ... ou ce que vous avez fait (vous avez raison).


Il y a aussi l'inégalité de Chebyshev :

ϵ>0 ,

P(|Xk|ϵ)0ϵ2=0

P(|Xk|ϵ)=0

P(|Xk|<ϵ)=1

Bonne conversation à nouveau .


Btw pourquoi est-ce que

Rx dF(x)=Rx2 dF(x)

?

Il me semble que alors queLHS=kRHS=k2

BCLC
la source
1
Oui, tu as raison. J'ai édité le post
Clarinettiste
@Clarinetist Édité le mien aussi: P
BCLC