Fonctions des variables aléatoires indépendantes

25

Est-ce vrai que les fonctions des variables aléatoires indépendantes sont elles-mêmes indépendantes?

J'ai vu ce résultat souvent utilisé implicitement dans certaines preuves, par exemple dans la preuve d'indépendance entre la moyenne de l'échantillon et la variance de l'échantillon d'une distribution normale, mais je n'ai pas pu le justifier. Il semble que certains auteurs la considèrent comme donnée, mais je ne suis pas certain que ce soit toujours le cas.

JohnK
la source

Réponses:

33

La définition la plus générale et la plus abstraite de l'indépendance rend cette assertion triviale tout en fournissant une condition de qualification importante: que deux variables aléatoires soient indépendantes signifie que les algèbres sigma qu'elles génèrent sont indépendantes. Parce que l'algèbre sigma générée par une fonction mesurable d'une algèbre sigma est une sous-algèbre, a fortiori toutes les fonctions mesurables de ces variables aléatoires ont des algèbres indépendantes, d'où ces fonctions sont indépendantes.

(Lorsqu'une fonction n'est pas mesurable, elle ne crée généralement pas de nouvelle variable aléatoire, donc le concept d'indépendant ne s'applique même pas.)


Déballons les définitions pour voir à quel point c'est simple. Rappelons qu'une variable aléatoire est une fonction à valeur réelle définie sur "l'espace échantillon" (l'ensemble des résultats étudiés via la probabilité).ΩXΩ

  1. Une variable aléatoire est étudiée au moyen des probabilités que sa valeur se situe dans différents intervalles de nombres réels (ou, plus généralement, des ensembles construits de manière simple à partir d'intervalles: ce sont les ensembles mesurables Borel de nombres réels).X

  2. Correspondant à un ensemble mesurable Borel est l' événement les résultats comprenant tous pour lesquels réside dans .X ( I ) ω X ( ω ) II X(I)ωX(ω)I

  3. L'algèbre sigma générée par est déterminée par la collecte de tous ces événements.X

  4. La définition naïve dit que deux variables aléatoires et Y sont indépendantes "lorsque leurs probabilités se multiplient". Autrement dit, lorsque I est un ensemble mesurable Borel et J est un autre, alorsXYIJ

    Pr(X(ω)I and Y(ω)J)=Pr(X(ω)I)Pr(Y(ω)J).

  5. Mais dans le langage des événements (et des algèbres sigma) c'est la même chose que

    Pr(ωX(I) and ωY(J))=Pr(ωX(I))Pr(ωY(J)).

Considérons maintenant deux fonctions et supposons que et sont des variables aléatoires. (Le cercle est une composition fonctionnelle: . C'est ce que cela signifie pour d'être une "fonction d'une variable aléatoire".) Remarque - ceci est juste la théorie des ensembles élémentaires - que f X g Y ( f X ) ( ω ) = f ( X ( ω ) ) ff,g:RRfXgY(fX)(ω)=f(X(ω))f

(fX)(I)=X(f(I)).

En d'autres termes, chaque événement généré par (qui se trouve à gauche) est automatiquement un événement généré parXfXX (comme le montre la forme du côté droit). Donc (5) est automatiquement valable pour et : il n'y a rien à vérifier! f X g YfXgY


NB Vous pouvez remplacer "valeur réelle" partout par "par des valeurs dans " sans avoir besoin de changer quoi que ce soit d'autre de manière matérielle. Cela couvre le cas des variables aléatoires à valeurs vectorielles.Rd

whuber
la source
1
Les algèbres sigma sont des choses avancées (niveau supérieur).
Aksakal
3
@Aksakal Cela dépend de l'école que vous fréquentez ou des livres que vous lisez. (J'ai réussi à enseigner ce matériel au niveau du premier cycle. Il existe également des comptes merveilleusement accessibles de cette théorie au niveau du premier cycle, tels que les textes de Steven Shreve sur le calcul stochastique, qui s'adressent aux étudiants ayant juste une formation en calcul.) Mais en quoi est-ce pertinent? Toute justification - même sophistiquée - doit être préférée à une affirmation injustifiée.
whuber
1
Vous êtes très aimable de vous donner tant de mal pour aider quelqu'un qui a posé une question. Merci encore. Et vous avez raison, les définitions ne sont pas trop intimidantes après tout.
JohnK
13

Considérez cette preuve "moins avancée":

Soit , où sont des variables aléatoires indépendantes et sont des fonctions mesurables. Alors: En utilisant l'indépendance de et , X , Y f , g P { f ( X ) x  et  g ( Y ) y }X:ΩXRn,Y:ΩYRm,f:RnRk,g:RmRpX,Yf,gX Y P ( { X { w R n : f ( w ) x } }

P{f(X)x and g(Y)y}=P({f(X)x}{g(Y)y})=P({X{wRn:f(w)x}}{Y{wRm:g(w)y}}).
XY
P({X{wRn:f(w)x}}{Y{wRm:g(w)y}})==P{X{wRn:f(w)x}P{Y{wRm:g(w)y}}=P{f(X)x}P{g(Y)y}.

L'idée est de remarquer que l'ensemble donc des propriétés qui sont valables pour sont étendus à et la même chose se produit pour .

{f(X)x}{wΩX:f(X(w))x}={X{wRn:f(w)x}},
Xf(X)Y
Guilherme Salomé
la source
2
+1. Merci pour cette contribution, qui se concentre si clairement sur l'idée essentielle. Bienvenue sur notre site!
whuber
7

Oui, et h ( Y ) sont indépendants pour toutes les fonctions g et h tant que X et Y sont indépendants. C'est un résultat très connu, qui est étudié dans les cours de théorie des probabilités. Je suis sûr que vous pouvez le trouver dans n'importe quel texte standard comme celui de Billingsley.g(X)h(Y)ghXY

Aksakal
la source
Merci, j'étudie actuellement Hogg & Craig et MGB. Billingsley est la prochaine étape logique.
JohnK
3
Billinglsey est une torture à moins que vous ne soyez mathématicien et que vous ayez déjà étudié les mesures. L' intro de Partarathy est un livre 2 en 1 beaucoup plus facile, le texte Probabilité d' Alan Karr est également facile à lire.
Aksakal
Un autre texte plus facile que celui de Billingsley: probabilite.ca/jeff/grprobbook.html
Adrian
0

Pas comme alternative, mais comme complément aux brillantes réponses précédentes, notez que ce résultat est en fait très intuitif.

XYXY

Alexis
la source