La définition la plus générale et la plus abstraite de l'indépendance rend cette assertion triviale tout en fournissant une condition de qualification importante: que deux variables aléatoires soient indépendantes signifie que les algèbres sigma qu'elles génèrent sont indépendantes. Parce que l'algèbre sigma générée par une fonction mesurable d'une algèbre sigma est une sous-algèbre, a fortiori toutes les fonctions mesurables de ces variables aléatoires ont des algèbres indépendantes, d'où ces fonctions sont indépendantes.
(Lorsqu'une fonction n'est pas mesurable, elle ne crée généralement pas de nouvelle variable aléatoire, donc le concept d'indépendant ne s'applique même pas.)
Déballons les définitions pour voir à quel point c'est simple. Rappelons qu'une variable aléatoire est une fonction à valeur réelle définie sur "l'espace échantillon" (l'ensemble des résultats étudiés via la probabilité).ΩXΩ
Une variable aléatoire est étudiée au moyen des probabilités que sa valeur se situe dans différents intervalles de nombres réels (ou, plus généralement, des ensembles construits de manière simple à partir d'intervalles: ce sont les ensembles mesurables Borel de nombres réels).X
Correspondant à un ensemble mesurable Borel est l' événement les résultats comprenant tous pour lesquels réside dans .X ∗ ( I ) ω X ( ω ) II X∗(I)ωX(ω)I
L'algèbre sigma générée par est déterminée par la collecte de tous ces événements.X
La définition naïve dit que deux variables aléatoires et Y sont indépendantes "lorsque leurs probabilités se multiplient". Autrement dit, lorsque I est un ensemble mesurable Borel et J est un autre, alorsXYIJ
Pr(X(ω)∈I and Y(ω)∈J)=Pr(X(ω)∈I)Pr(Y(ω)∈J).
Mais dans le langage des événements (et des algèbres sigma) c'est la même chose que
Pr(ω∈X∗(I) and ω∈Y∗(J))=Pr(ω∈X∗(I))Pr(ω∈Y∗(J)).
Considérons maintenant deux fonctions et supposons que et sont des variables aléatoires. (Le cercle est une composition fonctionnelle: . C'est ce que cela signifie pour d'être une "fonction d'une variable aléatoire".) Remarque - ceci est juste la théorie des ensembles élémentaires - que f ∘ X g ∘ Y ( f ∘ X ) ( ω ) = f ( X ( ω ) ) ff,g:R→Rf∘Xg∘Y(f∘X)(ω)=f(X(ω))f
(f∘X)∗(I)=X∗(f∗(I)).
En d'autres termes, chaque événement généré par (qui se trouve à gauche) est automatiquement un événement généré parXf∘XX (comme le montre la forme du côté droit). Donc (5) est automatiquement valable pour et : il n'y a rien à vérifier! f ∘ X g ∘ Yf∘Xg∘Y
NB Vous pouvez remplacer "valeur réelle" partout par "par des valeurs dans " sans avoir besoin de changer quoi que ce soit d'autre de manière matérielle. Cela couvre le cas des variables aléatoires à valeurs vectorielles.Rd
Considérez cette preuve "moins avancée":
Soit , où sont des variables aléatoires indépendantes et sont des fonctions mesurables. Alors: En utilisant l'indépendance de et , X , Y f , g P { f ( X ) ≤ x et g ( Y ) ≤ y }X:ΩX→Rn,Y:ΩY→Rm,f:Rn→Rk,g:Rm→Rp X,Y f,g X Y P ( { X ∈ { w ∈ R n : f ( w ) ≤ x } }
L'idée est de remarquer que l'ensemble donc des propriétés qui sont valables pour sont étendus à et la même chose se produit pour .
la source
Oui, et h ( Y ) sont indépendants pour toutes les fonctions g et h tant que X et Y sont indépendants. C'est un résultat très connu, qui est étudié dans les cours de théorie des probabilités. Je suis sûr que vous pouvez le trouver dans n'importe quel texte standard comme celui de Billingsley.g(X) h(Y) g h X Y
la source
Pas comme alternative, mais comme complément aux brillantes réponses précédentes, notez que ce résultat est en fait très intuitif.
la source