Je sais que la moyenne de la somme des variables indépendantes est la somme des moyennes de chaque variable indépendante. Cela s'applique-t-il également aux variables dépendantes?
mean
non-independent
Gh75m
la source
la source
Réponses:
L'attente (en prenant la moyenne) est un opérateur linéaire .
Cela signifie , entre autres, queE (X+ Y) = E ( X) + E ( Y) pour deux variables aléatoires X et Oui (pour lesquelles les attentes existent), qu'elles soient indépendantes ou non.
Nous pouvons généraliser (par exemple par induction ) de sorte queE ( ∑ni = 1Xje) = ∑ni = 1E ( Xje) tant que chaque attente E ( Xje) existe.
Alors oui, la moyenne de la somme est la même que la somme de la moyenne même si les variables sont dépendantes. Mais notez que cela ne s'applique pas à la variance! Ainsi, alors queV a r (X+ Y) = V a r ( X) + V a r ( Y) pour les variables indépendantes, ou même les variables qui sont dépendantes mais non corrélées , la formule générale est V a r (X+ Y) = V a r ( X) + V a r ( Y) + 2 C o v ( X, Y) oùC o v est lacovariancedes variables.
la source
TL; DR:
En supposant qu'elle existe, la moyenne est une valeur attendue, et la valeur attendue est une intégrale, et les intégrales ont la propriété de linéarité par rapport aux sommes.
TS; DR:Ouin= ∑ni = 1Xje E( Yn) X n et leur soutien commun
D=S X 1 ×. . . ×S X n
En utilisant laloi du statisticien inconscient, nous avons l'intégralemultipleFX( x ) = fX1, . . . , Xn( x1, . . . , xn) D = SX1× . . . × SXn
Puisque nous avons affaire à la somme des variables aléatoires , c'est-à-dire d'une fonction de beaucoup d'entre elles, la moyenne de la somme E ( Y n ) est par rapport à leur distribution conjointe ( on suppose que tous les moyens existent et sont finies) désignant X le vecteur multivariée de la n VR, leur densité joint peut être écrit sous la forme f X ( x ) = f X 1 , . . . , X
.
Dans certaines conditions de régularité, nous pouvons décomposer l'intégrale multiple en une intégrale itérative:n
et en utilisant la linéarité des intégrales, nous pouvons nous décomposer en
Pour chaque intégrale itérative, nous pouvons réorganiser l'ordre d'intégration de sorte que, dans chacune, l'intégration externe soit par rapport à la variable qui est en dehors de la densité de joint. À savoir,n
et en général
= ∫ S X
Comme nous calculons une par une l'intégrale dans chaque intégrale itérative (à partir de l'intérieur), nous «intégrons» une variable et nous obtenons à chaque étape la distribution «conjointe-marginale» des autres variables. Chaque intégrale n- itérative finira donc par ∫ S X j x j f X j ( x j ) d x j .n n ∫SXjXjFXj( xj) dXj
Rassemblant tout cela, nous arrivons à
Mais maintenant, chaque intégrale simple est la valeur attendue de chaque variable aléatoire séparément, donc
Notez que nous n'avons jamais invoqué l'indépendance ou la non-indépendance des variables aléatoires impliquées, mais nous avons travaillé uniquement avec leur distribution conjointe.
la source