Comment trouve-t-on la moyenne d'une somme de variables dépendantes?

13

Je sais que la moyenne de la somme des variables indépendantes est la somme des moyennes de chaque variable indépendante. Cela s'applique-t-il également aux variables dépendantes?

Gh75m
la source
@feetwet, supprimer simplement "merci" n'est pas vraiment assez important pour faire tomber un fil d'il y a 18 mois. FWIW, j'ai voté pour rejeter cette modification (mais 2 autres ont approuvé, vous n'auriez donc pas vu mon commentaire autrement).
gung - Réintègre Monica
1
@gung - Toutes sortes de choses peuvent perturber la vue de la question "Active". Votre observation a été faite souvent, et AFAIK la politique d'échange de pile est que, malgré cet inconvénient, des modifications mineures valides sont une bonne chose .
feetwet
1
@feetwet, je ne sais pas à quel point un message meta.Photography est pertinent. Chaque site SE a sa propre méta et ses propres politiques, décidées par la communauté. Vous voudrez peut-être regarder les fils de discussion meta.CV pertinents, par exemple, celui-ci: Gestion des «modifications suggérées» aux publications . Vous remarquerez peut-être que la réponse de Whuber cite Jeff Atwood, "de minuscules modifications, comme ... ne supprimant que la salutation d'un message. ... rejetez-les, avec des préjugés extrêmes", et joran fait le point, "Mon seuil pour quand un montage trop mineur est inversement lié à l'âge de la question ".
gung - Rétablir Monica
1
@gung the Photography post J'ai référencé des liens vers un Q&A important et plus récent de Meta Stack Exchange sur le sujet . Mais si la réponse de 4 ans de whuber est toujours canonique pour la validation croisée, je respecterai cela à l'avenir.
feetwet

Réponses:

18

L'attente (en prenant la moyenne) est un opérateur linéaire .

Cela signifie , entre autres, que E(X+Y)=E(X)+E(Y) pour deux variables aléatoires X et Y (pour lesquelles les attentes existent), qu'elles soient indépendantes ou non.

Nous pouvons généraliser (par exemple par induction ) de sorte que E(i=1nXi)=i=1nE(Xi) tant que chaque attente E(Xi) existe.

Alors oui, la moyenne de la somme est la même que la somme de la moyenne même si les variables sont dépendantes. Mais notez que cela ne s'applique pas à la variance! Ainsi, alors que Var(X+Y)=Var(X)+Var(Y) pour les variables indépendantes, ou même les variables qui sont dépendantes mais non corrélées , la formule générale est Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)Cov est lacovariancedes variables.

Silverfish
la source
10

TL; DR:
En supposant qu'elle existe, la moyenne est une valeur attendue, et la valeur attendue est une intégrale, et les intégrales ont la propriété de linéarité par rapport aux sommes.

TS; DR:
Puisque nous avons affaire à la somme des variables aléatoires , c'est-à-dire d'une fonction de beaucoup d'entre elles, la moyenne de la somme E ( Y n ) est par rapport à leur distribution conjointe ( on suppose que tous les moyens existent et sont finies) désignant X le vecteur multivariée de la n VR, leur densité joint peut être écrit sous la forme f X ( x ) = f X 1 , . . . , XYn=i=1nXiE(Yn)Xnet leur soutien commun D=S X 1 ×. . . ×S X n En utilisant laloi du statisticien inconscient, nous avons l'intégralemultiplefX(x)=fX1,...,Xn(x1,...,xn)D=SX1×...×SXn

.

E[Yn]=DYnfX(x)dx

Dans certaines conditions de régularité, nous pouvons décomposer l'intégrale multiple en une intégrale itérative:n

E[Yn]=SXn...SX1[i=1nXi]fX1,...,Xn(x1,...,xn)dx1...dxn

et en utilisant la linéarité des intégrales, nous pouvons nous décomposer en

=SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn+......+SXn...SX1xnfX1,...,Xn(x1,...,xn)dx1...dxn

Pour chaque intégrale itérative, nous pouvons réorganiser l'ordre d'intégration de sorte que, dans chacune, l'intégration externe soit par rapport à la variable qui est en dehors de la densité de joint. À savoir,n

SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn=SX1x1SXn...SX2fX1,...,Xn(x1,...,xn)dx2...dxndx1

et en général

=S X

SXn...SXj...SX1xjfX1,...,Xn(x1,...,xn)dx1...dxj...dxn=
=SXjXjSXn...SXj-1SXj+1...SX1FX1,...,Xn(X1,...,Xn)X1...Xj-1Xj+1......XnXj

Comme nous calculons une par une l'intégrale dans chaque intégrale itérative (à partir de l'intérieur), nous «intégrons» une variable et nous obtenons à chaque étape la distribution «conjointe-marginale» des autres variables. Chaque intégrale n- itérative finira donc par S X j x j f X j ( x j ) d x j .nnSXjXjFXj(Xj)Xj

Rassemblant tout cela, nous arrivons à

E[Ouin]=E[je=1nXje]=SX1X1FX1(X1)X1+...+SXnXnFXn(Xn)Xn

Mais maintenant, chaque intégrale simple est la valeur attendue de chaque variable aléatoire séparément, donc

E[je=1nXje]=E(X1)+...+E(Xn)
=je=1nE(Xje)

Notez que nous n'avons jamais invoqué l'indépendance ou la non-indépendance des variables aléatoires impliquées, mais nous avons travaillé uniquement avec leur distribution conjointe.

Alecos Papadopoulos
la source
@ssdecontrol C'est un vote positif que j'apprécie, en effet .
Alecos Papadopoulos
1
L'extension en intégrales itérées et inversement n'est pas nécessaire. Cela complique un argument simple. Vous pouvez remplacer la section "TS; DR" par sa dernière phrase et avoir une bonne réponse.
whuber
@whuber Un an et demi plus tard, cela m'échappe encore (je veux dire, sans utiliser le fait "linéarité de l'opérateur d'attente", qui a déjà été utilisé par l'autre réponse). Un indice pour que je puisse retravailler la réponse vers ce simple argument?
Alecos Papadopoulos
Je pense que l'argument est superflu. La clé de tout cela est votre observation dans la dernière phrase.
whuber