Covariance pour trois variables

8

J'essaie de comprendre comment fonctionne la matrice de covariance . Supposons donc que nous ayons deux variables:X,Y, où Cov(X,Y)=E[(xE[X])(yE[Y])] donne la relation entre les variables, c'est-à-dire combien l'une dépend de l'autre.

Maintenant, trois cas variable, il est moins clair pour moi. Une définition intuitive de la fonction de covariance seraitCov(X,Y,Z)=E[(xE[X])(yE[Y])(zE[Z])], mais la littérature suggère plutôt d'utiliser une matrice de covariance qui est définie comme deux covariances variables pour chaque paire de variables.

Alors, la covariance inclut-elle des informations complètes sur les relations variables? Si oui, quelle est la relation avec ma définition deCov(X,Y,Z)?

Karolis
la source
1
Je pense, je vois que ma définition ne fonctionne tout simplement pas. Mais la matrice de covariance est-elle suffisante pour quantifier la relation entre toutes les variables?
Karolis
5
La matrice de covariance est suffisante pour quantifier la covariance entre toutes les variables mais pas les "relations" car il s'agit d'un concept général (les variables peuvent être liées ou dépendantes de nombreuses manières non linéaires différentes qui ne sont pas capturées par la covariance). Une exception à cette règle serait si vous connaissiez les variables où la variation multiple est normale.
Zachary Blumenfeld
Merci @ZacharyBlumenfeld! Pourriez-vous recommander un bon manuel à ce sujet?
Karolis
2
Quelle est la différence entre X et X dans le terme X-E[X]? Je sais ce que tu veux dire parX - c'est une variable aléatoire - et aussi par E[X] - c'est la valeur attendue de X, un vrai nombre - mais qu'est-ce X? SiX est un autre nombre réel, alors X-E[X] est un nombre réel - rien d’aléatoire - et donc votre définition se réduit à
cov(X,Oui,Z)=E[(X-E[X])(y-E[Oui])(z-E[Z])]=(X-E[X])(y-E[Oui])(z-E[Z])
car la valeur attendue d'un nombre réel est le nombre réel lui-même.
Dilip Sarwate
2
@ZacharyBlumenfeld, votre commentaire est presque considéré comme une réponse. Vous devriez peut-être l'étendre un peu (ajoutezE[(X-E[X])(y-E[Oui])(z-E[Z])]est un moment de croix centrale de troisième ordre, quoi d'autre) et poster comme réponse?
Richard Hardy

Réponses:

1

Pour développer le commentaire de Zachary, la matrice de covariance ne capture pas la "relation" entre deux variables aléatoires, car la "relation" est trop large d'un concept. Par exemple, nous voudrions probablement inclure la dépendance de deux variables l'une sur l'autre pour qu'elles soient incluses dans toute mesure de leur "relation". Cependant, nous savons quecov(X,Oui)=0n'implique pas qu'elles soient indépendantes, comme c'est le cas par exemple pour deux variables aléatoires X ~ U (-1,1) et Y = X ^ 2 (pour une courte démonstration, voir: https://en.wikipedia.org / wiki / Covariance # Uncorrelatedness_and_independence ).

Donc, si nous pensions que la covariance comprend des informations complètes sur les relations variables, comme vous le demandez, une covariance nulle ne suggérerait aucune dépendance. C'est ce que Zachary veut dire quand il dit qu'il peut y avoir des dépendances non linéaires que la covariance ne capture pas.

Cependant, laissez X: =(X1,...,Xn) être normal à plusieurs variables, X ~N(μ,Σ). alorsX1,...,Xn sont indépendants ssi Σ est une matrice diagonale avec tous les éléments hors diagonale = 0 (si toutes les covariances = 0).

Pour voir que cette condition est suffisante, observons que les facteurs de densité conjointe,

F(X1,...,Xn)=1(2π)n|Σ|eXp(-12(X-μ)Σ-1(X-μ))=Πje=1n12πσjejeeXp(-(Xje-μje)22σjeje)=F1(X1)...Fn(Xn)
.

Pour voir que la condition est nécessaire, rappelons le cas bivarié. SiX1 et X2 sont indépendants, alors X1 et X1|X2=X2 doit avoir la même variance, donc

σ11=σ11|2=σ11-σ122σ22-1

ce qui implique σ12=0. Par le même argument, tous les éléments hors diagonale deΣ doit être nul.

(source: diapositives d'économétrie avancée du professeur Geert Dhaene)

hrrrrrr5602
la source