J'essaie de comprendre comment fonctionne la matrice de covariance . Supposons donc que nous ayons deux variables:, où donne la relation entre les variables, c'est-à-dire combien l'une dépend de l'autre.
Maintenant, trois cas variable, il est moins clair pour moi. Une définition intuitive de la fonction de covariance serait, mais la littérature suggère plutôt d'utiliser une matrice de covariance qui est définie comme deux covariances variables pour chaque paire de variables.
Alors, la covariance inclut-elle des informations complètes sur les relations variables? Si oui, quelle est la relation avec ma définition de?
correlation
covariance
moments
Karolis
la source
la source
Réponses:
Pour développer le commentaire de Zachary, la matrice de covariance ne capture pas la "relation" entre deux variables aléatoires, car la "relation" est trop large d'un concept. Par exemple, nous voudrions probablement inclure la dépendance de deux variables l'une sur l'autre pour qu'elles soient incluses dans toute mesure de leur "relation". Cependant, nous savons quec o v ( X,Y) = 0 n'implique pas qu'elles soient indépendantes, comme c'est le cas par exemple pour deux variables aléatoires X ~ U (-1,1) et Y = X ^ 2 (pour une courte démonstration, voir: https://en.wikipedia.org / wiki / Covariance # Uncorrelatedness_and_independence ).
Donc, si nous pensions que la covariance comprend des informations complètes sur les relations variables, comme vous le demandez, une covariance nulle ne suggérerait aucune dépendance. C'est ce que Zachary veut dire quand il dit qu'il peut y avoir des dépendances non linéaires que la covariance ne capture pas.
Cependant, laissezX: = (X1, . . . ,Xn)′ être normal à plusieurs variables, X ~N( μ , Σ ) . alorsX1, . . . ,Xn sont indépendants ssi Σ est une matrice diagonale avec tous les éléments hors diagonale = 0 (si toutes les covariances = 0).
Pour voir que cette condition est suffisante, observons que les facteurs de densité conjointe,F(X1, . . . ,Xn) =1( 2 π)n| Σ |-------√e x p ( -12( x - μ)′Σ- 1( x - μ ) )=Πni = 112 πσje je----√e x p ( -(Xje-μje)22σje je) =F1(X1) . . .Fn(Xn) .
Pour voir que la condition est nécessaire, rappelons le cas bivarié. SiX1 et X2 sont indépendants, alors X1 et X1|X2=X2 doit avoir la même variance, donc
ce qui impliqueσ12= 0 . Par le même argument, tous les éléments hors diagonale deΣ doit être nul.
(source: diapositives d'économétrie avancée du professeur Geert Dhaene)
la source