Comment interpréter une covariance inverse ou une matrice de précision?

65

Je me demandais si quelqu'un pourrait m'indiquer des références qui traitent de l'interprétation des éléments de la matrice de covariance inverse, également appelée matrice de concentration ou matrice de précision.

J'ai accès aux dépendances multivariées de Cox et Wermuth , mais ce que je recherche, c'est une interprétation de chaque élément de la matrice inverse. Wikipédia déclare : « Les éléments de la matrice de précision ont une interprétation en termes de corrélations partielles et écarts partiels », ce qui me conduit à cette page. Existe-t-il une interprétation sans utiliser la régression linéaire? IE, en termes de covariances ou de géométrie?

Vinh Nguyen
la source
4
avez-vous lu toute la page Wikipedia? Il y a une section sur la géométrie et sur l'indépendance conditionnelle pour la distribution normale. Vous pouvez trouver plus dans ce livre .
NRH
@NRH La géométrie est expliquée dans la page de corrélation partielle, dont je ne suis même pas sûr de la relation avec la matrice de concentration. Ce livre de modèles graphiques explique-t-il les éléments de la matrice de concentration? Merci!
Vinh Nguyen
voir la réponse ci-dessous.
NRH

Réponses:

34

Il y a essentiellement deux choses à dire. La première est que si vous regardez la densité de la distribution normale multivariée (avec la moyenne 0 ici), elle est proportionnelle à où est l'inverse de la matrice de covariance, également appelée précision. Cette matrice est définie positive et définit via un produit intérieur sur . La géométrie résultante, qui donne un sens spécifique au concept d’orthogonalité et définit une norme liée à la distribution normale, est importante et pour comprendre, par exemple, le contenu géométrique de LDA, vous devez visualiser les choses à la lumière de la géométrie donnée. par

exp(12xTPx)
P=Σ1
(x,y)xTPy
RpP .

L'autre chose à dire est que les corrélations partielles peuvent être lues directement à partir de , voir ici . La même page Wikipedia indique que les corrélations partielles, et donc les entrées de , ont une interprétation géométrique en termes de cosinus par rapport à un angle. Ce qui est peut-être plus important dans le contexte des corrélations partielles est que la corrélation partielle entre et est 0 si et seulement si l'entrée dans est égale à zéro. Pour la distribution normale, les variables et sont alors conditionnellement indépendantesPPXiXji,jPXiXjcompte tenu de toutes les autres variables. C’est ce que dit le livre de Steffens, auquel j’ai fait référence dans le commentaire ci-dessus. Indépendance conditionnelle et modèles graphiques. La distribution normale est traitée de manière assez complète, mais ce n’est peut-être pas si facile à suivre.

NRH
la source
1
Désolé, je suis un peu confus par rapport à la formule de Wikipedia pour la corrélation partielle; J'ai vu plusieurs implémentations prendre (avec un signe moins). Êtes-vous sûr que la formule de Wikipedia est correcte? pijpiipjj
Sheljohn
1
@ Sh3ljohn, vous avez parfaitement raison. Il manque un moins dans la formule de Wikipedia.
NRH
La première réponse ne parle-t-elle pas davantage des informations de Fisher que de la matrice de précision? Je veux dire qu'ils coïncident dans le cas gaussien vraiment spécial / gentil, mais ils ne coïncident généralement pas. Évidemment, les deux concepts sont liés (limite inférieure de Cramer-Rao, distribution asymptotique de MLE, etc.), mais il ne semble pas utile de les mélanger (en particulier, je suis venu à cette question en cherchant sa question sur la manière de distinguer les informations de Fisher matrice de corrélation inverse).
Chill2Macht
24

J'aime que ce modèle graphique probabiliste illustre le point de NRH selon lequel la corrélation partielle est nulle si et seulement si X est conditionnellement indépendant de Y étant donné Z, l'hypothèse étant que toutes les variables impliquées sont gaussiennes multivariées (la propriété n'est pas valable dans le cas général) :

entrez la description de l'image ici

(les sont des variables aléatoires gaussiennes; ignorer T et k)yi

Source: conférence de David MacKay sur les principes fondamentaux du processus gaussien , 25e minute.

Franck Dernoncourt
la source
12

L'interprétation basée sur les corrélations partielles est probablement la plus utile sur le plan statistique, car elle s'applique à toutes les distributions multivariées. Dans le cas particulier de la distribution normale multivariée, la corrélation partielle nulle correspond à l'indépendance conditionnelle.

Vous pouvez dériver cette interprétation en utilisant le complément de Schur pour obtenir une formule pour les entrées de la matrice de concentration en termes d'entrées de la matrice de covariance. Voir http://en.wikipedia.org/wiki/Schur_complement#Applications_to_probability_theory_and_statistics

vqv
la source
11

La matrice de covariance peut représenter la relation entre toutes les variables, tandis que la covariance inverse, correspond à la relation de l'élément avec ses voisins (comme le dit wikipedia, la relation partielle / paire).

J'emprunte l'exemple suivant d' ici à 24:10, imaginez 5 masses sont reliées entre elles et vocalisation autour de 6 sources, la matrice de covariance contiendrait corrélation de toutes les masses, si l' on va bien, d' autres peuvent aussi va bien. mais la matrice de covariance inverse correspond à la relation des masses reliées par le même ressort (voisins) et contient beaucoup de zéros et n'est pas nécessairement positive.

utilisateur4581
la source
1
Où est-ce expliqué dans la vidéo? C'est une heure. Merci!
Vinh Nguyen
vous avez raison, c'est sur 24h10, je pense que c'est le meilleur exemple pour comprendre la nature de la matrice cov et son inverse
user4581
5

Bar-Shalom et Fortmann (1988) mentionnent la covariance inverse dans le contexte du filtrage de Kalman comme suit:

... il y a une récurrence pour la covariance inverse (ou matrice d'information )

P1(k+1|k+1)=P1(k+1|k)+H(k+1)R1(k+1)H(k+1)

... En effet, un ensemble complet d'équations de prédiction et de mise à jour, appelé filtre d'information [8, 29, 142], peut être développé pour la covariance inverse et un vecteur d'état transformé .P1x^

Le livre est indexé chez Google .

étoile brillante
la source