Pourquoi la matrice de corrélation doit-elle être positive semi-définie et que signifie-t-elle être ou ne pas être positive semi-définie?

34

J'ai étudié la signification de la propriété semi-définie positive des matrices de corrélation ou de covariance.

Je cherche des informations sur

  • Définition de semi-définitif positif;
  • Ses propriétés importantes, ses implications pratiques;
  • Conséquence d'avoir un déterminant négatif, impact sur l'analyse multivariée, les résultats de simulation, etc.
Melon
la source
5
Voulez - vous comprendre ce que semi-définitude est , ou voulez - vous savoir pourquoi les matrices de corrélation doivent être semi-définie, ou voulez - vous savoir quels résultats importants sont impliqués par cette propriété?
whuber
4
Si les matrices de corrélation n'étaient pas semi-positives définies, vous pourriez obtenir des écarts négatifs.
J'ai édité votre question un peu, s'il vous plaît vérifier. Veuillez également noter qu’une matrice avec un nombre pair de valeurs propres négatives aura toujours un déterminant positif.
ttnphns
Une matrice de covariance n'est PAS toujours égale à la matrice de corrélation! La covariance considère les variables normalisées, contrairement à la matrice de corrélation.
Manoj Kumar
1
Questions connexes: Chaque matrice de covariance est-elle positive définie? considère le cas plus large des matrices de covariance, pour lesquelles les matrices de corrélation constituent un cas particulier; aussi chaque matrice de corrélation positive est-elle semi-définie? et chaque matrice de corrélation est-elle définie positive?
Silverfish

Réponses:

38

La variance d'une somme pondérée de variables aléatoires doit être non négatif pour tous les choix de nombres réels un i . Étant donné que la variance peut être exprimée sous la forme var ( Σ i un i X i ) = Σ i Σ j a i un j cov ( X i , X j ) = Σ i Σ j a i un j Σ i , j ,iaiXiai

var(iaiXi)=ijaiajcov(Xi,Xj)=ijaiajΣi,j,
nous avons que la matrice de covariance doit être semi - définie positive (qui est parfois appelé non négatif défini). Rappelons que la matrice C est appelé semi - définie positive si et seulement si Σ i Σ j a i a j C i , j0Σ=[Σi,j]C
ijaiajCi,j0ai,ajR.
Dilip Sarwate
la source
Merci, j'ai enlevé mon vote négatif, mais je n'ai pas voté parce qu'il ne répond pas aux implications pratiques. Disons que j'ai une matrice qui n'est pas définie positive (due par exemple à une modification par un "expert"). Que se passerait-il si je l'utilisais pour calibrer et / ou simuler des données? Plus précisément, s’agit-il d’un véritable problème lorsque l’on étudie une somme importante et qu’il n’ya que quelques valeurs propres négatives? Quel serait un algorithme efficace pour transformer une matrice de corrélation semi-définie non positive en une matrice positive semi-définie? Quel serait l'impact de cet algorithme?
lcrmorin
@Were_cat Merci pour l'inversion du vote négatif.
Dilip Sarwate
Pourriez-vous s'il vous plaît expliquer la première égalité dans la première équation?
Vivek Subramanian
1
@VivekSubramanian Variance est un cas particulier de la fonction de covariance: et la fonction de covariance est bilinéaire ( ce qui signifie qu'il est une fonction linéaire par rapport à chaque argument: cov ( Σ i a i X i , Y )var(X)=cov(X,X)
cov(ΣjeunejeXje,Y)=Σjeunejecov(Xje,Y)cov(X,ΣjebjYj,)=Σjbjcov(X,Yj)
Dilip Sarwate
18

La réponse est assez simple.

La matrice de corrélation est définie ainsi:

Laissez soit la matrice de données m × n : m observations, n variables.X=[X1,X2,...,Xn]m×nmn

Définir Xb=[(X1-μ1e)s1,(X2-μ2e)s2,(X3-μ3e)s3,...]μ1μ2s1e

La matrice de corrélation est alors

C=XbXb

UNEzzUNEz<0

CwCw<0

(wCw)=(wXbXbw)=(Xbw)(Xbw)=z12+z22...z=XbwwCw

UVV

Gregor
la source
2
C’est de loin la réponse la plus claire, la plus concise et la plus utile. Merci !
Yohan Obadia
12

(Le possible relâchement dans le raisonnement serait le mien. Je ne suis pas un mathématicien: c'est une représentation, pas une preuve, et provient de mes expériences numériques, pas de livres.)

  1. Une matrice positive semi-définie (psd), également appelée matrice de Gramian, est une matrice sans valeurs propres négatives. La matrice avec des valeurs propres négatives n'est pas positive semi-définie, ni non-Gramian. Les deux peuvent être définis (pas de valeurs propres égales à zéro) ou singuliers (avec au moins une valeur propre égale à zéro). [Le mot "Gramian" est utilisé dans plusieurs sens différents en mathématiques, donc devrait peut-être être évité.]
  2. En statistique, nous appliquons généralement ces termes à une matrice de type SSCP, également appelée matrice de produit scalaire. Les matrices de corrélation ou de covariance sont des cas particuliers d'une telle matrice .
  3. npppnnmatrice de covariance entre les cas. Lorsque vous le calculez à partir de données réelles, la matrice sera toujours en Gramian. Vous pouvez obtenir une matrice non Gramian (non psd) si (1) il s'agit d'une matrice de similarité mesurée directement (c'est-à-dire non calculée à partir des données) ou si la mesure de similarité n'est pas du type SSCP; (2) les valeurs de la matrice ont été mal entrées; (3) la matrice est en fait de Gramian mais est (ou si proche de l'être) singulière que parfois la méthode spectrale de calcul des valeurs propres produit de minuscules valeurs négatives à la place de valeurs nulles ou positives.
  4. 122=h12+h22-2s12shXYXy2=σX2+σy2-2covXy
  5. mm
  6. mmm
  7. Quelles sont les causes possibles ou les versions de la configuration non-Gramian (non-euclidienne)? Les réponses suivent lors de la contemplation [point 4].
    • mm
    • het certains hest donné, l'autre h's ne doit varier que dans certaines limites afin de rester en accord avec l'espace euclidien. Voir Fig2.
    • Cause 3. Il existe une discordance localisée (au niveau des paires) entre un et la paire de correspondants hest connecté à ces deux points. À savoir, la règle de l' inégalité triangulaire est violée; cette règle exigeh1+h212|h1-h2|. Voir Fig3.
  8. Pour diagnostiquer la cause, convertissez la matrice de covariance non Gramian en matrice de distance en utilisant la loi des cosinus ci-dessus. Faites un double centrage dessus. Si la matrice résultante a des valeurs propres négatives, la cause 1 est présente. Sinon s'il y en a|covjej|>σjeσj, la cause 3 est présente. Sinon, la cause 2 est présente. Parfois, plusieurs causes s’entendent dans une même matrice.

Fig. 1.

Fig. 1

Fig2.

Fig2

Fig3.

Fig3

tnphns
la source
2
Le point 6 doit être démontré: vous avez montré qu'une matrice de distances euclidiennes au carré est pd, mais vous affirmez sans preuve que chaque matrice pd correspond à une configuration euclidienne de points. De plus, vous n'avez pas associé votre définition de pd ("pas de valeurs propres négatives") à vos caractérisations ultérieures. L'idée clé vient à la fin (point 8): une matrice pd peut être utilisée pour définir une distance. Logiquement, c'est ici que vous devriez commencer l'analyse.
whuber
@ Whuber: Merci pour cette évaluation critique. J'ai peur, quand il s'agit de prouver mathématiquement quelque chose, je coule. J'ai rapporté une partie de mon expérience pratique (c'est ce que j'ai dit); la réponse n'était pas vraiment une séquence analytique. Ne voudriez-vous pas alors ajouter votre propre réponse qui puisse corriger / améliorer la mienne? Cela pourrait s'avérer une aide précieuse. Ou bien, vous êtes libre de travailler sur mon texte pour l'améliorer si vous le trouvez pas tout à fait inutile.
ttnphns
PS Mon point 8 implique que, puisque le double centrage ancre une configuration de points à son centroïde, cette opération elle-même n'introduit pas de non-euclidité (elle ne produit que la singularité car le nouveau point, centre, appartient au même espace). De là, nous pouvons vérifier si la configuration initiale était euclidienne. N'est-ce pas correct?
ttnphns