Quelle corrélation rend une matrice singulière et quelles sont les implications de la singularité ou de la quasi-singularité?

66

Je fais des calculs sur différentes matrices (principalement dans la régression logistique) et je reçois généralement l'erreur "Matrix is ​​singular", où je dois revenir en arrière et supprimer les variables corrélées. Ma question est la suivante: que considéreriez-vous comme une matrice "fortement" corrélée? Existe-t-il une valeur seuil de corrélation pour représenter ce mot? Comme si une variable avait une corrélation de 0,97 avec une autre, est-ce assez élevé pour rendre une matrice singulière?

Excuses si la question est très basique, je n’ai trouvé aucune référence parlant de cette question (une allusion à une référence serait un gros plus!).

Erreur 404
la source
2
Astuce: recherchez VIF et corrélation sur notre site .
whuber
Va certainement jeter un oeil. À votre santé.
Error404
2
@ttnphns a fourni une explication remarquable ci-dessous (sans surprise, cela semble être sa spécialité). Pour un exemple simple d'une situation dans laquelle vous pouvez obtenir une matrice de données singulière, il pourrait être utile de lire ma réponse ici: codage qualitatif-variable-en-régression-conduisant à des singularités .
Gay - Rétablir Monica
En effet il l'a fait !! En fait, m'a sauvé des heures de lecture avec confusion. Merci pour votre exemple @gung. C'était très utile les gars.
Erreur404

Réponses:

100

Quelle est la matrice singulière?

Une matrice carrée est singulière, c'est-à-dire que son déterminant est égal à zéro si elle contient des lignes ou des colonnes proportionnellement interdépendantes; en d'autres termes, une ou plusieurs de ses lignes (colonnes) peuvent être exactement exprimées sous la forme d'une combinaison linéaire de tout ou partie de ses autres lignes (colonnes), la combinaison étant sans terme constant.

3×3Acol3=2.15col1Arow2=1.6row14row3A, la matrice est également singulière car toute colonne est alors une combinaison linéaire des autres colonnes. En général, si une ligne (colonne) d'une matrice carrée est la somme pondérée des autres lignes (colonnes), alors l'une quelconque de ces dernières est également une somme pondérée des autres lignes (colonnes).

La matrice singulière ou quasi-singulière est souvent appelée matrice "mal conditionnée" car elle pose des problèmes dans de nombreuses analyses de données statistiques.

Quelles données produisent une matrice de corrélation singulière de variables?

À quelles données multivariées doivent ressembler pour que leur matrice de corrélation ou de covariance soit une matrice singulière décrite ci-dessus? C'est quand il y a des interdépendances linéaires entre les variables. Si une variable est une combinaison linéaire exacte des autres variables, le terme constant étant autorisé, les matrices de corrélation et de covariance des variables seront singulières. La dépendance observée dans une telle matrice entre ses colonnes correspond en fait à la même dépendance que la dépendance entre les variables observées après que les variables ont été centrées (leur moyenne est ramenée à 0) ou normalisées (si on utilise la corrélation plutôt que la matrice de covariance).

Certaines situations particulières fréquentes où la matrice de corrélation / covariance des variables est singulière sont les suivantes: (1) le nombre de variables est égal ou supérieur au nombre d'observations; (2) Deux variables ou plus se résument à une constante; (3) Deux variables sont identiques ou ne diffèrent que par la moyenne (niveau) ou la variance (échelle).

De plus, la duplication d'observations dans un jeu de données mènera la matrice vers la singularité. Plus vous clonez un cas, plus la singularité est proche. Ainsi, lors de l'imputation de valeurs manquantes, il est toujours avantageux (du point de vue statistique et mathématique) d'ajouter du bruit aux données imputées.

La singularité comme colinéarité géométrique

Du point de vue géométrique, la singularité est (multi) colinéarité (ou "complanarité"): les variables affichées sous forme de vecteurs (flèches) dans l’espace se situent dans l’espace de la dimensionnalité inférieur au nombre de variables - dans un espace réduit. (Cette dimensionnalité est connue sous le nom de rang de la matrice; elle est égale au nombre de valeurs propres non nulles de la matrice.)

Dans une vue géométrique plus lointaine ou "transcendantale", la singularité ou la définition zéro (présence de valeur propre nulle) est le point de flexion entre la définition positive et la définition non positive d'une matrice. Lorsque certains des vecteurs-variables (qui est la matrice de corrélation / covariance) "vont au-delà" même dans l'espace euclidien réduit - de sorte qu'ils ne peuvent plus "converger" ou "parfaitement couvrir" l' espace euclidien , une définition non positive apparaît , c’est-à-dire que certaines valeurs propres de la matrice de corrélation deviennent négatives. (Voir à propos de la matrice définie non positive, alias non-gramian ici .) La matrice définie non positive est également "mal conditionnée" pour certains types d'analyse statistique.

La colinéarité en régression: une explication géométrique et ses implications

X1X2YYeYYb1b2

entrez la description de l'image ici

X1X2Yede cette régression (un prédicteur), dessinée sur la photo. Il existe également d’autres approches, en plus de la suppression de variables, pour éliminer la colinéarité.

entrez la description de l'image ici

X1X2

entrez la description de l'image ici

X1X2X1X1X2sont tellement corrélés que nous attendons un plan X très différent dans différents échantillons de la même population. Comme le plan X est différent, les prédictions, le carré R, les résidus, les coefficients, tout devient également différent. On voit bien sur la photo, où le plan X a oscillé de 40 degrés. Dans une telle situation, les estimations (coefficients, R-carré, etc.) sont très peu fiables, ce qui s'explique par leurs énormes erreurs-types. Et contrairement aux prédicteurs très éloignés de la colinéarité, les estimations sont fiables car l’espace qu'elles recouvrent est robuste aux fluctuations de l’échantillonnage des données.

Colinéarité en fonction de la matrice entière

Même une forte corrélation entre deux variables, si elle est inférieure à 1, ne rend pas nécessairement toute la matrice de corrélation singulière; cela dépend aussi des corrélations de repos. Par exemple cette matrice de corrélation:

1.000     .990     .200
 .990    1.000     .100
 .200     .100    1.000

a déterminant .00950qui est encore suffisamment différent de 0 pour être considéré comme éligible dans de nombreuses analyses statistiques. Mais cette matrice:

1.000     .990     .239
 .990    1.000     .100
 .239     .100    1.000

a déterminant .00010, un degré plus proche de 0.

Diagnostic de la colinéarité: lecture complémentaire

Les analyses de données statistiques, telles que les régressions, intègrent des indices et des outils spéciaux pour détecter une colinéarité suffisamment puissante pour envisager de supprimer certaines variables ou certains cas de l'analyse, ou pour mettre en œuvre d'autres moyens de guérison. Veuillez rechercher (y compris ce site) des "diagnostics de colinéarité", "multicolinéarité", "tolérance de singularité / colinéarité", "indices de condition", "proportions de décomposition de la variance", "facteurs de variance de l'inflation (VIF)".

tnphns
la source
3
Merci pour cette explication détaillée. Ceci est un aperçu parfait pour quiconque tente de comprendre ce sujet. Je vais en savoir plus sur les titres que vous avez suggérés. C'est très apprécié :)
Error404
3
Énorme explication, je vais devoir vous remercier encore pour les ajouts que vous avez faits. Très instructif en effet.
Erreur404
4
Les explications géométriques et les figures associées sont vraiment utiles pour comprendre ce problème.
Gay - Rétablir Monica
1
Je vois que c'est un très vieux billet ... mais j'aimerais savoir ce que vous avez fait avec ces graphismes géométriques avec @ttnphns ... d'un côté, il semblerait que cela aurait même pu être MS Paint, mais ils sont simplement tellement bon
Paul
Qu'est-ce que @Paul a dit !!!
Abalter