Dans l'analyse factorielle (ou dans l'ACP), que signifie une charge factorielle supérieure à 1?

10

Je viens de lancer un FA en utilisant une rotation oblique (promax) et un élément a produit un facteur de chargement de 1,041 sur un facteur (et des chargements de facteur de -.131, -.119 et .065 sur les autres facteurs en utilisant la matrice de modèle ) . Et je ne suis pas sûr de ce que cela signifie, j'ai pensé que cela ne pouvait être qu'entre -1 et 1.

Est-ce dû à une rotation oblique? Et le chargement peut-il dépasser 1 avec des facteurs orthogonaux?

Rodrigo M. Rosales
la source

Réponses:

10

Qui vous a dit que les chargements factoriels ne peuvent pas être supérieurs à 1? Cela peut arriver. Surtout avec des facteurs fortement corrélés.

Ce passage d' un rapport à ce sujet par un éminent pionnier du SEM le résume à peu près:

"Ce malentendu provient probablement de l'analyse factorielle exploratoire classique où les chargements factoriels sont des corrélations si une matrice de corrélation est analysée et les facteurs sont normalisés et non corrélés (orthogonaux). Cependant, si les facteurs sont corrélés (obliques), les chargements factoriels sont des coefficients de régression et pas de corrélations et en tant que telles, elles peuvent être supérieures à un en magnitude. "

vieille femme
la source
5

Le chargement dans l'analyse factorielle ou dans l'ACP ( voir 1 , voir 2 , voir 3 ) est le coefficient de régression, le poids dans une combinaison linéaire prédisant des variables (éléments) par des facteurs / composants normalisés (variance unitaire).

1

Raison 1: matrice de covariance analysée. Si les variables analysées étaient normalisées, c'est-à-dire que l'analyse était basée sur une matrice de corrélation , puis après extraction ou après rotation orthogonale (comme varimax) - lorsque les facteurs / composants restent non corrélés - les charges sont également les coefficients de corrélation. C'est la propriété de l'équation de régression linéaire: avec des prédicteurs orthogonaux standardisés, les paramètres sont égaux aux corrélations de Pearson. Ainsi, dans un tel cas, le chargement ne peut pas dépasser [-1, 1].

Mais si l'analyse n'était que des variables centrées, c'est-à-dire que l'analyse était basée sur une matrice de covariance , alors les chargements ne doivent pas être limités à [-1, 1] parce que les coefficients de régression est qu'un tel modèle n'a pas besoin d'être égal aux coefficients de corrélation. Ce sont en fait des covariances. Notez qu'il s'agissait de chargements bruts. Il existe des chargements "redimensionnés" ou "standardisés" (décrits dans les liens que j'ai donnés au 1er paragraphe) qui sont redimensionnés pour ne pas quitter la bande [-1, 1].

Raison 2: rotation oblique. Après une rotation oblique telle que promax ou oblimin, nous avons deux types de charges: la matrice de modèle (coefficients de régression ou charges en soi) et la matrice de structure (coefficients de corrélation). Ils ne sont pas égaux entre eux pour la raison donnée ci-dessus: les coefficients de régression des prédicteurs corrélés sont différents des corrélations de Pearson. Ainsi, un chargement de motif peut facilement dépasser [-1, 1]. Notez que cela est vrai même lorsque la matrice de corrélation était la matrice analysée. Ainsi, c'est ainsi que lorsque les facteurs / composants sont obliques.

Raison 3 (rare): affaire Heywood. Le cas de Heywood ( pt 6 ) est une difficulté dans les algorithmes d'analyse factorielle lorsque, lors des itérations, le chargement dépasse la magnitude théoriquement autorisée - il se produit lorsque la communauté dépasse la variance. Le cas de Heywood est une situation rare et se rencontre généralement sur certains ensembles de données lorsqu'il y a trop peu de variables pour prendre en charge le nombre de facteurs requis. Les programmes informent qu'il y a une erreur de cas Heywood et arrêtent ou essaient de la résoudre.

ttnphns
la source