PCA suivi d’une rotation (telle que varimax) est-il toujours PCA?

63

J'ai essayé de reproduire certaines recherches (à l'aide de PCA) à partir de SPSS en R. Dans mon expérience, la principal() fonction de package psychétait la seule fonction qui se rapprochait (ou si ma mémoire est parfaite) pour correspondre à la sortie. Pour obtenir les mêmes résultats que dans SPSS, je devais utiliser le paramètre principal(..., rotate = "varimax"). J'ai vu des articles parler de leur expérience de la PCA, mais si l'on se base sur les résultats de SPSS et sur l'utilisation de la rotation, cela ressemble davantage à une analyse factorielle.

Question: PCA, même après rotation (utilisation varimax), est-il toujours PCA? J'avais l'impression qu'il s'agissait peut-être d'une analyse factorielle ... Dans le cas contraire, quels sont les détails qui me manquent?

Roman Luštrik
la source
4
Techniquement, tout ce que vous avez après la rotation ne sont plus des composants principaux .
Gala
2
La rotation elle-même ne le change pas. Tourné ou non, l’analyse est ce qu’elle est. La PCA ne fait pas partie de la définition étroite de "l'analyse factorielle", et la PCA est une définition plus large de "l'analyse factorielle". stats.stackexchange.com/a/94104/3277
ttnphns
1
Bonjour @ Roman! J'ai examiné ce vieux fil de discussion et je suis surpris que vous ayez marqué la réponse de Brett comme acceptée. Vous demandiez si la rotation PCA + est toujours PCA ou est-ce FA? La réponse de Brett ne dit pas un seul mot sur les rotations! Il ne mentionne pas non plus la principalfonction sur laquelle vous avez posé la question. Si sa réponse a bien répondu à votre question, alors peut-être que votre question n’est pas formulée correctement; envisageriez-vous l'édition? Sinon, je trouve que la réponse de ce doctorat est beaucoup plus proche de la réponse à votre question. Notez que vous pouvez modifier la réponse acceptée à tout moment.
amibe dit de réintégrer Monica le
1
Je devrais ajouter que je travaille sur une nouvelle réponse plus détaillée à votre question. Je suis donc curieux de savoir si ce sujet vous intéresse toujours. Après tout, quatre ans et des années ont passé ...
Amibe dit de réintégrer Monica
3
@ amoeba malheureusement, le futur ne peut pas me dire pourquoi j'ai accepté cette réponse. En examinant la vieille bête 4,5 ans plus tard, je me suis rendu compte qu'aucune des réponses ne se rapprochait. mbq commence prometteur mais n’explique pas. Quoiqu'il en soit, le sujet est très déroutant, probablement en raison d'une terminologie erronée dans les logiciels statistiques populaires pour les sciences sociales que je ne nommerai pas avec une abréviation de quatre lettres. S'il vous plaît, postez une réponse et envoyez-moi une requête ping, je l'accepterai si je la trouve plus proche de ma réponse à ma question.
Roman Luštrik

Réponses:

53

Cette question concerne en grande partie les définitions de PCA / FA, les opinions peuvent donc différer. Mon opinion est que PCA + varimax ne devrait pas être appelé PCA ou FA, mais plutôt explicitement désigné, par exemple, comme "PCA à rotation Varimax".

Je devrais ajouter que c'est un sujet assez déroutant. Dans cette réponse , je veux expliquer ce qu'est une rotation en fait est ; cela nécessitera quelques mathématiques. Un lecteur occasionnel peut passer directement à l'illustration. Ce n’est qu’alors que nous pourrons discuter de la question de savoir si la rotation de la PCA + doit ou non être appelée "PCA".

Une référence est l'ouvrage de Jolliffe "Analyse en composantes principales", section 11.1 "Rotation des composantes principales", mais j'estime que cela pourrait être plus clair.


Soit une matrice de données que nous supposons centrée. PCA correspond ( voir ma réponse ici ) à une décomposition en valeurs singulières: . Il existe deux vues équivalentes mais complémentaires sur cette décomposition: une vue "projection" de style plus PCA et une vue "variables latentes" de style plus FA. n × p X = U S VXn×pX=USV

Selon la vue PCA-style, nous avons trouvé un tas de directions orthogonales (ce sont des vecteurs propres de la matrice de covariance, également appelée "directions principales" ou "axes"), et "composantes principales" ( également appelés «scores» de la composante principale) sont des projections des données sur ces directions. Les composantes principales ne sont pas corrélées, la première a une variance maximale possible, etc. On peut écrire:U S X = U SV = Scores __gVirt_NP_NNS_NNPS<__ directions principales .VUS

X=USV=ScoresPrincipal directions.

Selon la vue de type FA, nous avons trouvé des "facteurs latents" de variance unitaire non corrélés qui génèrent les variables observées via des "chargements". En effet, sont des composantes principales normalisées (non corrélées et avec variance unitaire), et si nous définissons les chargements comme suit: , puis (Notez que .) Les deux vues sont équivalentes. Notez que les chargements sont des vecteurs propres mis à l'échelle par les valeurs propres respectives ( sont des valeurs propres de la matrice de covariance).L=VS/U~=n1U X=L=VS/n1S=SS/

X=n1U(VS/n1)=U~L=Standardized scoresLoadings.
S=SS/n1

(Je devrais ajouter entre parenthèses que PCA FA ; FA vise explicitement à trouver des facteurs latents mappés linéairement aux variables observées via des chargements; il est plus souple que PCA et donne des chargements différents. C’est pourquoi je préfère appeler cela plus haut. "Vue de style FA sur PCA" et non pas FA, même si certaines personnes le considèrent comme l’une des méthodes FA.)

Maintenant, que fait une rotation? Par exemple, une rotation orthogonale, telle que varimax. Premièrement, elle ne considère que composants, c.-à-d.:Ensuite, il faut un carré orthogonal matrice , et branche dans cette décomposition: où les rotations sont données park<p

XUkSkVk=U~kLk.
k×kTTT=I
XUkSkVk=UkTTSkVk=U~rotLrot,
~ U r o t = ~ U k T T L r o tLrot=LkTEt mis en rotation des notes normalisées sont données par . (Le but de ceci est de trouver telle sorte que soit aussi proche que possible de la plus petite densité possible, afin de faciliter son interprétation.)U~rot=U~kTTLrot

Notez que ce qui est en rotation sont: (1) les scores standardisés, (2) les chargements. Mais pas les scores bruts et pas les directions principales! Donc, la rotation a lieu dans l' espace latent , pas dans l'espace d'origine. C'est absolument crucial.

Du point de vue de la FA, il ne s'est pas passé grand chose. (A) Les facteurs latents ne sont toujours pas corrélés et standardisés. (B) Ils sont toujours mappés sur les variables observées via des chargements (en rotation). (C) La quantité de variance capturée par chaque composante / facteur est donnée par la somme des valeurs au carré de la colonne de chargements correspondante dans . (D) Géométriquement, les chargements couvrent toujours le même sous-espace dimensionnel dans (le sous-espace recouvert par les premiers vecteurs propres PCA). (E) L’approximation de et l’erreur de reconstruction n’ont pas changé du tout. (F) La matrice de covariance est toujours aussi approchée: k R p k X Σ L k L k = L r o t L r o t .LrotkRpkX

ΣLkLk=LrotLrot.

Mais le point de vue de la PCA s'est pratiquement effondré. Les chargements pivotés ne correspondent plus aux directions / axes orthogonaux dans , c'est-à-dire que les colonnes de ne sont pas orthogonales! Pire, si vous projetez [orthogonalement] les données dans les directions données par les chargements pivotés, vous obtiendrez des projections corrélées (!) Et ne pourrez pas récupérer les scores. [Au lieu de cela, pour calculer les scores normalisés après rotation, il faut multiplier la matrice de données avec le pseudo-inverse des chargements . Alternativement, on peut simplement faire pivoter les partitions standardisées originales avec la matrice de rotation:L r o tRpLrotU~rot=X(Lrot+)U~rot=U~T ] De plus, les composants pivotés ne capturent pas successivement la quantité maximale de variance: la variance est redistribuée entre les composants (même bien que toutes les composantes tournées capturent exactement la même variance que toutes les composantes principales originales).kk

Voici une illustration. Les données sont une ellipse 2D étendue le long de la diagonale principale. La première direction principale est la diagonale principale, la seconde lui est orthogonale. Les vecteurs de chargement PCA (vecteurs propres mis à l'échelle par les valeurs propres) sont indiqués en rouge - pointant dans les deux sens et également étirés d'un facteur de visibilité constant. Ensuite, j'ai appliqué une rotation orthogonale de aux chargements. Les vecteurs de charge résultants sont affichés en magenta. Notez comme ils ne sont pas orthogonaux (!).30

Rotation du PCA

Une intuition de style FA est la suivante: imaginez un "espace latent" où les points remplissent un petit cercle (proviennent d’un gaussien 2D avec des variances unitaires). Cette distribution de points est ensuite étirée le long des chargements PCA (en rouge) pour devenir l'ellipse de données que nous voyons sur cette figure. Cependant, la même distribution de points peut être pivotée puis étirée le long des chargements PCA pivotés (magenta) pour devenir la même ellipse de données .

[Pour voir réellement qu'une rotation orthogonale de chargements est une rotation , il faut regarder un biplot PCA; là, les vecteurs / rayons correspondant aux variables d’origine se déplaceront simplement.]


Résumons. Après une rotation orthogonale (telle que varimax), les axes "rotation principale" ne sont pas orthogonaux et leur projection orthogonale n’a aucun sens. Il faut donc laisser tomber ce point de vue des axes / projections. Il serait étrange de l’appeler encore PCA (ce qui est tout à propos de projections avec variance maximale, etc.).

Du point de vue de FA, nous avons simplement fait pivoter nos facteurs latents (normalisés et non corrélés), ce qui est une opération valide. Il n'y a pas de "projections" dans FA; au lieu de cela, les facteurs latents génèrent les variables observées via des chargements. Cette logique est encore préservée. Cependant, nous avons commencé avec les composantes principales, qui ne sont pas réellement des facteurs (l’ACP n’est pas identique à l’AC). Il serait donc étrange d'appeler cela aussi FA.

Au lieu de débattre de la question de savoir si un "devrait" plutôt appeler PCA ou FA, je suggérerais d’être méticuleux pour spécifier la procédure exacte utilisée: "PCA suivie d’une rotation varimax".


Post Scriptum. Il est possible de considérer une autre procédure de rotation, où est inséré entre et . Cela ferait tourner les scores bruts et les vecteurs propres (au lieu des scores et des chargements standardisés). Le plus gros problème de cette approche est qu’après une telle "rotation", les scores ne seront plus décorrélés, ce qui est assez fatal pour PCA. On peut le faire, mais ce n’est pas ainsi que les rotations sont généralement comprises et appliquées.TTUSV

l'amibe dit de réintégrer Monica
la source
Je n'ai pas bien compris le texte entourant la photo. Vous utilisez des "chargements" plusieurs fois: PCA loading vectors... are shown in red, stretched along the rotated PCA loadings (magenta). Je me demande comment des "chargements" ou leur "vecteur" pourraient être représentés sous forme d'axes sur le diagramme de dispersion des données. Pouvez-vous, s'il vous plaît, le rendre plus clair? Et l'idée de "stretching"? Merci.
Messages
1
Cela pourrait être lié à la longue discussion que nous avons eu récemment au sujet des chargements "couvrant un sous-espace" dans l'espace variable ou non. Dans cette réponse, j'ai utilisé "vecteur de chargement" (ou simplement "chargement") pour désigner une colonne de la matrice de chargement. Dans mon exemple, les données sont en 2D, c'est-à-dire qu'il y a deux variables et que les chargements sont donc des vecteurs en 2D. Par conséquent, je peux les tracer sur le diagramme de dispersion des données (je les ai mises à l'échelle avec un facteur de visibilité constant). En ACP, les charges sont bien sûr orthogonales (elles sont proportionnelles aux vecteurs propres). Après varimax, ils ne sont plus.
amibe dit de réintégrer Monica le
Le paragraphe sur le "stretching" (juste après la photo), je devrais probablement mieux illustrer; Je peux voir que ce n'est pas très clair.
amibe dit de réintégrer Monica le
Je pensais que si vous vouliez tracer l'orthogonalité ou la non orthogonalité de certains vecteurs (tels que les chargements), vous devriez les dessiner sous forme de flèches. Ou peut-être que je ne te comprends pas?
Merci le
1
Je conviens que l’utilisation de flèches serait préférable, j’ai seulement omis les "pointes de flèches" pour faciliter la représentation. Je pourrais refaire cette figure pour les ajouter. De plus, j'ai dessiné chaque vecteur pointant dans les deux directions car leurs signes importent peu.
amibe dit de réintégrer Monica le
29

L'analyse en composantes principales (ACP) et l'analyse factorielle commune (CFA) sont des méthodes distinctes. Souvent, ils produisent des résultats similaires et la PCA est utilisée comme méthode d'extraction par défaut dans les routines d'analyse de facteur SPSS. Cela entraîne sans aucun doute une grande confusion quant à la distinction entre les deux.

En bout de ligne, ce sont deux modèles différents, conceptuellement. En ACP, les composants sont des combinaisons linéaires orthogonales réelles qui maximisent la variance totale. En FA, les facteurs sont des combinaisons linéaires qui maximisent la partie partagée de la variance - "constructions latentes" sous-jacentes. C’est pourquoi on appelle souvent l’analyse «analyse factorielle commune». FA utilise diverses routines d’optimisation et le résultat, contrairement à PCA, dépend de la routine d’optimisation utilisée et des points de départ de ces routines. Simplement il n'y a pas une solution unique unique.

Dans R, la fonction factanal () fournit à CFA une extraction du maximum de vraisemblance. Vous ne devez donc pas vous attendre à ce qu'il reproduise un résultat SPSS basé sur une extraction PCA. Ce n'est tout simplement pas le même modèle ou la même logique. Je ne suis pas sûr que vous obtiendriez le même résultat si vous utilisiez l'extraction du maximum de vraisemblance de SPSS, car ils pourraient ne pas utiliser le même algorithme.

Pour le meilleur ou pour le pire dans R, vous pouvez toutefois reproduire "l'analyse factorielle" confondue fournie par SPSS par défaut. Voici le processus décrit dans R. Avec ce code, je suis en mesure de reproduire le résultat "Analyse factorielle" de la composante principale de SPSS à l'aide de cet ensemble de données. (À l'exception du signe, qui est indéterminant). Vous pouvez également faire pivoter ce résultat en utilisant l’une des méthodes de rotation disponibles.

# Load the base dataset attitude to work with.
data(attitude)
# Compute eigenvalues and eigen vectors of the correlation matrix.
pfa.eigen<-eigen(cor(attitude))
# Print and note that eigen values are those produced by SPSS.
# Also note that SPSS will extract 2 components as eigen values > 1 = 2
pfa.eigen$values
# set a value for the number of factors (for clarity)
factors<-2
# Extract and transform two components.
pfa.eigen$vectors [ , 1:factors ]  %*% 
+ diag ( sqrt (pfa.eigen$values [ 1:factors ] ),factors,factors )
Brett
la source
+1 pour avoir vraiment aidé à atténuer la confusion entre SPSS et R ici. Il reste deux questions: qu'est-ce que R prcompou que princompfaire par rapport à l'approche mélangée de SPSS? Que fait réellement SPSS par extraction?
hans0l0
ah, et puis-je ajouter comment calculer les scores pour, par exemple, PC1 à votre solution: normaliser zz <- scale(attitude,T,T)et pc1 <- zz %*% solve(cor(attitude),lamba[,1]). Où lambda est le résultat de la dernière ligne de l'exemple de @Brett Magills.
hans0l0
3
-1. Même s'il y a beaucoup d'informations utiles dans cette réponse, j'estime qu'elle ne répond pas du tout à la question initiale. La question initiale était de savoir si la rotation PCA + peut toujours être considérée comme PCA (ou plutôt FA). Votre réponse ne mentionne même pas les rotations! Alors, comment peut-il être une réponse?
Amibe dit de réintégrer Monica le
1
Il pourrait être utile de noter que l’analyse factorielle commune n’est pas la même que l’analyse factorielle de confirmation (également CFA), qui est une procédure totalement différente.
Richard Border
11

Cette réponse consiste à présenter, sous forme de diagramme de trajectoire, des choses sur lesquelles @amoeba a motivé sa réponse profonde (mais légèrement compliquée) sur ce fil (je suis en quelque sorte d’accord avec elle à 95%) et comment elles me paraissent. .

La PCA, dans sa forme propre et minimale, correspond à la rotation orthogonale spécifique des données corrélées à sa forme non corrélée, les principales composantes réduisant progressivement la variabilité globale de façon séquentielle. Si la réduction de la dimensionnalité est tout ce que nous souhaitons, nous ne calculons généralement pas les chargements et tout ce qu'ils traînent après eux. Nous sommes heureux avec les (premières) scores des composantes principales . [Veuillez noter que les notations sur le graphique ne suivent pas précisément celles de @ amoeba - je m'en tiens à ce que j'adopte dans certaines de mes autres réponses.]P

Sur le graphique, je prends un exemple simple de deux variables p=2et utilise les deux composantes principales extraites. Bien que nous ne gardions habituellement que quelques premiers m<pcomposants, pour la question théorique que nous examinons ("PCA avec rotation est-il un PCA ou quoi?"), Cela ne fait aucune différence si vous les conservez mtous ou tous p; au moins dans ma réponse particulière.

L'astuce des charges est de tirer l' échelle (magnitude, variabilité, inertie ) au large des composants (scores bruts) et sur les coefficients (vecteurs propres) en laissant le premier à être « cadre » nu (pr standard .) (les scores des composants) et ceux-ci doivent être charnus (charges). Vous restaurez les données également avec . Mais les chargements ouvrent des perspectives: (i) pour interpréter les composants; (ii) faire l'objet d'une rotation; (iii) restaurer les corrélations / covariances des variables. Tout cela est dû au fait que la variabilité des données a été écrite dans des chargements, tout comme leur chargement.LVPzAX=PV=PzA

Et ils peuvent renvoyer cette charge aux points de données à tout moment, maintenant ou après la rotation . Si nous concevons une rotation orthogonale telle que varimax, cela signifie que nous voulons que les composants restent non corrélés après la rotation. Seules les données avec la matrice de covariance sphérique, lorsqu'elles sont pivotées orthogonalement, préservent le caractère non corrélé. Et voila, les composants principaux normalisés (qui dans l'apprentissage machine sont souvent appelés "données blanchies en PCA") sont que les données magiques ( sont en réalité proportionnelles à la gauche, c'est-à-dire que les vecteurs propres des lignes). Alors que nous sommes à la recherche de la matrice de rotation varimaxPzPzQpour faciliter l'interprétation des chargements, les points de données nous attendent passivement dans leur sphère et identité chaste (ou "blancheur").

Après que soit trouvé, la rotation de par elle équivaut au calcul habituel des scores normalisés des composantes principales via l'inverse généralisé de la matrice de chargement, - cette fois, des chargements pivotés , (voir le graphique ). Les composants principaux résultant en rotation varimax, sont pas corrélés, comme nous le voulions, plus les données sont restaurées par eux aussi bien qu'avant la rotation: . Nous pouvons alors leur redonner leur échelle déposé (et tourné en conséquence) dans - les unstandardize: .P z A r C z X = P z A ' = C z A ' r A r CQPzArCzX=PzA=CzArArC

Nous devons être conscients que les "composants principaux à rotation variable" ne sont plus des composants principaux : j’ai utilisé la notation Cz, C au lieu de Pz, P, pour le souligner. Ce ne sont que des "composants". Les composants principaux sont uniques, mais ils peuvent être nombreux. Des rotations autres que varimax donneront d’autres nouvelles variables appelées aussi composants et non corrélées, en plus de celles .C

On peut également dire que les composantes principales varimax-tournées (ou autrement tournées orthogonalement) (maintenant juste des "composants"), bien qu'elles restent non corrélées, orthogonales, n'impliquent pas que leurs chargements sont également orthogonaux. Les colonnes de sont orthogonales (comme l'étaient les vecteurs propres ), mais pas les colonnes de (voir aussi la note de bas de page ici ).V A rAVAr

Et enfin - la rotation des composants principaux bruts avec notre n'est pas une action utile. Nous obtiendrons des variables corrélées avec un sens problématique. est apparu pour optimiser (d'une manière spécifique) la configuration des charges qui avaient absorbé toute l'échelle dans les . n'a jamais été entraîné à faire pivoter des points de données avec toute l'échelle laissée dessus. La rotation de avec sera équivalente à la rotation de vecteurs propres avec (dansQ " C " Q Q P Q V Q V r " C " = X V rPQ"C"QQPQ VQVr) puis en calculant les scores bruts de composants sous la forme . Ces "chemins" notés par @amoeba dans leur post-scriptum."C"=XVr

Ces dernières actions (inutiles pour la plupart) nous rappellent que les vecteurs propres, et pas seulement les chargements, pourraient faire l’objet d’une rotation, en général. Par exemple, la procédure varimax pourrait leur être appliquée pour simplifier leur structure. Mais comme les vecteurs propres ne sont pas aussi utiles pour interpréter la signification des composants que les chargements, la rotation des vecteurs propres est rarement effectuée.

entrez la description de l'image ici

Ainsi, une ACP avec une rotation ultérieure de varimax (ou autre) est

  • toujours PCA
  • qui sur le chemin a abandonné les composants principaux pour juste des composants
  • qui sont potentiellement plus (que les PJ) interprétables comme "traits latents"
  • mais n'ont pas été modélisés de manière satistique (PCA n'est pas une analyse factorielle juste)

Je n'ai pas fait référence à l'analyse factorielle dans cette réponse. Il me semble que l'utilisation du mot "espace latent" par @ amoeba est un peu risquée dans le contexte de la question posée. Je conviens toutefois que la rotation analytique de PCA + pourrait être appelée " vue de type FA sur PCA".

tnphns
la source
Comment calculer les valeurs propres des composants pivotés?
1
@Haga, les composants pivotés ne sont plus des composants principaux et ne peuvent donc pas avoir de valeurs propres. Leurs variances sont néanmoins égales aux sommes de la colonne correspondant aux pondérations au carré (voir le bas de mon tableau - flèche pour les scores non standardisés).
Le
8

En psych::principal()vous pouvez faire différents types de rotations / transformations 'PC' votre extrait en composantes principales (s) ou '' en utilisant l' rotate=argument, comme: "none", "varimax"(par défaut), "quatimax", "promax", "oblimin", "simplimax"et "cluster". Vous devez décider de manière empirique lequel vous convient le mieux dans votre cas, si nécessaire, en fonction de votre propre évaluation et de votre connaissance du sujet à l'étude. Une question clé qui pourrait vous donner un indice: laquelle est la plus interprétable (encore si nécessaire)?

Dans l’aide, les éléments suivants pourraient également vous être utiles:

Il est important de reconnaître que les composantes principales pivotées ne sont pas des composantes principales (les axes associés à la décomposition de la valeur propre), mais simplement des composantes. Pour le souligner, les composants principaux non commentés sont étiquetés en tant que PCi, alors que les ordinateurs en rotation sont maintenant étiquetés en tant que RCi (pour les composants en rotation) et les composants transformés de manière oblique en tant que TCi (pour les composants transformés). (Merci à Ulrike Gromping pour cette suggestion.)

doctorat
la source
7

À ma connaissance, la distinction entre l'analyse PCA et l'analyse factorielle consiste principalement à déterminer s'il existe un terme d'erreur. Ainsi, PCA peut représenter fidèlement les données et le fera, alors que l'analyse factorielle est moins fidèle aux données sur lesquelles elle est formée, mais tente de représenter les tendances sous-jacentes ou la communauté dans les données. Dans une approche standard, l’ACP n’est pas soumise à une rotation, mais il est mathématiquement possible de le faire, alors les gens le font de temps en temps. Je suis d’accord avec les commentateurs en ce sens que le "sens" de ces méthodes est quelque peu à gagner et qu’il est probablement sage de s’assurer que la fonction que vous utilisez fait ce que vous voulez - par exemple, comme vous le remarquez, R a des fonctions qui remplissent un type d’ACP différent de celui des utilisateurs de SPSS.

russellpierce
la source
2

Grâce au chaos dans les définitions des deux, ils sont effectivement synonymes. Ne croyez pas les mots et cherchez au fond des docks pour trouver les équations.


la source
3
Je n'arrive toujours pas à comprendre les équations (biologiste ahoy), c'est pourquoi je me suis tourné vers la communauté ici, espérant que cela m'aidera à expliquer la différence en termes simples.
Roman Luštrik
Je pense que l'idéologie veut que FA présume que le processus repose sur des "facteurs cachés", alors que les données dont nous disposons consistent en une combinaison de ces facteurs. A cause de cela, le problème de FA est de reconstruire les facteurs cachés d'une manière ou d'une autre. Et voilà, PCA - une méthode qui construit de manière itérative de nouvelles variables (PC) en mélangeant les anciennes, telles que les plus gourmands pour absorber la variance des données. On peut dire que les PJ sont égaux aux facteurs de la FA, et ici, ils seront indiscernables. Mais on peut aussi apporter quelques modifications à la PCA pour en faire une base d'un autre «type FA», et le problème commence donc.
Donc, en gros, vous devriez penser à ce que vous voulez faire (et non au mot à la mode que vous voulez utiliser). Je sais que c'est difficile, surtout lorsque des biologistes sont présents (dans la mesure du possible, les mots à la mode fonctionnent bien en biologie; ils supposent donc que cela est commun à d'autres disciplines); c'est pourtant comme cela que la science devrait être faite. Alors utilisez Google (ou ce site) pour évaluer le bon algorithme. Enfin, utilisez les docks pour trouver une fonction / un bouton qui le fait et tapez / cliquez dessus.
1

Bien que cette question ait déjà été acceptée, j'aimerais ajouter quelque chose au point de la question.

"PCA" - si je me souviens bien - signifie "analyse en composantes principales"; aussi longtemps que vous analysez les composantes principales, que ce soit sans rotation ou avec rotation, nous en sommes toujours à l’analyse des "composantes principales" (qui ont été trouvées par la décomposition initiale de la matrice appropriée).

Je formulerais qu'après la "varimax" -rotation sur les deux premiers composants principaux, nous avons la "solution-varimax des deux premiers ordinateurs" (ou quelque chose d'autre), mais restons dans le cadre de l'analyse des composants principaux, ou plus courtes, sont dans le cadre de "pca".

Pour être encore plus clair: je ne pense pas que la simple question de la rotation pose le problème de la distinction entre EPT et CFA (ce dernier mentionné / introduit dans le problème, par exemple dans la réponse de Brett).

Gottfried Helms
la source
Pourquoi avez-vous soudainement mentionné CFA dans la dernière phrase?
amibe dit de réintégrer Monica le
@ amoeba: La réponse de _Brett, attribuée en 23 points, m'a indiqué ce terme et j'ai estimé qu'il valait la peine de faire une remarque à ce sujet. Mais peut-être aurait-il été préférable de dire "FA" à la place. J'y penserai ... (En y réfléchissant, je me souviens vaguement d'avoir "CFA" considéré comme une "analyse factorielle confirmatoire" au lieu de "commun ..." dans mes précédentes études sur cette méthode, peut-être dans les années 80 ou 90 ans)
Gottfried Helms
C'est juste que les trois premiers paragraphes de votre réponse concernent PCA vs FA, et que le dernier paragraphe qui semble résumer les précédents est soudainement consacré à EPT vs CFA.
amibe dit de réintégrer Monica le
@ amoeba: ma dernière modification clarifie-t-elle mon intention / phrase?
Gottfried Helms
1

J'ai trouvé cela le plus utile possible: Abdi & Williams, 2010, Analyse en composantes principales .

ROTATION

Une fois que le nombre de composants a été déterminé et afin de faciliter l’interprétation, l’analyse implique souvent une rotation des composants conservés [voir par exemple les références 40 et 67 pour plus de détails]. Deux types principaux de rotation sont utilisés: orthogonal lorsque les nouveaux axes le sont également, et oblique lorsque les nouveaux axes ne doivent pas nécessairement être orthogonaux. Les rotations étant toujours effectuées dans un sous-espace, les nouveaux axes expliquent toujours une inertie inférieure à celle des composants d'origine (calculés comme optimaux). Cependant, la partie de l'inertie expliquée par le sous-espace total après la rotation est la même qu'avant la rotation (seule la partition de l'inertie a changé). Il est également important de noter que parce que la rotation a toujours lieu dans un sous-espace (ie, l’espace des composants retenus), le choix de ce sous-espace influence fortement le résultat de la rotation. Par conséquent, il est vivement recommandé d'essayer plusieurs tailles pour le sous-espace des composants retenus afin d'évaluer la robustesse de l'interprétation de la rotation. Lorsque vous effectuez une rotation, le terme chargement correspond presque toujours aux éléments de la matrice Q.

(voir le papier pour la définition de Q).

Dylan_Larkin
la source