Pourquoi fixer des poids à 1 dans l'analyse factorielle confirmatoire?

8

J'écris cette question en référence à un exemple sur p138-142 du document suivant: ftp://ftp.software.ibm.com/software/analytics/spss/documentation/amos/20.0/en/Manuals/IBM_SPSS_Amos_User_Guide.pdf .

Voici des figures illustratives et un tableau: Exemple CFA

Je comprends que la variable latente n'a pas de métrique naturelle et que la définition d'un facteur de chargement à 1 est effectuée pour résoudre ce problème. Cependant, il y a un certain nombre de choses que je ne comprends pas (complètement):

  1. Comment la fixation d'une charge factorielle à 1 corrige-t-elle ce problème d'indétermination de l'échelle?

  2. Pourquoi fixer à 1, plutôt qu'à un autre numéro?

  3. Je comprends qu'en fixant l'un des poids de régression des indicateurs de facteur à 1, nous établissons ainsi tous les autres poids de régression pour ce facteur par rapport à lui. Mais que se passe-t-il si nous fixons un facteur de charge particulier à 1, mais il s'avère que les scores plus élevés sur le facteur prédisent des scores plus faibles sur la variable observée en question? Après avoir initialement défini la charge factorielle à 1, pouvons-nous obtenir un poids de régression compréhensible négatif ou un poids de régression standardisé négatif?

  4. Dans ce contexte, j'ai vu des chargements de facteurs appelés à la fois coefficients de régression et covariances. Ces deux définitions sont-elles entièrement correctes?

  5. Pourquoi avons-nous dû fixer spatial-> visperc et verbal-paragrap à la fois à 1? Que se serait-il passé si nous avions simplement fixé l'un de ces chemins à 1?

  6. En regardant le coefficient normalisé, comment se peut-il que le coefficient non normalisé pour wordmean> phrase> paragrap, mais en regardant les coefficients normalisés paragrap> wordmean> phrase. Je pensais qu'en fixant paragrap à 1 au départ, toutes les autres variables chargées sur le facteur étaient rendues relatives au paragrap.

J'ajouterai également une question qui, j'imagine, a une réponse connexe: pourquoi fixer le coefficient de régression pour les termes uniques (par exemple err_v-> visperc) à 1? Que signifierait pour err_v un coefficient de 1 pour prédire visperc?

Je serais très heureux de recevoir des réponses même si elles ne répondent pas à toutes les questions.

user1205901 - Réintégrer Monica
la source
1
Voici deux articles intéressants sur la mise à l'échelle des variables latentes: Gonzalez & Griffin (2001): Tester les paramètres en SEM: Tout "un" compte ( www-personal.umich.edu/~gonzo/papers/sem.pdf ), Little, Slegers, & Card (2006): Une manière non arbitraire d'identifier et de mettre à l'échelle les variables latentes dans les modèles SEM et MACS ( agencylab.ku.edu/~agencylab/manuscripts/… )
Patrick Coulombe
Que faire si vous définissez plus d'un poids sur un? Les résultats sont-ils les mêmes?
Behacad

Réponses:

10
  1. Parce qu'il vous permet ensuite d'utiliser la relation entre la variable latente et la variable observée pour déterminer la variance de la variable latente. Par exemple, considérons la régression de Y sur X. Si je suis autorisé à modifier la variance de X, par exemple, en la multipliant par une constante, alors je peux changer arbitrairement le coefficient de régression. Si, au lieu de cela, je fixe la valeur du coefficient de régression, cela détermine la variance de X.
  2. Par convention, et pour faciliter la comparaison des coefficients entre eux.
  3. Dans ce cas, la variable latente devient simplement inversée. Par exemple, supposons que notre variable latente est la capacité mathématique, notre variable observée est le nombre d'erreurs sur un test, et nous fixons le coefficient de régression à 1. Ensuite, notre variable latente deviendra "difficulté mathématique" au lieu de la capacité mathématique, et le les coefficients de toute autre variable observée changeront en conséquence.
  4. Si la variable observée et la variable latente sont toutes deux normalisées (c.-à-d. Écart type égal à 1), alors le coefficient de régression est égal à la covariance.
  5. C'est la fixation spatiale -> visperc à 1 qui permet d'estimer la variance de l'espace (voir réponse à (1) ci-dessus). De même, la fixation verbale -> paragrap permet d'estimer la variance du verbal. Un modèle ne comportant qu'une seule de ces contraintes ne serait pas identifiable.
  6. Parce que les différences entre les coefficients non standardisés et standardisés dépendent non seulement de la variance du verbal, mais aussi des variances du paragrap, de la phrase et de la signification des mots. Par exemple, le coefficient normalisé pour wordmean est égal au coefficient non normalisé multiplié parSDverbalSDwordmean, ou 2.234×9.682(2.2342×9.682)+19.925=0.841.

Enfin, notez que err_v est analogue au terme d'erreur dans un modèle de régression, par exemple,

visperc=β0+β1spatial+err_v
Nous fixons le coefficient de err_v (c.-à-d. Sur le terme d'erreur) à 1 afin de pouvoir estimer la variance d'erreur (c.-à-d. La variance de err_v).
Phil Schumm
la source
7
  1. Je me méprends peut-être sur l'expression "indétermination de l'échelle", mais je crois qu'elle est fixée à un pour l'identifiabilité. (Autrement dit, le nombre d'inconnues dans ce système d'équations ne doit pas dépasser le nombre d'équations.) Sans définir l'un des liens sur un, il y a trop d'inconnues. Est-ce la même chose que l'indétermination de l'échelle?

  2. Dans la plupart des applications SEM, vous travaillez avec des matrices de covariance, pas avec les données brutes. Il existe un algorithme alternatif qui utilise les données d'origine, appelé PLS (Partial Least Squares), qui pourrait vous éclairer davantage.

Wayne
la source
1. La plupart des articles ont eu tendance à traiter l'indétermination de l'échelle et de l'identifiabilité comme s'il s'agissait de questions distinctes. Un argument en faveur de la distinction est que si nous ajoutons plus de variables observées, le rapport des connus aux inconnus augmente, mais cela n'empêche pas la nécessité d'un chargement pour être réglé sur 1. 2. Merci pour l'astuce concernant PLS .
user1205901
4
  1. Pensez à l'interprétation comme s'il s'agissait d'une simple régression. Le coefficient reflète la différence unitaire dans la variable dépendante associée à une différence de 1 unité dans la variable indépendante. Ainsi, si un changement d'une unité dans l'IV est associé à un changement d'une unité dans le DV, alors les unités sont fonctionnellement équivalentes. Vous avez besoin d'une unité pour la variable latente car vous voulez estimer sa variance, qui n'est pas sans unité. Le problème d'identification est lié, en ce que pour un CFA simple avec 1 variable latente et 3 indicateurs, le modèle n'est identifié que si la contrainte est faite.

  2. Vous pouvez le définir sur n'importe quel nombre, et la nature globale des résultats sera la même (facilement vérifiée en regardant l'ajustement du modèle, qui sera identique). Il est plus facile d'interpréter le modèle si vous le définissez sur 1.

  3. Quelle que soit la façon dont vous corrigez l'un des facteurs de charge, vous pouvez obtenir des éléments chargés positivement et négativement pour la même variable latente. Vous pouvez le tester en multipliant l'un de vos indicateurs par -1 et en estimant à nouveau votre modèle.

  4. Ils sont fonctionnellement la même chose si le coefficient de régression n'est pas ajusté (c'est-à-dire que la variable dépendante n'a qu'une seule flèche pointant vers elle). Si tel est le cas, l'un peut être calculé de l'autre.

  5. Essayez! Chaque variable latente a besoin d'une échelle, pour les raisons déjà évoquées.

  6. C'est un problème d'échelle et c'est exactement la raison de l'utilisation de coefficients standardisés. Je peux rendre n'importe quel coefficient de régression arbitrairement grand en divisant le DV par des nombres de plus en plus grands. Ainsi, un changement d'une unité dans l'IV produira des changements de plus en plus importants dans les unités du DV. En normalisant et en comparant les mêmes pour les mêmes, nous évitons ce problème.

  7. Fixer le chargement du facteur d'erreur à 1 facilite simplement l'interprétation. Il fait que l'équation de régression respective dans le SEM prend la forme familière de Y = BX + e (ou Y = BX + 1 * e).

DL Dahly
la source
Je suis confus au sujet de ce que vous dites au point 5 sur la fixation de la covariance à 1. Vous vouliez sûrement parler de corrélation et non de covariance (à moins que les deux variables aient une variance de 1), n'est-ce pas? De plus, si vous vouliez dire de mettre la corrélation à 1, il semble que les deux variables auraient effectivement été réduites à une seule variable (et non pas simplement mises sur la même échelle), étant donné qu'elles prendraient toujours la même valeur
Patrick Coulombe
2

Stata a une très belle documentation sur SEM ici , consultez la section "Identification 2", elle a des réponses à toutes vos questions.

l'absence d'échelle vient parce que votre variable latente n'est pas observable. vous pouvez trouver des réponses numériques dans l'enquête sur le bonheur, mais le bonheur lui-même n'est pas directement mesuré. vous devez maintenant lier en quelque sorte les réponses telles que 1 à 10 au bonheur. de sorte que vous désignez l'une des questions comme point d'ancrage et définissez son chargement sur 1.

il ne doit pas nécessairement être 1, il peut s'agir de n'importe quelle valeur, mais 1 est pratique.

à la fois spatiales et verbales ne sont pas observables, vous devez donc définir l'échelle pour les deux, vous avez donc des ancres pour chacune.

Aksakal
la source