Somme des notes attribuées aux notes factorielles estimées?

12

Je serais intéressé de recevoir des suggestions sur le moment d'utiliser les « scores factoriels » par rapport à la somme des scores lors de la construction des échelles. C'est-à-dire des méthodes «raffinées» plutôt que «non raffinées» de notation d'un facteur. D'après DiStefano et al. (2009; pdf ), italiques ajoutés:

Il existe deux classes principales de méthodes de calcul des scores factoriels: raffinée et non raffinée. Les méthodes non raffinées sont des procédures cumulatives relativement simples qui fournissent des informations sur le placement des individus dans la distribution des facteurs. La simplicité se prête à certaines fonctionnalités intéressantes, c'est-à-dire que les méthodes non raffinées sont à la fois faciles à calculer et à interpréter. Des méthodes de calcul raffinées créent des scores factoriels en utilisant des approches plus sophistiquées et techniques. Elles sont plus exactes et complexes que les méthodes non raffinées et fournissent des estimations qui sont des scores standardisés.

À mon avis, si l'objectif est de créer une échelle qui peut être utilisée dans toutes les études et tous les paramètres, alors une simple somme ou un score moyen de tous les éléments de l'échelle est logique. Mais disons que le but est d'évaluer les effets d'un programme sur le traitement et que le contraste important se situe au sein de l'échantillon - traitement vs groupe témoin. Y a-t-il une raison pour laquelle nous préférerions les scores factoriels à l'échelle des sommes ou des moyennes?

Pour être concret sur les alternatives, prenez cet exemple simple:

library(lavaan)
library(devtools)

# read in data from gist ======================================================
# gist is at https://gist.github.com/ericpgreen/7091485
# this creates data frame mydata
  gist <- "https://gist.github.com/ericpgreen/7091485/raw/f4daec526bd69557874035b3c175b39cf6395408/simord.R"
  source_url(gist, sha1="da165a61f147592e6a25cf2f0dcaa85027605290")
  head(mydata)
# v1 v2 v3 v4 v5 v6 v7 v8 v9
# 1  3  4  3  4  3  3  4  4  3
# 2  2  1  2  2  4  3  2  1  3
# 3  1  3  4  4  4  2  1  2  2
# 4  1  2  1  2  1  2  1  3  2
# 5  3  3  4  4  1  1  2  4  1
# 6  2  2  2  2  2  2  1  1  1

# refined and non-refined factor scores =======================================
# http://pareonline.net/pdf/v14n20.pdf

# non-refined -----------------------------------------------------------------
  mydata$sumScore <- rowSums(mydata[, 1:9])
      mydata$avgScore <- rowSums(mydata[, 1:9])/9
  hist(mydata$avgScore)

# refined ---------------------------------------------------------------------
  model <- '
            tot =~ v1 + v2 + v3 + v4 + v5 + v6 + v7 + v8 + v9
           '
  fit <- sem(model, data = mydata, meanstructure = TRUE,
             missing = "pairwise", estimator = "WLSMV")
  factorScore <- predict(fit)
  hist(factorScore[,1])
Eric Green
la source
J'ai supprimé les «interventions» du titre pour rendre la question plus générale et parce que les interventions n'ont peut-être pas d'incidence unique et spécifique sur la distinction entre les deux types de calcul de construction. S'il vous plaît, vous pouvez annuler ma modification si vous n'êtes pas d'accord.
ttnphns
1
They are more exactCet accent supplémentaire ne devrait pas nous distraire du fait que même les scores des facteurs sont inévitablement inexacts ("sous-déterminés").
ttnphns
Voir aussi cette question similaire: stats.stackexchange.com/q/31967/3277 .
ttnphns
Je pense que les "interventions" sont pertinentes en tant que cas d'utilisation spécial, mais elles n'ont pas besoin d'être dans le titre. J'ai souligné le problème clé dans la question. Quant à l'accent mis sur «plus exact», j'étais curieux d'avoir des réflexions sur ce point étant donné l'observation que vous faites sur les scores factoriels indéterminés. Merci pour les liens vers d'autres questions.
Eric Green
"more exact". Parmi les scores factoriels calculés linéairement, la méthode de régression est la plus "exacte" dans le sens "la plus corrélée avec les vraies valeurs inconnues". Alors oui, plus exact (dans l'approche algébrique linéaire), mais pas totalement exact.
ttnphns

Réponses:

6

J'ai moi-même lutté avec cette idée dans certains projets en cours. Je pense que vous devez vous demander ce qui est estimé ici. Si un modèle à un facteur correspond, les scores factoriels estiment le facteur latent. La somme ou la moyenne droite de vos variables manifestes estime quelque chose d'autre, à moins que chaque observation ne se charge également du facteur, et que les particularités sont également les mêmes. Et que quelque chose d'autre n'est probablement pas une quantité d'un grand intérêt théorique.

Donc, si un modèle à un facteur convient, vous êtes probablement bien avisé d'utiliser les scores factoriels. Je prends note de votre point de vue sur la comparabilité entre les études, mais dans une étude particulière, je pense que les scores factoriels ont beaucoup à gagner.

Là où cela devient intéressant, c'est quand un modèle à un facteur ne convient pas, soit parce qu'un modèle à deux facteurs s'applique (ou plus), soit parce que la structure de covariance est plus compliquée qu'un modèle factoriel ne le prédit. Pour moi, la question est alors de savoir si le total des variables se réfère à quelque chose de réel. Cela est particulièrement vrai si les données ont plus d'une dimension. Dans la pratique, ce qui se produit souvent, c'est que vous avez un tas de variables liées (des éléments d'une enquête, peut-être), dont une ou deux sont très différentes des autres. Vous pouvez dire «Enfer avec ça» et prendre la moyenne de tout, peu importe ce que cela signifie. Ou vous pouvez aller avec les scores des facteurs. Si vous ajustez un modèle à un facteur, ce qui se produira généralement, c'est que l'analyse factorielle diminuera les variables les moins utiles (ou du moins, celles qui appartiennent vraiment à un deuxième score factoriel). En effet, il les repère comme appartenant à une dimension différente et les ignore.

Je crois donc que le score factoriel peut trier les données pour donner quelque chose de plus unidimensionnel que vous avez commencé. Mais je n'ai pas de référence pour cela, et j'essaie toujours de comprendre dans mon propre travail si j'aime cette approche. Pour moi, le gros danger est de sur-adapter lorsque vous labourez les scores dans un autre modèle avec les mêmes données. Les scores sont déjà la réponse à une question d'optimisation, alors où cela laisse-t-il le reste de l'analyse? Je déteste penser.

Mais au bout du compte, une somme ou un total de variables a-t-elle vraiment un sens si quelque chose comme un modèle à un facteur ne s'applique pas ?

Beaucoup de ces questions ne se poseraient pas si les gens concevaient au départ de meilleures échelles.

Placidia
la source
J'apprécie vos commentaires, @Placidia. Vous apportez de la clarté tout en nous rappelant le plus gros gâchis! Je pense que c'est un point intéressant à considérer: "Si le modèle factoriel correspond, alors les scores factoriels estiment le facteur latent. La somme ou la moyenne droite de vos variables manifestes estime autre chose, à moins que chaque observation ne se charge également sur le facteur, et les particularités sont également les mêmes. Et que quelque chose d'autre n'est probablement pas une quantité d'un grand intérêt théorique. "
Eric Green du
+1 pour une réponse très réfléchie. Quelques réflexions à ajouter: 1) concernant la comparabilité entre les études, il est important de reconnaître que contrairement aux chargements de composants - qui peuvent changer un peu en réponse aux variables incluses / exclues du modèle - les chargements de facteurs communs sont des estimations de paramètres. Par la suite, ils devraient se reproduire (dans les limites de l'erreur d'échantillonnage) d'une étude à l'autre, et donc aussi les scores des facteurs. 2) Si vous êtes préoccupé par l'utilisation des scores factoriels, vous pouvez regarder les indices de détermination et la façon dont vos corrélations de score factoriel reflètent les corrélations latentes ...
jsakaluk
1
... car je pense que c'est une stratégie discutée dans les DiStefanno et. Al. papier pour évaluer si les scores des facteurs peuvent être «fiables». Et enfin 3) si votre objectif, comme le décrit Placidia, est d'analyser quelque chose qui est en grande partie unidimensionnel, vous pourriez envisager une approche d'analyse bifactorielle qui, si je comprends bien, extrait d'abord un facteur commun sur lequel chaque variable se charge, puis orthogonale subséquente les facteurs sont extraits pour des sous-ensembles de variables, qui reflètent ostensiblement les facteurs de distinction les plus importants, au-delà de la dimension commune liant toutes les variables ensemble.
jsakaluk
Placidia, dans la dernière modification de votre réponse, vous vous limitez à plusieurs reprises par l'expression one-factor model. Je me demande juste pourquoi. Voulez-vous dire que dans un modèle à 2 facteurs, les scores des facteurs ne le sont estimate the latent factorplus? Pourquoi Et aussi, comment définissez-vous le «modèle à un facteur» dans le contexte d'un questionnaire en cours d'élaboration (le contexte probable du Q): est-ce que le questionnaire est à facteur unique / échelle ou que chaque élément inclus est compté en appartenant strictement à un facteur /échelle? S'il vous plaît, voulez-vous que ce soit plus clair?
ttnphns
Je voulais éviter les malentendus potentiels. Si vous croyez en un modèle à deux facteurs, l'utilisation vraisemblable de totaux sommaires serait hors du tableau. Vous avez besoin de deux résumés pour deux dimensions dans les données. Je voulais préciser que ma réponse consistait à choisir entre la statistique récapitulative et le score factoriel du modèle à un facteur. Je prétends que le score à un facteur peut être utile même si le modèle est faux. La suggestion de @ jsakaluk d'ajuster un modèle multifactoriel et de choisir le premier facteur est également possible, et pourrait être meilleure dans certains cas.
Placidia
4

La somme ou la moyenne des éléments chargés par le facteur commun est une manière traditionnelle de calculer le score de construst (la construction représentant le facteur tha). Il s'agit d'une version la plus simple de la «méthode grossière» de calcul des scores des facteurs ; le point principal de la méthode consiste à utiliser les charges factorielles comme pondérations de score. Bien que les méthodes raffinées pour calculer les scores utilisent des coefficients de score spécialement estimés (calculés à partir des chargements) comme poids.

Cette réponse ne suggère pas universellement «quand utiliser les scores des facteurs [raffinés] par rapport à la simple somme des scores des items», ce qui est un vaste domaine, mais se concentre sur la démonstration de certaines implications concrètes évidentes allant de pair avec la préférence pour une façon de calculer la construction plutôt que pour l'autre façon.

Fb1b2F

s1=b1r11+b2r12

s2=b1r12+b2r22

s1s2r12bbb

rr11r22

b1=s2r12s1r1221

b2=s1r12s2r1221

b1b2=(r12+1)(s1s2)r1221.

bsr12b1b2

entrez la description de l'image ici

entrez la description de l'image ici

s1s2=0bs1s2b1b2r12

b

s1=.70s2=.45.25

c. S'ils sont fortement corrélés, l'élément chargé le plus faible est un doublon junior de l'autre. Quelle est la raison de compter cet indicateur / symptôme plus faible sous le signe de son substitut plus fort? Pas beaucoup de raison. Et les scores des facteurs s'ajustent pour cela (contrairement à la simple sommation). Notez que dans un questionnaire multifactoriel, «l'élément chargé le plus faible» est souvent l'élément d'un autre facteur, chargé plus haut là-bas; alors que dans le facteur actuel, cet élément est restreint, comme nous le voyons maintenant, dans le calcul des scores des facteurs, et cela sert bien.

b. Mais si les articles, bien qu'inégalement chargés auparavant, ne sont pas corrélés aussi fortement, alors ils sont différents indicateurs / symptômes pour nous. Et pourrait être compté "deux fois", c'est-à-dire simplement additionné. Dans ce cas, les scores des facteurs tentent de respecter l'élément le plus faible dans la mesure où son chargement le permet toujours, car il s'agit d'une forme de réalisation différente du facteur.

une. Deux éléments peuvent également être comptés deux fois, c'est-à-dire simplement additionnés, chaque fois qu'ils ont des charges similaires, suffisamment élevées par le facteur, quelle que soit la corrélation entre ces éléments. (Les scores des facteurs ajoutent plus de poids aux deux éléments lorsqu'ils ne sont pas trop corrélés, mais les poids sont égaux.) Il ne semble pas déraisonnable que nous tolérions ou admettions généralement des éléments en double s'ils sont tous fortement chargés. Si vous n'aimez pas cela (parfois vous voudrez peut-être), vous êtes toujours libre d'éliminer les doublons du facteur manuellement.

entrez la description de l'image ici

Ainsi, dans le calcul des scores factoriels (raffinés) (par la méthode de régression au moins), il y a des intrigues "s'entendre / repousser" parmi les variables constituant le construit, dans leur influence sur les scores . Des indicateurs également forts se tolèrent mutuellement, comme le font également des indicateurs inégalement forts et non fortement corrélés. La «fermeture» se produit d'un indicateur plus faible fortement corrélé à des indicateurs plus forts. Un simple ajout / moyennage n'a pas cette intrigue "repousser un faible doublon".

Veuillez également voir cette réponse qui prévient que ce facteur est théoriquement plutôt une "essence intérieure" qu'une collection brute ou un tas de "ses" phénomènes indicatifs. Par conséquent, résumer aveuglément les éléments - en ne tenant pas compte de leurs charges ou de leurs corrélations - est potentiellement problématique. D'un autre côté, le facteur, tel qu'il est noté, ne peut être qu'une sorte de somme de ses éléments, et tout est donc question d'une meilleure conception des poids dans la somme.


Jetons également un coup d'œil sur la déficience de la méthode grossière ou sommative de manière plus générale et abstraite .

ba

F^iiFiX1X2a1a2FUb

F^i=b1X1i+b2X2i=b1(Fi+U1i)+b2(Fi+U2i)=(b1+b2)Fi+b1U1i+b2U2i

b1U1i+b2U2iF^iFiUF^Fbvar[b1U1i+b2U2i]F^FbaXF^F

abFF^

F^i=a1X1i+a2X2i= ... =(a1+a2)Fi+a1U1i+a2U2i

baaa

ttnphns
la source
Merci, @ttnphns, pour la réponse utile. Il est logique pour moi que les articles avec des charges approximativement égales puissent simplement être additionnés (a). Malheureusement, je ne pense pas avoir rencontré de situation dans mon travail où, lorsque j'utilise une balance existante qui est censée être unidimensionnelle, je trouve que les articles ont des charges égales.
Eric Green
J'ai donc été particulièrement intéressé par votre explication d'une situation où les charges diffèrent et la suggestion d'examiner les corrélations entre les articles. Je suis intéressé de savoir si vous avez des règles générales pour les corrélations "fortes" (c) / "pas fortes" (b) ou les chargements "suffisamment élevés" dans (a).
Eric Green
1
Enfin, je noterai que la toile de fond de cette question est une norme disciplinaire écrasante (au moins en psychologie) pour utiliser des échelles "validées" qui nécessitent des sommes simples (moyennes) même lors de l'administration de l'échelle à une nouvelle population non normalisée. Souvent, l'objectif est des comparaisons entre échantillons (même lorsqu'elles ne sont pas justifiées), ce qui fait des sommes simples une approche courante.
Eric Green
Les études d'intervention sont un cas d'utilisation intéressant dans mon esprit car la comparaison des intérêts se fait à l'intérieur de l'échantillon. Il me semble que nous nous soucions plus de la taille de l'effet du traitement que le score «brut» des deux groupes sur la mesure, en particulier lorsque nous utilisons l'échelle en dehors de la population utilisée pour développer / normaliser l'échelle. Si les scores des facteurs sont «meilleurs» dans certaines situations, alors il semble utile de jeter l'approche simple en faveur d'une approche qui a plus de sens conceptuel sachant qu'en fin de compte, nous voulons simplement examiner la taille des effets du traitement.
Eric Green
1
(suite) Use "validated" scalesne requiert pas en soi des sommes nécessairement simples: si la validation était bonne (large échantillon représentatif, bonnes corrélations, nombre correct de facteurs, bon ajustement, etc.) les scores des facteurs calculés (leurs coefficients) peuvent être pris comme normatifs poids à utiliser dans de nouvelles populations. À cet égard, je ne vois aucun avantage dans la simple somme.
ttnphns