Tailles d'effet de régression linéaire lors de l'utilisation de variables transformées

9

Lors de la régression linéaire, il est souvent utile d'effectuer une transformation telle que la transformation logarithmique de la variable dépendante pour obtenir une meilleure conformation de distribution normale. Souvent, il est également utile d'inspecter les bêta de la régression pour mieux évaluer la taille de l'effet / la pertinence réelle des résultats.

Cela pose le problème que lors de l'utilisation, par exemple, de la transformation logarithmique, les tailles d'effet seront à l'échelle logarithmique, et on m'a dit qu'en raison de la non-linéarité de l'échelle utilisée, la rétrotransformation de ces bêta entraînerait des valeurs non significatives qui n'ont pas d'utilisation réelle.

Jusqu'ici, nous avons généralement effectué une régression linéaire avec des variables transformées pour inspecter la signification, puis une régression linéaire avec les variables d'origine non transformées pour déterminer la taille de l'effet.

Existe-t-il une bonne / meilleure façon de procéder? Pour la plupart, nous travaillons avec des données cliniques, donc un exemple réel serait de déterminer comment une certaine exposition affecte des variables continues telles que la taille, le poids ou certaines mesures de laboratoire, et nous aimerions conclure quelque chose comme "l'exposition A a eu l'effet de poids croissant de 2 kg ".


la source

Réponses:

5

Je dirais que les transformations ne sont pas importantes pour obtenir une distribution normale de vos erreurs. La normalité n'est pas une hypothèse nécessaire. Si vous avez "suffisamment" de données, le théorème central limite entre en jeu et vos estimations standard deviennent asymptotiquement normales. Vous pouvez également utiliser le bootstrap comme moyen non paramétrique pour estimer les erreurs standard. (L'homoscédasticité, une variance commune pour les observations entre les unités, est nécessaire pour que vos erreurs standard soient correctes; des options robustes permettent une hétéroskédasticité).

Au lieu de cela, les transformations aident à garantir qu'un modèle linéaire est approprié. Pour donner une idée de cela, considérons comment interpréter les coefficients dans les modèles transformés:

  • le résultat est des unités, les prédicteurs sont des unités: un changement d'une unité dans le prédicteur entraîne un changement d'unité bêta dans le résultat.
  • résultat en unités, prédicteur en unités logarithmiques: un changement d'un pour cent du prédicteur entraîne un changement bêta / 100 unités du résultat.
  • résultat en unités logarithmiques, prédicteur en unités: un changement d'une unité du prédicteur entraîne un changement bêta x 100% du résultat.
  • résultat en unités logarithmiques, prédicteur en unités logarithmiques: une variation d'un pour cent du prédicteur entraîne une variation bêta pour cent du résultat.

Si des transformations sont nécessaires pour que votre modèle ait un sens (c.-à-d. Pour que la linéarité se vérifie), alors l'estimation de ce modèle doit être utilisée pour l'inférence. Une estimation d'un modèle que vous ne croyez pas n'est pas très utile. Les interprétations ci-dessus peuvent être très utiles pour comprendre les estimations d'un modèle transformé et peuvent souvent être plus pertinentes pour la question à l'étude. Par exemple, les économistes aiment la formulation log-log parce que l'interprétation du bêta est une élasticité, une mesure importante en économie.

J'ajouterais que la transformation arrière ne fonctionne pas parce que l'attente d'une fonction n'est pas la fonction de l'attente; le log de la valeur attendue de beta n'est pas la valeur attendue du log de beta. Par conséquent, votre estimateur n'est pas sans biais. Cela supprime également les erreurs standard.

Charlie
la source
2

RÉPONSE COURTE: Absolument correct, la transformation en arrière de la valeur bêta n'a pas de sens. Cependant, vous pouvez signaler la non-linéarité comme quelque chose comme. "Si vous pesez 100 kg, manger deux morceaux de gâteau par jour augmentera votre poids d'environ 2 kg en une semaine. Cependant, si vous pesez 200 kg, votre poids augmentera de 2,5 kg. Voir la figure 1 pour une description de cette relation non linéaire ( la figure 1 correspond à la courbe des données brutes). "

LONGUE RÉPONSE:

La signification de la valeur transformée en arrière varie mais lorsqu'elle est correctement effectuée, elle a généralement une certaine signification.

Si vous avez une régression des valeurs du logarithme naturel sur deux prédicteurs x avec un bêta de 0,13 et une interception de 7,0, alors la transformation en arrière de 0,13 (1,14) est à peu près dénuée de sens. C'est exact. Cependant, la transformation arrière de 7.13 va être une valeur qui peut être interprétée avec une certaine signification. Vous pouvez ensuite soustraire la transformation arrière de 7.0 et vous retrouver avec une valeur restante qui est votre effet sur une échelle significative (152.2). Si vous souhaitez examiner une valeur prédite, vous devez d'abord la calculer entièrement dans les valeurs de journal, puis effectuer une rétrotransformation. Cela devrait être fait séparément pour chaque valeur prédite et entraîner une courbe si elle est représentée graphiquement.

Cela est souvent raisonnable si votre transformation a un effet relativement faible sur vos données. La transformation logarithmique des temps de réaction est un type de valeur qui peut être retransformé. Quand c'est fait correctement, vous constaterez que les valeurs semblent proches des valeurs médianes en faisant des calculs simples sur les données brutes.

Même alors, il faut être prudent avec les interactions et les non-interactions. Les valeurs relatives varient sur l'échelle. L'analyse était sensible à la valeur logarithmique tandis que les valeurs transformées en arrière peuvent montrer différents modèles qui donnent l'impression que les interactions ne devraient pas être là ou vice versa. En d'autres termes, vous pouvez sauvegarder les éléments qui apportent de petites modifications aux données tant que vous faites attention.

Certains changements, comme la transformation logistique des probabilités, peuvent avoir des impacts assez massifs, en particulier vers la fin de l'échelle. Un exemple d'endroit que vous ne devriez jamais reculer est celui des tracés d'interaction proches de l'extrémité haute ou basse de la probabilité.

John
la source
2

La question porte sur les effets marginaux (de X sur Y), je pense, pas tant sur l'interprétation des coefficients individuels. Comme les gens l'ont noté utilement, ceux-ci ne sont parfois identifiables qu'avec une taille d'effet, par exemple lorsqu'il existe des relations linéaires et additives.

Si tel est l'objectif, alors la façon la plus simple (conceptuellement, sinon pratiquement) de penser au problème semble être la suivante:

Pour obtenir l'effet marginal de X sur Y dans un modèle de régression linéaire linéaire sans interaction, vous pouvez simplement regarder le coefficient sur X. Mais cela ne suffit pas car il est estimé inconnu. Dans tous les cas, ce que l'on veut vraiment pour des effets marginaux, c'est une sorte de graphique ou de résumé qui fournit une prédiction sur Y pour une plage de valeurs de X, et une mesure de l'incertitude. En général, on peut vouloir la moyenne Y prévue et un intervalle de confiance, mais on peut aussi vouloir des prédictions pour la distribution conditionnelle complète de Y pour un X. Cette distribution est plus large que l'estimation sigma du modèle ajusté car elle prend en compte l'incertitude sur les coefficients du modèle .

Il existe différentes solutions sous forme fermée pour des modèles simples comme celui-ci. Pour les besoins actuels, nous pouvons les ignorer et réfléchir plutôt de manière plus générale à la manière d'obtenir ce graphique des effets marginaux par simulation, d'une manière qui traite de modèles arbitrairement complexes.

Supposons que vous vouliez les effets de la variation de X sur la moyenne de Y, et vous êtes heureux de fixer toutes les autres variables à des valeurs significatives. Pour chaque nouvelle valeur de X, prenez un échantillon de taille B dans la distribution des coefficients du modèle. Un moyen facile de le faire dans R est de supposer qu'il est normal avec une coef(model)matrice de moyenne et de covariance vcov(model). Calculez un nouveau Y attendu pour chaque ensemble de coefficients et résumez le lot avec un intervalle. Passez ensuite à la valeur suivante de X.

Il me semble que cette méthode ne devrait pas être affectée par des transformations fantaisistes appliquées à l'une des variables, à condition que vous les appliquiez également (ou leurs inverses) à chaque étape d'échantillonnage. Donc, si le modèle ajusté a log (X) comme prédicteur, connectez votre nouveau X avant de le multiplier par le coefficient échantillonné. Si le modèle ajusté a sqrt (Y) comme variable dépendante, quadrillez chaque moyenne prédite dans l'échantillon avant de les résumer sous forme d'intervalle.

En bref, plus de programmation mais moins de calcul de probabilité et des effets marginaux cliniquement compréhensibles. Cette «méthode» est parfois appelée CLARIFY dans la littérature en science politique, mais elle est assez générale.

conjugateprior
la source