La question porte sur les effets marginaux (de X sur Y), je pense, pas tant sur l'interprétation des coefficients individuels. Comme les gens l'ont noté utilement, ceux-ci ne sont parfois identifiables qu'avec une taille d'effet, par exemple lorsqu'il existe des relations linéaires et additives.
Si tel est l'objectif, alors la façon la plus simple (conceptuellement, sinon pratiquement) de penser au problème semble être la suivante:
Pour obtenir l'effet marginal de X sur Y dans un modèle de régression linéaire linéaire sans interaction, vous pouvez simplement regarder le coefficient sur X. Mais cela ne suffit pas car il est estimé inconnu. Dans tous les cas, ce que l'on veut vraiment pour des effets marginaux, c'est une sorte de graphique ou de résumé qui fournit une prédiction sur Y pour une plage de valeurs de X, et une mesure de l'incertitude. En général, on peut vouloir la moyenne Y prévue et un intervalle de confiance, mais on peut aussi vouloir des prédictions pour la distribution conditionnelle complète de Y pour un X. Cette distribution est plus large que l'estimation sigma du modèle ajusté car elle prend en compte l'incertitude sur les coefficients du modèle .
Il existe différentes solutions sous forme fermée pour des modèles simples comme celui-ci. Pour les besoins actuels, nous pouvons les ignorer et réfléchir plutôt de manière plus générale à la manière d'obtenir ce graphique des effets marginaux par simulation, d'une manière qui traite de modèles arbitrairement complexes.
Supposons que vous vouliez les effets de la variation de X sur la moyenne de Y, et vous êtes heureux de fixer toutes les autres variables à des valeurs significatives. Pour chaque nouvelle valeur de X, prenez un échantillon de taille B dans la distribution des coefficients du modèle. Un moyen facile de le faire dans R est de supposer qu'il est normal avec une coef(model)
matrice de moyenne et de covariance vcov(model)
. Calculez un nouveau Y attendu pour chaque ensemble de coefficients et résumez le lot avec un intervalle. Passez ensuite à la valeur suivante de X.
Il me semble que cette méthode ne devrait pas être affectée par des transformations fantaisistes appliquées à l'une des variables, à condition que vous les appliquiez également (ou leurs inverses) à chaque étape d'échantillonnage. Donc, si le modèle ajusté a log (X) comme prédicteur, connectez votre nouveau X avant de le multiplier par le coefficient échantillonné. Si le modèle ajusté a sqrt (Y) comme variable dépendante, quadrillez chaque moyenne prédite dans l'échantillon avant de les résumer sous forme d'intervalle.
En bref, plus de programmation mais moins de calcul de probabilité et des effets marginaux cliniquement compréhensibles. Cette «méthode» est parfois appelée CLARIFY dans la littérature en science politique, mais elle est assez générale.