Les deux réponses dans ces fils, un et deux affirment quedoit être transformé avant d' appliquer toute autre transformation aux prédicteurs. En effet, le chapitre Weisberg sur les transformations se concentre davantage sur DV que sur les prédicteurs, tout comme la page de manuel power carform () du package R car.
Cependant, nous savons que la normalité de la distribution DV n'est pas une exigence dans OLS pour estimer les coefficients BLEUS et, même lorsque les résidus ne sont pas strictement distribués normalement, OLS est toujours un estimateur raisonnable .
Alors pourquoi l'accent mis sur la transformation ? Il y a plusieurs raisons pour lesquelles je pense qu'il est préférable de ne pas transformer: tout d'abord, il rend la relation IV plus difficile à lire et deuxièmement, en prévision, il nécessite une rétrotransformation de la valeur estimée à l'original échelle. Selon ce que vous faites, cela peut être un problème.
la source
Réponses:
La transformation de X n'a pas d'impact sur la forme de la distribution conditionnelle, ni sur l'hétéroscédasticité, donc la transformation de X ne sert vraiment qu'à traiter des relations non linéaires. (Si vous ajustez des modèles additifs, cela pourrait aider à éliminer l'interaction, mais il est souvent préférable de transformer Y)
Un exemple où transformer uniquement X est logique:
Si c'est - le manque d'ajustement dans la moyenne conditionnelle - est votre principal problème, alors la transformation de X peut avoir un sens, mais si vous vous transformez en raison de la forme du Y conditionnel ou en raison de l'hétéroscédasticité, si vous résolvez cela par transformation ( pas nécessairement le meilleur choix, mais nous prenons la transformation comme une donnée pour cette question), alors vous devez transformer Y d'une manière ou d'une autre pour le changer.
Considérons, par exemple, un modèle où la variance conditionnelle est proportionnelle à la moyenne:
Un exemple où la transformation de X uniquement ne peut pas résoudre les problèmes:
Le déplacement des valeurs sur l'axe des x ne changera pas le fait que l'écart est plus grand pour les valeurs de droite que pour les valeurs de gauche. Si vous voulez corriger cette variance changeante par transformation, vous devez réduire les valeurs Y élevées et étirer les valeurs Y basses.
Maintenant, si vous envisagez de transformer Y, cela changera la forme de la relation entre la réponse et les prédicteurs ... vous vous attendez donc souvent à transformer X également si vous voulez un modèle linéaire (s'il était linéaire avant la transformation, ce ne sera pas après). Parfois (comme dans le deuxième graphique ci-dessus), une transformation Y = rendra la relation plus linéaire en même temps - mais ce n'est pas toujours le cas.
Si vous transformez à la fois X et Y, vous voulez d'abord faire Y, en raison de ce changement dans la forme de la relation entre Y et X - vous devez généralement voir à quoi ressemblent les relations après la transformation. La transformation ultérieure de X visera alors à obtenir la linéarité de la relation.
Donc, en général, si vous vous transformez du tout, vous devez souvent transformer Y, et si vous le faites, vous voulez presque toujours le faire en premier.
la source
Transformer Y au départ est une approche anachronique de l'analyse des données. Nos arrière-arrière-arrière-grands-pères l'ont fait, alors pourquoi pas nous? Beaucoup de raisons et votre message reflétant que les hypothèses gaussiennes sont uniquement basées sur les erreurs d'un modèle PAS la série Y est morte.
la source