Quelle est la différence statistique entre une régression linéaire dans R avec l' formula
ensemble à la y ~ x + 0
place de y ~ x
? Comment interpréter ces deux résultats différents?
11
Quelle est la différence statistique entre une régression linéaire dans R avec l' formula
ensemble à la y ~ x + 0
place de y ~ x
? Comment interpréter ces deux résultats différents?
L'ajout +0
(ou -1
) à une formule de modèle (par exemple, dans lm()
) dans R supprime l'interception. Ceci est généralement considéré comme une mauvaise chose à faire; voir:
La pente estimée est calculée différemment selon que l'ordonnée à l'origine est également estimée, à savoir:
Puisque la quantité à soustraire (le "subtrahend") à la fois au numérateur et au dénominateur n'est pas nécessairement , l'estimation de la pente est biaisée lorsque l'interception est supprimée.
La valeur de est également calculée différemment; voir:
Voici les formules sous-jacentes:
Cela dépend du contexte (bien sûr), dans la
lm(...)
commande dans R, il supprimera l'interception. Autrement dit, vous effectuez une régression à l'origine.Notez que la plupart des manuels sur le sujet de la régression vous diront que forcer l'interception (à n'importe quelle valeur) est une mauvaise idée.
L'interprétation de x ne change pas, mais la valeur (en comparant avec et sans interception) changera, parfois de manière très significative.
la source