En régression linéaire, nous obtenons souvent plusieurs R et R au carré. Quelles sont les différences entre eux?
la source
En régression linéaire, nous obtenons souvent plusieurs R et R au carré. Quelles sont les différences entre eux?
Une autre différence simple est l'interprétation. En régression multiple, le multiple est le coefficient de corrélation multiple , tandis que son carré est le coefficient de détermination . R peut être interprété un peu comme un coefficient de corrélation bivariée , la principale différence étant que la corrélation multiple se situe entre la variable dépendante et une combinaison linéaire des prédicteurs, pas n'importe lequel d'entre eux, et pas seulement la moyenne de ces corrélations bivariées. R 2 peut être interprété comme le pourcentage de variance dans la variable dépendante qui peut être expliqué par les prédicteurs ; comme ci-dessus, cela est également vrai s'il n'y a qu'un seul prédicteur.
Le R multiple peut en fait être considéré comme la corrélation entre la réponse et les valeurs ajustées. En tant que tel, il est toujours positif. Multiple R-squared est sa version au carré.
Permettez-moi d'illustrer en utilisant un petit exemple:
Il n'est pas nécessaire de faire beaucoup de bruit autour de "multiple" ou non. Cette formule s'applique toujours, même dans un cadre Anova. Dans le cas où il n'y a qu'une seule covariable , alors R avec le signe de la pente est la même que la corrélation entre X et la réponse.X X
la source
J'explique simplement à mes élèves que:
le multiple R doit être considéré comme la valeur absolue du coefficient de corrélation (ou du coefficient de corrélation sans signe négatif)!
Le R au carré est simplement le carré du multiple R. Il peut représenter jusqu'à un pourcentage de variation causé par la ou les variables indépendantes.
Il est facile de saisir le concept et la différence de cette façon.
la source