montre la relation linéaire entre les variables indépendantes et la variable dépendante. Il est défini comme 1 - S S ER2 qui est la somme des erreurs quadratiques divisée par la somme totale des carrés. SSTO=SSE+SSRqui sont l'erreur totale et la somme totale des carrés de régression. Au fur et à mesure que des variables indépendantes sont ajoutées,SSRcontinuera d'augmenter (et puisqueSSTOest fixe)SSEdiminuera etR2augmentera continuellement quelle que soit la valeur des variables que vous avez ajoutées.1−SSESSTOSSTO=SSE+SSRSSRSSTOSSER2
Le ajusté tente de tenir compte du retrait statistique. Les modèles avec des tonnes de prédicteurs ont tendance à mieux fonctionner dans l'échantillon que lorsqu'ils sont testés hors échantillon. Le R 2 ajusté vous «pénalise» pour l'ajout de variables prédictives supplémentaires qui n'améliorent pas le modèle existant. Cela peut être utile dans la sélection du modèle. R 2 ajusté sera égal à R 2 pour une variable prédictive. Lorsque vous ajoutez des variables, il sera plus petit que R 2 .R2R2R2R2R2
R ^ 2 explique la proportion de la variation de votre variable dépendante (Y) expliquée par vos variables indépendantes (X) pour un modèle de régression linéaire.
Bien que R ^ 2 ajusté indique la proportion de la variation de votre variable dépendante (Y) expliquée par plus d' une variable indépendante (X) pour un modèle de régression linéaire.
la source
R-Squared augmente même lorsque vous ajoutez des variables qui ne sont pas liées à la variable dépendante, mais le R-Squared ajusté prend soin de cela car il diminue chaque fois que vous ajoutez des variables qui ne sont pas liées à la variable dépendante, donc après avoir pris soin, il est probable diminuer.
la source