La réponse est oui, les coefficients de régression linéaire sont les corrélations des prédicteurs avec la réponse, mais uniquement si vous utilisez le bon système de coordonnées .
Pour voir ce que je veux dire, rappelez-vous que si et y sont centrés et normalisés, alors la corrélation entre chaque x i et y n'est que le produit scalaire x t i y . De plus, la solution des moindres carrés à la régression linéaire estX1, x2, … , XnyXjeyXtjey
β= ( XtX)- 1Xty
S'il arrive que (la matrice d'identité) alorsXtX= Je
β= Xty
et nous récupérons le vecteur de corrélation. Il est souvent intéressant de refondre un problème de régression en termes de prédicteurs qui satisfont en trouvant des combinaisons linéaires appropriées des prédicteurs originaux qui rendent cette relation vraie (ou de manière équivalente, un changement linéaire de coordonnées); ces nouveaux prédicteurs sont appelés les principaux composants.X~jeX~tX~= Je
Donc, dans l'ensemble, la réponse à votre question est oui, mais uniquement lorsque les prédicteurs sont eux-mêmes non corrélés . Sinon, l'expression
XtXβ= Xty
montre que les bêtas doivent être mélangés avec les correllations entre les prédicteurs eux-mêmes pour récupérer les corrélations prédicteur-réponse.
En remarque, cela explique également pourquoi le résultat est toujours vrai pour une régression linéaire variable. Une fois le vecteur prédicteur normalisé, alors:X
Xt0x = ∑jeXje= 0
où est le vecteur d'interception de tous les uns. Ainsi, la matrice de données (à deux colonnes) satisfait automatiquement , et le résultat suit.X0XXtX= Je