On dit souvent que le carré de la corrélation d'échantillon est équivalent au coefficient de détermination pour une régression linéaire simple. Je n'ai pas pu le démontrer moi-même et j'apprécierais une preuve complète de ce fait.
regression
correlation
edwardsm88
la source
la source
Réponses:
Il semble y avoir une certaine variation dans la notation: dans une simple régression linéaire, j'ai généralement vu l'expression "coefficient de corrélation d'échantillon" avec le symbole comme référence à la corrélation entre les valeurs observées de et . C'est la notation que j'ai adoptée pour cette réponse. J'ai également vu la même phrase et le même symbole utilisés pour faire référence à la corrélation entre observé et ajusté ; dans ma réponse que je l' ai mentionné à ce que le « coefficient de corrélation multiple » et utilisé le symbole . Cette réponse explique pourquoi le coefficient de détermination est à la fois le carré de et aussi le carré dex y y y R r Rr X y y y^ R r R , donc peu importe l'utilisation prévue.
Le résultat suit dans une ligne d'algèbre une fois que certains faits simples sur la corrélation et la signification de sont établis, vous pouvez donc préférer passer à l'équation encadrée. Je suppose que nous n'avons pas à prouver les propriétés de base de la covariance et de la variance, en particulier: Rr2 R
Var ( a X + b ) = a 2 Var ( X )
Notez que ce dernier peut être dérivé du premier, une fois que nous savons que la covariance est symétrique et que . De là, nous dérivons un autre fait fondamental, à propos de la corrélation. Pour , et tant que et ont des variances non nulles,a ≠ 0 X YVar ( X) = Cov ( X, X) a ≠ 0 X Oui
Ici est le signe ou la fonction de signe : sa valeur est si et si . Il est également vrai que si , mais ce cas ne nous concerne pas: serait une constante, donc in le dénominateur et nous ne pouvons pas calculer la corrélation. Les arguments de symétrie permettent de généraliser ce résultat, pour :sgn ( a ) = + 1 a > 0 sgn ( a ) = - 1 a < 0 sgn ( a ) = 0 a = 0 a X + b Var ( a X + b ) = 0 a ,sgn ( a ) sgn ( a ) = + 1 a > 0 sgn ( a ) = - 1 a < 0 sgn(a)=0 a=0 aX+b Var(aX+b)=0 a,c≠0
Nous n'aurons pas besoin de cette formule plus générale pour répondre à la question actuelle, mais je l'inclus pour souligner la géométrie de la situation: elle indique simplement que la corrélation est inchangée lorsque l'une ou l'autre variable est mise à l'échelle ou traduite, mais inverse le signe lorsqu'une variable est réfléchi.
Nous avons besoin d' une plus fait: pour un modèle linéaire comprenant un terme constant, le coefficient de détermination est le carré du coefficient de corrélation multiple , qui est la corrélation entre les réponses observées et valeurs ajustées du modèle . Cela vaut pour les multiples et régressions simples, mais laissez - nous limitons notre attention sur le linéaire simple modèle . Le résultat découle de l'observation que est une version mise à l'échelle, éventuellement réfléchie et traduite de : R Y Y Y = β 0 + β 1 X Y XR2 R Y Y^ Y^=β^0+β^1X Y^ X
Donc où le signe correspond au signe de la pente estimée, ce qui garantit que ne sera pas négatif. Clairement .R R 2 = r 2R=±r R R2=r2
L'argument précédent a été simplifié en n'ayant pas à considérer les sommes des carrés. Pour y parvenir, j'ai sauté les détails de la relation entre , que nous pensons normalement en termes de sommes de carrés, et , pour lequel nous pensons aux corrélations des réponses ajustées et observées. Les symboles font que la relation semble tautologique mais ce n'est pas le cas, et la relation se décompose s'il n'y a pas de terme d'interception dans le modèle! Je vais donner un bref aperçu d'un argument géométrique sur la relation entre et tiré d'une question différente : le diagramme est dessiné dans un espace sujet à dimensions R R 2 = ( R ) 2 R R 2 n X 1 nR2 R R2=(R)2 R R2 n , de sorte que chaque axe (non représenté) représente une seule unité d'observation, et les variables sont représentées comme des vecteurs. Les colonnes de la matrice de conception sont le vecteur (pour le terme constant) et le vecteur d'observations de la variable explicative, donc l'espace des colonnes est un plat bidimensionnel.X 1n
Le ajusté est la projection orthogonale du observé sur l'espace de colonne de . Cela signifie que le vecteur des résidus est perpendiculaire à l'appartement, et donc à . Le produit scalaire est . Comme les résidus à zéro et , alors sorte que les réponses ajustées et observées ont une moyenne . Les lignes pointillées du diagramme, et YXe=y - y 1n0=1n⋅e=Σ n i = 1 eiYi= ^ Y i +eiΣ n i = 1 Yi=Σ n i = 1 ^ Y i ˉ Y Y- ˉ Y 1n YY^ Y X e=y−y^ 1n 0=1n⋅e=∑ni=1ei Yi=Yi^+ei ∑ni=1Yi=∑ni=1Yi^ Y¯ Y−Y¯1n θ RY^−Y¯1n , sont donc les centrées vecteurs pour les réponses observées et ajustés, et le cosinus de l'angle entre eux est leur corrélation .θ R
Le triangle que ces vecteurs forment avec le vecteur des résidus est à angle droit car se trouve dans le plat mais est orthogonal. Application de Pythagore:eY^−Y¯1n e
Il s'agit simplement de la décomposition des sommes des carrés, . La formule conventionnelle du coefficient de détermination est qui dans ce triangle est alors est bien la place de . Vous connaissez peut-être mieux la formule , qui donne immédiatement , mais notez que est plus général et se réduira (comme nous venons de le voir) à 1 - S S résiduelSStotal=SSresidual+SSregression 1-sin2θ=cos2θRR2=SS régression1−SSresidualSStotal 1−sin2θ=cos2θ R cos total 2θ1-SS résiduelR2= SSrégressionSStotal cos2θ SS régression1 - SSrésiduelSStotal SSrégressionSStotal si un terme constant est inclus dans le modèle .
la source
Le est défini comme Le coefficient de corrélation de l'échantillon au carré: est équivalent, car il est facilement vérifiable en utilisant: (voir Verbeek , §2.4)R 2 = V ( y i )R2
la source