Peut-on utiliser des coefficients

9

J'essaie d'interpréter les résultats d'un article, où ils ont appliqué une régression multiple pour prédire divers résultats. Cependant les (coefficients B normalisés définis comme où est la personne à charge variable et est un prédicteur) rapporté ne semble pas correspondre au rapporté :β x 1 = B x 1S D x 1β yx1R2βx1=Bx1SDx1SDyyx1R2

entrez la description de l'image ici

Malgré les de -0,83, -0,29, -0,16, -0,43, 0,25 et -0,29, le rapporté n'est que de 0,20.R 2βR2

De plus, les trois prédicteurs: poids, IMC et% de graisse sont multi-colinéaires, corrélés autour de r = 0,8-0,9 les uns avec les autres au sein des sexes.

La valeur est-elle plausible avec ces , ou n'y a-t-il pas de relation directe entre les et le ? β β R 2R2ββR2

De plus, des problèmes avec les prédicteurs multicollinéaires pourraient-ils affecter la d'un quatrième prédicteur (VO2max), qui est corrélée autour de r = 0,4 avec les trois variables susmentionnées?β

Sakari Jukarainen
la source
Qu'est-ce que dans ce contexte? Un coefficient bêta (régression standardisée)? Ou autre chose? Si oui, alors vous ne pouvez pas vraiment dire quoi que ce soit, tout ce que vous obtenez est une interprétation en termes d'écarts-types. Le fait que le coefficient implique des effets importants n'implique pas une valeur élevéeR 2βR2
Repmat
1
ß représente les coefficients b normalisés. Pour un cas à prédicteur 1, ß est égal au r de Pearson, qui est directement lié au R au carré, mais dans ce cas multivarié, pourquoi des ß élevés n'impliquent-ils pas un R au carré élevé?
Sakari Jukarainen
2
Non, dans un cas de régresseur, n'est pas égal à la corrélation de Pearson: β = Cov ( y , x )β. La relation entreβs etR2n'est pas aussi simple. β=Cov(y,x)Var(x)Cov(y,x)Var(y)×Var(x)=ρ(y,x)βR2
Richard Hardy
5
@ RichardHardy Je soupçonne que la confusion est que Sakari a défini comme étant le coefficient de régression standardisé . Dans une régression linéaire bivariée, le coefficient de régression ( b dans la notation de Sakari) est r x y s yβb , oùrest la corrélation etsl'écart-type. Pour standardiser un coefficient de régression, nous divisons le coefficient avec l'écart-type deyet multiplions par cet écart-type dex, donc seule la corrélation est laissée. Alors Sakari a raison. rxysysxrsyx
Maarten Buis
Je ne vois toujours pas pourquoi vous considérez que c'est faux? S'il y a des statistiques résumées dans le document, vous pouvez simplement vérifier si les chiffres s'additionnent. Vous avez même fourni la formule pour le faire. Vous ne pouvez pas conclure, simplement parce que les effets sont importants en termes abosultes, que les modèles expliquent bien la variance en y.
Repmat

Réponses:

17

L' interprétation géométrique de la régression des moindres carrés ordinaires fournit la perspicacité requise.

La plupart de ce que nous devons savoir peut être vu dans le cas de deux régresseurs et x 2 avec la réponse y . Les coefficients normalisés, ou «bêtas», surviennent lorsque les trois vecteurs sont normalisés à une longueur commune (que nous pouvons considérer comme étant l'unité). Ainsi, x 1 et x 2 sont des vecteurs unitaires dans un plan E 2 - ils sont situés sur le cercle unitaire - et y est un vecteur unitaire dans un espace euclidien tridimensionnel E 3 contenant ce plan. La valeur ajustée y est la projection orthogonale (perpendiculaire) dex1x2yx1x2E2yE3y^ sur E 2 . Parce que R 2 est simplement la longueurcarré de y , nous ne devons pas visualiser même les trois dimensions: toutes les informations nécessaires peuvent être tirées dans ce plan.yE2R2y^

Régresseurs orthogonaux

La situation la plus agréable est lorsque les régresseurs sont orthogonaux, comme dans la première figure.

Figure 1, montrant les régresseurs et $ \ hat y $ comme vecteurs dans un plan.

Dans ceci et le reste des figures, je dessine systématiquement le disque de l'unité en blanc et les régresseurs sous forme de flèches noires. pointera toujours directement vers la droite. Les flèches rouges épais représentent les composantes de y dans les x 1 et x 2 directions: qui est, β 1 x 1 et β 2 x 2 . La longueur de y est le rayon du cercle gris sur laquelle il se trouve - mais se rappeler que R 2 est lex1y^x1x2β1x1β2x2y^R2 carré de cette longueur.

Le théorème de Pythagore affirme

R2=|y^|2=|β1x1|2+|β2x2|2=β12(1)+β22(1)=β12+β22.

Parce que le théorème de Pythagore tient dans n'importe quel nombre de dimensions, ce raisonnement se généralise à n'importe quel nombre de régresseurs, donnant notre premier résultat:

Lorsque les régresseurs sont orthogonaux, est égal à la somme des carrés des bêtas.R2

Un corollaire immédiat est que lorsqu'il n'y a qu'un seul régresseur - régression univariée - est le carré de la pente normalisée.R2

Corrélé

Les régresseurs à corrélation négative se rencontrent à des angles supérieurs à un angle droit.

Figure 2, montrant les régresseurs à corrélation négative

Il apparaît visuellement sur cette image que la somme des carrés des bêtas est strictement supérieure à . Cela peut être prouvé algébriquement en utilisant la loi des cosinus ou en travaillant avec une solution matricielle des équations normales.R2

En rendant les deux régresseurs presque parallèle, on peut positionner y près de l'origine (pour R 2 près 0 ) alors qu'elle continue d'avoir de grands composants de la x 1 et x 2 direction. Ainsi, il n'y a pas de limite à la taille du R 2 .y^R20x1x2R2

Figure

Mémorisons ce résultat évident, notre deuxième généralité:

Lorsque régresseurs sont corrélées, peut être arbitrairement petite que la somme des carrés des bêtas.R2

Cependant, ce n'est pas une relation universelle, comme le montre la figure suivante.

Figure 3, montrant des régresseurs à corrélation négative, mais les bêtas ont des signes opposés.

Maintenant, dépasse strictement la somme des carrés des bêtas. En tirant les deux régresseurs rapprochés et en gardant y entre eux, nous pouvons faire à la fois approche les bêtas 1 / 2 , même lorsque R 2 est proche de 1 . Une analyse plus approfondie peut nécessiter une algèbre: je prends cela en compte ci-dessous.R2y^1/2R21

Je laisse à votre imagination le soin de construire des exemples similaires avec des régresseurs positivement corrélés, qui se rencontrent ainsi sous des angles aigus.

Notez que ces conclusions sont incomplètes: il y a des limites à combien moins de peut être comparé à la somme des carrés des bêtas. En particulier, en examinant attentivement les possibilités, vous pouvez conclure (pour une régression avec deux régresseurs) queR2

Lorsque les régresseurs sont positivement corrélés et les bêtas ont un signe commun, ou lorsque les régresseurs sont négativement corrélés et les bêtas ont des signes différents, doit être au moins aussi grande que la somme des carrés des bêtas. R2


Résultats algébriques

Généralement, que les régresseurs soient (vecteurs colonnes) et la réponse soit y . Les moyens de normalisation (a) sont chacun orthogonaux au vecteur ( 1 , 1 , , 1 ) ' et (b) ils ont des longueurs unitaires:x1,x2,,xpy(1,1,,1)

|xi|2=|y|2=1.

Assembler les vecteurs colonnes dans un n × p matrice X . Les règles de multiplication matricielle impliquent quexin×pX

Σ=XX

est la matrice de corrélation des . Les bêtas sont donnés par les équations normales,xi

β=(XX)1Xy=Σ1(Xy).

De plus, par définition, l'ajustement est

y^=Xβ=X(Σ1Xy).

Sa longueur au carré donne par définition:R2

R2=|y^|2=y^y^=(Xβ)(Xβ)=β(XX)β=βΣβ.

R2

i=1pβi2=ββ.

L2Ap2

|A|22=i,jaij2=tr(AA)=tr(AA).

L'inégalité de Cauchy-Schwarz implique

R2=tr(R2)=tr(βΣβ)=tr(Σββ)|Σ|2|ββ|2=|Σ|2ββ.

1p2p×pΣ|Σ|21×p2=p

R2pββ.

xi

R2R2/p


Conclusions

R2y^R2

1.1301R21

0.830.69R20.20VO2max

R2x1x2y^x1x2ypar des quantités inconnues (en fonction de la façon dont ces trois éléments sont liés aux covariables), ne nous laissant presque rien savoir de la taille réelle des vecteurs avec lesquels nous travaillons.

whuber
la source
y^y^
@amoeba Vous avez tout à fait raison. J'ai été trop précipité pour créer ces images! Je vais (espérons-le temporairement) supprimer ce message jusqu'à ce que j'aie l'occasion de corriger le problème. Merci de l'avoir signalé.
whuber
@Amoeba J'ai corrigé les images et modifié l'analyse pour qu'elles correspondent. Bien que les détails aient considérablement changé, les conclusions restent les mêmes.
whuber
1
@amoeba Encore une fois, vous avez raison. Au risque de perdre les lecteurs intéressés, mais maintenant que je me sens obligé de quantifier l'intuition géométrique, j'ai resserré cette conclusion et l'ai justifiée avec un peu d'algèbre. (J'espère que l'algèbre est correcte!)
whuber
1
Merci beaucoup! En tant que sidenote, VO2max est négativement corrélé avec le poids et l'IMC, car ils sont associés à une masse corporelle maigre plus élevée. Dans ce tableau, VO2max correspond en fait à VO2max divisé par le poids (ce qui est une mauvaise façon de mettre VO2max à la taille du corps). La VO2max / poids dans le tableau est corrélée négativement avec tous les autres prédicteurs, à l'exception du sexe, ce qui pourrait expliquer le ß élevé mais le R-carré faible, comme vous l'avez mentionné.
Sakari Jukarainen