Je viens de lire un article dans lequel les auteurs ont effectué une régression multiple avec deux prédicteurs. La valeur globale du r au carré était de 0,65. Ils ont fourni un tableau qui divise le r au carré entre les deux prédicteurs. Le tableau ressemblait à ceci:
rsquared beta df pvalue
whole model 0.65 NA 2, 9 0.008
predictor 1 0.38 1.01 1, 10 0.002
predictor 2 0.27 0.65 1, 10 0.030
Dans ce modèle, exécuté à l' R
aide de l' mtcars
ensemble de données, la valeur globale du r au carré est de 0,76.
summary(lm(mpg ~ drat + wt, mtcars))
Call:
lm(formula = mpg ~ drat + wt, data = mtcars)
Residuals:
Min 1Q Median 3Q Max
-5.4159 -2.0452 0.0136 1.7704 6.7466
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 30.290 7.318 4.139 0.000274 ***
drat 1.442 1.459 0.989 0.330854
wt -4.783 0.797 -6.001 1.59e-06 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 3.047 on 29 degrees of freedom
Multiple R-squared: 0.7609, Adjusted R-squared: 0.7444
F-statistic: 46.14 on 2 and 29 DF, p-value: 9.761e-10
Comment puis-je diviser la valeur r au carré entre les deux variables prédictives?
Réponses:
Vous pouvez simplement obtenir les deux corrélations distinctes et les mettre au carré ou exécuter deux modèles distincts et obtenir le R ^ 2. Ils ne résumeront que si les prédicteurs sont orthogonaux.
la source
En plus de la réponse de John , vous souhaiterez peut-être obtenir les corrélations quadratiques semi-partielles pour chaque prédicteur.
Si vous cherchez une fonction R, il y a
spcor()
dans leppcor
package.Vous pouvez également envisager le sujet plus large de l'évaluation de l'importance des variables dans la régression multiple (par exemple, consultez cette page sur le package relaimpo ).
la source
J'ai ajouté la balise variance-decomposition à votre question. Voici une partie de son wiki wiki :
Une méthode courante consiste à ajouter des régresseurs au modèle un par un et à enregistrer l'augmentationR2 à mesure que chaque régresseur est ajouté. Étant donné que cette valeur dépend des régresseurs déjà présents dans le modèle, il faut le faire pour chaque ordre possible dans lequel les régresseurs peuvent entrer dans le modèle, puis faire la moyenne des ordres. Ceci est possible pour les petits modèles mais devient prohibitif sur le plan des calculs pour les grands modèles, car le nombre de commandes possibles estp ! pour p prédicteurs.
Grömping (2007, The American Statistician ) donne un aperçu et des indications sur la littérature dans le contexte de l'évaluation de l'importance variable.
la source
y ~ a + b
dire que ce sera la même chosey ~ b + a
, n'est-ce pas? Et oui, vous devez calculer la différence entrey ~ a
ety ~ a + b
ainsi quey ~ b
ety ~ a + b
, mais vous n'avez pas vraiment besoin de couriry ~ b + a
, n'est-ce pas ? Il ne vous restait donc qu'à courira
. Et puis, la contribution dea
en l' absence deb
(à savoir, la différence dey~1
andy~a
) will usually be quite different than the contribution of 'a' in the presence ofb
(i.e., the difference iny~b
andy~a+b
). So we need to look at all different possible orderings in which 'a' and the other predictors can enter the model.