Mon ensemble de données ( ) a une variable dépendante (DV), cinq variables "de base" indépendantes (P1, P2, P3, P4, P5) et une variable indépendante d'intérêt (Q).
J'ai exécuté des régressions linéaires OLS pour les deux modèles suivants:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
C'est-à-dire, l'ajout du prédicteur Q a diminué la quantité de variance expliquée dans le modèle linéaire. Pour autant que je sache, cela ne devrait pas se produire .
Pour être clair, il s'agit de valeurs R au carré et non de valeurs R au carré ajustées.
J'ai vérifié les valeurs au carré R- en utilisant Jasp et de Python de statsmodels .
Y a-t-il une raison pour laquelle je pourrais voir ce phénomène? Peut-être quelque chose concernant la méthode OLS?
Réponses:
Serait - ce que vous avez les valeurs manquantes
Q
qui obtiennent chuté auto-? Cela aurait des implications sur l'échantillon, rendant les deux régressions non comparables.la source