Je prends un cours sur les modèles de régression et l'une des propriétés fournies pour la régression linéaire est que les résidus résument toujours à zéro lorsqu'une interception est incluse.
Quelqu'un peut-il expliquer pourquoi c'est le cas?
regression
residuals
dts86
la source
la source
Réponses:
Cela découle directement des équations normales, c'est-à-dire des équations que l'estimateur OLS résout,
Le vecteur à l'intérieur des parenthèses est bien sûr le vecteur résiduel ou la projection de sur le complément orthogonal de l'espace de colonne de X , si vous aimez l'algèbre linéaire. Maintenant, l'inclusion d'un vecteur de uns dans la matrice X , qui ne doit d'ailleurs pas être dans la première colonne comme cela se fait classiquement, conduit ày X X
Dans le problème à deux variables, cela est encore plus simple à voir, car la minimisation de la somme des résidus au carré nous amène à
lorsque nous prenons la dérivée par rapport à l'ordonnée à l'origine. De là, nous procédons à l'obtention de l'estimateur familier
où l'on voit encore que la construction de nos estimateurs impose cette condition.
la source
Dans le cas où vous recherchez une explication plutôt intuitive.
Dans un certain sens, le modèle de régression linéaire n'est rien d'autre qu'une moyenne fantaisiste. Pour trouver la moyenne arithmétiqueX¯ sur certaines valeurs X1, x2, … , Xn , nous trouvons une valeur qui est une mesure de centralité en ce sens que la somme de tous les écarts (où chaque écart est défini comme uje= xje- x¯ ) à droite de la valeur moyenne sont égales à la somme de tous les écarts à gauche de cette moyenne. Il n'y a aucune raison inhérente pour laquelle cette mesure est bonne, encore moins la meilleure façon de décrire la moyenne d'un échantillon, mais elle est certainement intuitive et pratique. Le point important est que, en définissant ainsi la moyenne arithmétique, il s'ensuit nécessairement qu'une fois que nous avons construit la moyenne arithmétique, tous les écarts par rapport à cette moyenne doivent s'additionner à zéro par définition!
En régression linéaire, ce n'est pas différent. Nous ajustons la ligne de telle sorte que la somme de toutes les différences entre nos valeurs ajustées (qui sont sur la ligne de régression) et les valeurs réelles qui sont au - dessus de la ligne soit exactement égale à la somme de toutes les différences entre la ligne de régression et toutes les valeurs en dessous de la ligne. Encore une fois, il n'y a aucune raison inhérente, pourquoi c'est la meilleure façon de construire un ajustement, mais c'est simple et intuitivement attrayant. Tout comme avec la moyenne arithmétique: en construisant nos valeurs ajustées de cette manière, il s'ensuit nécessairement, par construction, que tous les écarts par rapport à cette ligne doivent s'additionner à zéro, sinon ce ne serait pas une régression OLS.
la source
Lorsque l'ordonnée à l' origine est incluse dans la régression linéairey^je= β0+ β1Xi , 1+ β2Xi , 2+ … + ΒpXi , p
Dans la régression des moindres carrés, la somme des carrés des les erreurs sont minimisées.
SSE= ∑i = 1n( eje)2= ∑i = 1n( yje- yje^)2= ∑i = 1n( yje- β0- β1Xi , 1- β2Xi , 2- … -βpXi , p)2
Prendre la dérivée partielle de SSE par rapport àβ0 et le mettre à zéro.
∂SSE∂β0= ∑i = 1n2 ( yje- β0- β1Xi , 1- β2Xi , 2- … - βpXi , p)1( - 1 ) = - 2 ∑i = 1neje= 0
Par conséquent, les résidus résument toujours à zéro lorsqu'une ordonnée à l'origine est incluse dans la régression linéaire.
la source
Donc,====1T(y- y^) = 1T( Je- H) yeTXT( Je-X( XTX)- 1XT) yeT( XT- XTX( XTX)- 1XT) yeT( XT- XT) y0.
la source
Une dérivation simple utilisant l'algèbre matricielle:
alors
la source
..
la source