Je lis Éléments d'apprentissage statistique et à la page 12 (section 2.3) un modèle linéaire est noté comme:
... où est la transposition d'un vecteur colonne des prédicteurs / variables indépendantes / entrées. (Il déclare plus tôt "tous les vecteurs sont supposés être des vecteurs de colonne", cela ne ferait-il pas de un vecteur de ligne et un vecteur de colonne?)
Inclus dans est un " " à multiplier par le coefficient correspondant donnant l'ordonnée à l'origine (constante).
Il poursuit en disant:
Dans l' espace d'entrée-sortie , représente un hyperplan. Si la constante est incluse dans , l'hyperplan inclut l'origine et est un sous-espace; sinon, c'est un ensemble affine coupant l' axe au point .
Est-ce que " " décrit un vecteur formé par la concaténation des prédicteurs, le " " de l'interception et ? Et pourquoi l'inclusion d'un " " dans oblige l'hyperplan à traverser l'origine, ce " " doit sûrement être multiplié par ?
Je n'arrive pas à comprendre le livre; toute aide / conseil / lien vers des ressources serait très apprécié.
Réponses:
Soit le nombre d'observations et le nombre de variables explicatives.KN K
NX est en fait une matriceCe n'est que lorsque nous regardons une seule observation que nous désignons généralement chaque observation par - un vecteur de lignes de variables explicatives d'un scalaire d'observation particulier multiplié par le vecteur de colonne . De plus, est un vecteur de colonne , contenant toutes les observations .N×K xTi K×1 β Y N×1 Yn
Maintenant, un hyperplan deux dimensions s'étendrait entre le vecteur et un (!) Vecteur colonne de . Rappelez - vous que est un la matrice, de sorte que chaque variable explicative est représenté par exactement un vecteur de colonne de la matrice . Si nous avons une seule variable explicative, aucune interception et , tous les points de données sont situés le long du plan 2 dimensions enjambé par et .Y X X N×K X Y Y X
Pour une régression multiple, combien de dimensions au total l'hyperplan entre et la matrice a-t-il? Réponse: Puisque nous avons vecteurs de colonnes de variables explicatives dans , nous devons avoir un hyperplan dimensionnel .Y X K X K+1
Habituellement, dans un cadre matriciel, la régression nécessite une interception constante pour être sans biais pour une analyse raisonnable du coefficient de pente. Pour tenir compte de cette astuce, nous forçons une colonne de la matrice à être uniquement constituée de " s". Dans ce cas, l'estimateur est seul multiplié par une constante pour chaque observation au lieu d'une variable explicative aléatoire. Le coefficient représente donc la valeur attendue de étant donné que est maintenu fixe avec la valeur 1 et toutes les autres variables sont nulles. Par conséquent, l' hyperplan est réduit d'une dimension en un sous-espace , etX 1 β1 β1 Y x1i K+1 K β1 correspond à l '"interception" de ce plan dimensionnel.K
Dans les paramètres matriciels, il est toujours conseillé de regarder le cas simple de deux dimensions, pour voir si nous pouvons trouver une intuition pour nos résultats. Ici, la façon la plus simple est de penser à la régression simple avec deux variables explicatives: ou alternativement exprimée en algèbre matricielle: où est un matrice.
Maintenant, si nous tous les à tous les , nous obtenons: qui est notre régression simple habituelle qui peut être représentée dans un tracé bidimensionnelNotez que est maintenant réduit à une ligne à deux dimensions - un sous-ensemble de l'hyperplan à l'origine en 3 dimensions. Le coefficient correspond à l'ordonnée à l'origine de la coupe de ligne à .x1 1
Il peut en outre être montré qu'il passe également par lorsque la constante est incluse . Si nous omettons la constante, l'hyperplan de régression passe toujours trivialement par - sans aucun doute. Cela se généralise à plusieurs dimensions, comme on le verra plus tard lors de la dérivation de : Puisque a un rang complet par définition, , et donc la régression passe par l'origine si nous à l'origine.<0,β1> <0,0> β X y - X β = 0
( Edit: Je viens de réaliser que pour votre deuxième question, c'est exactement le contraire de vous avez écrit l'inclusion ou l'exclusion de la constante. Cependant, j'ai déjà conçu la solution ici et je me corrige si je me trompe sur celle-ci. )
Je sais que la représentation matricielle d'une régression peut être assez déroutante au début, mais finalement elle simplifie beaucoup lors de la dérivation d'une algèbre plus complexe. J'espère que ça aide un peu.
la source
Je pense que la façon de penser est de réorganiser cette équation:
La seule façon d'obtenir cette équation linéaire pour inclure l'origine est de rendre le prévu égal à l'interception. Et la façon d'estimer cette valeur consiste à inclure un terme d'interception dans le modèle de régression.
la source