Comment un vecteur de variables peut-il représenter un hyperplan?

12

Je lis Éléments d'apprentissage statistique et à la page 12 (section 2.3) un modèle linéaire est noté comme:

Y^=XTβ^

... où est la transposition d'un vecteur colonne des prédicteurs / variables indépendantes / entrées. (Il déclare plus tôt "tous les vecteurs sont supposés être des vecteurs de colonne", cela ne ferait-il pas de un vecteur de ligne et un vecteur de colonne?)XTXTβ^

Inclus dans est un " " à multiplier par le coefficient correspondant donnant l'ordonnée à l'origine (constante).X1

Il poursuit en disant:

Dans l' espace d'entrée-sortie , représente un hyperplan. Si la constante est incluse dans , l'hyperplan inclut l'origine et est un sous-espace; sinon, c'est un ensemble affine coupant l' axe au point .(p+1)(X, Y^)XY(0, β0^)

Est-ce que " " décrit un vecteur formé par la concaténation des prédicteurs, le " " de l'interception et ? Et pourquoi l'inclusion d'un " " dans oblige l'hyperplan à traverser l'origine, ce " " doit sûrement être multiplié par ?(X, Y^)1Y^1X1β0^

Je n'arrive pas à comprendre le livre; toute aide / conseil / lien vers des ressources serait très apprécié.

Scott
la source
4
Il pourrait être utile de considérer premier. Dans ce cas, , avec l'interception. Il s'agit de l'équation d'une ligne passant par . Les extensions à des dimensions supérieures sont immédiates. y = β 0 + x β β 0 ( 0 , ß 0 )p=1y^=β^0+xβ^β0(0,β^0)
ocram
Si l'aide de @ocram ne suffit pas, essayez d'écrire les vecteurs et de faire la multiplication.
Peter Flom - Réintègre Monica
2
Voici une belle présentation graphique: blog.stata.com/2011/03/03/… . La notation est différente, A il y a votre X et x est . β^
Dimitriy V. Masterov
2
Le livre est faux, ou du moins il est incohérent. Évidemment, il existe variables n'incluant pas la constante. Ainsi l'ensemble est en effet un hyperplan, mais il est incorrect de dire que la constante est "incluse dans ". Au lieu de cela , je pense que le livre a voulu dire la constante est inclus dans la régression mais ne doit pas être considéré comme faisant partie de . Par conséquent, le modèle doit vraiment être écrit où . La définition de donne immédiatement l'assertion concernant l'interception. { ( X , Y ) | X R p } X X Y = β 0 + X ' β β = ( β 1 , ß 2 , ... , β p ) « X = 0p{(X,Y^)|XRp}XXY^=β^0+Xβ^β=(β1,β2,,βp)X=0
whuber
1
(Si nous incluons plutôt la constante dans , alors nous ne pouvons pas laisser varier librement sur l'ensemble de : il est contraint de se trouver dans un sous-espace . Le graphique alors codimension au moins et n'est donc pas réellement un "hyperplan".)X R p p - 1 { ( X , Y ) } 2XXRpp1{(X,Y^)}2
whuber

Réponses:

4

Soit le nombre d'observations et le nombre de variables explicatives.KNK

NX est en fait une matriceCe n'est que lorsque nous regardons une seule observation que nous désignons généralement chaque observation par - un vecteur de lignes de variables explicatives d'un scalaire d'observation particulier multiplié par le vecteur de colonne . De plus, est un vecteur de colonne , contenant toutes les observations .N×KxiTK×1βYN×1Yn

Maintenant, un hyperplan deux dimensions s'étendrait entre le vecteur et un (!) Vecteur colonne de . Rappelez - vous que est un la matrice, de sorte que chaque variable explicative est représenté par exactement un vecteur de colonne de la matrice . Si nous avons une seule variable explicative, aucune interception et , tous les points de données sont situés le long du plan 2 dimensions enjambé par et .YXXN×KXYYX

Pour une régression multiple, combien de dimensions au total l'hyperplan entre et la matrice a-t-il? Réponse: Puisque nous avons vecteurs de colonnes de variables explicatives dans , nous devons avoir un hyperplan dimensionnel .YXKXK+1

Habituellement, dans un cadre matriciel, la régression nécessite une interception constante pour être sans biais pour une analyse raisonnable du coefficient de pente. Pour tenir compte de cette astuce, nous forçons une colonne de la matrice à être uniquement constituée de " s". Dans ce cas, l'estimateur est seul multiplié par une constante pour chaque observation au lieu d'une variable explicative aléatoire. Le coefficient représente donc la valeur attendue de étant donné que est maintenu fixe avec la valeur 1 et toutes les autres variables sont nulles. Par conséquent, l' hyperplan est réduit d'une dimension en un sous-espace , etX1β1β1Yx1iK+1Kβ1 correspond à l '"interception" de ce plan dimensionnel.K

Dans les paramètres matriciels, il est toujours conseillé de regarder le cas simple de deux dimensions, pour voir si nous pouvons trouver une intuition pour nos résultats. Ici, la façon la plus simple est de penser à la régression simple avec deux variables explicatives: ou alternativement exprimée en algèbre matricielle: où est un matrice.

yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2

<Y,X> s'étend sur un hyperplan tridimensionnel.

Maintenant, si nous tous les à tous les , nous obtenons: qui est notre régression simple habituelle qui peut être représentée dans un tracé bidimensionnelNotez que est maintenant réduit à une ligne à deux dimensions - un sous-ensemble de l'hyperplan à l'origine en 3 dimensions. Le coefficient correspond à l'ordonnée à l'origine de la coupe de ligne à .x11

yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0

Il peut en outre être montré qu'il passe également par lorsque la constante est incluse . Si nous omettons la constante, l'hyperplan de régression passe toujours trivialement par - sans aucun doute. Cela se généralise à plusieurs dimensions, comme on le verra plus tard lors de la dérivation de : Puisque a un rang complet par définition, , et donc la régression passe par l'origine si nous à l'origine.<0,β1><0,0>βX y - X β = 0

(XX)β=Xy(XX)βXy=0X(yXβ)=0.
XyXβ=0

( Edit: Je viens de réaliser que pour votre deuxième question, c'est exactement le contraire de vous avez écrit l'inclusion ou l'exclusion de la constante. Cependant, j'ai déjà conçu la solution ici et je me corrige si je me trompe sur celle-ci. )

Je sais que la représentation matricielle d'une régression peut être assez déroutante au début, mais finalement elle simplifie beaucoup lors de la dérivation d'une algèbre plus complexe. J'espère que ça aide un peu.

Majte
la source
1

Je pense que la façon de penser est de réorganiser cette équation:

Y^XTβ^=0

La seule façon d'obtenir cette équation linéaire pour inclure l'origine est de rendre le prévu égal à l'interception. Et la façon d'estimer cette valeur consiste à inclure un terme d'interception dans le modèle de régression.

Y^
DWin
la source