Je lisais Éléments d'apprentissage statistique et j'aimerais savoir pourquoi le lasso fournit une sélection de variables et non la régression de crête.
Les deux méthodes minimisent la somme des carrés résiduels et ont une contrainte sur les valeurs possibles des paramètres . Pour le lasso, la contrainte est , alors que pour la crête, elle est , pour certains .
J'ai vu la photo diamant vs ellipse dans le livre et j'ai une certaine idée du pourquoi le lasso peut frapper les coins de la région contrainte, ce qui implique que l'un des coefficients est défini à zéro. Cependant, mon intuition est plutôt faible et je ne suis pas convaincu. Cela devrait être facile à voir, mais je ne sais pas pourquoi cela est vrai.
Je suppose donc que je recherche une justification mathématique ou une explication intuitive de la raison pour laquelle les contours de la somme des carrés résiduels risquent de heurter les coins de la région contrainte (alors que cette situation est peu probable si la contrainte est ).
Réponses:
Considérons un modèle très simple: , avec une pénalité L1 sur et une fonction de perte par les moindres carrés sur . Nous pouvons développer l'expression à minimiser comme suit:y=βx+e β^ e^
Supposons que la solution des moindres carrés est , ce qui revient à supposer que , et voyons ce qui se passe lorsque nous ajoutons la pénalité L1. Avec , , la peine est donc égale à . La dérivée de la fonction objectif par rapport à est:β^>0 yTx>0 β^>0 |β^|=β^ 2λβ β^
qui a évidemment la solution .β^=(yTx−λ)/(xTx)
Evidemment, en augmentant nous pouvons conduire à zéro (à ). Cependant, une fois que , l'augmentation de ne la conduira pas à un résultat négatif, car si vous écrivez de manière vague, l'instant devient négatif, la dérivée de la fonction objectif devient:λ β^ λ=yTx β^=0 λ β^
où le retournement dans le signe de est dû à la nature absolue du terme de la peine; quand devient négatif, le terme de pénalité devient égal à , et prendre le dérivé wt donne . Ceci conduit à la solution , qui est évidemment incompatible avec (étant donné que la solution des moindres carrés , ce qui implique , etλ β −2λβ β −2λ β^=(yTx+λ)/(xTx) β^<0 >0 yTx>0 λ>0 ). Il y a une augmentation de la pénalité N1 ET une augmentation du terme d'erreur au carré (car nous nous éloignons de la solution des moindres carrés) lors du déplacement de de à , nous ne le faisons donc pas. coller à .β^ 0 <0 β^=0
Il devrait être intuitivement clair que la même logique s'applique, avec les changements de signe appropriés, pour une solution des moindres carrés avec .β^<0
Avec la peine des moindres carrés , le dérivé devient:λβ^2
qui a évidemment solution . Evidemment, aucune augmentation de ne mènera à zéro. Par conséquent, la pénalité N2 ne peut pas servir d’outil de sélection de variable sans quelques règles d’adaptation légères, telles que "définir l’estimation du paramètre sur zéro si elle est inférieure à ".β^=yTx/(xTx+λ) λ ϵ
Évidemment, les choses peuvent changer lorsque vous passez à des modèles multivariés. Par exemple, déplacer une estimation de paramètre peut en forcer un autre à changer de signe, mais le principe général est le même: la fonction de pénalité L2 ne peut pas vous amener à zéro, parce que, écrivant de manière très heuristique, elle ajoute en fait au "dénominateur" de l'expression de , mais la fonction de pénalité L1 peut, car elle ajoute en réalité au "numérateur".β^
la source
Supposons que nous ayons un ensemble de données avec y = 1 et x = [1/10 1/10] (un point de données, deux entités). Une solution consiste à choisir l'une des fonctionnalités, une autre fonctionnalité consiste à pondérer les deux. Nous pouvons donc choisir w = [5 5] ou w = [10 0].
Notez que pour la norme L1, les deux ont la même pénalité, mais que le poids plus dispersé a une pénalité inférieure pour la norme L2.
la source
Je pense qu’il existe déjà d’excellentes réponses, mais je voudrais ajouter une certaine intuition concernant l’interprétation géométrique:
"Le lasso effectue un retrait , de sorte qu'il y ait des" coins "dans la contrainte, ce qui correspond en deux dimensions à un losange. Si la somme des carrés" frappe "l'un de ces coins, le coefficient correspondant à l'axe est réduit. à zéro.L1
Au fur et à mesure que augmente, le diamant multidimensionnel a un nombre croissant d'angles et il est donc très probable que certains coefficients soient égaux à zéro. Par conséquent, le lasso effectue un retrait et une sélection (efficace) de sous-ensembles.p
Contrairement à la sélection de sous-ensembles, l'arête effectue un seuillage progressif: lorsque le paramètre de lissage est modifié, la trajectoire d'échantillonnage des estimations se déplace continuellement vers zéro. "
Source: https://onlinecourses.science.psu.edu/stat857/book/export/html/137
L'effet peut être bien visualisé où les lignes colorées sont les chemins des coefficients de régression se ramenant à zéro.
"La régression de crête réduit tous les coefficients de régression vers zéro; le lasso tend à donner un ensemble de coefficients de régression nuls et conduit à une solution clairsemée."
Source: https://onlinecourses.science.psu.edu/stat857/node/158
la source