Réponse courte: chaque fois que vous faites face à l'une de ces situations:
- grand nombre de variables ou faible ratio de non. observations à non. variables (y compris le cas n≪p ),
- haute colinéarité,
- à la recherche d'une solution fragmentée (c.-à-d. la sélection des caractéristiques intégrées lors de l'estimation des paramètres du modèle), ou
- comptabilisation du regroupement de variables dans un ensemble de données de grande dimension.
La régression de crête donne généralement de meilleures prévisions que la solution MCO, grâce à un meilleur compromis entre biais et variance. Son principal inconvénient est que tous les prédicteurs sont conservés dans le modèle. Ce n'est donc pas très intéressant si vous recherchez un modèle parcimonieux ou si vous souhaitez appliquer une sorte de sélection de fonctions.
Pour obtenir la clarté, le lasso est plus approprié, mais il ne donnera pas nécessairement de bons résultats en présence d'une colinéarité élevée (il a été observé que si les prédicteurs sont fortement corrélés, la performance de prédiction du lasso est dominée par la régression de crête). Le deuxième problème de la pénalité de N1 est que la solution de lasso n'est pas déterminée de manière unique lorsque le nombre de variables est supérieur au nombre de sujets (ce n'est pas le cas de la régression de type Ridge). Le dernier inconvénient du lasso est qu’il a tendance à ne sélectionner qu’une variable parmi un groupe de prédicteurs présentant des corrélations par paire élevées. Dans ce cas, il existe des solutions alternatives telles que le groupe (c.-à-d., Obtenir un rétrécissement sur un bloc de covariables, c’est-à-dire que certains blocs de coefficients de régression sont exactement nuls) ou fusionné.lasso. Le lasso graphique offre également des fonctionnalités prometteuses pour les GGM (voir le package R glasso ).
m>pn≪pβ
L(λ1,λ2,β)=∥Y−Xβ∥2+λ2∥β∥2+λ1∥β∥1
où et.∥β∥2=∑pj=1β2j∥β∥1=∑pj=1|βj|
Le lasso peut être calculé avec un algorithme basé sur la descente de coordonnées, comme décrit dans le récent article de Friedman et coll., Chemins de régularisation pour modèles linéaires généralisés via Coordinate Descent (JSS, 2010) ou l'algorithme LARS. Dans R, les packages pénalisés , lars ou biglars et glmnet sont des packages utiles; en python, il existe le toolkit scikit.learn , qui contient une documentation détaillée sur les algorithmes utilisés pour appliquer les trois types de schémas de régularisation.
En ce qui concerne les références générales, la page Lasso contient la plupart des éléments nécessaires pour débuter avec la régression de lasso et des détails techniques sur la pénalité L1. Cette question connexe contient des références essentielles. Quand devrais-je utiliser le lasso vs la crête?
Une justification théorique de l’utilisation de la régression de crête est que sa solution est la moyenne postérieure étant donné un a priori normal sur les coefficients. En d’autres termes, si vous tenez compte de l’erreur quadratique et que vous croyez en un préalable normal, les estimations de la crête sont optimales.
De même, l'estimation de lasso est le mode postérieur sous un préalable double-exponentiel sur vos coefficients. Ceci est optimal sous une fonction de perte zéro-un.
En pratique, ces techniques améliorent généralement la précision prédictive dans les situations où vous avez beaucoup de variables corrélées et peu de données. Bien que l’estimateur MCO soit le meilleur linéaire non biaisé, il présente une forte variance dans ces situations. Si vous regardez le compromis biais-variance, la précision de la prévision s'améliore, car la faible augmentation du biais est plus que compensée par la forte réduction de la variance.
la source