J'ai récemment assisté à quelques discussions sur les statistiques du Lasso (régularisation) et un point qui revient sans cesse est que nous ne comprenons pas vraiment pourquoi le Lasso fonctionne ou pourquoi il fonctionne si bien. Je me demande à quoi se réfère cette déclaration. Évidemment, je comprends pourquoi le Lasso fonctionne techniquement, en prévenant le surapprentissage par le rétrécissement des paramètres, mais je me demande s'il y a un sens plus profond derrière une telle déclaration. Quelqu'un a-t-il une idée? Merci!
machine-learning
lasso
regularization
user321627
la source
la source
Réponses:
Il y a parfois un manque de communication entre les statisticiens qui travaillent et la communauté de la théorie de l'apprentissage qui étudie les fondements de méthodes comme le lasso. Les propriétés théoriques du lasso sont en fait très bien comprises.
Ce document a un résumé dans la section 4 de nombreuses propriétés dont il jouit. Les résultats sont assez techniques, mais essentiellement:
la source
Si en comprenant pourquoi Lasso fonctionne, vous voulez dire pourquoi il effectue la sélection d'entités (c.-à-d. En définissant des poids pour certaines entités exactement à 0), nous comprenons cela très bien:
la source
Il y a le problème de la récupération des signes de la cohérence de la sélection du modèle (auquel les statisticiens ont répondu ), et
il y a le problème de l'inférence (construire de bons intervalles de confiance pour les estimations), qui est jusqu'à un sujet de recherche.
La plupart du travail est effectué par des statisticiens plutôt que par "la communauté de la théorie de l'apprentissage".
la source