Il existe de nombreuses méthodes pour effectuer la régularisation - la régularisation basée sur la norme , et par exemple. Selon Friedman Hastie & Tibsharani , le meilleur régularisateur dépend du problème: à savoir la nature de la véritable fonction cible, la base particulière utilisée, le rapport signal / bruit et la taille de l'échantillon.
Existe-t-il des recherches empiriques comparant les méthodes et les performances des différentes méthodes de régularisation?
r
regression
machine-learning
regularization
Ram Ahluwalia
la source
la source
Réponses:
Considérons un modèle linéaire pénalisé.
La pénalité est peu utilisée et est souvent remplacée par la norme qui est mathématiquement plus flexible.L 1L0 L1
La régularisation a la propriété de construire un modèle clairsemé. Cela signifie que seules quelques variables auront un coefficient de régression non nul. Il est particulièrement utilisé si vous supposez que seules quelques variables ont un impact réel sur les variables de sortie. S'il existe des variables très corrélées, une seule d'entre elles sera sélectionnée avec un coefficient différent de 0.L1
La pénalité est comme si vous ajoutez une valeur sur la diagonale de la matrice d'entrée. Il peut être utilisé par exemple dans des situations où le nombre de variables est supérieur au nombre d'échantillons. Afin d'obtenir une matrice carrée. Avec la pénalité de norme , toutes les variables ont un coefficient de régression non nul. λ L 2L2 λ L2
la source
Quelques ajouts à la réponse de @Donbeo
1) La norme L0 n'est pas une norme au vrai sens. C'est le nombre d'entrées non nulles dans un vecteur. Cette norme n'est clairement pas une norme convexe et n'est pas une norme au vrai sens. Par conséquent, vous pourriez voir des termes comme «norme» L0. Il devient un problème combinatoire et est donc NP difficile.
2) La norme L1 donne une solution clairsemée (recherchez le LASSO). Candes, Donoho, etc., ont des résultats déterminants qui montrent que si la vraie solution est vraiment rare, les méthodes pénalisées L1 la récupéreront. Si la solution sous-jacente n'est pas rare, vous n'obtiendrez pas la solution sous-jacente dans les cas où p >> n. Il y a de bons résultats qui montrent que le Lasso est cohérent.
3) Il existe des méthodes comme le filet élastique de Zhou et Hastie qui combinent les solutions pénalisées L2 et L1.
la source