Afficher l'équivalence entre le Norm régularisées régression et Norm Constrained régression en utilisant KKT

11

Selon les références Livre 1 , Livre 2 et papier .

Il a été mentionné qu'il existe une équivalence entre la régression régularisée (Ridge, LASSO et Elastic Net) et leurs formules de contraintes.

J'ai également examiné Cross Validated 1 et Cross Validated 2 , mais je ne vois pas de réponse claire pour montrer que l'équivalence ou la logique.

Ma question est

Comment montrer cette équivalence en utilisant Karush – Kuhn – Tucker (KKT)?

Les formules suivantes concernent la régression Ridge.

crête

REMARQUE

Cette question n'est pas un devoir. C'est seulement pour augmenter ma compréhension de ce sujet.

MISE À JOUR

Je n'ai pas encore l'idée.

jeza
la source
Pourquoi avez-vous besoin de plus d'une réponse? La réponse actuelle semble aborder la question de manière globale. Si vous voulez en savoir plus sur les méthodes d'optimisation, l' optimisation convexe Lieven Vandenberghe et Stephen P. Boyd est un bon point de départ.
Sycorax dit Réintégrer Monica le
@Sycorax, merci pour vos commentaires et le livre que vous me fournissez. La réponse n'est pas si claire pour moi et je ne peux pas demander plus de précisions. Ainsi, plus d'une réponse peut me permettre de voir une perspective et un mode de description différents.
jeza
@jeza, Qu'est-ce qui manque dans ma réponse?
Royi
1
Veuillez saisir votre question sous forme de texte, ne pas simplement publier une photo (voir ici ).
gung - Rétablir Monica

Réponses:

10

La réponse plus technique est parce que le problème d'optimisation contraint peut être écrit en termes de multiplicateurs de Lagrange. En particulier, le lagrangien associé au problème d'optimisation contraint est donné par

L(β)=argminβ{i=1N(yij=1pxijβj)2}+μ{(1α)j=1p|βj|+αj=1pβj2}
μest un multiplicateur choisi pour satisfaire les contraintes du problème. Les conditions de premier ordre (qui suffisent puisque vous travaillez avec de belles fonctions convexes propres) pour ce problème d'optimisation peuvent ainsi être obtenues en différenciant le lagrangien par rapport à β et en fixant les dérivées égales à 0 (c'est un peu plus nuancé depuis le LASSO La partie a des points indifférenciables, mais il existe des méthodes d'analyse convexe pour généraliser la dérivée pour que la condition du premier ordre fonctionne toujours). Il est clair que ces conditions de premier ordre sont identiques aux conditions de premier ordre du problème non contraint que vous avez noté.

maxxf(x)+λg(x)
maxxf(x)+λg(x)=maxt(maxxf(x) s.t g(x)=t)+λt
λtqui résout le problème d'optimisation externe. Cela nous donne une sorte de mappage des problèmes d'optimisation non contraints aux problèmes contraints. Dans votre contexte particulier, comme tout se comporte bien pour la régression élastique nette, ce mappage devrait en fait être un à un, il sera donc utile de pouvoir basculer entre ces deux contextes en fonction de celui qui est le plus utile pour une application particulière. En général, cette relation entre les problèmes contraints et non contraints peut se comporter moins bien, mais il peut être utile de réfléchir à la mesure dans laquelle vous pouvez vous déplacer entre le problème contraint et le problème non contraint.

Edit: Comme demandé, j'inclurai une analyse plus concrète de la régression des crêtes, car elle capture les idées principales tout en évitant d'avoir à traiter les aspects techniques associés à la non-différentiabilité de la pénalité LASSO. Rappelons que nous résolvons un problème d'optimisation (en notation matricielle):

argminβ{i=1NyixiTβ}s.t.||β||2M

βOLSM<||βOLS||

L(β)=argminβ{i=1NyixiTβ}μ||β||2M
0=2(i=1Nyixi+(i=1NxixiT+μI)β)
β^=(i=1NxixiT+μI)1(i=1Nyixi)
μ

((i=1NxixiT+μI)1(i=1Nyixi))T((i=1NxixiT+μI)1(i=1Nyixi))=M
μμ(0,)M(0,||βOLS||)
limμ0M(μ)=||βOLS||
limμM(μ)=0
μ(M)Mμ0M||βOLS||

stats_model
la source
pourriez-vous s'il vous plaît nous fournir une réponse détaillée étape par étape avec un exemple pratique si possible.
jeza
merci beaucoup, pourquoi vous ne mentionnez pas KKT? Je ne connais pas ce domaine, alors traitez-moi comme un lycéen.
jeza le
M>||βOLS||
3

Il y a une grande analyse par stats_model dans sa réponse .

J'ai essayé de répondre à une question similaire à The Proof of Equivalent Formulas of Ridge Regression .


tλ

Comme je l'ai écrit et comme le montre stats_model dans son analyse, la cartographie dépend des données. Nous choisirons donc une réalisation spécifique du problème. Pourtant, le code et l'esquisse de la solution ajouteront de l'intuition à ce qui se passe.

Nous comparerons les 2 modèles suivants:

The Regularized Model: argminx12Axy22+λx22

The Constrained Model: argminx12Axy22subject tox22t

x^x~

tλx^=x~
λtL2

tλ

Le solveur résout essentiellement:

argλλsubject to(ATA+2λI)1ATb22t=0

Voici donc notre matrice:

mA =

   -0.0716    0.2384   -0.6963   -0.0359
    0.5794   -0.9141    0.3674    1.6489
   -0.1485   -0.0049    0.3248   -1.7484
    0.5391   -0.4839   -0.5446   -0.8117
    0.0023    0.0434    0.5681    0.7776
    0.6104   -0.9808    0.6951   -1.1300

Et voici notre vecteur:

vB =

    0.7087
   -1.2776
    0.0753
    1.1536
    1.2268
    1.5418

Voici la cartographie:

entrez la description de l'image ici

tλ=0

Zoom avant sur la plage [0, 10]:

entrez la description de l'image ici

Le code complet est disponible sur mon référentiel GitHub Q401212 à validation croisée StackExchange .

Royi
la source