La régression pénalisée L1 (alias lasso) est présentée en deux formulations. Soit les deux fonctions objectives
la source
La régression pénalisée L1 (alias lasso) est présentée en deux formulations. Soit les deux fonctions objectives
Les deux formulations sont équivalentes en ce sens que pour chaque valeur de dans la première formulation, il existe une valeur de λ pour la deuxième formulation telle que les deux formulations ont le même minimiseur β .
Voici la justification:
Considérons la formulation du lasso: Soit le minimiseurβ∗etb=| | β∗| | 1. Mon affirmation est que si vous définissezt=bdans la première formulation, alors la solution de la première formulation sera égalementβ∗. Voici la preuve:
Considérez la première formulation Si possibleque cette seconde formulation ont une solution β telle que| | ß | | 1<| | β∗| | 1=b(notez le signe strictement inférieur à). Ensuiteil est facile de voir quef( β )<f(β
Puisque , la condition de mou complémentaire est satisfaite au point de solution β ∗ .
Donc, étant donné une formulation de lasso avec , vous construisez une formulation contrainte en utilisant un t égal à la valeur de la norme l 1 de la solution de lasso. Inversement, étant donné une formulation contrainte avec t , vous trouvez un λ tel que la solution du lasso sera égale à la solution de la formulation contrainte.
(Si vous connaissez les sous-gradients, vous pouvez trouver ce en résolvant l'équation X T ( y - X β ∗ ) = λ z ∗ , où z ∗ ∈ ∂ | | β ∗ | | 1 )
Je pense que l'idée d'elexhobby pour cette preuve est bonne, mais je ne pense pas qu'elle soit complètement correcte.
Pour démontrer que l'existence d'une solution pour la première , de telle sorte que ‖ β ‖ < ‖ β * ‖ conduit à une contradiction, on ne peut supposer la nécessité de ‖ β ‖ = ‖ β * ‖ , non que β = β * .β^ ∥β^∥<∥β∗∥ ∥β^∥=∥β∗∥ β^=β∗
Je suggère plutôt de procéder comme suit:
However, it may be the case that the Lasso has multiple solutions. By lemma 1 of arxiv.org/pdf/1206.0313.pdf we know that all of these solutions have the sameℓ1 -norm (and the same minimum value, of course). We set that norm as the constraint for the P1 and proceed.
Let's denote byS the set of solutions to P2 , with ∥β∥=b ∀β∈S . Let P1 have a solution, β^∉S . Then, we have that ∥β^∥≤∥β∥∀β∈S and therefore f(β^)≤f(β)∀β∈S . If f(β^)=f(β) for some β∈S (and hence for all of them) then β^∈S , which contradicts our assumptions. If f(β^)<f(β) for some β∈S then S is not the set of solutions to P2 . Therefore, every solution to P1 is in S , i.e. any solution to P1 is also a solution to P2 . It would remain to prove that the complementary holds too.
la source