J'étudie la différence entre la régularisation dans la régression RKHS et la régression linéaire, mais j'ai du mal à saisir la différence cruciale entre les deux.
où, avec quelques abus de notation, la jième entrée de la matrice du noyau est . Cela donne
Alternativement, nous pourrions traiter le problème comme un problème de régression d'arête normal / de régression linéaire:
avec la solution
Quelle serait la différence cruciale entre ces deux approches et leurs solutions?
Réponses:
Comme vous l'avez probablement remarqué en notant les problèmes d'optimisation, la seule différence dans la minimisation est la norme de Hilbert à utiliser pour la pénalisation. Autrement dit, pour quantifier les «grandes» valeurs de à des fins de pénalisation. Dans le paramètre RKHS, nous utilisons le produit interne RKHS, , tandis que la régression de crête pénalise par rapport à la norme euclidienne.α αtKα
Une conséquence intéressante est théorique comment chaque effets de la méthode du spectre du noyau reproduisant . Par la théorie RKHS, nous avons que est défini positif symétrique. Par le théorème spectral, nous pouvons écrire où est la matrice diagonale des valeurs propres et est la matrice orthonormale des vecteurs propres. Par conséquent, dans le paramètre RKHS, Pendant ce temps, dans le paramètre de régression Ridge, notez que par symétrie,K K K=UtDU D U
Selon le choix du noyau, les deux estimations de peuvent être proches ou éloignées l'une de l'autre. La distance au sens l'opérateur sera Cependant, ceci est toujours limité pour un donnéα
En pratique, il est difficile de dire avec certitude si l'un est meilleur que l'autre pour une situation donnée. Comme nous minimisons l'erreur quadratique lorsque nous représentons les données en termes de fonction du noyau, nous choisissons effectivement une meilleure courbe de régression dans l'espace de fonctions de Hilbert correspondant. Par conséquent, pénaliser par rapport au produit intérieur RKHS semble être la manière naturelle de procéder.
la source