J'utilise la fonction de noyau RBF pour implémenter un algorithme d'apprentissage machine basé sur le noyau (KLPP), la matrice de noyau résultante
est extrêmement mal conditionnée.Le nombre de conditions de la norme L2 est de
Existe-t-il un moyen de le rendre bien conditionné? Je suppose que le paramètre doit être réglé, mais je ne sais pas exactement comment.
Merci!
Réponses:
Cependant, les matrices du noyau peuvent devenir singulières, ou proches du singulier, pour toute fonction de base ou distribution de points, à condition que les fonctions de base se chevauchent. La raison en est assez simple:
Imaginez maintenant choisir deux points et et les faire pivoter lentement pour qu'ils changent de place. Ce faisant, le déterminant de changera de signe, devenant nul à un moment donné entre les deux. À ce stade, est, par définition, singulier.xi xj K K
la source
Quelques suggestions:
Choisissez la distance moyenne | aléatoire - plus proche . (Une approximation bon marché pour points uniformément répartis dans le cube unitaire dans , est 0,5 / .) Nous voulons être grand pour près de , petit pour le bruit de fond; tracer cela pour quelques aléatoires .σ∼ x xi N Rd,d 2..5 N1/d
ϕ(|x−xi|) xi x x
Décaler de 0, , ou plus; c'est-à-dire régulariser.K K→K+λI λ∼10−6
Regardez les poids de la résolution . Si certains sont encore énormes (indépendamment du numéro de condition), cela tendrait à confirmer Boyd (ci-dessous) que le RBF gaussien est fondamentalement faible.(K+λI)w=f
(Une alternative à RBF est la pondération de distance inverse, IDW. Elle a l'avantage de la mise à l'échelle automatique, la même pour les distances les plus proches 1 2 3 que pour 100 200 300 . Je trouve également le choix explicite de , le nombre de voisins proches à considérer, plus clair que la recherche dans la grille sur .)… … Nnear σ,λ
John P. Boyd, L'inutilité de la transformation de Gauss rapide pour additionner des séries de fonctions de base radiales gaussiennes , dit
J'espère que cela t'aides; veuillez partager votre expérience.
la source