Récemment, j'ai utilisé la mise à l'échelle de Platt des sorties SVM pour estimer les probabilités d'événements par défaut. Des alternatives plus directes semblent être la «régression logistique du noyau» (KLR) et la «machine d'importation de vecteurs» associée.
Quelqu'un peut-il dire quelle méthode du noyau donnant des sorties de probabilité est actuellement à la pointe de la technologie? Existe-t-il une implémentation R de KLR?
Merci beaucoup pour votre aide!
logistic
svm
kernel-trick
RichardN
la source
la source
Réponses:
La classification des processus gaussiens (utilisant la propagation des attentes) est probablement à la pointe de la technologie en apprentissage automatique. Il existe un excellent livre de Rasmussen et Williams (téléchargeable gratuitement), dont le site Web a une très bonne implémentation MATLAB. Plus de logiciels, livres, articles, etc. ici . Cependant, dans la pratique, KLR fonctionnera probablement aussi bien pour la plupart des problèmes, la principale difficulté est de sélectionner le noyau et les paramètres de régularisation, ce qui est probablement mieux fait par validation croisée, bien que la validation croisée avec un seul retrait puisse être approximée très efficacement, voir Cawley et Talbot (2008).
la source
Je suppose que vous savez que le noyau de régression logistique est non paramétrique, donc vous avez d'abord cette restriction.
En ce qui concerne le package R, celui que je connais et qui fonctionne plutôt bien est np : méthodes de lissage du noyau non paramétriques pour les types de données mixtes
Ce package fournit une variété de méthodes de noyau non paramétriques (et semi-paramétriques) qui gèrent de manière transparente un mélange de types de données factoriels continus, non ordonnés et ordonnés.
En ce qui concerne l'état de l'art kernell, je peux recommander d'expérimenter avec ceux décrits dans cet article à partir de 2009. Lisez-le attentivement pour choisir celui qui est le mieux et le plus réel pour vous.
la source