Règles:
- un classificateur par réponse
- voter si vous êtes d'accord
- downvote / supprimer les doublons.
- mettez votre candidature dans le commentaire
machine-learning
classification
application
Łukasz Lew
la source
la source
Régression logistique :
la source
Machine de vecteur de support
la source
Discriminant régularisé pour les problèmes supervisés avec des données bruyantes
Lien vers le document original de 1989 de Friedman et al ici . Il y a aussi une très bonne explication de Kuncheva dans son livre " Combining pattern classifiers ".
la source
Arbres boostés par gradient.
la source
Classificateur de processus gaussien - il donne des prédictions probabilistes (ce qui est utile lorsque vos fréquences opérationnelles de classe relative diffèrent de celles de votre ensemble d'entraînement, ou équivalent vos coûts faux positifs / faux négatifs sont inconnus ou variables). Il fournit également une indication de l'incertitude dans les prévisions du modèle en raison de l'incertitude dans «l'estimation du modèle» à partir d'un ensemble de données fini. La fonction de co-variance est équivalente à la fonction de noyau dans un SVM, elle peut donc également fonctionner directement sur des données non vectorielles (par exemple des chaînes ou des graphiques, etc.). Le cadre mathématique est également soigné (mais n'utilisez pas l'approximation de Laplace). Sélection automatisée du modèle en maximisant la vraisemblance marginale.
Combine essentiellement les bonnes caractéristiques de la régression logistique et du SVM.
la source
Régression logistique régularisée L1.
la source
kNN
la source
Naive Bayes et Random Naive Bays
la source
Cluster K- means pour un apprentissage non supervisé.
la source