J'utilise Libsvm pour former des données et prédire la classification d'un problème d' analyse sémantique . Mais il a un problème de performance sur les données à grande échelle, car l'analyse sémantique concerne le problème à n dimensions .
L'année dernière, Liblinear a été publié, et il peut résoudre le goulot d'étranglement des performances. Mais cela coûte trop de mémoire . MapReduce est-il le seul moyen de résoudre un problème d'analyse sémantique sur les mégadonnées? Ou existe-t-il d'autres méthodes qui peuvent améliorer le goulot d'étranglement de la mémoire sur Liblinear ?
la source
Vous pouvez consulter le wabbit vowpal . Il est assez populaire pour l'apprentissage à grande échelle et comprend des dispositions parallèles.
Depuis leur site Web:
la source