Disons que j'ai un classificateur de régression logistique. Dans l'apprentissage par lots normal, j'aurais un terme régularisateur pour éviter le surapprentissage et garder mes poids petits. Je normaliserais également et ferais évoluer mes fonctionnalités.
Dans un environnement d'apprentissage en ligne, je reçois un flux continu de données. Je fais une mise à jour de descente de gradient avec chaque exemple, puis je le jette. Suis-je censé utiliser le terme de mise à l'échelle et de régularisation des fonctionnalités dans l'apprentissage en ligne? Si oui, comment faire? Par exemple, je n'ai pas de jeu de données de formation sur lequel évoluer. Je n'ai pas non plus de validation pour régler mon paramètre de régularisation. Si non, pourquoi pas?
Dans mon apprentissage en ligne, j'obtiens un flux d'exemples en continu. Pour chaque nouvel exemple, je fais une prédiction. Ensuite, dans la prochaine étape, j'obtiens la cible réelle et fais la mise à jour de la descente de gradient.
--power_t
et--initial_t
sont des options indépendantes globales (pas par fonctionnalité).--sgd
ne reprend que le SGD "classique". OIEau:--sgd
annule uniquement--invariant
,--normalized
et--adaptive
(qui impliquent différents, l' apprentissage des taux par fonction)Cet article décrit une technique de régularisation en ligne qu'ils appliquent à divers algorithmes, y compris la régression logistique: http://ai.stanford.edu/~chuongdo/papers/proximal.pdf
la source
oui vous avez certainement besoin de régularisation ... ça aide aussi la descente du gradient (et initialisez le taux d'apprentissage à 1 / C)
voir par exemple le papier SGD-QN http://leon.bottou.org/papers les papiers de bottou
vous n'avez pas vraiment expliqué ce que vous entendez par apprentissage en ligne: par exemple, pour chaque point, obtenez-vous une valeur cible? Je ne sais pas comment vous incorporeriez ... la recherche de C ... Je suppose que vous auriez plusieurs classificateurs avec différents termes de régularisation et suivriez l'erreur de prédiction (avant de mettre à jour les poids)
la source