Lors de la formation de réseaux de neurones, un hyperparamètre est de la taille d'un mini-lot. Les choix courants sont 32, 64 et 128 éléments par mini-lot.
Existe-t-il des règles / directives sur la taille d'un mini-lot? Des publications qui étudient l'effet sur la formation?
neural-network
deep-learning
convnet
optimization
Martin Thoma
la source
la source
Réponses:
Dans On Large-Batch Training for Deep Learning: Generalization Gap and Sharp Minima, il y a quelques déclarations intéressantes:
De ma thèse de master : D'où le choix de la taille du mini-batch qui influence:
Il est important de noter les interactions hyperparamétriques: la taille des lots peut interagir avec d'autres hyperparamètres, notamment le taux d'apprentissage. Dans certaines expériences, cette interaction peut rendre difficile l'isolement de l'effet de la taille du lot seul sur la qualité du modèle. Une autre interaction forte est l'arrêt précoce de la régularisation.
Voir également
la source