Je suis nouveau dans l'apprentissage en profondeur, donc cela pourrait être une question banale. Mais je me demande pourquoi l'apprentissage en profondeur (ou réseau de neurones) ne fonctionne pas très bien sur de petites données étiquetées. Quels que soient les articles de recherche que j'ai lus, leurs ensembles de données sont énormes. Intuitivement, cela n'est pas surprenant, car notre cerveau prend beaucoup de temps à s'entraîner. Mais existe-t-il une preuve mathématique ou une raison pour laquelle le réseau de neurones ne fonctionne pas bien dans de tels cas?
la source