Disons que j'ai une architecture de modèle d'apprentissage en profondeur, ainsi qu'une taille de mini-lot choisie. Comment puis-je dériver de ces exigences de mémoire attendues pour la formation de ce modèle?
Par exemple, considérons un modèle (non récurrent) avec une entrée de dimension 1000, 4 couches cachées entièrement connectées de dimension 100 et une couche de sortie supplémentaire de dimension 10. La taille du mini-lot est de 256 exemples. Comment déterminer l'empreinte mémoire approximative (RAM) du processus de formation sur le processeur et sur le GPU? Si cela fait une différence, supposons que le modèle est formé sur un GPU avec TensorFlow (utilisant donc cuDNN).
la source