J'utilise un modèle Keras, avec un délai de soumission de 36 heures, si j'entraîne mon modèle sur le processeur, cela prendra environ 50 heures, y a-t-il un moyen d'exécuter Keras sur GPU?
J'utilise le backend Tensorflow et je l'exécute sur mon notebook Jupyter, sans anaconda installé.
Réponses:
Oui, vous pouvez exécuter des modèles keras sur GPU. Peu de choses que vous devrez vérifier en premier.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
OU
la sortie sera quelque chose comme ceci:
Une fois que tout cela est fait, votre modèle fonctionnera sur GPU:
Pour vérifier si keras (> = 2.1.1) utilise le GPU:
Bonne chance.
la source
Could not find any downloads that satisfy the requirement tensorflow in /usr/local/lib/python2.7/dist-packages Downloading/unpacking tensorflow Cleaning up... No distributions at all found for tensorflow in /usr/local/lib/python2.7/dist-packages Storing debug log for failure in /home/hyperworks/.pip/pip.log
K.tensorflow_backend._get_available_gpus()
ne fonctionne pas dans TensorFlow 2.0.Sûr. Je suppose que vous avez déjà installé TensorFlow pour GPU.
Vous devez ajouter le bloc suivant après l'importation des keras. Je travaille sur une machine qui a 56 cpu core et un gpu.
Bien sûr, cette utilisation impose les limites maximales de mes machines. Vous pouvez diminuer les valeurs de consommation du processeur et du processeur graphique.
la source
module 'tensorflow' has no attribute 'ConfigProto'
2.0 Réponse compatible : Bien que la réponse mentionnée ci-dessus explique en détail comment utiliser le GPU sur le modèle Keras, je veux expliquer comment cela peut être fait
Tensorflow Version 2.0
.Pour savoir combien de GPU sont disponibles, nous pouvons utiliser le code ci-dessous:
Pour savoir à quels appareils vos opérations et tenseurs sont affectés, mettez-le
tf.debugging.set_log_device_placement(True)
comme première déclaration de votre programme.L'activation de la journalisation du placement de périphérique entraîne l'impression de toutes les allocations ou opérations Tensor. Par exemple, exécutez le code ci-dessous:
donne la sortie ci-dessous:
Pour plus d'informations, reportez - vous à ce lien
la source
Bien sûr. si vous utilisez des backends Tensorflow ou CNTk, votre code s'exécutera par défaut sur vos périphériques GPU, mais si les backends Theano, vous pouvez utiliser
la source
Vérifiez si votre script exécute le GPU dans le gestionnaire de tâches. Sinon, pensez que votre version de CUDA est la bonne pour la version de tensorflow que vous utilisez, comme les autres réponses le suggèrent déjà.
De plus, une bibliothèque DNN CUDA appropriée pour la version CUDA est requise pour exécuter le GPU avec tensorflow. Téléchargez / extrayez-le ici et placez la DLL (par exemple, cudnn64_7.dll) dans le dossier bin CUDA (par exemple, C: \ Program Files \ NVIDIA GPU Computing Toolkit \ CUDA \ v10.1 \ bin).
la source