Quelle est la dérivée de la fonction d'activation ReLU définie comme:
Qu'en est-il du cas particulier où il y a une discontinuité dans la fonction à ?
self-study
neural-networks
Tom Hale
la source
la source
tf.nn.relu()
:), la dérivée à x = 0 est prise à zéro pour garantir une plus faible matrice ... "