Dans le cours sur les réseaux neuronaux et l'apprentissage profond d' Andrew Ng sur Coursera, il dit que l'utilisation de tanhtanhtanh est presque toujours préférable à l'utilisation de sigmoidsigmoidsigmoid . La raison qu'il donne est que les sorties utilisant tanhtanhtanh centrées autour de 0...
33
Pourquoi tanh est-il presque toujours meilleur que sigmoïde comme fonction d'activation?