Les fonctions d'activation sont utilisées pour introduire des non-linéarités dans la sortie linéaire du type w * x + bdans un réseau neuronal. Ce que je peux comprendre intuitivement pour les fonctions d'activation comme sigmoïde. Je comprends les avantages de ReLU, qui évite les neurones morts...