Je lisais l'article ImageNet Classification with Deep Convolutional Neural Networks et dans la section 3, ils expliquaient l'architecture de leur Convolutional Neural Network, ils expliquaient comment ils préféraient utiliser:
non linéarité non saturante
car il était plus rapide de s'entraîner. Dans cet article, ils semblent faire référence aux non-linéarités saturantes comme les fonctions les plus traditionnelles utilisées dans les CNN, la sigmoïde et les fonctions tangentes hyperboliques (c'est-à-dire et comme saturant).
Pourquoi appellent-ils ces fonctions "saturantes" ou "non saturantes"? Dans quel sens ces fonctions sont-elles "saturantes" ou "non saturantes"? Que signifient ces termes dans le contexte des réseaux de neurones convolutifs? Sont-ils utilisés dans d'autres domaines de l'apprentissage automatique (et des statistiques)?
la source
Réponses:
Intuition
Une fonction d'activation saturante serre l'entrée.
Définitions
Ces définitions ne sont pas spécifiques aux réseaux de neurones convolutifs.
Exemples
La fonction d'activation de l'unité linéaire rectifiée (ReLU), qui est définie comme est non saturante car :F( x ) = m a x ( 0 , x ) limz→ + ∞F( z) = + ∞
La fonction d'activation sigmoïde, qui est définie comme est saturante, car elle écrase les nombres réels entre :F( x ) = 11 + e- x [ 0 , 1 ]
La fonction d'activation tanh (tangente hyperbolique) est saturée car elle écrase les nombres réels entre :[ - 1 , 1 ]
(les chiffres proviennent de CS231n , licence MIT)
la source
Les fonctions d'activation les plus courantes sont LOG et TanH. Ces fonctions ont une plage compacte, ce qui signifie qu'elles compressent la réponse neuronale en un sous-ensemble borné des nombres réels. Le LOG compresse les entrées en sorties entre 0 et 1, le TAN H entre -1 et 1. Ces fonctions affichent un comportement limitant aux limites.
A la frontière, le gradient de la sortie par rapport à l'entrée ∂yj / ∂xj est très petit. Donc, le gradient est petit, donc de petits pas vers la convergence, donc plus de temps pour converger.
la source