Pourquoi les fonctions d'activation des unités linéaires rectifiées (ReLU) sont-elles considérées comme non linéaires?
Ils sont linéaires lorsque l'entrée est positive et de ma compréhension pour débloquer la puissance représentative des réseaux profonds, les activations non linéaires sont un must, sinon l'ensemble du réseau pourrait être représenté par une seule couche.
Réponses:
Les RELU sont des non-linéarités. Pour aider votre intuition, considérez un réseau très simple avec 1 unité d'entrée , 2 unités cachées et 1 unité de sortie . Avec ce réseau simple, nous pourrions implémenter une fonction de valeur absolue,x yi z
ou quelque chose qui ressemble à la fonction sigmoïde couramment utilisée,
En combinant ces derniers dans de plus grands réseaux / en utilisant plus d'unités cachées, nous pouvons approximer des fonctions arbitraires.
la source
reLu(reLu(....))
elle sera toujours linéaire? De plus, ici, vous passezx
àx+1
, cela pourrait être considéré commeZ=Wx+b
où W & b change pour donner différentes variantes de ce typex
&x+1
?