Pourquoi la norme de lot a-t-elle une échelle et un décalage apprenants?

13

Pour autant que je le comprends, la norme de lot normalise toutes les caractéristiques d'entrée d'une couche à une distribution normale unitaire, . La moyenne et la variance μ , σ 2 sont estimées en mesurant leurs valeurs pour le mini-lot actuel.N(μ=0,σ=1)μ,σ2

Après la normalisation, les entrées sont mises à l'échelle et décalées par des valeurs scalaires:

x^i=γx^i+β

(Corrigez-moi si je me trompe ici - c'est là que je commence à devenir un peu incertain.)

et β sont des valeurs scalaires et il y en a une paire pour chaque couche normalisée par lot. Ils sont appris avec les poids en utilisant backprop et SGD.γβ

Ma question est, ces paramètres ne sont-ils pas redondants parce que les entrées peuvent être mises à l'échelle et décalées de quelque façon que ce soit par les poids dans la couche elle-même. En d'autres termes, si

y=Wx^+b

et

x^=γx^+β

puis

y=Wx^+b

W=Wγb=Wβ+b

Quel est donc l'intérêt de les ajouter du réseau est déjà capable d'apprendre l'échelle et le changement? Ou suis-je totalement incompréhensible?

Timmmm
la source

Réponses:

13

Il y a une réponse parfaite dans le Deep Learning Book, Section 8.7.1 :

La normalisation de la moyenne et de l'écart-type d'une unité peut réduire la puissance expressive du réseau neuronal contenant cette unité. Pour maintenir la puissance expressive du réseau, il est courant de remplacer le lot d'activations d'unités cachées H par γH + β plutôt que simplement le H. normalisé. Les variables γ et β sont des paramètres appris qui permettent à la nouvelle variable d'avoir une moyenne et écart-type. À première vue, cela peut sembler inutile - pourquoi avons-nous mis la moyenne à 0, puis introduit un paramètre qui lui permet d'être remis à n'importe quelle valeur arbitraire β?

La réponse est que la nouvelle paramétrisation peut représenter la même famille de fonctions de l'entrée que l'ancienne paramétrisation, mais la nouvelle paramétrisation a des dynamiques d'apprentissage différentes. Dans l'ancienne paramétrisation, la moyenne de H a été déterminée par une interaction compliquée entre les paramètres dans les couches inférieures à H. Dans la nouvelle paramétrisation, la moyenne de γH + β est déterminée uniquement par β. La nouvelle paramétrisation est beaucoup plus facile à apprendre avec une descente en gradient.

Timmmm
la source