Questions marquées «backpropagation»

À utiliser pour les questions sur la rétropropagation, qui est couramment utilisée dans la formation des réseaux de neurones en conjonction avec une méthode d'optimisation telle que la descente de gradient.

62
Backprop à travers les couches Max-Pooling?

C'est une petite question conceptuelle qui me hante depuis un moment: comment pouvons-nous propager en arrière à travers une couche de regroupement maximal dans un réseau de neurones? Je suis tombé sur des couches de max-pooling en parcourant ce tutoriel pour la bibliothèque nn de Torch 7. La...

17
Deep Neural Network - Backpropogation avec ReLU

J'ai du mal à dériver la propagation avec ReLU, et j'ai fait du travail, mais je ne sais pas si je suis sur la bonne voie. Fonction de coût: où est la valeur réelle et est une valeur prédite. Supposons également que > 0 toujours.y y x12(y−y^)212(y-y^)2\frac{1}{2}(y-\hat y)^2yyyy^y^\hat yxXx 1...

15
propagation de retour dans CNN

J'ai le CNN suivant: Je commence par une image d'entrée de taille 5x5 Ensuite, j'applique la convolution en utilisant un noyau 2x2 et stride = 1, ce qui produit une carte de caractéristiques de taille 4x4. Ensuite, j'applique un pool max 2x2 avec stride = 2, ce qui réduit la carte des entités à la...

10
Comment faire un produit intérieur par lots dans Tensorflow?

J'ai deux tenseur a:[batch_size, dim] b:[batch_size, dim]. Je veux faire un produit intérieur pour chaque paire du lot, en générant c:[batch_size, 1], où c[i,0]=a[i,:].T*b[i,:].

8
Comment appliquer le gradient de softmax dans backprop

J'ai récemment fait mes devoirs où j'ai dû apprendre un modèle pour la classification à 10 chiffres du MNIST. Le HW avait un code d'échafaudage et j'étais censé travailler dans le contexte de ce code. Mes devoirs fonctionnent / réussissent les tests, mais maintenant j'essaie de tout faire à partir...

8
Gradients synthétiques - quel est l'avantage pratique?

Je peux voir deux raisons d'utiliser des dégradés synthétiques dans RNN: Pour accélérer l'entraînement, en corrigeant immédiatement chaque couche avec le gradient prévu Pour pouvoir apprendre des séquences plus longues Je vois des problèmes avec les deux. Veuillez noter que j'aime vraiment les...