Le document sur les GAN indique que le discriminateur utilise le gradient suivant pour s'entraîner:
Les valeurs sont échantillonnées, passées à travers le générateur pour générer des échantillons de données, puis le discriminateur est rétropropagé en utilisant les échantillons de données générés. Une fois que le générateur a généré les données, il ne joue plus aucun rôle dans la formation du discriminateur. En d'autres termes, le générateur peut être complètement supprimé de la métrique en le faisant générer des échantillons de données et en ne travaillant ensuite qu'avec les échantillons.
Je suis un peu plus confus quant à la façon dont le générateur est entraîné. Il utilise le dégradé suivant:
Dans ce cas, le discriminateur fait partie de la métrique. Il ne peut pas être supprimé comme le cas précédent. Des choses comme les moindres carrés ou la vraisemblance logarithmique dans les modèles discriminants réguliers peuvent facilement être différenciées car elles ont une belle définition proche. Cependant, je suis un peu confus quant à la façon dont vous rétropropagiez lorsque la métrique dépend d'un autre réseau de neurones. Fixez-vous essentiellement les sorties du générateur aux entrées du discriminateur, puis traitez-vous le tout comme un réseau géant où les poids dans la partie discriminante sont constants?
la source
D_loss
etG_loss
? Maximiser sur quel espace? IIUC,D_real
etD_fake
sont chacun un lot, donc nous maximisons le lot ??En bref: Oui. (J'ai creusé certaines des sources du GAN pour revérifier cela)
Il y a aussi beaucoup plus dans la formation GAN comme: devrions-nous mettre à jour D et G à chaque fois ou D sur les itérations impaires et G sur pair, et bien plus encore. Il y a aussi un très bon article sur ce sujet:
https://arxiv.org/abs/1606.03498
la source
Récemment, j'ai téléchargé une collection de divers modèles GAN sur github repo. Il est basé sur torch7 et très facile à utiliser. Le code est assez simple à comprendre avec des résultats expérimentaux. J'espère que cela vous aidera
https://github.com/nashory/gans-collection.torch
la source