Contexte: Une grande partie de la recherche moderne au cours des 4 dernières années (post alexnet ) semble s'être éloignée de l'utilisation de la formation préalable générative pour les réseaux de neurones afin d'obtenir des résultats de classification de pointe.
Par exemple, les meilleurs résultats pour mnist ici incluent seulement 2 articles sur les 50 premiers qui semblent utiliser des modèles génératifs, les deux étant des RBM. Les 48 autres articles gagnants portent sur différentes architectures discriminantes à action directe avec beaucoup d'efforts pour trouver de meilleures initialisations de poids et de nouvelles fonctions d'activation différentes du sigmoïde utilisé dans la RBM et dans de nombreux réseaux de neurones plus anciens.
Question: Existe - t-il une raison moderne d'utiliser des machines Boltzmann restreintes?
Sinon, existe-t-il une modification de facto que l'on peut appliquer à ces architectures de transmission pour rendre l'une de leurs couches générative?
Motivation: je demande parce que certains des modèles que je vois disponibles, généralement des variantes de la RBM, n'ont pas nécessairement d'homologues discriminants analogues évidents à ces couches / modèles génératifs, et vice versa. Par exemple:
CRBM (bien que l'on puisse affirmer que les architectures à action directe CNN utilisées sont l'architecture analogue discriminante)
En outre, il s'agissait clairement de pré alexnet également, de 2010, 2011 et 2009 respectueusement.
la source
Réponses:
C'est une sorte de vieille question, mais comme elle demande essentiellement des «meilleures pratiques», plutôt que ce qui est réellement techniquement possible (c'est-à-dire, n'a pas besoin de trop de recherches), les meilleures pratiques actuelles sont quelque chose comme:
Pour les usages génératifs, les techniques courantes incluent:
la source
J'ai récemment trouvé cet article sur "Boltzmann Encoded Adversarial Machines" qui intègre les RBM aux CNN comme modèle génératif.
Les auteurs montrent qu'il est mathématiquement «meilleur» à certains égards, et montrent quelques exemples de jouets où BEAM semble beaucoup plus capable d'apprendre avec précision la distribution des données par rapport à d'autres modèles GAN.
La référence "réelle" des visages de CelebA était beaucoup moins impressionnante - il n'est pas clair que BEAM fasse mieux ou même aussi bien que d'autres GAN populaires. Cependant, l'utilisation de RBM dans ce cadre est certainement intéressante.
la source