Autoencodeur variationnel avec modèle de mélange gaussien

9

Un autoencodeur variationnel (VAE) fournit un moyen d'apprendre la distribution de probabilité reliant une entrée à sa représentation latente . En particulier, le codeur e mappe une entrée x à une distribution sur z . Un encodeur typique affichera des paramètres (\ mu, \ sigma) = e (x) , représentant la distribution gaussienne \ mathcal {N} (\ mu, \ sigma) ; cette distribution est utilisée comme approximation pour p (z | x) .p(x,z)xzexz(μ,σ)=e(x)N(μ,σ)p(z|x)

Quelqu'un a-t-il envisagé une VAE dont la sortie est un modèle de mélange gaussien plutôt que gaussien? Est-ce utile? Y a-t-il des tâches où cela est significativement plus efficace qu'une simple distribution gaussienne? Ou offre-t-il peu d'avantages?

DW
la source
1
@shimao, merci! J'ai écrit une réponse résumant cela, au cas où cela serait utile à quelqu'un d'autre à l'avenir. Merci encore.
DW
@DW désolé pour la réponse tardive. Je suis juste confus à propos de quelque chose. La VAE ne représente-t-elle pas un mélange infini de gaussiens?
floyd

Réponses:

6

Oui, cela a été fait. Le document suivant met en œuvre quelque chose de cette forme:

Clustering non supervisé en profondeur avec des auto-encodeurs variationnels à mélange gaussien . Nat Dilokthanakul, Pedro AM Mediano, Marta Garnelo, Matthew CH Lee, Hugh Salimbeni, Kai Arulkumaran, Murray Shanahan.

Ils expérimentent l'utilisation de cette approche pour le clustering. Chaque gaussien dans le mélange gaussien correspond à un cluster différent. Étant donné que le mélange gaussien se trouve dans l'espace latent ( ) et qu'il existe un réseau de neurones reliant à , cela permet des grappes non triviales dans l'espace d'entrée ( ).zzxx

Ce document mentionne également l'article de blog suivant, qui expérimente une variation différente de cette architecture: http://ruishu.io/2016/12/25/gmvae/

Merci à shimao de l'avoir signalé.

DW
la source