Soit f [x] un mélange gaussien pdf avec n termes de poids uniforme, signifie , et les variances correspondantes :
Il semble intuitif que la log-liklihood échantillonnée aux n centres gaussiens serait supérieure (ou égale) à la log-liklihood moyenne:
C'est évidemment vrai pour les petites variances (chaque est au-dessus d'une étroite gaussienne) et pour les très grandes variances (toutes les sont au sommet d'une large gaussienne ensemble), et cela a été vrai chaque ensemble de et que j'ai généré et optimisé, mais je ne sais pas comment prouver que c'est toujours vrai. Aidez-moi?
machine-learning
gaussian-mixture
Jerry Guern
la source
la source
Réponses:
Il s'agit plus d'un commentaire étendu, alors prenez-le comme tel. Définissez: (j'utilise la norme notation pour les distributions gaussiennes).
Vous voulez prouver que: qui est
En raison de l'inégalité de Jensen (voir par exemple Huber et al., On Entropy Approximation for Gaussian Mixture Random Vectors, 2008 ), avec , qui provient de la convolution de deux densités gaussiennes. Nous obtenons donc: Fait intéressant, les sont toujours des mélanges de gaussiens avec des moyennes de composants égales à celles de
la source
Je crois que j'ai compris. Cela ne prend que des étapes élémentaires, bien que vous deviez les combiner correctement.
Notons la densité du ème gaussien, c'est-à-direfi i 12πσ2i√e(x−μi)22σ2i
Nous commençons par l'inégalité de Jensen. La fonction est convexe, d'où nous avons: . Après l'intégration, nous obtenons: Edit: l'inégalité ci-dessous est fausse, tout comme la solution elle-mêmeg(x)=xlog(x) f(x)log(f(x))≤1n∑ni=1fi(x)log(fi(x))
Maintenant le RHS. Pour tout nous avons , donc: D'où: Il nous reste à prouver: Mais nous avons: En sommant et en divisant par on obtient quoi Nous avions besoini f≥fi
la source