J'essaie de comprendre EM et d'essayer de déduire les paramètres de ce modèle en utilisant cette technique, mais j'ai du mal à comprendre comment commencer:
Donc, j'ai un modèle de régression linéaire pondéré comme suit où j'ai des observations et les observations correspondantes . Le modèle de la relation entre et est un modèle de régression linéaire pondéré et les hypothèses de distribution sont les suivantes:
Ici sont les paramètres de régression et le modèle permet des variances inégales en ayant les variables de réponse pour avoir des poids individuels sur la variance. Mon objectif est de trouver la relation linéaire la plus probable donnée par les paramètres .
Donc, je peux maintenant écrire le log-postérieur comme suit:
Maintenant, j'ai essayé de comprendre EM et je ne suis pas sûr que ma compréhension soit encore complète mais comme je le comprends, pour commencer à estimer les paramètres, je commence par prendre l'espérance de la distribution log-postérieure par rapport aux paramètres latents / cachés qui dans mon cas sont et . Cette valeur attendue requise sera donc:
Cependant, je n'ai aucune idée de la façon de procéder à partir d'ici pour calculer cette attente. J'apprécierais grandement toute suggestion sur la prochaine étape. Je ne cherche pas quelqu'un pour me dériver toutes les choses nécessaires, mais juste un coup de pouce dans la bonne direction sur ce que je devrais chercher à résoudre dans les prochaines étapes.
Réponses:
Permettez-moi de rappeler d'abord les bases de l'algorithme EM. Lorsque l'on recherche l'estimation du maximum de vraisemblance d'une vraisemblance de la forme l'algorithme procède par maximisation itérative (M) des log-vraisemblances complètes attendues (E), qui résulte en maximisant (en ) à l'itération la fonction L'algorithme doit donc commencer par identifier la variable latente et sa distribution conditionnelle.
Dans votre cas, il semble que la variable latente soit faite des tandis que le paramètre d'intérêt est . Si vous traitez à la fois et tant que variables latentes, il ne reste aucun paramètre à optimiser. Cependant, cela signifie également que la version précédente de n'est pas utilisée.ϖ wi β β ϖ β
Si nous regardons plus précisément le cas de , sa distribution conditionnelle est donnée par qui se qualifie comme distribution.wi
La probabilité de log terminée étant la partie qui dépend on simplifie comme et la fonction est proportionnelle à optimisation de cette fonction dans équivaut à une régression linéaire pondérée, avec des poids
la source