La question est basée sur l'article intitulé: Reconstruction d'images en tomographie optique diffuse à l'aide du modèle couplé de transport et de diffusion radiatifs
Les auteurs appliquent l'algorithme EM avec régularisation de densité d'un vecteur inconnu pour estimer les pixels d'une image. Le modèle est donné par
Dans mon cas, j'ai considéré que est un filtre de longueur et sont vecteurs représentant les filtres. Donc,L μ L × 1
Le modèle peut être réécrit comme
Question: Formulation du problème: (n par 1) est l'entrée non observée et est la moyenne nulle avec une variance inconnue bruit additif. La solution MLE sera basée sur la maximisation des attentes (EM). { e ( n ) } σ 2 e
Dans l'article Eq (19) est la fonction - la log-vraisemblance complète mais pour mon cas, je ne comprends pas comment je peux inclure la distribution de dans l'expression log-vraisemblance complète. A , μ
Quelle sera la log-vraisemblance complète en utilisant EM de compris la distribution précédente?
Réponses:
Si nous considérons la cible comme la représentation à la base de EM est pour un arbitraire , à cause de la décomposition ou qui fonctionne pour une valeur arbitraire de (car il n'y en a pas sur les lhs ) et fonctionne donc pour toute attente dans : log L ( θ | x ) = E [ log L ( θ | x ( Z | x , θ ) | x , θ ⁰ ] θq ( z | x , ≥ E [ log L ( θ ⁰ | x , [ log L ( θ 1 | x
la source
Je ne pense pas que montrer un log-postérieur croissant monotone (ou log vraisemblance pour MLE) soit suffisant pour montrer la convergence au point stationnaire de l'estimation MAP (ou MLE). Par exemple, les incréments peuvent devenir arbitrairement petits. Dans le célèbre article de Wu 1983 , une condition suffisante pour converger vers un point stationnaire de EM est la différenciation dans les deux arguments de la fonction de limite inférieure.
la source