Aide à la maximisation des attentes à partir du papier: comment inclure la distribution préalable?

9

La question est basée sur l'article intitulé: Reconstruction d'images en tomographie optique diffuse à l'aide du modèle couplé de transport et de diffusion radiatifs

Lien de téléchargement

Les auteurs appliquent l'algorithme EM avec régularisation de densité d'un vecteur inconnu pour estimer les pixels d'une image. Le modèle est donné parl1μ

(1)y=Aμ+e
L'estimation est donnée en Eq (8) comme

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

Dans mon cas, j'ai considéré que est un filtre de longueur et sont vecteurs représentant les filtres. Donc,L μ L × 1μLμL×1

Le modèle peut être réécrit comme

(3)y(n)=μTa(n)+v(n)

Question: Formulation du problème: (n par 1) est l'entrée non observée et est la moyenne nulle avec une variance inconnue bruit additif. La solution MLE sera basée sur la maximisation des attentes (EM). { e ( n ) } σ 2 eμ(n){e(n)}σe2

Dans l'article Eq (19) est la fonction - la log-vraisemblance complète mais pour mon cas, je ne comprends pas comment je peux inclure la distribution de dans l'expression log-vraisemblance complète. A , μAA,μ

Quelle sera la log-vraisemblance complète en utilisant EM de compris la distribution précédente?y

SKM
la source
Voulez-vous réellement la log-vraisemblance ou voulez-vous plutôt la log-postérieure? Seul ce dernier inclura le prieur laplacien. Le premier peut simplement être obtenu en prenant le journal de la probabilité, qui semble avoir déjà été écrit
Il y a deux expressions que je veux - (1) L'une qui sera utilisée pour trouver la matrice d'informations de Fisher et l'autre (2) sera le pdf de l'ensemble de données complet qui comprend la variable cachée et les observances qui est le joint densité de probabilité des données observées en fonction du paramètre . Le pdf que j'ai écrit est applicable au modèle MA pour l'estimation aveugle de . Mais, comment sera-t-il différent pour la contrainte de rareté = Priorité laplacienne afin que la matrice d'informations de Fisher à partir des dérivées partielles de la log-vraisemblance puisse être trouvée. θ θZθθ
SKM
@ Xi'an: Je ne comprends pas comment brancher les 3 pdf qui incluent le prieur dans la formulation du log-vraisemblance. Je peux calculer la maximisation qui consiste à prendre la dérivée partielle et à la mettre à zéro. Pourriez-vous s'il vous plaît mettre une réponse avec l'expression de vraisemblance explicitement écrite. Cela vous aidera vraiment
SKM

Réponses:

3

Si nous considérons la cible comme la représentation à la base de EM est pour un arbitraire , à cause de la décomposition ou qui fonctionne pour une valeur arbitraire de (car il n'y en a pas sur les lhs ) et fonctionne donc pour toute attente dans : log L ( θ | x ) = E [ log L ( θ | x ( Z | x , θ ) | x , θ ] θq ( z | x , E [ log L ( θ | x , [ log L ( θ 1 | x

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
pour toute distribution conditionnelle de donnée , par exemple . Par conséquent, si nous maximisons dans avec la solution nous avons while par les arguments standard de EM. Par conséquent, ZX=xq(z|x,θ)θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
et en utilisant comme étape E la cible conduit à une augmentation du postérieur à chaque M étape, ce qui signifie que l'algorithme EM modifié converge vers une MAP locale.
E[logL(θ|x,Z)|x,θ]+logπ(θ)
Xi'an
la source
Merci pour votre réponse. Est représentent le pdf de ? Pourriez-vous s'il vous plaît pourquoi il y a 2 attentes avec Soustrait dans l'équation mentionnée dans la deuxième ligne? Z E [ l o g q ( . ) ]q()ZE[logq(.)]
SKM
J'ai ajouté quelques explications, mais vous devriez vérifier dans un manuel la dérivation de l'algorithme EM car c'est du matériel standard.
Xi'an
1

Je ne pense pas que montrer un log-postérieur croissant monotone (ou log vraisemblance pour MLE) soit suffisant pour montrer la convergence au point stationnaire de l'estimation MAP (ou MLE). Par exemple, les incréments peuvent devenir arbitrairement petits. Dans le célèbre article de Wu 1983 , une condition suffisante pour converger vers un point stationnaire de EM est la différenciation dans les deux arguments de la fonction de limite inférieure.

Jim.Z
la source