On dirait que votre séquence d'observation est B, B. Notons l'observation au tempst comme zt et l'état caché au moment t comme Xt. Si nous désignonsαt( i ) comme les valeurs à terme et βt( i ) comme valeurs en arrière (je est l'un des états cachés possibles)
αt( i ) = P(Xt= i ,z1 : t)
Ça signifie αt( i ) est la probabilité d'arriver à déclarer je au moment t émission des observations à temps t. Alors,
βt( i ) = P(zt + 1 : T∣Xt= i ) qui est la probabilité d'émettre la séquence restante de t + 1 jusqu'à la fin des temps après avoir été caché je au moment t.
Pour faire la récursivité sur βt( i ) nous pouvons écrire,
P(zt + 1 : T∣Xt= i ) =∑jP(Xt + 1= j ,zt + 1 : T∣Xt= i )
En utilisant la règle de chaîne,
P(Xt + 1= j ,zt+ 1 : T∣Xt= i ) = P(zt + 2 :T,zt +1,Xt + 1= j∣Xt= i)= P(zt + 2 : T∣zt + 1,Xt + 1= j,Xt= i ) P(zt + 1∣Xt + 1= j ,Xt= i ) P(Xt + 1= j ∣Xt= i )
Des indépendances conditionnelles de HMM, les probabilités ci-dessus se simplifient pour
P(zt + 2 : T∣Xt + 1= j ) P(zt + 1∣Xt + 1= j ) P(Xt + 1= j ∣Xt= i )
Notez que P(zt + 2 : T∣Xt + 1= j ) =βt + 1( j ) de notre définition.
Substitution à P(zt + 1 : T∣Xt= i ) on a,
βt( i ) =P(zt + 1 : T∣Xt= i ) =∑jβt + 1( j ) P(zt + 1∣Xt + 1= j ) P(Xt + 1= j ∣Xt= i )
Vous avez maintenant une récursivité pour la bêta. Les deux derniers termes de la dernière équation que vous connaissez de votre modèle. Ici, à partir de la fin de la chaîne (T), nous allons en arrière en calculant toutβt, d'où l'algorithme rétrograde. En avant, vous devez commencer par le début et vous allez à la fin de la chaîne.
Dans votre modèle, vous devez initialiser βT( i ) =P( ∅ ∣XT= i ) = 1 pour tous je. Il s'agit de la probabilité de ne pas émettre d'observations aprèsT= 2.