Confusion liée aux systèmes dynamiques linéaires

9

Je lisais ce livre Pattern Recognition and Machine Learning de Bishop. J'ai eu une confusion liée à une dérivation du système dynamique linéaire. Dans LDS, nous supposons que les variables latentes sont continues. Si Z désigne les variables latentes et X désigne les variables observées

p(zn|zn-1)=N(zn|UNEzn-1,τ)

p(Xn|zn)=N(Xn,Czn,Σ)

p(z1)=N(z1|u0,V0)

Dans LDS, le passage de messages en avant alpha bêta est également utilisé pour calculer la distribution latente postérieure, c'est-à-direp(zn|X)

α(zn)=p(X1...Xn,zn)

α^(zn)=α(zn)/P(X1....Xn)

Ma première question est dans le livre, il est donné

α^(zn)=N(zn|un,Vn)

Comment se fait-il que nous ayons obtenu ce qui précède. Je veux dire = . Je veux dire, comment avons-nous obtenu cela?α^(zn)N(zn|un,Vn))

Ma prochaine question est liée à la dérivation car vous pouvez suivre les captures d'écran des pages du livre jointes. Je ne sais pas d'où vient et quel est le gain du filtre de KalmanKn

un=UNEun-1+Kn(Xn-CUNEun-1)

Vn=je-KnC)P(n-1)

cn=N(Xn|CUNEun-1,CPn-1CT+Σ

Kn est la matrice de gain de KalmanPn-1CT(CPn-1CT+Σ)-1

Comment avons-nous dérivé les équations ci-dessus, je veux dire comment se fait-il

un=UNEun-1+Kn(Xn-CUNEun-1)

Je suis juste confus comment la dérivation ci-dessus est faite. entrez la description de l'image ici

entrez la description de l'image ici

entrez la description de l'image ici

user34790
la source

Réponses:

1

Il y a une belle dérivation, plusieurs en fait, dans ce qui suit: http://amzn.com/0470173661

C'est aussi un bon livre sur le sujet: http://amzn.com/0471708585

La dérivation complète et les simplifications qui aboutissent à la forme abrégée du manuel que vous présentez ne sont pas courtes / nettes, elles sont donc souvent omises ou laissées comme exercice pour le lecteur.

Vous pouvez considérer le gain de Kalman comme une proportion de mélange qui fait la somme pondérée d'un modèle analytique / symbolique et de certaines mesures bruyantes du monde réel. Si vous avez des mesures de merde, mais un bon modèle, un gain de Kalman correctement réglé devrait favoriser le modèle. Si vous avez un modèle indésirable, mais de très bonnes mesures, votre gain Kalman devrait favoriser les mesures. Si vous ne connaissez pas bien vos incertitudes, il peut être difficile de configurer correctement votre filtre Kalman.

Si vous définissez les entrées correctement, c'est un estimateur optimal. Il existe un certain nombre d'hypothèses qui entrent dans sa dérivation et si l'une d'entre elles n'est pas vraie, elle devient un assez bon estimateur sous-optimal. Par exemple, un tracé de Lag démontrera que l'hypothèse de Markov en une étape implicite dans le filtre de Kalman n'est pas vraie pour une fonction cosinus. Une série de Taylor est une approximation, mais elle n'est pas exacte. Vous pouvez créer un filtre de Kalman étendu basé sur la série Taylor, mais il est approximatif, pas exact. Si vous pouvez prendre des informations de deux états précédents au lieu d'un, vous pouvez utiliser un filtre Block Kalman et retrouver votre optimalité. En bout de ligne, ce n'est pas un mauvais outil, mais ce n'est pas "la solution miracle" et votre kilométrage variera. Assurez-vous de bien le caractériser avant de l'utiliser dans le monde réel.

EngrStudent
la source