Je fais une question sur les chaînes de Markov et les deux dernières parties disent ceci:
- Cette chaîne de Markov possède-t-elle une distribution limitative? Si votre réponse est "oui", recherchez la distribution limite. Si votre réponse est "non", expliquez pourquoi.
- Cette chaîne de Markov possède-t-elle une distribution stationnaire? Si votre réponse est "oui", trouvez la distribution stationnaire. Si votre réponse est "non", expliquez pourquoi.
Quelle est la différence? Plus tôt, je pensais que la distribution limite était quand vous le travail à l' aide mais c'est la ième matrice de transition étape. Ils ont calculé la distribution limite en utilisant , que je pensais être la distribution stationnaire. n Π = Π P
Quel est lequel alors?
markov-process
Kaish
la source
la source
Réponses:
Extrait d' une introduction à la modélisation stochastique de Pinsky et Karlin (2011):
Dans une section précédente, ils avaient déjà défini une " distribution de probabilité limite " enπ
et de manière équivalente
L'exemple ci-dessus oscille de façon déterministe et ne parvient donc pas à avoir une limite de la même manière que la séquence ne parvient pas à avoir une limite.{ 1 , 0 , 1 , 0 , 1 , … }
Ils déclarent qu'une chaîne de Markov régulière (dans laquelle toutes les probabilités de transition en n étapes sont positives) a toujours une distribution limite, et prouvent qu'elle doit être la solution non négative unique pour
Puis sur la même page que l'exemple, ils écrivent
où (4.27) est l'ensemble des équations
qui est précisément la même condition de stationnarité que ci-dessus, sauf maintenant avec un nombre infini d'états.
Avec cette définition de la stationnarité, l'énoncé de la page 168 peut être retraité rétroactivement comme suit:
la source
Une distribution stationnaire est une distribution telle que si la distribution sur les états à l'étape est , alors également la distribution sur les états à l'étape est . Autrement dit, Une distribution limite est une telle distribution que quelle que soit la distribution initiale, la distribution sur les états converge vers comme le nombre de les étapes vont à l'infini: indépendamment deπ k π k+1 π
Cependant, cette chaîne n'a pas de distribution limite: supposons que nous initialisons la pièce de sorte qu'elle soit en tête avec une probabilité . Ensuite, comme tous les états suivants sont déterminés par l'état initial, après un nombre pair d'étapes, l'état est en tête avec la probabilité et après un nombre impair d'étapes, l'état est en tête avec la probabilité . Cela vaut quel que soit le nombre de pas effectués, ainsi la distribution sur les états n'a pas de limite.2 / 3 une / 32/3 2/3 1/3
Maintenant, modifions le processus pour qu'à chaque étape, on ne tourne pas nécessairement la pièce. Au lieu de cela, on lance un dé, et si le résultat est , la pièce est laissée telle quelle. Cette chaîne de Markov a une matrice de transition Sans passer par les mathématiques, je soulignerai que ce processus "oubliera" l'état initial en raison de l'omission aléatoire du tour. Après un nombre énorme d'étapes, la probabilité de têtes sera proche de , même si nous savons comment la pièce a été initialisée. Ainsi, cette chaîne a la distribution limite .P = ( 1 / 6 cinq / 6 cinq / 6 1 / 6 ) . 0,5 ( 0,5 0,5 )6
la source
Mis à part la notation, le mot «stationnaire» signifie «une fois que vous y serez, vous y resterez»; tandis que le mot "limiter" implique "vous finirez par y arriver si vous allez assez loin". Je pensais que cela pourrait être utile.
la source