Le théorème est "Si une matrice de transition pour une chaîne de Markov irréductible avec un espace d'état fini S est doublement stochastique, sa mesure invariante (unique) est uniforme sur S."
Si une chaîne de Markov a une matrice de transition doublement stochastique, j'ai lu que ses probabilités limitantes constituent la distribution uniforme, mais je ne comprends pas très bien pourquoi.
J'ai essayé de trouver et de trouver une preuve compréhensible pour cela. Mais les preuves que je trouve glissent sur des détails que je ne comprends pas, comme la proposition 15.5 ici (pourquoi cela fonctionne-t-il d'utiliser simplement les vecteurs [1, ... 1]?) Quelqu'un pourrait-il m'indiquer (ou écrire) un plus preuve simple / détaillée?
(Bien que cela ne fasse pas partie de tout ce que je vais remettre à l'école, cela fait partie d'un cours que je prends donc je suppose que je vais le marquer avec des devoirs dans les deux cas.)
la source
Réponses:
Supposons que nous ayons unM+ 1 chaîne de Markov à l'état irréductible et apériodique, avec états mj , j = 0 , 1 , … , M , avec une matrice de transition doublement stochastique (c.-à-d. ∑Mi = 0Pi , j= 1 pour tous j ). Alors la distribution limite estπj=1M+1 .
Preuve
Notez d'abord que leπj est la solution unique pourπj=∑Mi=0πiPi,j et ∑Mi=0πi=1 .
Essayerπi=1 . Cela donneπj=∑Mi=0πiPi,j=∑Mi=0Pi,j=1 (car la matrice est doublement stochastique). Doncπi=1 est une solution au premier ensemble d'équations, et d'en faire une solution au second normaliser en divisant par M+1 .
Par l'unicité,πj=1M+1 .
la source