Le fond de mon étude :
Dans un échantillonnage de Gibbs où nous échantillonnons (la variable d'intérêt) et partir de et respectivement, où et sont des vecteurs aléatoires à dimensions. Nous savons que le processus est généralement divisé en deux étapes:
- Période de rodage, où nous jetons tous les échantillons. Désignons les échantillons comme et .
- Période "After-Burn-in", où nous faisons la moyenne des échantillons comme résultat final souhaité.
Cependant, les échantillons de la séquence "post-rodage" ne sont pas distribués indépendamment. Par conséquent, si je veux inspecter la variance du résultat final, il devient
Ici, le terme est une matrice de covariance croisée appliquée à tout avec .
Par exemple, j'ai
alors je pourrais estimer la matrice de covariance avec
Maintenant, je suis intéressé à savoir si l'estimation résultante est significativement non nulle, de sorte que je dois l'inclure dans mon estimation de variance de .
Voici donc mes questions :
- Nous échantillonnons partir de . Puisque est en train de changer, je pense que et ne sont pas de la même distribution, donc n'est pas identique à . Cette affirmation est-elle correcte?
- Supposons que j'ai suffisamment de données pour estimer (échantillons voisins dans la séquence), existe-t-il un moyen de tester si la matrice de covariance est significativement matrice non nulle? D'une manière générale, je suis intéressé par un indicateur qui me guide vers des matrices de covariance croisée significatives qui devraient être incluses dans mon estimation finale de la variance.
Réponses:
Vous confondez les distributions conditionnelles et inconditionnelles ici, voir aussi ma prochaine remarque. Conditionnel à et , . Mais tout le point de construire votre échantillonneur de Gibbs est à l' échantillon des distributions fixes de et . En gros, si vous avez exécuté votre chaîne assez longtemps et que suit la distribution stationnaire, vous pouvez alors dire signifiant que la distribution inconditionnelle de est également invariante. En d'autres termes, commeYt+i=y1 Yt+i+1=y2 P(Xt+i|Yt+i=y1)≠P(Xt+i+1|Yt+i+1=y2) X Y {Yt}
Oui, c'est correct - même si , c'est-à-dire et ont la même distribution stationnaire. Je sais que cela peut prêter à confusion, mais soyez indulgent avec moi. Définissez avec . Par substitution itérée, on peut montrer que , et puisque (infini) les sommes de normales sont toujours normales, il considère que et de sorte que . Clairement, etXt+1∼Xt Xt Xt+1 Yt=0.8⋅Yt−1+εt εt∼iidN(0,1) Yt=∑ti=00.8iεt−i Ytiid∼N(0,1Var(Yt)=∑ti=00.82i=11−0.82 YtYt+1Yt+1∼YtXtYt∼iidN(0,11−0.82) Yt Yt+1 seront toujours corrélés, mais ils proviendront également de la même distribution ( ). Une situation similaire s'applique à votre .Yt+1∼Yt Xt
Eh bien, si vous aviez une infinité d'observations, elles finiront toutes par être importantes. De toute évidence, vous ne pouvez pas le faire dans la pratique, mais il existe des moyens de `` couper '' l'expansion après certains termes, voir l'excellente réponse acceptée ici. Fondamentalement, vous définissez un noyau qui se désintègre à et attribue des poids aux premières matrices de covariance que vous pourriez calculer. Si vous voulez choisir d'une manière sur des principes, vous devrez creuser un peu dans la littérature, mais l'article que j'ai lié vous donne de bonnes références pour faire exactement cela.0 l T l Tk(⋅) 0 lT lT
la source