J'essaie actuellement de comprendre certaines choses concernant le bootstrap paramétrique. La plupart des choses sont probablement insignifiantes, mais je pense toujours avoir raté quelque chose.
Supposons que je souhaite obtenir des intervalles de confiance pour les données à l'aide d'une procédure d'amorçage paramétrique.
J'ai donc cet échantillon et je suppose qu'il est normalement distribué. Je voudrais ensuite estimer la variance v et moyenne m et obtenir mon estimation de distribution P , ce qui est évidemment juste N ( m , v ) .
Au lieu d'échantillonner à partir de cette distribution, je pourrais simplement calculer les quantiles analytiquement et être fait.
a) Je conclus: dans ce cas trivial, le bootstrap paramétrique serait le même que le calcul des choses dans une hypothèse de distribution normale?
Donc, théoriquement, ce serait le cas pour tous les modèles de bootstrap paramétriques, tant que je peux gérer les calculs.
b) Je conclus: utiliser l'hypothèse d'une certaine distribution m'apportera une précision supplémentaire dans le bootstrap paramétrique par rapport à celui non paramétrique (si c'est correct bien sûr). Mais à part ça, je le fais juste parce que je ne peux pas gérer les calculs analytiques et essayer de simuler ma sortie?
c) Je l'emploierais également si les calculs sont «habituellement» effectués en utilisant une approximation car cela me donnerait peut-être plus de précision…?
Pour moi, l'avantage du bootstrap (non paramétrique) semblait résider dans le fait que je n'ai pas besoin d'assumer de distribution. Pour le bootstrap paramétrique, cet avantage a disparu - ou y a-t-il des choses que j'ai manquées et où le bootstrap paramétrique offre un avantage sur les choses mentionnées ci-dessus?
la source
Réponses:
Oui. Tu as raison. Mais le bootstrap paramétrique protège de meilleurs résultats lorsque les hypothèses se vérifient. Pense-y de cette façon:
Nous avons un échantillon aléatoire d'une distribution F . Nous estimons un paramètre d'intérêt θ en fonction de l'échantillon, θ = h ( X 1 , ... , X n ) . Cette estimation est une variable aléatoire, donc il a une distribution que nous appelons G . Cette distribution est entièrement déterminée par h et F signifiant G = G ( h , F )X1,…,Xn F θ θ^=h(X1,…,Xn) G h F G=G(h,F) F F^ G G^=G(h,F^) G^ θ^ F^
Once you think of it this way, the advantages of parametric bootstrap are obvious.F^ would be a better approximation of F , then G^ would be closer to G and finally the estimations of θ^ 's properties would be better.
la source