Pourquoi utiliser le bootstrap paramétrique?

13

J'essaie actuellement de comprendre certaines choses concernant le bootstrap paramétrique. La plupart des choses sont probablement insignifiantes, mais je pense toujours avoir raté quelque chose.

Supposons que je souhaite obtenir des intervalles de confiance pour les données à l'aide d'une procédure d'amorçage paramétrique.

J'ai donc cet échantillon et je suppose qu'il est normalement distribué. Je voudrais ensuite estimer la variance v et moyenne m et obtenir mon estimation de distribution P , ce qui est évidemment juste N ( m , v ) .v^m^P^N(m^,v^)

Au lieu d'échantillonner à partir de cette distribution, je pourrais simplement calculer les quantiles analytiquement et être fait.

a) Je conclus: dans ce cas trivial, le bootstrap paramétrique serait le même que le calcul des choses dans une hypothèse de distribution normale?

Donc, théoriquement, ce serait le cas pour tous les modèles de bootstrap paramétriques, tant que je peux gérer les calculs.

b) Je conclus: utiliser l'hypothèse d'une certaine distribution m'apportera une précision supplémentaire dans le bootstrap paramétrique par rapport à celui non paramétrique (si c'est correct bien sûr). Mais à part ça, je le fais juste parce que je ne peux pas gérer les calculs analytiques et essayer de simuler ma sortie?

c) Je l'emploierais également si les calculs sont «habituellement» effectués en utilisant une approximation car cela me donnerait peut-être plus de précision…?

Pour moi, l'avantage du bootstrap (non paramétrique) semblait résider dans le fait que je n'ai pas besoin d'assumer de distribution. Pour le bootstrap paramétrique, cet avantage a disparu - ou y a-t-il des choses que j'ai manquées et où le bootstrap paramétrique offre un avantage sur les choses mentionnées ci-dessus?

BootstrapBill
la source
1
Vous avez fondamentalement raison - vous échangez une erreur analytique contre une erreur de Monte Carlo. Le bootstrap paramétrique est également un échantillon postérieur approximatif.
probabilitéislogic
1
vous voulez dire un échantillon postérieur approximatif comme en bayésien? je n'ai toujours pas la connexion entre le bootstrap et l'estimation du maximum de vraisemblance. mais c'est une autre histoire. Merci pour votre réponse!
BootstrapBill

Réponses:

8

Oui. Tu as raison. Mais le bootstrap paramétrique protège de meilleurs résultats lorsque les hypothèses se vérifient. Pense-y de cette façon:

Nous avons un échantillon aléatoire d'une distribution F . Nous estimons un paramètre d'intérêt θ en fonction de l'échantillon, θ = h ( X 1 , ... , X n ) . Cette estimation est une variable aléatoire, donc il a une distribution que nous appelons G . Cette distribution est entièrement déterminée par h et F signifiant G = G ( h , F )X1,,XnFθθ^=h(X1,,Xn)GhFG=G(h,F)FF^GG^=G(h,F^)G^θ^F^

G^=G(h,F^)G^X1b,,Xnb with distribution F^ and calculate θ^b=h(X1b,,Xnb) which will follow the G^ distribution.

Once you think of it this way, the advantages of parametric bootstrap are obvious. F^ would be a better approximation of F, then G^ would be closer to G and finally the estimations of θ^'s properties would be better.

Manuel
la source
1
So if we put it in terms of higher order convergence we see that although parametric and nonparametric bootstrap are of the same order of convergence (i think thats whats written in van der vaarts asymptotic statistics), parametric is still better. but only in terms of some factor?
BootstrapBill