Comme pour la plupart des méthodes Monte Carlo, la règle de bootstrap est que plus le nombre de répliques est élevé, plus l'erreur Monte Carlo est faible. Mais les rendements diminuent, il n'est donc pas logique d'exécuter autant de répliques que possible.
Supposons que vous vouliez vous assurer que votre estimation d'une certaine quantité est à l'intérieur de de l'estimation que vous obtiendriez avec une infinité de répétitions. Par exemple, vous pouvez être raisonnablement sûr que les deux premières décimales de ne sont pas erronées en raison d'une erreur de Monte Carlo, auquel cas . Existe-t-il une procédure adaptative que vous pouvez utiliser dans laquelle vous continuez à générer des répliques bootstrap, en vérifiant et en vous arrêtant selon une règle telle que, par exemple, avec une confiance de 95%?
NB Bien que les réponses existantes soient utiles, j'aimerais toujours voir un schéma pour contrôler la probabilité que .
Réponses:
Si l'estimation de sur les répliques est normalement distribuée, je suppose que vous pouvez estimer l'erreur sur partir de l'écart type :θ σ^ θ^ σ
alors vous pouvez simplement arrêter lorsque .1.96∗σ^<ϵ
Ou ai-je mal compris la question? Ou voulez-vous une réponse sans supposer la normalité et en présence d'autocorrélations importantes?
la source
Aux pages 113-114 de la première édition de mon livre Bootstrap Methods: A Practitioner's Guide Wiley (1999), je discute des méthodes pour déterminer le nombre de réplications bootstrap à utiliser lors de l'utilisation de l'approximation Monte Carlo.
J'entre dans le détail d'une procédure due à Hall décrite dans son livre The Bootstrap and Edgeworth Expansion, Springer-Verlag (1992). Il montre que lorsque la taille de l'échantillon n est grande et que le nombre de réplications bootstrap B est grand, la variance de l'estimation bootstrap est C / B où C est une constante inconnue qui ne dépend pas de n ou B. Donc, si vous pouvez déterminer C ou en le liant au-dessus, vous pouvez déterminer une valeur pour B qui rend l'erreur de l'estimation plus petite que le que vous spécifiez dans votre question.ϵ
Je décris une situation où C = 1/4. Mais si vous n'avez pas une bonne idée de la valeur C, vous pouvez recourir à l'approche que vous décrivez, où vous prenez B = 500, puis la doubler à 1000 et comparer la différence dans ces estimations de bootstrap. Cette procédure peut être répété jusqu'à ce que la différence soit aussi petite que vous le souhaitez.
Une autre idée est donnée par Efron dans l'article "Better bootstrap confidence intervalles (with discussion)", (1987) Journal of the American Statistical Association Vol. 82 pp 171-200.
la source