Partout, nous supposons que notre statistique est une fonction de certaines données qui est tirée de la fonction de distribution ; la fonction de distribution empirique de notre échantillon est . Donc est la statistique considérée comme une variable aléatoire et est la version bootstrap de la statistique. Nous utilisons comme distance KSX 1 , ... X n F F de ( F ) de θ ( F ) d ∞
Il existe des résultats «si et seulement si» pour la validité du bootstrap si la statistique est une statistique linéaire simple. Par exemple, le théorème 1 de Mammen "Quand fonctionne le bootstrap?"
Si pour une fonction arbitraire alors le bootstrap fonctionne en ce sens que si et uniquement s'il existe et tels que Où nous pouvons définir comme une fonction de notre échantillon ethnd∞[L(θ( F ) - t n),L(θ(F)-tn)]→p0σntnd∞[L(θ(F)-tn)
^ t n t n = E ( t n )
Il existe également des résultats plus généraux que le bootstrap fonctionne pour les statistiques générales, par exemple le théorème 1.6.3 de Subsampling de Politis Romano et Wolf:
Supposons que est tiré de la classe de toutes les distributions avec un support fini. Supposons que la statistique est Frechet différentiable à par rapport à la norme supremum et que la dérivée satisfait . Alors est asymptotiquement normal et le bootstrap fonctionne dans le sens du théorème précédent.θ ( ⋅ ) F g F 0 < Var F [ g F ( x ) ] < ∞ θ ( F )
Je voudrais une version «si et seulement si» du deuxième théorème. Cela nécessitera une notion de lissage différente de la différentiabilité de Frechet car Politis, Romano et Wolf (1999) montrent que la médiane de l'échantillon n'est pas Frechet différenciable mais que le bootstrap fonctionne toujours. Cependant, la médiane de l'échantillon est toujours une fonction fluide des données.
Il y a quelques commentaires informels dans Mammen que la douceur est nécessaire:
La linéarité asymptotique typiquement locale semble nécessaire pour la cohérence du bootstrap
La citation est de:
van Zwet, W (1989). Conférence donnée à la conférence sur les "méthodes asymptotiques pour les procédures informatiques intensives en statistiques" à Olberwolfach.
Mais je ne trouve aucune trace de ce discours à part une poignée de citations.
Réponses:
Vous avez besoin de la différentiabilité Hadamard (ou de la différentiabilité compacte selon votre source de référence) comme condition suffisante pour que le bootstrap fonctionne dans ce cas, la médiane et tout quantile est Hadamard différenciable. La différenciabilité de Frechet est trop forte dans la plupart des applications.
Comme il suffit généralement de discuter d'un espace polonais, vous souhaitez qu'une fonction localement linéaire applique un argument de compacité typique pour étendre votre résultat de cohérence à la situation globale. Voir également le commentaire de linéarisation ci-dessous.
[Shao & Tu] pp.85-86 ont illustré des situations où une incohérence des estimateurs bootstrap peut se produire.
Quant au commentaire "La linéarité asymptotique typiquement locale semble nécessaire pour la cohérence du bootstrap" fait par Mammen comme vous l'avez mentionné. Un commentaire de [Shao & Tu] p.78 est le suivant, car ils ont commenté que la linéarisation (globale) n'est qu'une technique qui facilite la preuve de cohérence et n'indique aucune nécessité:
Et ils ont donné un exemple 3.3 d'obtention de la cohérence du bootstrap pour le bootstrap de type MLE. Cependant, si la linéarité globale est efficace de cette manière, il est difficile d'imaginer comment on pourrait prouver la cohérence sans linéarité locale. Donc je suppose que c'est ce que Mammen voulait dire.
Au-delà de la discussion fournie par [Shao & Tu] ci-dessus, je pense que vous voulez une condition de caractérisation de la cohérence des estimateurs bootstrap.
Je déteste être cynique, mais je pense toujours que ce n'est pas la seule écriture statistique qui "cite du vide". En disant cela, je pense simplement que la citation du discours de van Zwet est très irresponsable bien que van Zwet soit un grand érudit.
[Wasserman] Wasserman, Larry. Toutes les statistiques non paramétriques, Springer, 2010.
[Shao & Tu] Shao, Jun et Dongsheng Tu. Le jackknife et le bootstrap. Springer, 1995.
[Gine & Zinn] Giné, Evarist et Joel Zinn. «Bootstrapping general empirical measures». The Annals of Probability (1990): 851-869.
[Huber] Huber, Peter J. Statistiques robustes. Wiley, 1985.
la source