Pouvons-nous utiliser des échantillons bootstrap plus petits que l'échantillon d'origine?

12

Je veux utiliser le bootstrap pour estimer les intervalles de confiance pour les paramètres estimés à partir d'un ensemble de données de panel avec N = 250 entreprises et T = 50 mois. L'estimation des paramètres est coûteuse en calcul (quelques jours de calcul) en raison de l'utilisation du filtrage de Kalman et de l'estimation non linéaire complexe. Par conséquent, le prélèvement (avec remplacement) d'échantillons B (en centaines ou plus) de M = N = 250 entreprises à partir de l'échantillon d'origine et l'estimation des paramètres B fois est impossible à calculer, même s'il s'agit de la méthode de base pour le bootstrap.

J'envisage donc d'utiliser un M plus petit (par exemple 10) pour les échantillons de bootstrap (plutôt que la pleine taille de N = 250), tiré au hasard avec remplacement par les entreprises d'origine, puis mettre à l'échelle la matrice de covariance estimée par bootstrap des paramètres du modèle avec (dans l'exemple ci-dessus par 1/25) pour calculer la matrice de covariance pour les paramètres du modèle estimés sur l'échantillon complet.1NM

Les intervalles de confiance souhaités peuvent ensuite être estimés sur la base d'une hypothèse de normalité ou empiriques pour un échantillon plus petit mis à l'échelle à l'aide d'une procédure similaire (par exemple, réduit à l'aide d'un facteur de .1NM

Cette solution de contournement est-elle logique? Y a-t-il des résultats théoriques pour justifier cela? Des alternatives pour relever ce défi?

Hazhir
la source

Réponses:

4

Cette question a été posée il y a longtemps, mais je poste une réponse au cas où quelqu'un la découvrirait à l'avenir. En bref, la réponse est oui: vous pouvez le faire dans de nombreux paramètres et vous êtes justifié de corriger le changement de taille d'échantillon par le . Cette approche est généralement appelée boostrap sur , et elle fonctionne dans la plupart des paramètres que le bootstrap `` traditionnel '' fait, ainsi que dans certains paramètres dans lesquels elle ne fonctionne pas.MNMN

La raison en est que de nombreux arguments de cohérence bootstrap utilisent des estimateurs de la forme , où sont des variables aléatoires et est un paramètre de la distribution sous-jacente. Par exemple, pour la moyenne de l'échantillon, et .1N(TNμ)X1,,XNμTN=1Ni=1NXiμ=E(X1)

De nombreuses preuves de cohérence bootstrap soutiennent que, comme , étant donné un échantillon fini et une estimation ponctuelle associée , où les sont tirés de la vraie distribution sous-jacente et les sont dessinés en remplacement de .N{x1,,xN}μ N = T N ( x 1 , ... , x N ) μ^N=TN(x1,,xN)

(1)N(TN(X1,,XN)μ^N)DN(TN(X1,,XN)μ)
XjeXje{X1,,XN}

Cependant, nous pourrions également utiliser des échantillons plus courts de longueur et considérer l'estimateur Il s'avère que, comme , l'estimateur ( ) a la même distribution limite que ci-dessus dans la plupart des paramètres où ( ) détient et certains où il ne le fait pas. Dans ce cas, ( ) et ( ) ont la même distribution limite, motivant le facteur de correction par exemple l'écart type de l'échantillon.M<N

(2)M(TM(X1,,XM)-μ^N).
M,N1122112MN

Ces arguments sont tous asymptotiques et ne tiennent que dans la limite . Pour que cela fonctionne, il est important de ne pas choisir trop petit. Il y a une théorie (par exemple Bickel et Sakov ci-dessous) sur la façon de choisir le optimal en fonction de pour obtenir les meilleurs résultats théoriques, mais dans votre cas, les ressources de calcul peuvent être le facteur décisif.M,NM M NMN

Pour une certaine intuition: dans de nombreux cas, nous avons comme , de sorte que peut être considéré un peu comme un sur bootstrap avec et (j'utilise des minuscules pour éviter toute confusion de notation ). De cette façon, émuler la distribution de ( ) en utilisant un bootstrap sur avec est une chose plus `` juste '' à faire que la traditionnelle ( surμ^NμN

(3)N(TN(X1,,XN)-μ),
mnm=Nn=MNM<NNN3MNM<NNN) gentil. Un avantage supplémentaire dans votre cas est qu'il est moins coûteux à calculer.

Comme vous le mentionnez, Politis et Romano est le principal document. Je trouve Bickel et al (1997) ci-dessous un bon aperçu du bootstrap sur également.MN

Sources :

PJ Bickel, F Goetze, WR van Zwet. 1997. Rééchantillonnage de moins de observations: gains, pertes et remèdes aux pertes. Statistica Sinica.n

PJ Bickel, un Sakov. 2008. Sur le choix de dans le ouf de bootstrap et les bornes de confiance pour les extrema. Statistica Sinica.mmn

aph416
la source
3

Après avoir lu plus sur le sujet, il semble qu'il existe une théorie établie sous le "sous-échantillonnage" permettant de faire ce type d'estimation d'intervalle de confiance. La référence clé est "Politis, DN; Romano, JP (1994). Grandes régions de confiance des échantillons basées sur des sous-échantillons sous des hypothèses minimales. Annals of Statistics, 22, 2031-2050."

L'idée est de prélever des échantillons de taille M <N, "sans remplacement" pour chaque échantillon (mais avec remplacement sur différents échantillons de taille B), à partir des N points de données initiaux (série dans mon cas), et d'estimer l'intervalle de confiance de paramètre d'intérêt à l'aide de ces échantillons et de la méthode de bootstrap commune. Échelle ensuite l'intervalle de confiance en fonction du taux de variation de la variance de la distribution sous-jacente du paramètre avec les changements de M. Ce taux est de 1 / M dans de nombreux paramètres courants, mais pourrait être estimé empiriquement si nous répétons la procédure avec quelques M différents valeurs et examiner les changements dans la taille des plages inter-centiles.

Hazhir
la source