Le centrage est-il nécessaire lors de l'amorçage de la moyenne de l'échantillon?

13

En lisant comment approximer la distribution de la moyenne de l'échantillon, je suis tombé sur la méthode de bootstrap non paramétrique. Apparemment, on peut approximer la distribution de X¯nμ par la distribution de , où désigne la moyenne de l'échantillon de l'échantillon bootstrap.X¯nX¯nX¯n

Ma question est alors: ai-je besoin du centrage? Pourquoi?

Ne pourrais-je pas simplement approximer par ?P(X¯nx)P(X¯nx)

Christin
la source
Je ne vois pas pourquoi vous devez centrer quoi que ce soit. Tous les échantillons discutés ici sont de la même taille, n'est-ce pas?
Bitwise
Même taille, oui. Je ne vois pas non plus la raison du centrage. Quelqu'un pourrait-il trouver une explication mathématique pourquoi ou pourquoi nous ne devons pas le faire? Je veux dire, pouvons-nous prouver que le bootstrap fonctionne ou ne fonctionne pas si nous ne centrons pas?
Christin
3
(Btw, une preuve que le bootstrap fonctionne pour le cas où nous avons centré peut être trouvée dans Bickel, PJ et DA Freedman (1981), Some asymptotic theory for the bootstrap .)
Christin
Je suis curieux: pourquoi cette question est-elle rejetée?
cardinal du
Peut-être que nous faisons l'entrée pour pouvoir utiliser le théorème central limite qui nous donne que converge vers la même distribution quen1n12(X¯n-μ), à savoir àN(0,σ2). Peut-être qu'il n'y a pas d'asymptotique disponible pour le cas sans centrage qui nous indique si cela fonctionne. n12(X¯n-X¯n)N(0,σ2)
kelu

Réponses:

4

Oui, vous pouvez approximer par P ( ˉ Xnx ) mais ce n'est pas optimal. Il s'agit d'une forme de bootstrap centile. Cependant, le bootstrap centile ne fonctionne pas bien si vous cherchez à faire des inférences sur la moyenne de la population, sauf si vous avez un échantillon de grande taille. (Il fonctionne bien avec de nombreux autres problèmes d'inférence, y compris lorsque la taille de l'échantillon est petite.) Je tire cette conclusion des statistiques modernes de Wilcox pour les sciences sociales et comportementales , CRC Press, 2012. Une preuve théorique me dépasse, j'ai peur .P(X¯nX)P(X¯nX)

Une variante de l'approche de centrage passe à l'étape suivante et met à l'échelle votre statistique de bootstrap centrée avec l'écart-type de rééchantillonnage et la taille de l'échantillon, en calculant de la même manière qu'à la statistique. Les quantiles de la distribution de ces statistiques t peuvent être utilisés pour construire un intervalle de confiance ou effectuer un test d'hypothèse. Il s'agit de la méthode bootstrap-t et elle donne des résultats supérieurs lors des inférences sur la moyenne.

Soit l'écart type de rééchantillonnage basé sur un rééchantillonnage bootstrap, en utilisant n-1 comme dénominateur; et s être l'écart type de l'échantillon d'origine. Laissers

T=X¯n-X¯s/n

Les 97,5e et 2,5e centiles de la distribution simulée de peuvent faire un intervalle de confiance pour μ en:Tμ

X¯-T0,975sn,X¯-T0,025sn

Considérez les résultats de la simulation ci-dessous, montrant qu'avec une distribution mixte mal asymétrique, les intervalles de confiance de cette méthode contiennent la valeur vraie plus fréquemment que la méthode de bootstrap centile ou une inverstion traditionnelle de statistique at sans bootstrapping.

compare.boots <- function(samp, reps = 599){
    # "samp" is the actual original observed sample
    # "s" is a re-sample for bootstrap purposes

    n <- length(samp)

    boot.t <- numeric(reps)
    boot.p <- numeric(reps)

    for(i in 1:reps){
        s <- sample(samp, replace=TRUE)
        boot.t[i] <- (mean(s)-mean(samp)) / (sd(s)/sqrt(n))
        boot.p[i] <- mean(s)
    }

    conf.t <- mean(samp)-quantile(boot.t, probs=c(0.975,0.025))*sd(samp)/sqrt(n)
    conf.p <- quantile(boot.p, probs=c(0.025, 0.975))

    return(rbind(conf.t, conf.p, "Trad T test"=t.test(samp)$conf.int))
}

# Tests below will be for case where sample size is 15
n <- 15

# Create a population that is normally distributed
set.seed(123)
pop <- rnorm(1000,10,1)
my.sample <- sample(pop,n)
# All three methods have similar results when normally distributed
compare.boots(my.sample)

Cela donne ce qui suit (conf.t est la méthode bootstrap t; conf.p est la méthode bootstrap centile).

          97.5%     2.5%
conf.t      9.648824 10.98006
conf.p      9.808311 10.95964
Trad T test 9.681865 11.01644

Avec un seul exemple d'une distribution asymétrique:

# create a population that is a mixture of two normal and one gamma distribution
set.seed(123)
pop <- c(rnorm(1000,10,2),rgamma(3000,3,1)*4, rnorm(200,45,7))
my.sample <- sample(pop,n)
mean(pop)
compare.boots(my.sample)

Cela donne ce qui suit. Notez que "conf.t" - la version bootstrap t - donne un intervalle de confiance plus large que les deux autres. Fondamentalement, il répond mieux à la répartition inhabituelle de la population.

> mean(pop)
[1] 13.02341
> compare.boots(my.sample)
                97.5%     2.5%
conf.t      10.432285 29.54331
conf.p       9.813542 19.67761
Trad T test  8.312949 20.24093

Enfin voici mille simulations pour voir quelle version donne des intervalles de confiance le plus souvent corrects:

# simulation study
set.seed(123)
sims <- 1000
results <- matrix(FALSE, sims,3)
colnames(results) <- c("Bootstrap T", "Bootstrap percentile", "Trad T test")

for(i in 1:sims){
    pop <- c(rnorm(1000,10,2),rgamma(3000,3,1)*4, rnorm(200,45,7))
    my.sample <- sample(pop,n)
    mu <- mean(pop)
    x <- compare.boots(my.sample)
    for(j in 1:3){
        results[i,j] <- x[j,1] < mu & x[j,2] > mu
    }
}

apply(results,2,sum)

Cela donne les résultats ci-dessous - les nombres sont les fois sur 1000 que l'intervalle de confiance contient la vraie valeur d'une population simulée. Notez que le véritable taux de réussite de chaque version est considérablement inférieur à 95%.

     Bootstrap T Bootstrap percentile          Trad T test 
             901                  854                  890 
Peter Ellis
la source
Merci, c'était très instructif. Ce .pdf (d'une leçon) décrit une mise en garde à votre conclusion: psychology.mcmaster.ca/bennett/boot09/percentileT.pdf Ceci est un résumé de ce que Bennet dit: De nombreux ensembles de données se composent de nombres> = 0 (c'est-à-dire des données qui peuvent être comptés), auquel cas le CI ne doit pas contenir de valeurs négatives. En utilisant la méthode bootstrap-t, cela peut se produire, rendant l'intervalle de confiance peu plausible. L'exigence que les données soient> = 0 viole l'hypothèse de distribution normale. Ce n'est pas un problème lors de la construction d'un CI bootstrapé centile
Hannes Ziegler