Quelle est cette astuce avec l'ajout de 1 ici?

11

Je regardais cette page sur l'implémentation Monte Carlo du test Lillefors. Je ne comprends pas cette phrase:

Il y a une erreur aléatoire dans ce calcul à partir de la simulation. Cependant, en raison de l'astuce d'ajouter 1 au numérateur et au dénominateur dans le calcul de la valeur P, il peut être utilisé directement sans tenir compte du caractère aléatoire.

Que signifient-ils par l'astuce d'ajouter 1 au numérateur et au dénominateur?

Le morceau de code pertinent est ici:

n <- length(x)
nsim <- 4999
d.star <- double(nsim)
for (i in 1:nsim) {
    x.star <- rnorm(n)
    d.star[i] <- fred(x.star)
}
hist(d.star)
abline(v = d.hat, lty = 2)
## simulation-derived P-value
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)
Aksakal
la source
Pouvez-vous ajouter le contexte pertinent ici?
gung - Rétablir Monica
4
Ressemble au lissage de Laplace pour l'estimateur de Monte Carlo des probabilités, qui le rétrécit vers 1/2; l'effet principal est probablement d'éviter d'obtenir une valeur de p de 0, comme l'a noté @Tim (bien qu'il n'y ait aucun risque de diviser par 0 comme il l'a dit à moins que vous ne fassiez 0 simulation). Je ne vois pas vraiment pourquoi cela vous permet de l'utiliser "sans tenir compte du caractère aléatoire".
Dougal
2
Avez-vous écrit Geyer directement pour demander ce que signifie la phrase?
Alexis
@Alexis, non, mais c'est une bonne idée.
Aksakal
@Dougal, oui, cela ressemble au lissage de Laplace. On ne sait pas pourquoi il l'applique ici.
Aksakal

Réponses:

6

L'explication sur la page référencée est

Dans l'hypothèse nulle, la probabilité est exactement lorsque le caractère aléatoire des données et le caractère aléatoire de la simulation sont pris en compte.Pr(Pk/nsim)k/nsim

Pour comprendre cela, il faut regarder le code, dont les lignes clés (considérablement abrégées) sont

fred <- function(x) {ks.test(...)$statistic}  # Apply a statistical test to an array
d.hat <- fred(x)                              # Apply the test to the data
d.star <- apply(matrix(rnorm(n*nsim), n, nsim),
                2, fred)                      # Apply the test to nsim simulated datasets
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)# Estimate a simulation p-value

Le problème saillant est que le code ne correspond pas à la citation. Comment les réconcilier? Une tentative commence par la dernière moitié de la citation. Nous pouvons interpréter la procédure comme comprenant les étapes suivantes:

  1. Collect indépendamment et les données distribuées de façon identique selon une loi de probabilité . Appliquer une procédure de test (implémentée dans le code as ) pour produire le nombre .X1,X2,,XnGtfredT0=t(X1,,Xn)

  2. Générer par ordinateur ensembles de données comparables, chacune de taille , selon une hypothèse nulle avec la loi de probabilité . Appliquez à chacun de ces ensembles de données pour produire nombres .N=nsimnFtNT1,T2,,TN

  3. Calculez

    P=(i=1NI(Ti>T0)+1)/(N+1).

    ( « » est la fonction de l' indicateur mis en oeuvre par la comparaison d'une valeur vectorielle dans le code). Le côté droit est comprise comme étant aléatoire grâce à l' simultané aléatoire de (la statistique de test réel) et le caractère aléatoire de la ( les statistiques des tests simulés). Id.star > d.hatT0Ti

Dire que les données sont conformes à l'hypothèse nulle est Affirmer que . Choisissez une taille de test , . La multiplication des deux côtés par et la soustraction de montre que la chance que pour n'importe quel nombre soit la chance que pas plus de du dépasse . Cela simplement que se trouve dans le sommet de l'ensemble trié de toutes les statistiques de test . Depuis (par construction)F=Gα0<α<1N+11Pαα(N+1)α1TiT0T0(N+1)αN+1T0est indépendant de tous les , lorsque est une distribution continue, cette chance sera la fraction du total représentée par la partie entière ; c'est-à-dire, et il sera exactement égal à celui fourni est un nombre entier ; c'est-à-dire quand .TiF(N+1)α

Pr(Pα)=(N+1)αN+1α
(N+1)αkα=k/(N+1)

C'est certainement l'une des choses que nous voulons que soit vraie pour toute quantité qui mérite d'être appelée une "valeur p": elle devrait avoir une distribution uniforme sur . Pourvu que soit assez grand, de sorte que tout soit proche d'une fraction de la forme , ce aura presque un uniforme Distribution. (Pour en savoir plus sur les conditions supplémentaires requises pour une valeur de p, veuillez lire la boîte de dialogue que j'ai publiée au sujet des valeurs de p. )[0,1]N+1αk/(N+1)=k/(nsim+1)P

Évidemment, la citation doit utiliser " " au lieu de " " partout où elle apparaît.nsim+1nsim

whuber
la source
5

Je crois qu'ici, 1 est ajouté aux deux parce que la statistique observée est incluse dans la distribution de référence; si tel est le cas, c'est à cause de la partie "au moins aussi grande" de la définition de la valeur p.

Je n'en suis pas sûr car le texte semble dire quelque chose de différent, mais c'est pourquoi je le ferais.

Glen_b -Reinstate Monica
la source
1
@whuber Je ne vois pas comment je peux être d'accord. Tous les tests ne sont pas des tests de rapport de vraisemblance; lorsqu'ils ne sont pas des TLR, quelle pertinence peut l'interpréter en termes de rapports de vraisemblance?
Glen_b -Reinstate Monica
1
@whuber Cela peut certainement le faire. Mais considérons, par exemple, un Wilcoxon-Mann-Whitney (ou en effet, les tests de permutation plus largement). Il existe un certain nombre de tests parfaitement raisonnables largement utilisés qui ne sont ni un test de Lilliefors ni un test de rapport de vraisemblance. Lorsqu'il existe une alternative claire par rapport à laquelle la puissance est souhaitée, il est souvent possible de construire une statistique de test significative où l'ordre sur l'espace échantillon donné par la statistique de test est parfaitement logique et possède des propriétés raisonnables dans un large éventail d'alternatives.
Glen_b -Reinstate Monica
1
Certes, lorsque l'on arrive à une statistique de test qui correspond (dans le sens de prendre des valeurs plus extrêmes, qu'elles soient plus grandes, plus petites ou les deux) au type d'alternative qui nous intéresse, on fait appel au "type d'alternative qui nous intéresse "- mais même si l'on devait utiliser un test inadmissible (en fait, même un test inutile), le principe que j'expose dans ma réponse consistant à inclure l'échantillon observé dans les résultats simulés s'appliquerait toujours. Une fois que vous avez un ordre, même s'il n'est pas le meilleur, lors du calcul des valeurs de p, le cas observé appartient toujours au compte.
Glen_b -Reinstate Monica
2
@whuber nous ne sommes peut-être pas si éloignés maintenant. En choisissant une statistique de test raisonnable, nous voudrions certainement faire appel à quelque chose . Mais une fois que nous avons une statistique de test (comme nous devons l'avoir au moment où nous simulons sous le zéro), nous l'avons déjà fait. Et une fois que nous l'avons, la raison pour laquelle nous inclurions le cas observé dans notre calcul de la valeur de p est à cause de ce qu'est une valeur de p.
Glen_b -Reinstate Monica
1
Je ne pense pas que nous ayons la moindre différence. (Notez que ma propre réponse indique clairement que l'inclusion de l'échantillon observé dans le décompte est appropriée.) Mon commentaire ne visait pas votre réponse à la question (avec laquelle je suis d'accord et a voté positivement), mais uniquement la phrase problématique "au moins aussi grand. " Je vois cette phrase mal interprétée à tellement d'endroits sur ce site (et ailleurs) que je voulais attirer l'attention des lecteurs sur ce qu'elle doit vraiment signifier.
whuber