Les tests de permutation sont des tests de signification basés sur des rééchantillons de permutation tirés au hasard à partir des données originales. Les rééchantillons de permutation sont dessinés sans remplacement, contrairement aux échantillons bootstrap, qui sont dessinés avec remplacement. Voici un exemple que j'ai fait dans R d'un test de permutation simple. (Vos commentaires sont les bienvenus)
Les tests de permutation présentent de grands avantages. Ils ne nécessitent pas de formes de population spécifiques telles que la normalité. Ils s'appliquent à une variété de statistiques, pas seulement aux statistiques qui ont une distribution simple sous l'hypothèse nulle. Ils peuvent donner des valeurs de p très précises, quelles que soient la forme et la taille de la population (si suffisamment de permutations sont utilisées).
J'ai également lu qu'il est souvent utile de donner un intervalle de confiance avec un test, qui est créé en utilisant le rééchantillonnage bootstrap plutôt que le rééchantillonnage par permutation.
Pourriez-vous expliquer (ou simplement donner le code R) comment un intervalle de confiance est construit (c'est-à-dire pour la différence entre les moyennes des deux échantillons dans l'exemple ci-dessus)?
ÉDITER
Après quelques recherches sur Google, j'ai trouvé cette lecture intéressante .
la source
sample
etreplace=TRUE
? Y a-t-il une raison d'utiliser un package commeboot
?sum(b$t>=b$t0)/b$R
Comme un test de permutation est un test exact , vous donnant une valeur de p exacte. L'amorçage d'un test de permutation n'a pas de sens.
À côté de cela, déterminer un intervalle de confiance autour d'une statistique de test n'a pas non plus de sens, car il est calculé en fonction de votre échantillon et non d'une estimation. Vous déterminez des intervalles de confiance autour d'estimations comme les moyennes et les goûts, mais pas autour des statistiques de test.
Les tests de permutation ne doivent pas être utilisés sur des ensembles de données si gros que vous ne pouvez plus calculer toutes les permutations possibles. Si tel est le cas, utilisez une procédure d'amorçage pour déterminer la coupure de la statistique de test que vous utilisez. Mais encore une fois, cela n'a pas grand-chose à voir avec un intervalle de confiance à 95%.
Un exemple: j'utilise ici la statistique T classique, mais j'utilise une approche simple du bootstrap pour le calcul de la distribution empirique de ma statistique. Sur cette base, je calcule une valeur de p empirique:
Tenez compte du fait que ce test bilatéral ne fonctionne que pour les distributions symétriques. Les distributions non symétriques ne sont généralement testées que sur une seule face.
ÉDITER :
OK, j'ai mal compris la question. Si vous souhaitez calculer un intervalle de confiance sur l'estimation de la différence, vous pouvez utiliser le code mentionné ici pour l'amorçage au sein de chaque échantillon. Attention, il s'agit d'une estimation biaisée: cela donne généralement un IC trop petit. Voir également l'exemple donné comme une raison pour laquelle vous devez utiliser une approche différente pour l'intervalle de confiance et la valeur de p.
la source
x[6:11]
fait référence à l'argumentx
de la fonction anonyme dans l'appliquer. Peut-être déroutant, mais votre montage a donné de très mauvais résultats. Veuillez commenter ce que vous pensez qu'il devrait être avant de modifier le code. Me sauve un retour en arrière. Pour éviter toute confusion, j'ai changé celax
eni
Du code Joris Meys dans les réponses mais avec des modifications pour lui permettre d'être appliqué dans plus d'une seule situation:
J'ai essayé de modifier l'autre mais je n'ai pas eu le temps de terminer et pour une raison quelconque, je ne peux pas commenter (peut-être parce que c'est une vieille question).
la source