Quelle méthode simule les valeurs p du rééchantillonnage à partir des données

8

Il y a quelque temps, j'ai posé une question sur la corrélation des temps entre les horodatages et j'ai reçu une réponse de Peter Ellis qui m'a dit que je pouvais calculer les distances moyennes entre les codes ...

Cela vous donnera déjà une idée des comportements qui sont regroupés, mais vous devez également vérifier que cela n'est pas plausible uniquement par hasard.

Pour vérifier cela, je créerais des données simulées générées par un modèle sous l'hypothèse nulle de non relation. Pour ce faire, il faudrait générer des données pour le temps de chaque comportement à partir d'un modèle nul plausible, probablement basé sur le rééchantillonnage des temps entre chaque événement (par exemple entre chaque bâillement) pour créer un nouvel ensemble d'horodatages pour les événements hypothétiques du modèle nul. Ensuite, calculez la même statistique d'indicateur pour ce modèle nul et comparez-le à l'indicateur à partir de vos données authentiques. En répétant cette simulation plusieurs fois, vous pouvez savoir si l'indicateur de vos données est suffisamment différent des données simulées du modèle nul (temps moyen plus court entre chaque bâillement et le tronçon le plus proche, par exemple) pour être considéré comme une preuve statistiquement significative par rapport à votre hypothèse nulle.

Je possède enfin les compétences nécessaires pour le faire et je l'ai fait dans R, mais je ne sais pas comment cette méthode ou technique est appelée pour que je puisse (a) en apprendre davantage à ce sujet (b) parler intelligemment de la théorie derrière ce que je 'Je fais.

Certaines personnes ont suggéré que cela s'appelle un test de permutation, d'autres disent que le bootstrap est similaire mais pas le même et certains m'ont dit que c'était lié au Monte Carlo concernant l'échantillonnage.

Quelle est cette méthode de rééchantillonnage, étant donné que le NULL est VRAI, appelé? Si vous avez une référence ou deux pour sauvegarder votre réponse, cela peut être utile mais pas nécessaire.

Tyler Rinker
la source

Réponses:

4

Il me semble qu'Ellis pourrait faire référence à pas moins de trois idées distinctes ici. D'abord, il dit quelque chose à propos de la création de "données simulées générées par un modèle sous l'hypothèse nulle de l'absence de relation". J'appellerais cela une forme de bootstrap paramétrique . Il dit ensuite que cela serait "probablement basé sur le rééchantillonnage des temps entre chaque événement (par exemple entre chaque bâillement) pour créer un nouvel ensemble d'horodatages pour les événements hypothétiques du modèle nul". Ce qui, soyons clairs ici, ne consiste pas à «créer des données simulées». À la place, si je comprends bien, nous rééchantillonnons à partir de nos données réellement observées. Cette dernière procédure est soit un test de permutation ou non paramétrique bootstrapping ,

Je suppose que je devrais dire quelques mots de plus sur le bootstrap paramétrique, les tests de permutation et le bootstrap non paramétrique.

Habituellement, le bootstrap paramétrique est effectué en simulant sur la base du modèle réellement estimé, et non sur la base d'un modèle hypothétique qui est exactement comme le modèle estimé, sauf que l'hypothèse nulle est supposée vraie, comme Ellis semble le suggérer au début. Par "simuler des données", je veux dire quelque chose comme à titre d'exemple: mon modèle déclare que mes données proviennent de deux groupes, chacun avec une distribution normale, avec des moyensμ1 et μ2, respectivement, et l'écart type σ, je vais donc générer de nombreux ensembles de données qui satisfont à cela et utiliser la distribution des statistiques de test calculées à partir de chacun de ces jeux de données simulés comme ma distribution d'échantillonnage. Remarque, je crée ces données en utilisant quelque chose comme rnorm()dans R, pas directement en utilisant mes données observées. Maintenant, on pourrait certainement faire cette procédure et obtenir une sorte de distribution d'échantillonnage sous l'hypothèse nulle de, disons, aucune différence dans les moyennes de groupe - nous supposerions simplementμ1=μ2dans tous les jeux de données simulés, contrairement à ce que nous avons réellement observé - et de cette façon, nous obtenons une valeur p amorcée (plutôt qu'un intervalle de confiance amorcé, ce que vous offre la méthode ancienne / traditionnelle). Encore une fois, j'appellerais cela simplement un moyen d'obtenir une valeur p via le bootstrap paramétrique.

Un test de permutation, d'autre part, implique de mélanger vos données observées encore et encore d'une manière qui serait cohérente avec l'hypothèse nulle. Ainsi, par exemple, si l'hypothèse nulle implique que l'affectation de groupe ne fait aucune différence en termes de moyennes de groupe, vous pouvez mélanger aléatoirement les étiquettes de groupe parmi toutes vos observations plusieurs fois et voir quelles différences moyennes vous obtiendriez pour toutes les façons possibles de mélanger de cette façon. Et ensuite, vous verriez où se situe votre véritable statistique observée dans la distribution des statistiques de test calculées à partir de ces ensembles de données mélangés. Notez qu'il existe un nombre fini (mais généralement important) de façons de mélanger vos données réellement observées.

Enfin, le bootstrap non paramétrique est très similaire au test de permutation, mais nous rééchantillonnons les données observées avec remplacementpour essayer de se rapprocher d'une "population" infinie de valeurs dont nos données auraient pu être tirées. Il existe de très nombreuses façons de rééchantillonner à partir de vos données avec remplacement plutôt que de mélanger vos données (même si elles sont techniquement finies dans la pratique également). Encore une fois, comme pour le bootstrap paramétrique, cela se fait généralement non pas sous l'hypothèse nulle, mais sous le modèle impliqué par les données observées, ce qui donne des intervalles de confiance autour des statistiques de test observées, pas des valeurs de p. Mais on pourrait certainement imaginer faire cela sous l'hypothèse nulle comme le suggère Ellis et obtenir des valeurs p de cette manière. A titre d'exemple de bootstrapping ici nonparamétrique (de façon traditionnelle, à savoir, nonsous l'hypothèse nulle) en utilisant le même exemple de différence de groupe que j'ai utilisé dans le paragraphe d'amorçage paramétrique, pour ce faire, nous rééchantillonnerions en remplaçant les observations au sein de chaque groupe plusieurs fois mais sans mélanger les observations entre les groupes (contrairement à la permutation test), et construire la distribution d'échantillonnage des différences moyennes de groupe que nous obtenons de cette façon.

Jake Westfall
la source