J'ai à maintes reprises rejeté ou omis de rejeter l'hypothèse nulle. En cas de non-rejet du cas, vous concluez qu'il n'y a pas suffisamment de preuves pour le rejet et vous "continuez" (c.-à-d., Soit recueillir plus de données, mettre fin à l'expérience, etc.,)
Mais lorsque vous "rejetez" l'hypothèse nulle, fournissant des preuves de l'hypothèse alternative, vous ne pouvez pas vraiment "prouver" que votre hypothèse alternative est vraie.
Alors, quelles sont les prochaines étapes communes une fois que vous rejetez l'hypothèse nulle? Quels outils / techniques adopte-t-on pour «analyser le problème plus en profondeur» afin de rendre les conclusions plus concluantes? Quelles sont les «prochaines étapes» logiques en tant que statisticien justifiant une analyse plus approfondie?
Par exemple:
(disons que nous connaissons la direction attendue)
Une fois que nous rejetons l'hypothèse nulle à un certain niveau de signification, nous avons «certaines preuves» pour que l'alternative soit vraie, mais nous ne pouvons pas tirer cette conclusion. Si je veux vraiment tirer cette conclusion de manière concluante (pardonnez le double jeu de mots) que dois-je faire?
Je n'ai jamais réfléchi à cette question pendant mes études de premier cycle, mais maintenant que je fais pas mal de tests d'hypothèses, je ne peux pas m'empêcher de me demander ce qui nous attend :)
la source
Réponses:
Vous pouvez généralement continuer à améliorer votre estimation de tout paramètre que vous pourriez tester avec plus de données. Arrêter la collecte de données une fois qu'un test atteint un certain degré de signification semi-arbitraire est un bon moyen de faire de mauvaises inférences. Le fait que les analystes puissent mal comprendre un résultat significatif comme signe que le travail est fait est l'une des nombreuses conséquences imprévues du cadre de Neyman-Pearson, selon lequel les gens interprètent les valeurs de p comme une cause de rejet ou d'échec de rejet d'un null sans réserve en fonction de de quel côté du seuil critique ils tombent.
Sans considérer les alternatives bayésiennes au paradigme fréquentiste (j'espère que quelqu'un d'autre le fera), les intervalles de confiance continuent d'être plus informatifs bien au-delà du point où une hypothèse nulle de base peut être rejetée. En supposant que la collecte de plus de données rendrait votre test de signification de base encore plus significatif (et ne révélerait pas que votre découverte de signification antérieure était un faux positif), vous pourriez trouver cela inutile parce que vous rejetteriez le null de toute façon. Cependant, dans ce scénario, votre intervalle de confiance autour du paramètre en question continuerait de diminuer, améliorant le degré de confiance avec lequel vous pouvez décrire précisément votre population d'intérêt.
Voici un exemple très simple en r - testant l'hypothèse nulle que pour une variable simulée:μ = 0
t.test(rnorm(99))
rnorm
set.seed(8);t.test(rnorm(99,1))
mu=.8
set.seed(8);t.test(rnorm(999,1),mu=.8)
set.seed(9);t.test(rnorm(999,1),mu=.9)
Tester progressivement des hypothèses nulles plus strictes, ou mieux encore, se concentrer uniquement sur la réduction de vos intervalles de confiance n'est qu'une façon de procéder. Bien sûr, la plupart des études qui rejettent les hypothèses nulles jettent les bases d'autres études qui s'appuient sur l'hypothèse alternative. Par exemple, si je testais une autre hypothèse selon laquelle une corrélation est supérieure à zéro, je pourrais tester des médiateurs ou des modérateurs dans une étude de suivi suivante ... et pendant que j'y suis, je voudrais certainement m'assurer Je pourrais reproduire le résultat d'origine.
Une autre approche à considérer est le test d' équivalence . Si vous souhaitez conclure qu'un paramètre se situe dans une certaine plage de valeurs possibles, et pas seulement différente d'une seule valeur, vous pouvez spécifier cette plage de valeurs dans laquelle vous souhaitez que le paramètre se situe conformément à votre hypothèse alternative conventionnelle et le tester contre un ensemble différent d'hypothèses nulles qui représentent ensemble la possibilité que le paramètre se trouve en dehors de cette plage. Cette dernière possibilité pourrait être plus similaire à ce que vous aviez en tête lorsque vous avez écrit:
set.seed(8)
rnorm(99)
rnorm(99,1)-1
tost
rnorm(999)
Je pense toujours que l'intervalle de confiance est plus intéressant que le résultat du test d'équivalence. Elle représente ce que les données suggèrent que la moyenne de la population est plus spécifiquement que l'hypothèse alternative, et suggère que je peux être raisonnablement convaincu qu'elle se situe dans un intervalle encore plus petit que celui que j'ai spécifié dans l'hypothèse alternative. Pour démontrer, je vais abuser de mes pouvoirs de simulation irréalistes une fois de plus et "répliquer" en utilisant
set.seed(7);tost(rnorm(999),epsilon=.09345092)
: bien sûr, p = .002.la source
Notez d'abord que @Nick Stauner avance des arguments très importants concernant l' arrêt facultatif . Si vous testez les données à plusieurs reprises au fur et à mesure que des échantillons entrent, en s'arrêtant une fois qu'un test est significatif, vous êtes presque assuré d'un résultat significatif. Cependant, un résultat garanti est pratiquement sans valeur.
Dans ce qui suit, je présenterai mes meilleures tentatives pour élaborer une position déductiviste, sceptique et falsificationniste. Ce n'est certainement pas le seul, mais je pense que c'est plutôt un courant dominant, ou au moins un avec un peu de tradition.
D'après ce que je comprends, Fisher a initialement introduit des tests de signification comme première étape de l'exploration des données - établir quels facteurs pourraient être étudiés plus avant. À moins que l'hypothèse nulle que vous avez mise à l'épreuve ne soit en réalité l'hypothèse critique sur laquelle votre théorie préférée reposait (peu probable), en un sens, votre test initial était plutôt de nature exploratoire. Parmi les étapes possibles après l'exploration, je vois
Une exploration plus approfondie consiste en des tests de suivi où vous essayez de déduire si des variables sur lesquelles vous avez des informations modèrent ou interagissent avec votre effet. Par exemple, l'âge des participants joue peut-être un rôle? Notez que ces analyses doivent être clairement étiquetées comme exploratoires, ou elles reviennent essentiellement à mentir. Si vous tombez sur quelque chose, cela nécessite d'abord une confirmation. En règle générale, vous devez toujours être clair - à la fois dans vos pensées et dans vos écrits - sur le moment où vous travaillez exploratoire et sur la confirmation.
Ensuite, une fois que vous avez établi que vous n'avez aucune confiance dans la valeur d'un paramètre qui est précisément zéro - une fois que vous aurez décidé que vous considérerez pour l'instant le facteur testé comme ayant une certaine influence - une prochaine étape réalisable pourrait être d' estimer davantage la valeur précise du paramètre . Par exemple, pour l'instant, vous n'avez exclu qu'une seule valeur, 0 (en supposant un test bilatéral). Cependant, vos données mettent également en doute de nombreuses autres valeurs possibles.
Hume a fait valoir que nous ne pourrions jamais prouver par induction une affirmation correcte. En général, les hypothèses non triviales sont toujours beaucoup plus faciles à falsifier qu'à soutenir; être facile à falsifier en principe (en étant non trivial, faire des prédictions précises), mais pourtant ne pas être falsifié jusqu'à présent est en fait l'une des vertus les plus élevées d'une théorie.
Un CI ne vous permettra donc pas de prouver une valeur spécifique. Cependant, cela réduit l'ensemble des candidats. Peut-être que les seuls candidats laissés en vie vous aident à choisir entre deux théories incompatibles avec H0. Par exemple, peut-être 0 est exclu, mais la théorie 1 prédit une valeur autour de 5, et la théorie 2 prédit une valeur autour de 15. Si votre IC à 95% inclut 5, mais exclut 15, vous avez maintenant également perdu confiance en la théorie 2, mais la théorie 1 reste dans le match. Notez que cela est en fait indépendant du fait que votre test initial soit significatif - même si 0 fait partie des valeurs non rejetées, de nombreuses valeurs seront rejetées. Peut-être pour certains autres chercheurs, certaines de ces valeurs étaient intéressantes.
Après avoir ainsi quelque peu précisé votre compréhension de l'effet à portée de main, vous pourriez idéalement faire une prédiction plus précise pour une expérience de confirmation de suivi qui viserait à tester une hypothèse plus précise que vous pouvez déduire de votre analyse actuelle. Certes, le rejet de votre hypothèse nulle statistique initiale n'était pas si sévère qu'un test de votre hypothèse de recherche d' origine , n'est-ce pas? Beaucoup plus d'explications que celle que vous préférez ne dépendent pas de H0. De plus, comme vous n'avez jamais été en danger d'accepter réellement H0, vous n'étiez pas en mesure de falsifier votre théorie préférée! Vous avez donc besoin d'un test plus sévère. Sans doute, c'est en fait ce que vous voulez; vous ne voulez pas prouver votre théorie, vous voulez la soumettre à des tests de plus en plus sévères, en essayant de la falsifier. En dépit de ces efforts authentiques (mais équitables) pour réfuter, c'est le meilleur qu'une théorie puisse offrir. Mais pour un test sévère, vous avez besoin d'une théorie plus précise que "0 ce n'est pas".
Vous avez maintenant appris plusieurs faits importants concernant une étude de confirmation; par exemple, vous avez une idée de la variance et de l'ampleur de l'effet en question, ce qui vous permet d'estimer la taille d'échantillon requise pour une étude de suivi via une analyse de puissance. Vous pouvez également prédire une valeur spécifique et supposer une région d'équivalence pratique / CORDE autour d'elle. Vous ne pourrez jamais prouver que cette valeur spécifique est la vraie valeur; cependant, si l'IC d'une expérience de suivi relève entièrement de votre CORDE, vous avez des preuves corroborantes de votre théorie (et cela a peut-être causé des ennuis à la concurrence).
la source
L'idée que vous ne pouvez pas prouver une proposition scientifique positive, mais seulement la réfuter, est un principe du falsificationnisme de Popper . Je suis d'accord pour dire que vous ne pouvez pas prouver qu'un effet est exactement égal à une valeur ponctuelle donnée (cf., ma réponse ici: pourquoi les statisticiens disent-ils qu'un résultat non significatif signifie "vous ne pouvez pas rejeter le nul" au lieu d'accepter l'hypothèse nulle? ). Mais alors quoi?
Vous pouvez toujours former des intervalles de confiance pour obtenir une image plus claire de la précision de votre estimation et continuer à collecter plus de données pour augmenter sa précision. Néanmoins, en termes économiques, vous obtiendrez des rendements décroissants . À un moment donné, vous ne croyez tout simplement pas que l'hypothèse nulle fournit une explication raisonnable du phénomène à l'étude. Dans ce cas, pourquoi vous embêtez?
S'il y en a d'autres dans votre domaine qui ne sont pas encore convaincus, mais qui seraient avec plus (des mêmes) données, alors vous pourriez continuer, mais cela semble être une situation inhabituelle. Il me semble plus probable que les sceptiques ont d'autres préoccupations de fond quant à savoir si cette piste d'enquête est suffisamment informative sur la question sous-jacente. Ainsi, vous devez déterminer la nature de ces préoccupations et, si vous pensez qu'elles méritent le travail, rechercher différentes données qui répondent plus adéquatement aux problèmes en question. Par exemple, vous pouvez essayer de reproduire la constatation en utilisant une mesure différente, dans un paramètre différent et / ou avec des conditions de contrôle différentes.
En revanche, tout le monde (plus ou moins) peut être satisfait de vos données et conclusions (félicitations!). Dans de telles circonstances heureuses, vous pouvez suivre deux directions pour faire avancer votre programme de recherche:
Une approche réductionniste chercherait à comprendre les mécanismes qui produisent l'effet que vous avez établi. En termes statistiques, vous rechercherez souvent des médiateurs et / ou un affinement du schéma des forces causales qui relient les variables dont vous avez montré qu'elles étaient liées.
tl; dr: Si vous avez suffisamment de preuves pour vos fins que la nullité est fausse, déterminez à quelles autres questions théoriquement motivées vous pourriez essayer de répondre et passer à autre chose.
la source
Je pense que j'aimerais ajouter que votre question me rappelle mon moi plus jeune: je voulais désespérément prouver mon hypothèse parce que je n'ai pas comment écrire "l'hypothèse était fausse" d'une manière qui a aidé à améliorer le papier que j'écrivais . Mais alors j'ai réalisé que «ma putain d'hypothèse absolument charmante ne peut pas être prouvée» a aussi une valeur scientifique: 1. Réfléchissez à la raison pour laquelle votre hypothèse ne tient pas la route. C'est un problème avec les données, ou probablement quelque chose avec l'hypothèse elle-même? 2. Quelles sont les conséquences pour les recherches plus anciennes?
À titre d'exemple: j'ai écrit ma thèse de maîtrise sur le conflit ethnique en utilisant un ensemble de données alors nouveau qui était plus grand que les ensembles de données précédents. J'ai testé plusieurs hypothèses contestées comme «le pétrole alimente les conflits ethniques» ou «les regrets d'alpinisme sont plus susceptibles d'expérimenter les conflits». Je n'ai pas pu prouver que le pétrole alimente les conflits ethniques - mais j'ai écrit deux pages sur l'impact de la qualité de l'ensemble de données sur le pétrole disponible sur l'analyse (l'ensemble de données lui-même est une série chronologique, l'ensemble de données sur les puits de pétrole ne l'est pas). La thèse "les montagnes provoquent des conflits" a également été un échec - mais fructueux: des recherches antérieures ont analysé cette thèse avec des données nationales (par exemple, la hauteur moyenne du pays),
Gardez à l'esprit: réfuter une hypothèse n'est pas un échec mais un résultat aussi bon qu'une hypothèse prouvée.
la source
Il existe une méthode pour peigner les probabilités entre les études décrites ici . Vous ne devez pas appliquer la formule à l'aveugle sans tenir compte de la structure des résultats.
la source