Statistiques publiées dans des articles académiques

44

J'ai lu de nombreux articles académiques sur l'évolution / l'écologie, parfois dans le but spécifique de voir comment les statistiques sont utilisées «dans le monde réel» en dehors du manuel. Je prends normalement les statistiques dans les papiers comme évangile et les utilise pour m'aider dans mon apprentissage statistique. Après tout, si un article a pris des années à écrire et a été soumis à un examen par les pairs, alors les statistiques seront-elles sûrement solides? Mais au cours des derniers jours, je me suis interrogé sur mon hypothèse et je me suis demandé à quelle fréquence l'analyse statistique publiée dans des articles scientifiques est-elle suspecte? En particulier, on pourrait s’attendre à ce que ceux qui travaillent dans des domaines tels que l’écologie et l’évolution aient passé moins de temps à apprendre les statistiques et plus de temps à l’apprentissage de leurs domaines.

À quelle fréquence les gens trouvent-ils des statistiques suspectes dans les journaux universitaires?

luciano
la source
18
Les réviseurs sont souvent des personnes qui en savent beaucoup plus sur les statistiques que les rédacteurs du document. Il est donc souvent facile de publier des statistiques médiocres.
Behacad le
9
Obtenir un article publié est le premier pas vers son acceptation par la communauté scientifique, pas le dernier. La plupart des articles publiés comporteront des lacunes importantes dans certains domaines, et l'utilisation des statistiques ne fait pas exception.
Dikran Marsupial
3
Votre hypothèse selon laquelle les documents "prennent des années à écrire" est tout à fait hors de propos. La collecte de données peut prendre beaucoup de temps, mais l’analyse et la rédaction prennent généralement des semaines plutôt que des années.
David Richerby
2
De nos jours, il est de notoriété publique que les statistiques de nombreux articles sur la psychologie et la médecine sont pour le moins discutables, tout à fait fausses ou pas. L'utilisation de p-values ​​et NHST par les hommes pauvres est un exemple frappant des problèmes, voir cette note .
Quartz

Réponses:

38

Après tout, si un article a pris des années à écrire et a été soumis à un examen par les pairs, alors les statistiques seront-elles sûrement solides?

Mon expérience de la lecture d'articles qui tentent d'appliquer des statistiques dans une grande variété de domaines (sciences politiques, économie, psychologie, médecine, biologie, finance, science actuarielle, comptabilité, optique, astronomie et bien d'autres) est que la qualité des L'analyse statistique peut se situer n'importe où dans le spectre, de l'excellent travail bien fait au non-sens flagrant. J'ai vu une bonne analyse dans chacun des domaines que j'ai mentionnés et une analyse assez mal faite dans la quasi-totalité d'entre eux.

Certains journaux sont généralement assez bons, et certains peuvent ressembler davantage à jouer aux fléchettes avec un bandeau sur les yeux - la plupart d’entre eux ne sont peut-être pas trop éloignés de la cible, mais il y en aura quelques-uns dans le mur, le sol et le plafond. Et peut-être le chat.

Je n'ai pas l'intention de nommer les coupables, mais je dirai que j'ai vu des carrières académiques reposant sur une utilisation erronée des statistiques (c'est-à-dire où les mêmes erreurs et incompréhensions ont été répétées, papier après papier, pendant plus de dix ans).

Donc mon conseil est laisser le lecteur se méfier ; ne croyez pas que les éditeurs et les réviseurs savent ce qu'ils font. Avec le temps, vous aurez peut-être une bonne idée des auteurs sur lesquels on peut généralement compter pour ne rien faire de trop choquant, et de ceux qui doivent être traités avec une prudence particulière. Vous pouvez avoir l’impression que certaines statistiques ont des normes très élevées.

Mais même un auteur généralement bon peut faire une erreur, ou bien les arbitres et les éditeurs peuvent ne pas détecter les erreurs qu'ils pourraient normalement trouver; un bon journal peut publier un hurleur.

[Parfois, vous verrez même de très mauvais journaux gagner des prix ou des récompenses ... ce qui ne dit pas grand chose pour la qualité des personnes qui jugent le prix, non plus.]

Je ne voudrais pas deviner ce que la fraction de "mauvaises" statistiques que j'aurais pu voir (sous différentes formes et à chaque étape de la définition de la question, de la conception de l'étude, de la collecte de données, de la gestion de données, etc. analyse et conclusions), mais ce n’est pas assez petit pour que je me sente à l’aise.

Je pourrais citer des exemples, mais je ne pense pas que ce soit le bon forum pour le faire. (Ce serait bien s'il y avait un bon forum pour cela, en fait, mais encore une fois, il deviendrait probablement très politisé très rapidement et ne servirait bientôt plus son but.)

J'ai passé un peu de temps à parcourir PLOS ONE ... et encore une fois, je ne vais pas pointer du doigt des documents spécifiques. Certaines choses que j'ai remarquées: il semblerait qu'une grande partie des articles contiennent des statistiques, probablement plus de la moitié comportant des tests d'hypothèses. Les principaux dangers semblent être de nombreux tests, avec un élevé comme 0,05 sur chacun (ce qui n’est pas automatiquement un problème, du moment que nous comprenons que de très petits effets pourraient se révéler significatifs par hasard), ou incroyablement bas. niveau de signification individuel, ce qui aura tendance à donner une faible puissance. J'ai aussi vu un certain nombre de cas où environ une demi-douzaine de tests différentsα ont apparemment été appliquées pour résoudre exactement la même question. Cela me semble une idée généralement mauvaise. Globalement, la norme était plutôt bonne sur quelques dizaines de journaux, mais j’ai vu un journal absolument terrible.

[Je pourrais peut-être citer un seul exemple, indirectement. Cette question demande de savoir si quelqu'un fait quelque chose de douteux. C'est loin d'être la pire chose que j'ai vue.]

D'autre part, je vois aussi (encore plus souvent) des cas dans lesquels des personnes sont obligées de franchir toutes sortes d'obstacles inutiles pour que leur analyse soit acceptée. les choses parfaitement raisonnables à faire ne sont pas acceptées car il existe une "bonne" façon de faire les choses, selon un critique, un éditeur ou un superviseur, ou simplement dans la culture tacite d'un domaine particulier.

Glen_b
la source
2
" Caveat lector ", vu le nombre croissant de revues en libre accès?
Scortchi - Réintégrer Monica
1
@scortchi J'ai décidé d'éviter le problème en écrivant simplement en anglais. C'est une amélioration.
Glen_b
10
Sans nommer les coupables spécifiques, je pense que faculty.vassar.edu/abbaird/about/publications/pdfs/… mérite une mention. Pour prouver un argument concernant l'utilisation abusive de statistiques dans leur domaine, ils ont utilisé un protocole statistique largement utilisé pour analyser les résultats d'une analyse IRMf d'un saumon mort. Ils ont trouvé une activité cérébrale "statistiquement significative". statisticsdonewrong.com est également une lecture intéressante.
James_pic
1
@James_pic, a dû se joindre à +1 pour ce commentaire pour le lien statisticsdonewrong; la discussion sur l'erreur du taux de base est particulièrement intéressante.
Dan Bryant
1
@KennyPeanuts: Ni - tout en soulignant que de nos jours beaucoup lectores ne sont pas même indirectement Emptores .
Scortchi - Réintégrer Monica
16

Je respecte la position de @ Glen_b sur la bonne façon de répondre ici (et je n’ai certainement pas l’intention de la minimiser), mais je ne peux pas résister à l'idée de citer un exemple particulièrement divertissant et proche de chez moi. Au risque de politiser les choses et de nuire à l'objectif de cette question, je recommande Wagenmakers, Wetzels, Boorsboom et Van Der Maas (2011) . Je l'ai cité dans un article connexe de la bêta SE de Cognitive Sciences ( Comment la science cognitive explique-t-elle l'intentionnalité à distance et le fonctionnement du cerveau chez les receveurs? ), Qui considère un autre exemple de "fléchette qui frappe le chat". L'article de Wagenmakers et de ses collègues commente directement un vrai "hurleur": il a été publié dans JPSP (un des plus grandes revues de psychologie)) il y a quelques années. Ils argumentent également plus généralement en faveur de l'analyse bayésienne et que:

Pour convaincre un auditoire sceptique d'une affirmation controversée, il est nécessaire de mener des études strictement confirmatoires et d'analyser les résultats à l'aide de tests statistiques plus conservateurs que libéraux.

Je n'ai probablement pas besoin de vous dire que cela n'a pas été perçu comme une prédication à la chorale. FWIW, il y a aussi une réfutation (comme il semble toujours y avoir entre Bayésiens et fréquentistes; ( Bem, Utts, & Johnson, 2011 ) , mais j'ai le sentiment que le débat n'a pas été vraiment réussi .

La psychologie en tant que communauté scientifique a récemment fait l'objet d'un peu de réplication, en partie à cause de cette lacune et d'autres lacunes méthodologiques notoires. D'autres commentaires évoquent ici des cas similaires à ce que l'on appelait jadis les corrélations vaudou en neuroscience sociale (comment se fait-il que, dans le cas de BTW politiquement incorrect?, Le document a été renommé; Vul, Harris, Winkielman et Pashler, 2009 ). Cela aussi a attiré sa réfutation , que vous pouvez consulter pour plus de débats sur des pratiques très discutables.

Pour encore plus de loisirs éducatifs aux dépens (plus dépersonnalisés) de (pseudo) statisticiens se conduisant mal, consultez notre question actuellement la 8ème la plus votée ici sur CV avec un autre titre (certes) politiquement incorrect, " Quels sont les péchés statistiques courants? " @MikeLawrence attribue son inspiration à son étude parallèle de la psychologie et des statistiques. C'est l'un de mes favoris personnels, et ses réponses sont très utiles pour vous éviter les innombrables pièges.


Sur le plan personnel, j'ai passé une grande partie de mes cinq derniers mois ici principalement parce qu'il est incroyablement difficile d'obtenir des statistiques fiables sur certaines questions relatives à l'analyse de données. Franchement, l’examen par les pairs n’est souvent pas très rigoureux, en particulier en ce qui concerne l’analyse statistique de la recherche dans les sciences plus jeunes, avec des questions complexes et de nombreuses complications épistémiques. C'est pourquoi j'ai ressenti le besoin d'assumer personnellement la responsabilité de perfectionner les méthodes dans mon propre travail.

En présentant ma thèse , j'ai compris à quel point la responsabilité personnelle de l'examen statistique était importante. Deux psychologues exceptionnels de mon alma mater ont déclaré que je commettais l’ un des péchés les plus fondamentaux dans mon interprétation des corrélations. Je m'étais imaginé au-dessus de moi et je l'avais déjà présenté plusieurs fois à des étudiants de premier cycle, mais j'y suis quand même allé et j'ai été appelé (tôt, merci, mon Dieu). J'y suis allé parce que les recherches que je passais en revue et les reproduisais y sont allées! Ainsi, j'ai fini par ajouter plusieurs sections à ma thèse cela a incité les autres chercheurs à supposer que la causalité reposait sur des études longitudinales quasi expérimentales (parfois même à partir de corrélations transversales) et à ignorer prématurément d'autres explications.

Mon comité, qui comprenait un autre psychométricien exceptionnel et le futur président du SPSP (qui publie JPSP), a accepté ma thèse, mais, pour être franc, je ne me vanterai pas de le dire. Depuis, j’ai réussi à percer plusieurs failles dans mes propres méthodes malgré le passage du processus de révision externe avec de très bons relecteurs. Je suis maintenant tombé dans la partie profonde des statistiques en essayant de les associer à des méthodes plus appropriées pour la modélisation prédictive des notations de Likert telles que l'analyse SEM, IRT et l'analyse non paramétrique (voir Tests de régression après réduction de la dimension).). Je choisis volontairement de passer des années sur un document que je pourrais probablement simplement publier tel quel à la place ... Je pense qu'il me reste même une étude de simulation à faire avant que je puisse procéder consciencieusement.

Cependant, j’insiste sur le fait que c’est facultatif - peut-être même un excès de zèle et un luxe coûteux au sein de la culture «publier ou périr» qui met souvent l’accent sur la qualité plutôt que sur la qualité dans les dossiers de travail en début de carrière. L'application erronée de modèles paramétriques pour des données continues à des distributions de données ordinales contraires à l'hypothèse est trop fréquente, de même que l'interprétation erronée et la représentation erronée de la signification statistique (voir la section Prise en compte des vues enchâssées sur les valeurs p ). Je pourrais tout à fait m'en sortir (à court terme) ... et ce n'est même pas si difficile de faire mieux que ça. Je suppose que je dois remercier pour plusieurs avancées récentes dans les programmes R! En espérant que les temps changent.


Références
· Bem, DJ, Utts, J., et Johnson, WO (2011). Les psychologues doivent-ils changer la façon dont ils analysent leurs données? Journal de la personnalité et de la psychologie sociale, 101 (4), 716–719. Extrait de http://deanradin.com/evidence/Bem2011.pdf .
· Vul, E., Harris, C., Winkielman, P., & Pashler, H. (2009). Des corrélations étonnamment élevées dans les études IRMf sur les émotions, la personnalité et la cognition sociale. Perspectives on Psychological Science, 4 (3), 274-290. Extrait de http://www.edvul.com/pdf/VulHarrisWinkielmanPashler-PPS-2009.pdf .
·Wagenmakers, EJ, R. Wetzels, D. Borsboom et H. Van der Maas (2011). Pourquoi les psychologues doivent-ils changer la façon dont ils analysent leurs données? Le cas du psi. Journal de la personnalité et de la psychologie sociale, 100 , 426-432. Extrait de http://mpdc.mae.cornell.edu/Courses/MAE714/Papers/Bem6.pdf .

Nick Stauner
la source
1
Si vous avez aimé "Feeling the Future", alors vous pourriez aimer Witztum et al. (1994), "Séquences de lettres équidistantes dans le livre de la Genèse", Statist. Sci. , 9 , 3 . Il a attiré les inévitables moqueurs et non-Sayers: McKay et. Al. (1999), "Résoudre le puzzle du code biblique", Statist. Sci. , 14 , 2 .
Scortchi - Réintégrer Monica
1
@Scortchi: merci pour la référence, et amibe: merci pour le contexte. Je ne vois pas la revendication dans Witzum et al. que McKay et al. se moquent de dans leur résumé, mais ils soulignent certainement beaucoup d'autres défauts graves. Bon produit. "Alors que de vraies données peuvent confondre les attentes des scientifiques même lorsque leurs hypothèses sont correctes, celles dont les expériences sont systématiquement biaisées par rapport à leurs attentes sont moins souvent déçues (Rosenthal, 1976)". C'est l'un des gars qui m'a appelé sur l'inférence causale basée sur des quasi-expériences ... un psychologue vraiment génial. Bem a un peu de crédit aussi.
Nick Stauner
2
+1 Excellent post. " quelle est l'importance de la responsabilité personnelle dans l'examen statistique " - je dois applaudir. En fin de compte, c’est là que la responsabilité incombe, aussi onéreuse que possible, à une personne qui tente déjà de travailler dans un domaine de recherche auquel elle souhaite appliquer des statistiques.
Glen_b
1
@ NickStauner: McKay et al. dire dans leur résumé que Witzum et al. prétendent que "le texte hébreu du Livre de la Genèse code des événements qui ne se sont produits que plusieurs millénaires après sa rédaction". Légère hyperbole peut-être, car il reste un peu plus de deux millénaires au maximum entre la rédaction de la Torah et la date de naissance du dernier rabbin de leur liste, mais un résumé assez juste. (Je suppose que vous pourriez également voir le document de Witztum et al. Comme preuve de la récente création du Livre de la Genèse, bien que personne ne l'ait fait jusqu'à présent.)
Scortchi - Réintégrer Monica
1
Oui, je suppose que je ne pouvais pas comprendre Witzum et al. assez bien pour reconnaître qu'ils faisaient cette réclamation. Pour une fois, je suppose que je pourrais être reconnaissant pour l'écriture obtuse des auteurs ... Cela semble un peu plus intéressant à première vue, car l'affirmation la plus évidente est que le motif n'est pas dû au hasard, ni à ce qu'il est censé être dû à leur avis. Il aurait pu inviter des interprétations plus intéressantes comme la vôtre si McKay et al. disons que ça le fait ... au moins jusqu'à ce que McKay et al. abattus pour des raisons méthodologiques, ne laissant rien qui mérite d'être interprété.
Nick Stauner
5

Je me souviens que, à l’Université, quelques étudiants en sciences sociales de dernière année avaient demandé à différentes occasions (l’un d’eux avait une 1ère) de déterminer une moyenne pour leur projet comportant une poignée de points de données. (Ils ne rencontraient donc pas de problème avec l'utilisation d'un logiciel, mais simplement avec le concept de calcul mathématique avec une calculatrice.)

Ils me donnent juste des regards vides quand je leur demande quel type de moyenne ils voulaient.

Pourtant, ils ont tous ressenti le besoin de mettre des statistiques dans leur rapport, car c’était chose faite - je suppose qu’ils ont tous lu 101 articles qui contiennent des statistiques sans penser à ce que les statistiques signifiaient.

Il est clair que le chercheur qui leur a enseigné au cours des trois années ne s'est pas suffisamment soucié de l'exactitude des statistiques pour distiller la compréhension des élèves.

(J'étais étudiant en science informatique à l'époque. Je poste ceci comme réponse car c'est un peu long pour un commentaire.)

Ian Ringrose
la source
Les étudiants sont un tout autre tonneau de singes, IMO. Je ne blâmerais pas immédiatement l'enseignant pour son manque de compréhension sans preuves supplémentaires ... mais s'il est aussi clair que vous dites que l'enseignant est à blâmer, je ne serais pas surpris non plus.
Nick Stauner
@ NickStauner, je reproche à l'enseignant de ne pas se soucier assez des statistiques; s’ils le souhaitaient, il y aurait au moins une question sur chaque épreuve nécessitant une certaine compréhension des statistiques, au niveau de «Comment mentir avec des statistiques». Je me fiche de savoir si les étudiants en sciences sociales savent comment faire le calcul, mais ils devraient savoir comment ne pas se laisser induire en erreur.
Ian Ringrose
Ils ont convenu qu'ils devraient savoir, mais rien ne garantit qu'ils répondront à cette question!
Nick Stauner
@ NickStauner, oui, mais vous n'obtenez que ce que la mesure, vous ne obtiendrez donc pas les étudiants qui comprennent quoi que ce soit sur les statistiques, sauf si vous le mettez dans les examens.
Ian Ringrose
Encore une fois, j'ai tendance à accorder moins de crédit aux enseignants pour les résultats des élèves. Beaucoup d'élèves (d'accord, peut-être pas "beaucoup", mais certains) se soucieront suffisamment d'apprendre pour eux-mêmes, et certains viendront en classe sachant déjà une bonne partie du matériel. Pardonnez-moi si j'interprète votre commentaire trop absolument cependant; Je conviens que c’est souvent un mal nécessaire que de forcer la motivation des élèves à apprendre, et que les tests sont un meilleur moyen d’apprendre que les études / conférences répétitives.
Nick Stauner
0

En tant que liste malheureusement incomplète, je trouve les statistiques les plus souvent correctes dans 1) les articles de physique suivis de 2) les articles de statistiques et le plus misérable dans 3) les articles de médecine. Les raisons en sont simples et ont trait à la complétude des exigences imposées au modèle prototype dans chaque domaine.

Dans les articles de physique, les équations et les statistiques appliquées doivent prêter attention aux unités équilibrées et sont les causes les plus fréquentes de relations de cause à effet et de tests par rapport à des standards physiques.

En statistique, 1) les unités et la causalité sont parfois ignorées, les hypothèses sont parfois heuristiques et les tests physiques sont trop souvent ignorés, mais l'égalité (ou les inégalités), c'est-à-dire que la logique est généralement préservée le long d'un chemin inductif, où celle-ci ne peut pas corriger hypothèses non physiques.

En médecine, les unités sont généralement ignorées, les équations et les hypothèses sont généralement heuristiques, généralement non vérifiées et souvent fausses.

Naturellement, un domaine tel que la mécanique statistique est plus susceptible d’avoir des hypothèses vérifiables que, disons, l’économie, et cela ne reflète pas le talent des auteurs potentiels dans ces domaines. Cela dépend davantage de ce qui est réellement testable et de ce qui a été fait historiquement dans chaque domaine.

Carl
la source
-7

Tout article qui réfute l'hypothèse nulle nulle utilise des statistiques sans valeur (la grande majorité de ce que j'ai vu). Ce processus ne peut fournir aucune information non fournie par la taille de l'effet. De plus, cela ne nous dit pas si un résultat significatif est réellement dû à la cause théorisée par le chercheur. Cela nécessite une enquête approfondie des données afin de mettre en évidence des facteurs de confusion. Le plus souvent, si elles sont présentes, les preuves les plus solides sont même considérées comme des "valeurs aberrantes".

Je ne connais pas très bien l’évolution / l’écologie, mais dans le cas de la recherche psychologique et médicale, j’appellerais le niveau de compréhension statistique «très confus» et «un obstacle au progrès scientifique». Les gens sont supposés réfuter quelque chose que leur théorie prédit, et non l'inverse (différence / effet nul).

Des milliers d'articles ont été écrits sur ce sujet. Rechercher la controverse hybride NHST.

Edit: Et je veux dire que le test de signification de l'hypothèse de nullité nulle a une valeur scientifique maximale de zéro. Cette personne frappe le clou sur la tête:

http://www.johnmyleswhite.com/notebook/2012/05/18/criticism-4-of-nhst-no-mechanism-for-producing-substantive-cumulative-knowledge/

Aussi: Paul Meehl. 1967. Tests théoriques en psychologie et physique: un paradoxe méthodologique

Edit 3:

Si quelqu'un a des arguments en faveur de l'utilité de Strawman NHST qui n'exigent pas de penser, "rejetez l'hypothèse selon laquelle le taux de réchauffement est identique, mais NE PRENEZ PAS ceci pour dire que le taux de réchauffement n'est pas le même" est une raison rationnelle. déclaration, je serais heureux de recevoir vos commentaires.

Edit 4:

Que voulait dire Fisher dans la citation suivante? Est - il suggère qu'il pensait « Si le modèle / théorie A est incompatible avec les données, nous pouvons dire est faux, mais rien si non A est vrai »?

"il est certain que l'intérêt des tests statistiques pour les travailleurs scientifiques dépend entièrement de leur utilisation pour rejeter des hypothèses qui sont ainsi jugées incompatibles avec les observations."

...

Cela ajouterait donc beaucoup à la clarté avec laquelle les tests de signification sont considérés s'il était généralement compris que les tests de signification, lorsqu'ils sont utilisés avec précision, sont capables de rejeter ou d'invalider des hypothèses, dans la mesure où elles sont contredites par les données. ; mais qu'ils ne sont jamais capables de les établir comme certainement vrais

Karl Pearson et RA Fisher sur des tests statistiques: Un échange de 1935 de la nature

Est-ce qu'il a supposé que les gens n'essaieraient que d'invalider des hypothèses plausibles plutôt que des hommes de paille? Ou ai-je tort?

Livide
la source
7
"Ce processus ne peut fournir aucune information non encore fournie par la taille de l'effet." ceci est incorrect, la valeur p fournit des informations sur le caractère inhabituel de cette taille d'effet dans l'hypothèse nulle, ainsi elle fournit un élément de calibration de la taille d'effet. Ne me comprenez pas mal, je pense que les facteurs de Bayes sont plus utiles, mais c’est une hyperbole de dire que la valeur p est une statistique sans valeur.
Dikran Marsupial
3
"Je trouve que tous les modèles que je remarque (ainsi que d’autres) valent la peine d’être mentionnés", c’est exactement le problème qui se pose dans la discussion sur le climat sur les blogs. et le rapport signal sur bruit dans le débat ne sert à rien de ne pas avoir d'obstacle à ce qu'une idée soit dépassée avant de la publier sur un blog! C'est un domaine de la science où les statistiques sont souvent très médiocres.
Dikran Marsupial le
2
Livid, je vous ai donné un exemple concret de cas où effectuer un NHST approprié avec un "homme de paille" H0 serait bénéfique pour la discussion d'un sujet scientifique. Cela fournit un contre - clair qui démontre votre point de vue est incorrect - NHSTs, comme entachés d'une erreur qu'ils sont, n'effectuer néanmoins une fonction utile dans la science et les statistiques. Maintenant, si vous pouvez démontrer que mon contre-exemple est correct, cela peut contribuer à résoudre le problème.
Dikran Marsupial
2
@Livid, NHST remplit une fonction scientifique et statistique et non socialement souhaitable (bien que pas optimale) et ne pose pas d'obstacle arbitraire, le défi est généralement défini par son opposition à H1 et n'implique pas de commettre "l'affirmation du conséquent" "erreurs" comme rejeter H0 n'implique pas que H1 soit vrai. Donc non, ce n'est pas précis.
Dikran Marsupial
3
Vous manquez le point. Si vous avez un obstacle bas, personne ne sera surpris si vous pouvez le négocier avec succès. Cependant, si vous avez un faible obstacle, mais que vous ne pouvez toujours pas le surmonter, cela vous dit quelque chose. Comme je l'ai répété à maintes reprises, rejeter la valeur NULL n'implique pas que H1 est vraie. Rejeter H0 ne signifie donc pas qu'il y a une pause, cela ne vous dit pas pourquoi il y a eu une pause. Mais si vous ne pouvez pas surmonter l’obstacle de pouvoir rejeter H0, cela suggère que les preuves sont peut-être insuffisantes pour affirmer que H1 est un fait (ce qui est le cas en l’occurrence).
Dikran Marsupial