J'ai rencontré cette citation à plusieurs reprises:
Consulter le statisticien après la fin d'une expérience revient souvent à lui demander de procéder à un examen post mortem. Il peut peut-être dire de quoi l'expérience est morte. - Ronald Fisher (1938)
Cela me semble peut-être un peu présomptueux. Les seuls exemples que j'ai jamais trouvés décrivant comment les expériences meurent sans une bonne conception sont autour du manque de contrôles ou de mauvais contrôles. Par exemple, des expériences qui contrôlent l'application d'un engrais, mais ne contrôlent pas l'environnement requis pour l'application. C'est peut-être juste moi, mais il semble qu'une lecture rapide de la section Wikipedia sur les principes de conception de Fisher couvrirait la plupart des bases.
En tant que statisticien, à quelle fréquence voyez-vous la conception de problèmes liés aux expériences avec les données? Sont-ils toujours liés aux quelques facteurs mentionnés par Fisher, ou y a-t-il d'autres pièges graves que nous, scientifiques non qualifiés en statistique, devrions rechercher?
la source
Réponses:
Je crois que ce que Fisher a voulu dire dans sa célèbre citation va au-delà de dire "Nous ferons une conception factorielle complète pour notre étude" ou une autre approche de conception. Consulter un statisticien lors de la planification de l'expérience signifie penser à tous les aspects du problème de manière intelligente, y compris l'objectif de la recherche, quelles variables sont pertinentes, comment les collecter, la gestion des données, les écueils, l'évaluation intermédiaire du déroulement de l'expérience et bien plus encore plus. Souvent, je trouve important de voir concrètement tous les aspects de l'expérience proposée pour vraiment comprendre où se situent les difficultés.
Mon expérience provient principalement des applications médicales. Certains des problèmes que j'ai rencontrés qui auraient pu être évités en consultant un statisticien au préalable:
Souvent, les problèmes d'une étude remontent encore plus loin, à la conception initiale de la recherche:
Jusqu'à présent, cela ressemble principalement à la souffrance du statisticien et peut-être à l'intégrité scientifique lorsque le PI essaie de pousser des conclusions non étayées par les données (toujours une discussion amusante). Mais l'équipe expérimentale souffre également, car elle fait un travail supplémentaire inutile (tout en ne faisant pas le travail nécessaire) pendant la phase expérimentale et doit passer beaucoup plus de temps à discuter avec son statisticien après coup, car elle n'a pas obtenu ses conseils avant. Et bien sûr, le document final sera pire, aura moins de conclusions (et plus de "conjectures") et ne fera probablement pas partie de la revue à fort impact que l'IP voulait.
la source
Deux mots: Taille de l'échantillon ... Une analyse de puissance est un must. En incluant un statisticien compétent dans votre équipe dès le départ, vous vous épargnerez probablement beaucoup de frustration lorsque vous rédigez les résultats et les sections de discussion de votre manuscrit ou rapport.
Il est bien trop courant qu'un chercheur principal recueille des données avant de consulter un statisticien dans l'attente d'un «modèle prédictif» ou d'une «relation causale» à partir d'un échantillon de moins de 30 sujets. Si l'IP avait consulté un statisticien avant de recueillir des données, le statisticien aurait pu informer l'IP, après des analyses appropriées, de recueillir davantage de données / sujets ou de restructurer les objectifs de son plan / projet d'analyse.
la source
Je suppose que cela dépend de la façon dont vous interprétez strictement le mot «conception». Il est parfois considéré comme signifiant des blocs complètement randomisés contre des blocs randomisés, etc. Je ne pense pas avoir vu une étude qui en soit morte. De plus, comme d'autres l'ont mentionné, je soupçonne que «mort» est trop fort, mais cela dépend de la façon dont vous interprétez le terme. J'ai certainement vu des études qui étaient «non significatives» (et que les chercheurs n'ont pas essayé de publier par la suite); dans l'hypothèse que ces études auraient pu être «significatives» si elles avaient été menées différemment (selon des conseils évidents que j'aurais donnés), et donc publiées, pourraient être qualifiées de «décédées». À la lumière de cette conception, le problème de puissance soulevé par @RobHall et @MattReichenbach est assez simple, mais la puissance de l'échantillon est plus importante que la taille de l'échantillon, et celles-ci pourraient s'inscrire dans une conception plus souple du «design». Voici quelques exemples:
Ne recueillant / enregistrant / ni ne jetant pas d'informations,
j'ai travaillé sur une étude où les chercheurs souhaitaient savoir si un trait particulier était lié à un cancer. Ils ont obtenu des souris à partir de deux lignées (c.-à-d., Des lignées génétiques, les souris ont été élevées pour certaines propriétés) où une lignée devait avoir plus du trait que l'autre. Cependant, le trait en question n'a pas été réellement mesuré, même s'il aurait pu l'être. Cette situation est analogue à la dichotomisation ou au regroupement d'une variable continue, ce qui réduit la puissance. Cependant, même si les résultats étaient «significatifs», ils seraient moins instructifs que si nous connaissions l'ampleur du trait pour chaque souris.
Un autre cas dans cette même rubrique n'est pas de penser et de rassembler des covariables évidentes.
Mauvaise conception du questionnaire
J'ai récemment travaillé sur une étude où une enquête de satisfaction des patients était administrée sous deux conditions. Cependant, aucun des éléments n'a fait l'objet d'une notation inversée. Il est apparu que la plupart des patients venaient de descendre la liste et marquaient tous les 5 ( fortement d'accord ), peut-être même sans lire les articles. Il y avait d'autres problèmes, mais c'est assez évident. Curieusement, le boursier chargé de mener l'étude m'a dit que sa participation l'avait explicitement encouragée à ne pas examiner d'abord l'étude avec un statisticien, même si nous sommes libres et facilement disponibles pour une telle consultation.
la source
J'ai vu ce genre de problème dans des expériences de type enquête et psychologiques.
Dans un cas, l'expérience entière a dû être mise à la craie pour une expérience d'apprentissage. Il y a eu des problèmes à plusieurs niveaux qui ont abouti à une confusion de résultats, mais des résultats qui semblaient étayer quelque peu l'hypothèse. Finalement, j'ai pu aider à planifier une expérience plus rigoureuse, qui avait essentiellement assez de pouvoir pour rejeter l'hypothèse.
Dans l'autre cas, on m'a remis une enquête qui avait déjà été conçue et exécutée, et il y avait plusieurs problèmes qui ont eu pour conséquence que plusieurs domaines d'intérêt ont été affectés. Dans un domaine clé, par exemple, ils ont demandé combien de fois les clients ont été renvoyés d'un événement parce qu'il était plein à leur arrivée. Le problème est qu'il n'y a pas d'intervalle de temps sur la question, vous ne pouvez donc pas faire la différence entre quelqu'un qui a essayé d'assister 4 fois et qui s'est vu refuser 4 fois et quelqu'un qui a essayé d'assister 40 fois et qui n'a été refusé que 4 fois .
Je ne suis pas un statisticien qualifié, de la capitale, mais s'ils m'avaient contacté au préalable, j'aurais pu les aider à résoudre ces problèmes et à obtenir de meilleurs résultats. Dans le premier cas, cela aurait quand même été décevant, "Désolé, votre hypothèse semble extrêmement improbable", mais cela aurait pu leur faire économiser une seconde expérience. Dans le second cas, cela leur aurait donné des réponses à certaines questions importantes et aurait rendu les résultats plus nets. (Un autre problème qu'ils ont rencontré est qu'ils ont enquêté sur plusieurs sites au fil du temps et qu'au moins certaines personnes ont donc été interrogées plusieurs fois, sans poser de question comme "Avez-vous mené cette enquête ailleurs?")
Peut-être pas des problèmes statistiques en soi, mais dans ces deux cas, des experts du domaine intelligents et bien formés ont créé des instruments qui étaient défectueux, et les résultats ont été une expérience morte et une expérience avec des membres amputés.
la source