Je suis un biostatisticien travaillant dans un domaine appliqué et je suis responsable de la rédaction de la section des méthodes statistiques pour les articles sur lesquels je collabore. En lisant de nombreux articles universitaires, je suis tombé sur de nombreux exemples de sections de statistiques mal écrites (la plupart du temps, elles sont ennuyeuses, peu informatives et manquent de précision, de détails et de compréhension de la méthodologie utilisée).
Quels que soient le sujet et la sophistication des méthodes statistiques utilisées, quels sont de bons exemples de sections statistiques bien écrites dans des articles de recherche appliquée?
Comment définir "bien écrit" est subjectif, mais je décrirais une section de statistiques aussi bien écrite si elle est lucide, donne (ou semble donner) une image complète de la façon dont l'analyse a été menée, répond aux hypothèses faites pendant l'analyse, et intègre le processus statistique dans le flux du papier.
Voici quelques exemples d'articles qui, je pense, contiennent de bonnes sections statistiques:
Autres? Les réflexions sur ce qu'une «bonne» section de statistiques devrait inclure sont également les bienvenues.
Réponses:
Au milieu des années 2000, un groupe de statisticiens médicaux a rassemblé leurs têtes et a publié une déclaration STROBE ( http://www.strobe-statement.org ): ST rforcing the R eporting of OB servational studies in Ep idemiology. Il a été publié sous la même forme dans Lancet , PLoS Medicine , Journal of Clinical Epidemiology , et plusieurs autres, ce qui me semble être la partie la plus étonnante de l'exercice: rassembler les têtes n'est pas aussi difficile que de convaincre un groupe diversifié de aux éditeurs de publier quoi que ce soit tel quel. Il existe différentes listes de contrôle basées sur l'instruction STROBE qui vous aident à définir ce qu'est une partie statistique "bien écrite".
Dans un domaine non apparenté, l'Institut américain de l'éducation a accumulé des preuves sur la performance des divers programmes éducatifs dans son What Clearinghouse . Leur manuel de procédures et de normes définit ce qui constitue une étude solide (selon les normes de la communauté éducative; les biostatisticiens ayant des antécédents en essais cliniques les trouvent très en deçà des exigences de la FDA). Alerte spoiler: sur les 10 000 rapports d'étude de la base de données du WWC, seulement 500 "répondent aux normes du WWC sans réserves" ... donc quand vous entendez quelqu'un dire d'un produit éducatif qu'il est "basé sur la recherche", il y a exactement 95% de chances c'est en fait faux, avec des recherches menées par les éditeurs de ce produit sans le groupe de contrôle.
la source
Ce qui suit est un de mes articles préférés: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2650104/
Ici, un essai clinique très bien contrôlé a été mené pour vérifier ce que l'on croyait généralement que la suppression des poussées d'herpès pouvait réduire la transmission du VIH. C'est un exemple de résultat nul. Ils ne discréditent pas non plus leurs preuves car il s'agit d'un procès énorme et bien contrôlé. La conception est immense, tous les aspects de confusion ou de biais possibles ont été pris en compte.
Ce que j'apprécie dans la section des statistiques, c'est sa brièveté, sa concentration sur des analyses prédéfinies, la délimitation claire des hypothèses primaires et secondaires et la clause de non-responsabilité pour les conflits d'intérêts, la description des intentions de traitement et des analyses par protocole, et l'explication de la source possible. (s) de biais.
la source