Dans cet article:
Variables cachées: quelques exemples Brian L. Joiner The American Statistician Vol. 35, n ° 4, nov., 1981 227-233
Brian Joiner affirme que "la randomisation n'est pas une panacée". Ceci est contraire aux déclarations courantes telles que celle ci-dessous:
Une expérience bien conçue comprend des caractéristiques de conception qui permettent aux chercheurs d'éliminer les variables étrangères comme explication de la relation observée entre la ou les variables indépendantes et la variable dépendante. Ces variables étrangères sont appelées variables cachées.
La citation est tirée de cette question et n'a pas de source, mais d'après mon expérience, elle est représentative de l'attitude qui prévaut: Exemples de variable menaçante et d'observation influente
Un exemple donné est que lors des tests de l'innocuité (en particulier la cancérogenèse) du colorant alimentaire rouge # 40 sur les rongeurs dans les années 70, un effet de la position de la cage s'est avéré confondre l'étude. Maintenant, j'ai lu de nombreux articles de journaux sur la cancérogenèse chez les rongeurs et je n'ai jamais vu personne rapporter contrôler cet effet.
Une discussion plus approfondie de ces études peut être trouvée ici: Une étude de cas de statistiques dans le processus de réglementation: les expériences FD&C Red n ° 40.
Je n'ai pas pu trouver de version non paywalled mais voici un extrait:
Lors de la réunion de janvier, nous avons présenté une analyse préliminaire (14) qui révélait une forte corrélation entre les taux de mortalité des rangées de cages et des RE (tumeurs réticulo-endothéliales), qui variait de 17% (rang inférieur) à 32% (rang supérieur) (tableau 2). Nous n'avons pas pu expliquer cette forte association par sexe, groupe de dosage ou colonne ou position de rack. Une analyse ultérieure (18) a également indiqué que la position de la cage (avant ou arrière) pouvait être corrélée avec la mortalité non ER et que cette position était corrélée avec le temps avant la mort non ER.
Je suis particulièrement intéressé par la raison pour laquelle il semble y avoir un tel problème de réplication dans la littérature médicale, mais des exemples de tous les domaines seraient les bienvenus. Notez que je suis intéressé par des exemples d'expériences contrôlées randomisées, pas par des études observationnelles.
Réponses:
Quelques exemples tirés de la recherche clinique pourraient être des variables qui surviennent après la randomisation - la randomisation ne vous protège pas du tout de celles-ci. Quelques-unes du haut de ma tête, qui ont été évoquées comme des possibilités ou notées:
La randomisation protège contre aucun de ces effets, car ils surviennent après la randomisation.
la source
Voici un exemple que j'ai trouvé pour les données de microréseaux. Il a été rapporté que l'expression mesurée était fortement corrélée avec la position sur les "puces". Il s'agit d'un cas où la randomisation de la position des échantillons peut augmenter les chances de commettre une erreur d'étiquetage, de sorte que ceux qui effectuent le travail technique peuvent choisir de ne pas randomiser s'ils ne pensent pas que c'est important.
Importance de la randomisation dans les conceptions expérimentales de puces à ADN avec les plateformes Illumina
Ricardo A. Verdugo, Christian F. Deschepper et Gary A. Churchill. The Jackson Laboratory, Bar Harbor, ME 04609, Institut de Recherches Cliniques, Montréal, QC, Canada.
la source
J'ai un exemple qui pourrait être quelque peu différent de ce que vous aviez initialement prévu lorsque vous avez posé cette question. L'année ou les deux dernières années ont donné lieu à une discussion continue en psychologie sur la cause du manque de reproductibilité des effets des expériences randomisées. Des versions de ce débat ont fait surface pendant de nombreuses années, mais le débat est devenu plus strident depuis la publication d'un article montrant que de nombreuses pratiques standard en psychologie dans la formulation d'hypothèses, la collecte de données, l'analyse des données et la communication des résultats permettre aux chercheurs de trouver des résultats soutenant même des hypothèses choisies arbitrairement (dans l'article original, les chercheurs ont utilisé ces pratiques pour montrer qu'en écoutant "When I'm Soixante-Four" des Beatles, les gens étaient plus jeunes).
La racine du problème, bien sûr, est les structures incitatives généralisées en psychologie (et dans d'autres sciences) pour obtenir des résultats nouveaux, positifs et "publiables". Ces incitations encouragent les chercheurs à adopter des pratiques qui, bien qu'elles ne soient pas aussi manifestement «erronées» que la fabrication de données, conduisent néanmoins à un taux accru de faux positifs. Ces pratiques comprennent:
Etc.
Je dirais que la «variable cachée» dans ces cas est la structure d'incitation qui récompense les chercheurs pour l'obtention de résultats positifs «publiables». En fait, il y a déjà eu plusieurs résultats très médiatisés en psychologie (dont beaucoup sont dans ma spécialité, la psychologie sociale) qui n'ont pas pu se reproduire. Ces échecs à reproduire, selon beaucoup, mettent en doute des sous-domaines entiers de la psychologie.
Bien sûr, le problème des structures d'incitation qui encouragent les faux positifs n'est pas propre à la psychologie; il s'agit d'un problème endémique à toute la science, et donc à tous les essais contrôlés randomisés.
Références
Simmons, JP, Nelson, LD et Simonsohn, U. (2011). Psychologie faussement positive: la flexibilité non divulguée dans la collecte et l'analyse des données permet de présenter tout ce qui est significatif. Psychological Science , 17, 1359-1366.
Nosek, BA, Spies, JR et Motyl, M. (2012). Utopie scientifique: II. Incitations et pratiques de restructuration pour promouvoir la vérité au détriment de la publication. Perspectives on Psychological Science , 7, 615-631.
Yong, E. (2012). Mauvaise copie. Nature , 485, 298-300.
Abbott, A. (2013). Les résultats contestés portent un nouveau coup à la psychologie sociale. Nature , 497, 16.
la source