Je fais référence à des pratiques qui conservent toujours leur présence, même si les problèmes (généralement informatiques) auxquels elles étaient conçues étaient en grande partie résolus.
Par exemple, la correction de continuité de Yates a été inventé pour rapprocher le test exact de Fisher avec test, mais il n'est pratique plus depuis le logiciel peut désormais gérer le test de Fisher même avec de grands échantillons (je sais que cela peut ne pas être un bon exemple de « maintenir son présence ", car les manuels, comme l' analyse de données catégoriques d'Agresti , reconnaissent souvent que la correction de Yates" n'est plus nécessaire ").
Quels sont d'autres exemples de telles pratiques?
references
philosophical
Francis
la source
la source
Réponses:
Il est tout à fait discutable que l’utilisation de seuils de signification tels que ou P = 0,01 soit une survivance historique d’une période où la plupart des chercheurs dépendaient de tableaux de valeurs critiques calculés antérieurement. Maintenant, un bon logiciel donnera directement les valeurs P. En effet, un bon logiciel vous permet de personnaliser votre analyse et de ne pas dépendre de tests manuels.P=0.05 P=0.01 P
Cette question est controversée, ne serait-ce que parce que certains problèmes de test d’importance nécessitent des décisions, comme dans le contrôle de la qualité où l’acceptation ou le rejet d’un lot est la décision nécessaire, suivie d’une action dans les deux sens. Mais même dans ce cas, les seuils à utiliser devraient découler d'une analyse de risque et non dépendre de la tradition. Et souvent dans les sciences, l’analyse des indications quantitatives est plus appropriée que les décisions: penser quantitativement implique de prêter attention à la taille des valeurs de et pas seulement à une dichotomie grossière, significative par rapport à non significative.P
Je soulignerai que je touche ici à une question complexe et controversée qui fait l’objet de livres entiers et probablement de milliers de journaux, mais cela semble un exemple juste pour ce fil.
la source
Une méthode sur laquelle je pense que de nombreux visiteurs de ce site seront d’accord avec moi est la régression par étapes. C'est toujours fait tout le temps, mais vous n'avez pas à chercher très loin sur ce site des experts qui déplorent son utilisation. Une méthode comme LASSO est de loin préférée.
la source
Mon point de vue est qu'au moins en économétrie (appliquée), il est de plus en plus courant d'utiliser la matrice de covariance robuste ou empirique plutôt que la "pratique anachronique" consistant à s'appuyer (asymptotiquement) sur la spécification correcte de la matrice de covariance. Bien sûr, cela n’est pas sans controverse: consultez certaines des réponses que j’ai liées ici chez CrossValidated, mais c’est certainement une tendance claire.
Parmi les autres exemples, citons les données de panel, Imbens et Wooldridge écrivent, par exemple, dans leur exposé, des diapositives suggèrent de ne pas utiliser la matrice de covariance de la variance à effets aléatoires (en supposant implicitement que certaines composantes de la variance sont mal spécifiées:
En utilisant des modèles linéaires généralisés (pour les distributions appartenant à la famille exponentielle), il est souvent conseillé d'utiliser toujours le soi-disant estimateur en sandwich plutôt que de s'appuyer sur des hypothèses de distribution correctes (la pratique anachronique ici): voir par exemple cette réponse ou Cameron compter les données car l' estimation du pseudo-maximum de vraisemblance peut être assez flexible en cas de spécification erronée (par exemple, en utilisant Poisson si binomial négatif serait correct).
Greene écrit dans son manuel au chapitre 14 (disponible sur son site Web) par exemple avec une note critique et va plus en détail sur les avantages et les inconvénients de cette pratique:
la source
la source
La plupart des pratiques anachroniques sont probablement dues à la manière dont les statistiques sont enseignées et au fait que les analyses sont conduites par un très grand nombre de personnes n'ayant suivi que quelques cours élémentaires. Nous enseignons souvent un ensemble d'idées et de procédures statistiques standard car elles forment une séquence logique de sophistication conceptuelle croissante qui a un sens pédagogique (cf. Comment pouvons-nous jamais connaître la variance de population? ). Je suis moi-même coupable: j'enseigne parfois les stats 101 et 102, et je dis constamment: «Il existe une meilleure façon de faire cela, mais cela dépasse le cadre de ce cours». Pour les étudiants qui ne vont pas au-delà de la séquence d'introduction (presque tous), ils se retrouvent avec des stratégies de base, mais dépassées.
Pour un exemple de statistiques 101, la pratique anachronique la plus courante consiste probablement à tester certaines hypothèses, puis à exécuter une analyse statistique classique car le test n'était pas significatif. Une approche plus moderne / avancée / défendable consisterait à utiliser une méthode robuste à cette hypothèse dès le début. Quelques références pour plus d'informations:
Pour les statistiques de 102 exemples, un certain nombre de pratiques de modélisation ont été dépassées:
Le point important dans tous ces cas est que les gens suivent ce qu’ils ont appris en premier dans un cours d’introduction parce qu’ils ne connaissent tout simplement pas de méthodes plus avancées et plus appropriées.
la source
Les tests de racine unitaire en économétrie constituent un exemple très intéressant . Bien que le polynôme retard d’une série chronologique (par exemple, le test de Dickey Fuller (augmenté) ou le test de KPSS) puisse être testé contre ou pour une racine unitaire, le problème peut être complètement évité en utilisant l’analyse bayésienne. . Sims l'a souligné dans son article provocateur intitulé Comprendre les racines de l'unité - Une visite en hélicoptère de 1991.
Les tests de racine unitaire restent valides et utilisés en économétrie. Personnellement, je dirais que cela tient principalement au fait que les personnes hésitent à s’adapter aux pratiques bayésiennes, mais de nombreux économétriciens conservateurs défendent la pratique des tests de racine unitaire en affirmant qu’une vision bayésienne du monde va à l’encontre des principes de la recherche économétrique. (C'est-à-dire que les économistes voient le monde comme un lieu avec des paramètres fixes et non des paramètres aléatoires régis par un hyperparamètre.)
la source
Payer des droits de licence pour des systèmes logiciels statistiques de haute qualité. #R
la source
Enseigner / mener des tests bilatéraux de différence sans tester simultanément l’ équivalence dans le domaine fréquentiste des tests d’hypothèses est un engagement profond en faveur du biais de confirmation .
Il existe certaines nuances, dans la mesure où une analyse de puissance appropriée avec une définition réfléchie de la taille d'effet peut éviter ce phénomène et fournir plus ou moins les mêmes types d'inférences, mais (a) les analyses de puissance sont si souvent ignorées dans la présentation des résultats et (b) I Je n'ai jamais vu d'analyse de puissance pour, par exemple, chaque coefficient estimé pour chaque variable dans une régression multiple, mais il est simple de le faire pour les tests combinés de différence et les tests d'équivalence (c'est-à-dire des tests de pertinence).
la source
Utilisation d'un modèle binomial négatif plutôt que d'un modèle de Poisson (robuste) pour identifier un paramètre d'intérêt dans une variable de comptage, uniquement en raison d'une dispersion excessive?
Voir à titre de référence: https://blog.stata.com/2011/08/22/use-poisson-rather-than-regress-tell-a-friend/
La preuve que Poisson est plus robuste dans le cas des effets fixes est assez récente dans la mesure où elle fait souvent référence à: Wooldridge, JM, «Estimation sans distribution de certains modèles de données de panel non linéaires», Journal of Econometrics 90 (1999), 77–97.
la source
Voici quelques anachronismes:
L'hypothèse néoplatonicienne selon laquelle il existe une seule et même "vraie" population dans l'éther théorique éternel, figé et immobile par rapport auquel nos échantillons imparfaits peuvent être évalués ne contribue guère à faire progresser l'apprentissage et les connaissances.
Le réductionnisme inhérent à des mandats tels que Razor d'Occam est incompatible avec l'époque. OU peut être résumé comme suit: "Parmi les hypothèses concurrentes, celle qui contient le moins d'hypothèses doit être sélectionnée". Les solutions de rechange incluent le principe d’explications multiples d’ Epicure , qui énonce à peu près ceci: "Si plusieurs théories sont cohérentes avec les données, conservez-les toutes".
L'ensemble du système d'examen par les pairs a désespérément besoin d'une refonte.
* Modifier *
Avec des données volumineuses contenant des dizaines de millions de caractéristiques, il n’est plus nécessaire de passer par une phase de sélection variable.
De plus, les statistiques inférentielles n'ont pas de sens.
la source