Quels domaines de la statistique ont considérablement révolutionné ces 50 dernières années? Par exemple, il y a environ 40 ans, Akaike et ses collègues ont révolutionné le domaine de la discrimination fondée sur les modèles statistiques. Il y a environ 10 ans, Hyndman et ses collègues ont révolutionné le domaine du lissage exponentiel. Il y a environ XX ans, ...
Comment puis-je éventuellement continuer la liste, avec les années et les noms s'il vous plaît? Par statistiques, j'entends ses quatre types de discours présidentiel de Bartholomew en 1995, les statistiques de Chambers plus et moins ensemble, comme dans la récente allocution présidentielle de Hand sur les `` statistiques modernes '' et ainsi de suite - tout ce qui est professionnellement pertinent.
Réponses:
Le travail d'Efron sur le Bootstrap me vient à l'esprit.
la source
L'application des statistiques bayésiennes avec les méthodes de Monte Carlo.
la source
Les méthodes d'ensemble comme le boost, l'ensachage, etc. sont un autre candidat potentiel.
la source
En 1960, la plupart des gens qui faisaient des statistiques calculaient avec une calculatrice manuelle à quatre fonctions ou une règle à calcul ou à la main; les ordinateurs centraux commençaient tout juste à exécuter certains programmes à Algol et Fortran; les périphériques de sortie graphique étaient rares et grossiers. En raison de ces limites, l'analyse bayésienne était considérée comme extrêmement difficile en raison des calculs requis. Les bases de données étaient gérées sur des cartes perforées et des lecteurs de bandes informatiques limités à quelques mégaoctets. L'éducation statistique s'est concentrée initialement sur les formules d'apprentissage pour les tests t et l'ANOVA. La pratique statistique n'allait généralement pas au-delà de ces tests d'hypothèses de routine (bien que certains esprits brillants venaient juste de commencer à exploiter les ordinateurs pour une analyse plus approfondie, comme en témoigne le livre de Mosteller et Wallace sur les journaux fédéralistes, par exemple).
J'ai raconté cette histoire bien connue pour rappeler que toutes les statistiques ont subi une révolution en raison de l'augmentation et de la propagation de la puissance de calcul au cours de ce dernier demi-siècle, une révolution qui a rendu possible presque toutes les autres innovations statistiques au cours de cette période (avec l'exception notable des méthodes EDA au crayon et papier de Tukey, comme Thylacoleo l'a déjà observé).
la source
L'idée vraiment étrange de John Tukey: l'analyse exploratoire des données. http://en.wikipedia.org/wiki/Exploratory_data_analysis
la source
Modèles linéaires généralisés dus à John Nelder et Robert Wedderburn récemment décédés.
la source
la source
Il y a eu une grande discussion sur metaoptimize intitulée " Les idées les plus influentes 1995 - 2005 " qui contient une grande collection d'idées.
Celui que j'ai mentionné ici, et que je répéterai ici, est la "révolution" du concept de comparaisons multiples, en particulier le passage de l'utilisation des méthodes FWE aux méthodes FDR, pour tester de très nombreuses hypothèses (comme dans les microréseaux ou l'IRMf, etc.)
Voici l'un des premiers articles qui a introduit cette notion à la communauté scientifique: Benjamini, Yoav; Hochberg, Yosef (1995). "Contrôler le taux de fausses découvertes: une approche pratique et puissante de tests multiples". Journal de la Royal Statistical Society
la source
Analyse de survie des risques proportionnels de Cox: http://en.wikipedia.org/wiki/Cox_proportional_hazards_model
la source
L'approche de Box-Jenkins pour la modélisation des séries chronologiques: modèles ARIMA, etc.
http://en.wikipedia.org/wiki/Box-Jenkins
la source
La création de ce site ;-)
la source