Quels sont les inconvénients de l'analyse bayésienne?

45

Quelles sont les objections pratiques à l’utilisation des méthodes statistiques bayésiennes dans n’importe quel contexte? Non, je ne parle pas de la discussion habituelle sur le choix de l’avant. Je serai ravi si cela ne donne pas de réponses.

rosser
la source
5
La question est bien encadrée, mais les commentaires vont jusqu'au bout de l'argumentation et menacent de déborder du mauvais côté de cette ligne. Attention, ce n'est pas l'endroit pour un tel débat. Créez une salle de discussion si vous voulez le faire.
whuber

Réponses:

41

Je vais vous donner une réponse. Quatre inconvénients en fait. Notez qu’aucune de ces objections ne devrait en réalité conduire à une analyse fréquentiste, mais il existe par contre un cadre bayésien:

  1. Choix de prieur. C’est la raison habituelle pour une raison, bien que dans mon cas ce ne soit pas l’habituel "les prior sont subjectifs!" mais trouver un précédent qui soit bien motivé et qui représente en fait votre meilleure tentative de le résumer est un travail considérable dans de nombreux cas. Un objectif complet de ma thèse, par exemple, peut être résumé en tant qu '"estimer les priorités".
  2. C'est intensif en calcul. Surtout pour les modèles impliquant de nombreuses variables. Pour un grand ensemble de données comportant de nombreuses variables estimées, il peut très bien s’avérer très fastidieux en calcul, en particulier dans certaines circonstances où les données ne peuvent pas être facilement jetées sur une grappe ou similaire. Certains des moyens de résoudre ce problème, tels que les données augmentées plutôt que MCMC, présentent des difficultés théoriques, du moins pour moi.
  3. Les distributions postérieures sont un peu plus difficiles à incorporer dans une méta-analyse, à moins qu'une description paramétrique et fréquentiste de la distribution ait été fournie.
  4. En fonction du journal auquel l'analyse est destinée, l'utilisation de Bayes en général ou de votre choix de précédents a priori confère à votre article un peu plus de points où un relecteur peut puiser. Certaines de ces objections sont raisonnables, mais certaines découlent simplement de la nature de Bayes et de la familiarité des habitants de certains domaines avec elle.

Aucune de ces choses ne devrait vous arrêter. En effet, aucune de ces choses ne m'a arrêté, et j'espère que l'analyse bayésienne aidera au moins au numéro 4.

Fomite
la source
2
# 1, ceci, idéalement, devrait être une analyse de première étape. Dans les arts, une critique éclairée. En sciences, une analyse quantitative éclairée. Les Bayésiens ne devraient pas s'en excuser. IF freqs approche les données comme si elles étaient Adam et Eve - bien. Le premier chapitre de ma thèse est une méta-analyse (bien que fréquentiste) .Whoopdeedoo. C'est comme cela devrait être. # 2 loi de Moore, j'ai trouvé une discussion brève et basée sur XKCD avec le groupe local d'informatique de haute performance peut beaucoup aider. La méta-analyse n ° 3 est nulle. Je serais en faveur de la méga-analyse évolutive obligatoire, autrement dit, fournissez vos données lorsque vous publiez.
Rossier
7
@ Rosser Quelques réflexions. #1. Il devrait en effet y avoir un examen éclairé, et oui, cela devrait être la première étape. Mais une analyse bayésienne appropriée qui contrôle correctement la confusion nécessite un examen complet et quantitatif de chaque variable à inclure dans le modèle. Ce n'est pas une mince tâche. # 2. Dépendre de la loi de Moore est une mauvaise idée. Premièrement, les gains récents ont été réalisés principalement dans les systèmes multi-core / GPU. Cela nécessite un logiciel écrit à cet effet et des problèmes liés au traitement en parallèle. Un seul modèle GLM réalisé avec MCMC pourrait ne pas l'être. Cont ...
Fomite
6
@ Rosser et il peut y avoir des moments avec HPC n'est pas nécessairement la réponse. Par exemple, je travaille dans des domaines où les accords d'utilisation de données et autres empêchent souvent le stockage de données sur des éléments autres que des systèmes extrêmement sécurisés. Le cluster local ... n'est-ce pas? Et au final, la loi de Moore n’est aussi bonne que le budget de votre matériel est important. En ce qui concerne le numéro 3 et la méta-analyse, j'ai tendance à être en désaccord, mais au-delà, cela reste un problème jusqu'au point où un système entièrement à données ouvertes devient la norme.
Fomite
OK j'ai exagéré # 3. Mais quelle différence votre prieur sur TOUS LES PREDICTEURS fait-il pour le résultat? srsly? Une analyse de sensibilité révèle-t-elle des différences énormes?
Rossier
1
@ Rosser Cela dépend probablement de la nature de votre prédicteur et de sa relation avec l'exposition et les résultats. Mais pour faire une analyse de sensibilité, il faut avoir un préalable pour toutes ces variables. Peut-être que je l'ajouterai comme partie de ma thèse. Je trouve également cooptation de la force de Bayes, mais en supposant des prieurs non informatifs sur des variables dans lesquelles "je ne peux pas être dérangé de le savoir" est plutôt problématique.
Fomite
16

Je suis un Bayésien par inclination, mais généralement un fréquentiste dans la pratique. La raison en est généralement que l'analyse complète bayésienne effectuée correctement (plutôt que par exemple avec les solutions MAP) pour les types de problèmes qui m'intéressent est délicate et nécessite beaucoup de calcul. Une analyse bayésienne complète est souvent nécessaire pour vraiment voir le bénéfice de cette approche par rapport aux équivalents fréquentistes.

Pour moi, le compromis est essentiellement un choix entre des méthodes bayésiennes conceptuellement élégantes et faciles à comprendre, mais difficiles à mettre en œuvre dans la pratique, et des méthodes fréquentistes, conceptuellement maladroites et subtiles (essayez d'expliquer comment interpréter un test d'hypothèse avec précision ou pourquoi il n’ya pas de probabilité à 95% que la valeur réelle se situe dans un intervalle de confiance de 95%), mais qui conviennent bien à des solutions faciles à mettre en œuvre "livre de recettes".

Chevaux de course.

Dikran Marsupial
la source
12

D'un point de vue purement pratique, je ne suis pas fan des méthodes qui nécessitent beaucoup de calcul (je pense à sampler Gibbs et MCCM, souvent utilisé dans le cadre bayésien, mais cela vaut aussi pour par exemple les techniques bootstrap dans l' analyse fréquentiste). La raison en est que tout type de débogage (test de l'implémentation, analyse de la robustesse vis-à-vis des hypothèses, etc. ) nécessite lui-même un ensemble de simulations de Monte-Carlo, et vous vous retrouvez rapidement plongé dans un embouteillage de calcul. Je préfère que les techniques d'analyse sous-jacentes soient rapides et déterministes, même si elles ne sont qu'approximatives.

Il s’agit bien entendu d’une objection purement pratique: avec des ressources de calcul infinies, cette objection disparaîtrait. Et cela ne s'applique qu'à un sous-ensemble de méthodes bayésiennes. De plus, ceci est davantage une préférence compte tenu de mon flux de travail.

shabbychef
la source
1
Jusqu'ici j'entends 1. Loi de Moore'e, 2. Travail dur +/- patience et 3. Ignorance. Je dois dire que rien de tout cela n'est convaincant. Bayes semble être un tel paradigme global. Par exemple, pourquoi les études GWAS n'ont-elles pas été analysées à la Bayes? Auraient-ils pu empêcher de jeter 99,999% des données?
Rossier
1
Inversement: MCMC pourrait apprendre à écrire un code plus rapide et à tirer des leçons de la douleur liée à l’attente des simulations. Cela a été mon expérience avec la modélisation: si cela prend beaucoup de temps, il peut être avantageux d’apprendre à rendre le code plus rapide.
Itérateur
9

Parfois, il existe une solution simple et naturelle "classique" à un problème, auquel cas une méthode bayésienne sophistiquée (en particulier avec MCMC) serait exagérée.

En outre, dans les problèmes de type à sélection variable, il peut être plus simple et plus clair d’envisager quelque chose comme une vraisemblance pénalisée; il peut exister un préalable sur les modèles qui donne une approche bayésienne équivalente, mais la manière dont le préalable correspond à la performance ultime peut être moins claire que la relation entre la pénalité et la performance.

Enfin, les méthodes MCMC nécessitent souvent un expert à la fois pour évaluer la convergence / mélange et pour donner un sens aux résultats.

Karl
la source
9

Je suis relativement nouveau dans les méthodes bayésiennes, mais ce qui me contrarie, c’est que, même si je comprends la raison d’être des a priori (c’est-à-dire que la science est une entreprise cumulative, la plupart des questions comportent donc une certaine expérience / réflexion antérieure qui devrait vous éclairer. interprétation des données), je n'aime pas que l'approche bayésienne vous oblige à repousser la subjectivité au début de l'analyse, rendant le résultat final contingent. Je pense que cela pose problème pour deux raisons: 1) certains lecteurs moins avertis ne feront même pas attention aux précédents, et interpréteront les résultats bayésiens comme non contingents; 2) à moins que les données brutes ne soient disponibles, il est difficile pour les lecteurs de recadrer les résultats dans leurs propres a priori subjectifs. C’est pourquoi je préfère les ratios de vraisemblance,

(Les critiques avisés remarqueront que même le rapport de vraisemblance est "contingent" en ce sens qu'il est subordonné au paramétrage des modèles comparés; cependant, il s'agit d'une caractéristique commune à toutes les méthodes, Frequentist, Bayesian et Likuthist.)

Mike Lawrence
la source
9
Le problème inverse des statistiques fréquentistes est que la subjectivité existe, mais elle n’est pas mentionnée du tout. Le problème (pratique) avec les ratios de vraisemblance est qu'ils sont basés sur l'optimisation de la probabilité et ignorent donc le fait qu'il peut exister d'autres solutions avec une probabilité à peine inférieure. C'est là que le facteur Bayes est utile. Mais c'est toujours "des chevaux pour les cours".
Dikran Marsupial
6

La théorie de la décision est la théorie sous-jacente sur laquelle repose la statistique. Le problème est de trouver une bonne procédure (dans un certain sens) pour produire des décisions à partir de données. Cependant, il y a rarement un choix de procédure sans ambiguïté, dans le sens de minimiser les pertes attendues, de sorte que d'autres critères doivent être invoqués pour choisir parmi eux. Le choix de la procédure Bayes par rapport à certains antérieurs est l’un de ces critères, mais il se peut que ce ne soit pas toujours ce que vous souhaitiez. Minimax pourrait être plus important dans certains cas, ou impartialité.

Quiconque insiste sur le fait que les fréquentistes ont tort, que les Bayésiens ou que ce soit faux, révèle surtout leur ignorance des statistiques.

utilisateur873
la source
5

Depuis quelque temps, je voulais approfondir mes connaissances sur les approches bayésiennes en matière de modélisation pour dépasser ma compréhension superficielle (j'ai codé des échantillonneurs Gibbs dans des cours de cycles supérieurs, mais je n'ai jamais rien fait de réel). En cours de route, j’ai pensé que certains des journaux de Brian Dennis avaient été provocants et souhaitaient pouvoir trouver un ami bayésien (ceux qui n’étaient pas dans le placard) pour lire les journaux et entendre leurs contrepoint. Donc, voici les documents que je me réfère, mais la citation que je me souviens toujours est

Être bayésien signifie ne jamais avoir à dire que vous avez tort.

http://faculty.washington.edu/skalski/classes/QERM597/papers/Dennis_1996.pdf http://classes.warnercnr.colostate.edu/nr575/files/2011/01/Lele-and-Dennis-2009.pdf

Josh Hemann
la source
1
Le premier article (qui n'a pas lu le second) semble en dire plus sur la manière dont les bayes sont pratiquées par rapport à la théorie. En pratique, les modèles ne sont pas vérifiés aussi rigoureusement qu’ils le devraient, mais en théorie, les statistiques bayésiennes disposent de fonctions de vérification de modèle supérieures, appelées les «preuves» par Jaynes, qui sont incorporées dans le dénominateur P (D | modèle) de la règle de Bayes. Avec cela, vous pouvez comparer la pertinence d'un modèle, ce que vous ne pouvez faire que de manière empirique dans les statistiques fréquentistes. Le problème, bien sûr, est que la preuve est difficile à calculer, donc la plupart des gens l'ignorent et pensent que le facteur postérieur est le facteur primordial (suite)
cespinoza
2
pt. 2 Essayez de "goûter l'échantillonnage imbriqué" sur Google et vous trouverez un article sur une méthode MCMC permettant de calculer les preuves. (Il existe également d’autres méthodes de vérification de modèles non fondées sur des preuves: Gelman vérifie ses modèles en procédant à un échantillonnage à partir de la prédiction postérieure et en les comparant (visuellement ou non) aux données réelles.) Certaines personnes suggèrent même que les modèles devraient être moyennés en consultant l'espace des modèles lui-même à marginaliser. Une autre chose que nous pouvons voir à l’horizon est celle de Bayes non paramétriques, qui résout le problème en autorisant une gamme de modèles beaucoup plus large que les modèles paramétriques traditionnels.
Cespinoza
5
Aussi, je vous suggère de regarder videolectures.net/mlss09uk_jordan_bfway de Michael I. Jordan, un prof de berkeley qui a un point de vue assez équilibré sur le supposé Bayes vs Freq. "guerre". Je ne peux pas vraiment commenter sur la seconde moitié du premier document car je ne connais aucune des références écologiques. Je lirai le deuxième plus tard.
cespinoza
1
@cespinoza: J'y pensais en allant au travail. Le journal indique qu’un Bayésien n’examinera jamais les résidus (comparera la sortie du modèle aux données réelles), et peut-être qu’un Bayesien strident l’évitera par principe, mais les praticiens comme Gelman comparent certainement la sortie du modèle (prédictive postérieure) aux données réelles. Je ne sais pas assez pour aller plus loin, mais les journaux me donnent l'impression qu'ils ont mis "en principe" des hommes de paille à attaquer.
Wayne
2
Ajoutons simplement qu'un Bayésien qui ne vérifie pas les résidus est un mauvais statisticien. Habituellement, une méthode bayésienne est utilisée avec un modèle "brutal et prêt" et avant. Vérifier les résidus est un moyen de voir si vous avez suffisamment de connaissances dans vos antécédents et dans le modèle. Cela va de pair avec la vérification des caractéristiques théoriques de votre modèle et de vos précédents
probabilislogic
5

Quels sont les problèmes en suspens dans Bayesian Statistics du bulletin trimestriel ISBA? La liste des 5 problèmes de statistiques bayésiennes de différents leaders du secteur, le n ° 1 étant, assez ennuyeux, "la sélection de modèles et le test d'hypothèses".

cespinoza
la source
3
Pourquoi ennuyeux?! C'est l'une des utilisations les plus fréquentes des méthodes statistiques.
Xi'an