MLE = Estimation du maximum de vraisemblance
MAP = Maximum a posteriori
Le MLE est intuitif / naïf en ce qu'il ne commence qu'avec la probabilité d'observation compte tenu du paramètre (c'est-à-dire la fonction de vraisemblance) et essaie de trouver le paramètre le plus conforme à l'observation . Mais il ne tient aucun compte des connaissances préalables.
Le MAP semble plus raisonnable car il prend en compte les connaissances préalables à travers la règle de Bayes.
Voici une question connexe, mais la réponse n'est pas complète. /signals/13174/differences-using-maximum-likelihood-or-maximum-a-posteriori-for-deconvolution-d
Donc, je pense que MAP est beaucoup mieux. Est-ce correct? Et quand dois-je utiliser lequel?
Un bayésien serait d'accord avec vous, pas un fréquentateur. C'est une question d'opinion, de perspective et de philosophie. Je pense que cela fait beaucoup de mal à la communauté des statistiques d'essayer de faire valoir qu'une méthode est toujours meilleure que l'autre. De nombreux problèmes auront des solutions bayésiennes et fréquentistes qui sont similaires tant que le bayésien n'a pas un a priori trop fort.
la source
En supposant que vous disposez d'informations préalables précises, MAP est préférable si le problème a une fonction de perte nulle sur l'estimation. Si la perte n'est pas nulle (et dans de nombreux problèmes du monde réel, elle ne l'est pas), il peut arriver que le MLE atteigne une perte attendue inférieure. Dans ces cas, il serait préférable de ne pas vous limiter à MAP et MLE comme les deux seules options, car elles sont toutes les deux sous-optimales.
la source
La réponse courte de @bean l'explique très bien. Cependant, je voudrais signaler la section 1.1 du document Gibbs Sampling for the uninited par Resnik et Hardisty qui approfondit la question. J'écris quelques lignes de cet article avec de très légères modifications (cette réponse répète peu de choses que OP sait par souci d'exhaustivité)
MLE
CARTE
Capture
Donc, avec cette capture, nous pourrions vouloir n'en utiliser aucune. De plus, comme déjà mentionné par bean et Tim, si vous devez utiliser l'un d'eux, utilisez MAP si vous l'avez déjà obtenu. Si vous n'avez pas de priors, MAP se réduit à MLE. Les antécédents conjugués aideront à résoudre le problème analytiquement, sinon utilisez l'échantillonnage de Gibbs.
la source
Le prior est traité comme un régularisateur et si vous connaissez la distribution précédente, par exemple Gaussin ( ) en régression linéaire, et il est préférable d'ajouter que régularisation pour de meilleures performances.exp(−λ2θTθ)
la source
Si les données sont moindres et que vous avez des priorités disponibles - "GO FOR MAP". Si vous avez beaucoup de données, la MAP convergera vers MLE. Ainsi, en cas de nombreux scénarios de données, il est toujours préférable de faire MLE plutôt que MAP.
la source