Pourquoi est-il si courant d'obtenir des estimations du maximum de vraisemblance des paramètres, mais vous n'entendez pratiquement jamais parler des estimations des paramètres de vraisemblance attendues (c'est-à-dire basées sur la valeur attendue plutôt que sur le mode d'une fonction de vraisemblance)? Est-ce principalement pour des raisons historiques ou pour des raisons techniques ou théoriques plus substantielles?
Y aurait-il des avantages et / ou des inconvénients importants à utiliser des estimations de vraisemblance plutôt que des estimations de vraisemblance maximale?
Y a-t-il des domaines dans lesquels les estimations de probabilité attendues sont couramment utilisées?
probability
mathematical-statistics
maximum-likelihood
optimization
expected-value
Jake Westfall
la source
la source
Réponses:
La méthode proposée (après normalisation de la probabilité d'être une densité) équivaut à estimer les paramètres en utilisant un a priori plat pour tous les paramètres du modèle et en utilisant la moyenne de la distribution postérieure comme estimateur. Il y a des cas où l'utilisation d'un avant plat peut vous causer des ennuis parce que vous ne vous retrouvez pas avec une distribution postérieure appropriée, donc je ne sais pas comment vous pourriez rectifier cette situation ici.
Rester dans un contexte fréquentiste, cependant, la méthode n'a pas beaucoup de sens car la probabilité ne constitue pas une densité de probabilité dans la plupart des contextes et il n'y a plus rien d'aléatoire, donc prendre une attente n'a pas beaucoup de sens. Maintenant, nous pouvons simplement formaliser cela comme une opération que nous appliquons à la probabilité après coup d'obtenir une estimation, mais je ne sais pas à quoi ressembleraient les propriétés fréquentistes de cet estimateur (dans les cas où l'estimation existe réellement).
Avantages:
Désavantages:
la source
L'une des raisons est que l'estimation du maximum de vraisemblance est plus facile: vous définissez la dérivée de la vraisemblance par rapport aux paramètres à zéro et résolvez les paramètres. Prendre une attente signifie intégrer les temps de vraisemblance de chaque paramètre.
Dans certains cas, le paramètre de vraisemblance maximale est le même que le paramètre de vraisemblance attendu. Par exemple, la moyenne de vraisemblance attendue de la distribution normale ci-dessus est la même que la vraisemblance maximale parce que l'a priori sur la moyenne est normal, et le mode et la moyenne d'une distribution normale coïncident. Bien sûr, cela ne sera pas vrai pour l'autre paramètre (quelle que soit la manière dont vous le paramétrez).
Je pense que la raison la plus importante est probablement pourquoi voulez-vous une attente des paramètres? Habituellement, vous apprenez un modèle et les valeurs des paramètres sont tout ce que vous voulez. Si vous souhaitez renvoyer une seule valeur, la probabilité maximale n'est-elle pas la meilleure que vous puissiez retourner?
la source
Cette approche existe et elle est appelée estimateur de contraste minimum. L'exemple de papier connexe (et voir d'autres références de l'intérieur) https://arxiv.org/abs/0901.0655
la source