On m'a posé cette question l'autre jour et je ne l'avais jamais envisagée auparavant.
Mon intuition vient des avantages de chaque estimateur. La probabilité maximale est de préférence lorsque nous sommes confiants dans le processus de génération de données car, contrairement à la méthode des moments, elle utilise la connaissance de la distribution entière. Étant donné que les estimateurs MoM n'utilisent que les informations contenues dans les moments, il semble que les deux méthodes devraient produire les mêmes estimations lorsque les statistiques suffisantes pour le paramètre que nous tentons d'estimer sont exactement les moments des données.
Je pensais que c'était peut-être une bizarrerie de la famille exponentielle, mais pour un Laplace avec une moyenne connue, la statistique suffisante estet l'estimateur MLE et MoM pour la variance ne sont pas égaux.
Jusqu'à présent, je n'ai pas pu montrer de résultat en général. Quelqu'un connaît-il les conditions générales? Ou même un contre-exemple m'aiderait à affiner mon intuition.
Réponses:
Une réponse générale est qu'un estimateur basé sur une méthode des moments n'est pas invariant par un changement bijectif de paramétrage, tandis qu'un estimateur du maximum de vraisemblance est invariant. Par conséquent, ils ne coïncident presque jamais. (Presque jamais dans toutes les transformations possibles.)
En fait, une façon plus appropriée de formuler la question serait de demander quand un estimateur de moment est suffisant, mais cela oblige la distribution des données à provenir d'une famille exponentielle, par le lemme de Pitman-Koopman, un cas où la réponse est déjà connu.
la source