Les estimateurs de maximum de vraisemblance (MLE) sont asymptotiquement efficaces; nous constatons le résultat pratique dans la mesure où elles donnent souvent de meilleurs résultats que les estimations fondées sur la méthode des moments (MoM) (lorsqu'elles diffèrent), même pour des échantillons de petite taille
Ici, "mieux que" signifie "en général", c'est-à-dire que la variance est généralement plus faible lorsque les deux sont non biaisés et que l'erreur quadratique moyenne (EQM) est généralement plus petite.
La question se pose cependant:
Existe-t-il des cas où le MoM peut battre le MLE - sur le MSE , par exemple - dans de petits échantillons?
(où il ne s'agit pas d'une situation étrange / dégénérée - c.-à-d. étant donné que les conditions sont réunies pour que ML existe / soit asymptotiquement efficace)
Une question de suivi serait alors: «Quelle taille peut avoir un petit? - c’est-à-dire que s’il existe des exemples, y en a-t-il qui ont encore une taille d’échantillon relativement grande, voire même toutes les tailles d’échantillon finies?
[Je peux trouver un exemple d'estimateur biaisé qui peut battre ML dans des échantillons finis, mais ce n'est pas du MoM.]
Remarque ajoutée rétrospectivement: je me concentre ici principalement sur le cas univarié (qui est en fait l’origine de ma curiosité sous-jacente). Je ne veux pas exclure les cas à plusieurs variables, mais je ne veux pas non plus me perdre dans de longues discussions sur l'estimation de James-Stein.
Réponses:
Cela peut être considéré comme ... de la triche, mais l'estimateur MCO est un estimateur de MoM. Considérons une spécification de régression linéaire standard (avec régresseurs stochastiques, les magnitudes étant donc conditionnelles à la matrice des régresseurs) et un échantillon de taille . Notons l'estimateur MCO de la variance du terme d'erreur. C'est impartial doncn s 2 σ 2K n s2 σ2
Considérons maintenant le MLE de . Il estσ2
⇒MSE( σ 2 M L )=2(n-K)+K2
Nous voulons les conditions (si elles existent) dans lesquelles
2 n 2 - 4 n K + 2 K 2 + n K 2 - K 3 > 2 n 2 - 4 n + 2 K + n K - K 2 > 0 ⇒ K 2 - (
Compte tenu de cela, les racines de quadratique sontK
Globalement: pour la taille d'échantillon et le nombre de régresseurs tels que nous avons pour Par exemple, si on trouve que le nombre de régresseurs doit être égal à pour que l’inégalité soit conservée. Il est intéressant de noter que, pour un petit nombre de régresseurs, le MLE est meilleur au sens de la MSE.n>12 K ⌈K1⌉<K<⌊K2⌋
ADDENDUMK
On peut écrire l' équation pour les racines du quadratique
la source
"Dans cet article, nous examinons une nouvelle paramétrisation de la distribution gaussienne inverse à deux paramètres. Nous trouvons les estimateurs des paramètres de la distribution gaussienne inverse par la méthode des moments et la méthode du maximum de vraisemblance. Ensuite, nous comparons l'efficacité de la estimateurs pour les deux méthodes en fonction de leur biais et de l’erreur quadratique moyenne (EQM). Pour cela, nous fixons les valeurs des paramètres, effectuons des simulations et signalons l’ESG et le biais des estimations obtenues par les deux méthodes. La conclusion est que lorsque la taille de l’échantillon est 10, la méthode des moments a tendance à être plus efficace que la méthode du maximum de vraisemblance pour l'estimation des deux paramètres (lambda et thêta) .... "en savoir plus
De nos jours, on ne peut pas (ou ne devrait pas) faire confiance à tout ce qui est publié, mais la dernière page du journal semble prometteuse. J'espère que cela adresse votre note ajoutée a posteriori.
la source
Selon les simulations effectuées par Hosking et Wallis (1987) dans "Estimation des paramètres et des quantiles pour la distribution de Pareto généralisée", les paramètres de la distribution de Pareto généralisée à deux paramètres donnés par la cdf
ou la densité
sont plus fiables si elles sont estimées au moyen de MOM, par opposition à ML. Ceci est valable pour les échantillons jusqu’à la taille 500. Les estimations de MOM sont données par
et
avec
Le papier contient quelques fautes de frappe (du moins ma version). Les résultats pour les estimateurs de MOM donnés ci-dessus ont été aimablement fournis par "heropup" dans ce fil .
la source
J'en ai trouvé un:
Pour la distribution de puissance exponentielle asymétrique
les résultats de la simulation de Delicado et Goria (2008) suggèrent que, pour certains paramètres de tailles d'échantillons plus petites, la méthode des moments peut dépasser celle de la MLE; Par exemple, dans le cas connu , à la taille d'échantillon 10, lors de l'estimation de , l'EQM de MoM est inférieure à celle de ML.θ σ
Delicado et Goria (2008),
Petit échantillon de comparaison des méthodes du maximum de vraisemblance, des moments et des moments L pour la distribution de puissance exponentielle asymétrique,
Journal Computational Statistics & Data Analysis
Volume 52 Numéro 3, Janvier, pp 1661-1673.
(Voir aussi http://www-eio.upc.es/~delicado/my-public-files/LmomAEP.pdf )
la source
La méthode des moments (MM) peut vaincre l'approche du maximum de vraisemblance (ML) lorsqu'il est possible de spécifier uniquement certains moments de la population. Si la distribution est mal définie, les estimateurs de ML ne seront pas cohérents.
En supposant des moments finis et des observations idiotes, le MM peut fournir de bons estimateurs avec de belles propriétés asymptotiques.
Exemple: Soit un échantillon iid de , où est une fonction de densité de probabilité inconnue. Définissez le ème moment et considérez que l’intérêt est d’estimer le quatrième moment .X1,…,Xn X∼f f:R→R+ νk=∫Rxkf(x)dx k ν4
Soit , puis en supposant que , le théorème de la limite centrale garantit que où " " signifie "la distribution converge vers" . De plus, par le théorème de Slutsky,Xk¯=1n∑ni=1Xki ν8<∞
C'est-à-dire que nous pouvons tirer des conclusions (approximatives) pour en utilisant l'approche du moment (pour les grands échantillons), nous devons simplement émettre des hypothèses sur les moments d'intérêt de la population. Ici, les estimateurs de maximum de vraisemblance ne peuvent être définis sans connaître la forme de . fν4 f
Une étude de simulation:
Patriota et al. (2009) ont mené des études de simulation pour vérifier les taux de rejet des tests d'hypothèses dans un modèle d'erreurs dans les variables. Les résultats suggèrent que l'approche MM produit des taux d'erreur sous l'hypothèse nulle plus proches du niveau nominal que ceux de ML pour les petits échantillons.
Note historique:
La méthode des moments a été proposée par K. Pearson en 1894 "Contributions à la théorie mathématique de l'évolution". La méthode du maximum de vraisemblance a été proposée par RA Fisher en 1922 "Sur les fondements mathématiques des statistiques théoriques". Les deux articles ont été publiés dans la série A des Opérations philosophiques de la Royal Society of London.
Référence:
Fisher, RA (1922). Sur les fondements mathématiques des statistiques théoriques, Opérations philosophiques de la Royal Society de Londres, série A, 222, 309-368.
Patriota, AG, Bolfarine, H., de Castro, M. (2009). Un modèle hétéroscedastique d'erreurs dans les variables de variables avec erreur d'équation, Statistical Methodology 6 (4), 408-423 ( pdf )
Pearson, K (1894). Contributions à la théorie mathématique de l'évolution, Opérations philosophiques de la Royal Society of London, série A, 185, 71-110.
la source
Sources supplémentaires en faveur de MOM:
Hong, HP et W. Ye. 2014. Analyse des charges de neige au sol extrêmes pour le Canada à l'aide d'enregistrements d'épaisseur de neige . Risques naturels 73 (2): 355-371.
Martins, ES et JR Stedinger. 2000. Estimateurs quantiles généralisés de valeur extrême généralisés par maximum de vraisemblance pour les données hydrologiques . Recherche sur les ressources en eau 36 (3): 737-744.
Abstrait:
Dans les sections Introduction et Revue de la littérature, ils citent des articles supplémentaires qui concluent que MOM est parfois supérieur à MLE (encore une fois, la modélisation des valeurs extrêmes), par exemple:
K (kappa) est le paramètre de forme de GEV.
articles qui apparaissent dans les citations:
Hosking J, Wallis J, Wood E (1985) Estimation de la distribution généralisée des valeurs extrêmes par la méthode des moments pondérés par probabilité . Technometrics 27: 251–261.
Madsen, H., PF Rasmussen et D. Rosbjerg (1997) Comparaison des méthodes de série de séries annuelles maximales et de séries de durées partielles pour la modélisation d'événements hydrologiques extrêmes , 1, Modélisation sur site, ressources en eau. Res., 33 (4), 747-758.
Hosking, JRM, L-moments: Analyse et estimation de distributions à l'aide de combinaisons linéaires de statistiques d'ordre , JR Stat. Soc., Ser. B, 52, 105-124, 1990.
De plus, j'ai la même expérience que celle décrite dans les articles ci-dessus. En cas de modélisation d'événements extrêmes avec des échantillons de petite taille et de taille modérée (<50-100, ce qui est typique), le MLE peut donner des résultats irréalistes, la simulation montre que MOM est plus robuste et plus robuste. RMSE plus petit.
la source
En train de répondre à ceci: Estimation des paramètres pour un binôme, je suis tombé sur ce papier:
Ingram Olkin, A John Petkau, James V Zidek: Une comparaison des estimateurs de N pour la distribution binomiale. Jasa 1981.
ce qui donne un exemple où la méthode des moments, au moins dans certains cas, bat le maximum de vraisemblance. Le problème est l’estimation de dans la distribution binomiale où les deux paramètres sont inconnus. Il apparaît par exemple que vous essayez d'estimer l'abondance des animaux lorsque vous ne pouvez pas voir tous les animaux et que la probabilité d'observation est également inconnue.Bin ( N , p ) pN Bin(N,p) p
la source