J'ai rencontré un problème dans les manuels pour estimer la moyenne. Le problème des manuels est le suivant:
On suppose que points de données, , ,. . . , , ont été générés par un pdf gaussien unidimensionnel de moyenne inconnue, mais de variance connue. Dériver l'estimation ML de la moyenne.
Ma question est la suivante: pourquoi devons-nous estimer la moyenne à l'aide du MLE alors que nous savons déjà que la moyenne est la moyenne des données? La solution indique également que l'estimation MLE est la moyenne des données. Dois-je faire toutes les étapes fatigantes de maximisation du MLE pour découvrir que la moyenne n'est rien d'autre que la moyenne des données, c'est-à-dire ?
self-study
normal-distribution
maximum-likelihood
Niranjan Kotha
la source
la source
Réponses:
Le problème du livre de texte indique que provient de Ils vous disent que est connu, mais doit être estimé.x1,x2,…,xN
Est-il vraiment si évident qu'une bonne estimation ?!μ^=x¯
Ici, .x¯=1N∑Ni=1xi
Ce n'était pas évident pour moi, et j'ai été assez surpris de voir qu'il s'agit en fait d'une estimation MLE.
Considérez également ceci: que faire si était connu et inconnu? Dans ce cas, l'estimateur MLE estμ σ
Remarquez, comment cet estimateur n'est pas le même qu'un estimateur de variance d'échantillon! "Nous savons déjà" que la variance de l'échantillon n'est pas donnée par l'équation suivante?
la source
Dans ce cas, la moyenne de votre échantillon est également l'estimateur du maximum de vraisemblance. Donc, faire tout le travail dérive du MLE ressemble à un exercice inutile, car vous revenez à votre estimation intuitive de la moyenne que vous auriez utilisée en premier lieu. Eh bien, ce n'était pas "juste par hasard"; ceci a été spécifiquement choisi pour montrer que les estimateurs MLE conduisent souvent à des estimateurs intuitifs.
Mais que faire s'il n'y avait pas d'estimateur intuitif? Par exemple, supposons que vous disposiez d'un échantillon de variables aléatoires gamma iid et que vous souhaitiez estimer la forme et les paramètres de débit. Vous pourriez peut-être essayer de raisonner un estimateur à partir des propriétés que vous connaissez des distributions gamma. Mais quelle serait la meilleure façon de procéder? En utilisant une combinaison de la moyenne et de la variance estimées? Pourquoi ne pas utiliser la médiane estimée au lieu de la moyenne? Ou le log-mean? Tout cela pourrait être utilisé pour créer une sorte d'estimateur, mais lequel sera le bon?
En fait, la théorie MLE nous donne un excellent moyen d'obtenir une réponse succincte à cette question: prendre les valeurs des paramètres qui maximisent la probabilité des données observées (ce qui semble assez intuitif) et l'utiliser comme estimation. En fait, nous avons une théorie qui stipule que dans certaines conditions, ce sera approximativement le meilleur estimateur. C'est beaucoup mieux que d'essayer de trouver un estimateur unique pour chaque type de données et de passer beaucoup de temps à s'inquiéter si c'est vraiment le meilleur choix.
En bref: bien que MLE ne fournisse pas de nouvelles informations dans le cas de l'estimation de la moyenne des données normales , il s'agit en général d'un outil très, très utile.
la source
Il s'agit de confondre le vocabulaire, comme l'illustrent ces citations, directement de Google:
Pas la meilleure définition, je suis d'accord! Surtout en suggérant la signification comme synonyme. Je pense que la moyenne est la plus appropriée pour les jeux de données ou les échantillons comme dans et ne devrait pas être utilisée pour les distributions, comme dans .x¯ μ N(μ,σ²)
Comme suggéré par cette entrée de Wikipedia , la moyenne s'applique à la fois aux distributions et aux échantillons ou ensembles de données. La moyenne d'un ensemble de données ou d'un échantillon est également la moyenne de la distribution empirique associée à cet échantillon. L'entrée illustre également la possibilité d'une confusion entre les termes car elle donne la moyenne et l'attente comme synonymes.
Je limiterais l'utilisation de l' attente à un objet obtenu par une intégrale, comme dans mais la moyenne d'un échantillon est encore une fois l'attente associée à la distribution empirique dérivée de cet échantillon.
la source