J'ai quelques questions conceptuelles simples que j'aimerais clarifier concernant MLE (Maximum Lik vraisemblable Estimation), et quel lien il a, le cas échéant, avec EM (Expectation Maximization).
Si je comprends bien, si quelqu'un dit "Nous avons utilisé le MLE", cela signifie-t-il automatiquement qu'il a un modèle explicite du PDF de ses données? Il me semble que la réponse à cette question est oui. Autrement dit, si à tout moment quelqu'un dit "MLE", il est juste de lui demander quel PDF il suppose. Serait-ce correct?
Enfin, sur EM, je crois comprendre qu'en EM, nous ne connaissons pas - ou n'avons pas besoin de savoir - le PDF sous-jacent de nos données. C'est ma compréhension.
Je vous remercie.
Réponses:
La méthode MLE peut être appliquée dans les cas où quelqu'un connaît la forme fonctionnelle de base du pdf (par exemple, il est gaussien, ou log-normal, ou exponentiel, ou autre), mais pas les paramètres sous-jacents; par exemple, ils ne connaissent pas les valeurs de et σ dans le pdf: f ( x | μ , σ ) = 1μ σ ou tout autre type de pdf qu'ils supposent. Le travail de la méthode MLE est de choisir les meilleurs (c.plus plausibles)valeurs pour les paramètres inconnus, compte tenu des mesures de données particulièresx1,x2,x3,. . . qui ont été effectivement observés. Donc, pour répondre à votre première question, oui, vous avez toujours le droit de demander à quelqu'un quelleformede pdf il suppose pour son estimation de probabilité maximale; en effet, les valeurs estimées des paramètres qu'ils vous disent ne sont même pas significatives à moins qu'ils ne communiquent d'abord ce contexte.
la source
MLE nécessite la connaissance d'au moins les distributions marginales. Lorsque nous utilisons MLE, nous estimons généralement les paramètres d'une distribution conjointe en faisant une hypothèse iid, puis en factorisant la distribution conjointe en tant que produit des marginaux, que nous connaissons. Il existe des variantes, mais c'est l'idée dans la plupart des cas. Le MLE est donc une méthode paramétrique.
L'algorithme EM est une méthode pour maximiser les fonctions de vraisemblance qui apparaissent dans le cadre d'un algorithme MLE. Il est souvent (généralement?) Utilisé pour les solutions numériques.
Chaque fois que nous utilisons MLE, nous avons besoin au moins des distributions marginales et de certaines hypothèses sur la façon dont l'articulation est liée aux marginaux (indépendance, etc.). Par conséquent, les deux méthodes reposent sur la connaissance des distributions.
la source