Je me demande s'il y a toujours un maximiseur pour tout problème d'estimation de vraisemblance maximale (log)? En d'autres termes, existe-t-il une distribution et certains de ses paramètres pour lesquels le problème MLE n'a pas de maximiseur?
Ma question vient d'une affirmation d'un ingénieur selon laquelle la fonction de coût (vraisemblance ou log-vraisemblance, je ne suis pas sûr de ce qui était prévu) dans MLE est toujours concave et donc elle a toujours un maximiseur.
Merci et salutations!
Réponses:
L'ingénieur avait peut-être à l'esprit les familles exponentielles canoniques: dans leur paramétrisation naturelle, l'espace des paramètres est convexe et la log-vraisemblance est concave (voir Thm 1.6.3 dans Bickel & Doksum's Mathematical Statistics, Volume 1 ). De plus, dans certaines conditions techniques douces (essentiellement que le modèle soit de "rang complet", ou de manière équivalente, que le paramètre naturel soit identifiable), la fonction de vraisemblance logarithmique est strictement concave, ce qui implique qu'il existe un maximiseur unique. (Corollaire 1.6.2 dans la même référence.) [De plus, les notes de cours citées par @biostat font la même remarque.]
Notez que la paramétrisation naturelle d'une famille exponentielle canonique est généralement différente de la paramétrisation standard. Ainsi, alors que @cardinal souligne que la log-vraisemblance pour la famille n'est pas convexe dans , elle sera concave dans les paramètres naturels, qui sont et .N( μ , σ2) σ2 η1= μ / σ2 η2= - 1 / σ2
la source
La fonction de vraisemblance atteint souvent le maximum pour l'estimation du paramètre d'intérêt. Néanmoins, parfois le MLE n'existe pas, comme pour la distribution des mélanges gaussiens ou les fonctions non paramétriques, qui a plus d'un pic (bi ou multimodal). Je suis souvent confronté au problème de l'estimation des paramètres inconnus de la génétique des populations, c'est-à-dire les taux de recombinaison, l'effet de la sélection naturelle.
@Cardinal souligne également que l'espace paramétrique est illimité.
De plus, je recommanderais l' article suivant , voir la section 3 (pour la fonction) et la Fig.3. Cependant, il existe des informations documentaires très utiles et pratiques sur MLE.
la source
J'avoue que je manque peut-être quelque chose, mais -
S'il s'agit d'un problème d'estimation et que le but est d'estimer un paramètre inconnu, et que le paramètre est connu pour provenir d'un ensemble fermé et borné, et que la fonction de vraisemblance est continue, alors il doit exister une valeur pour ce paramètre qui maximise la fonction de vraisemblance. En d'autres termes, un maximum doit exister. (Il n'est pas nécessaire qu'il soit unique, mais au moins un maximum doit exister. Il n'y a aucune garantie que tous les maxima locaux seront des maxima globaux, mais ce n'est pas une condition nécessaire pour qu'un maximum existe.)
Je ne sais pas si la fonction de vraisemblance doit toujours être convexe, mais ce n'est pas une condition nécessaire pour qu'il existe un maximum.
Si j'ai oublié quelque chose, je serais heureux d'entendre ce qui me manque.
la source
Peut-être que quelqu'un trouvera l'exemple simple suivant utile.
la source