Je me demande si l'estimation du maximum de vraisemblance n'a jamais été utilisée dans les statistiques. Nous en apprenons le concept mais je me demande quand il est réellement utilisé. Si nous supposons la distribution des données, nous trouvons deux paramètres, un pour la moyenne et un pour la variance, mais l'utilisez-vous réellement dans des situations réelles?
Quelqu'un peut-il me dire un cas simple dans lequel il est utilisé?
estimation
maximum-likelihood
user122358
la source
la source
Réponses:
Certainement! En fait, beaucoup - mais pas toujours.
Lorsque les gens ont un modèle de distribution paramétrique, ils choisissent assez souvent d'utiliser l'estimation du maximum de vraisemblance. Lorsque le modèle est correct, il existe un certain nombre de propriétés pratiques des estimateurs du maximum de vraisemblance.
Par exemple - l'utilisation de modèles linéaires généralisés est assez répandue et dans ce cas, les paramètres décrivant la moyenne sont estimés par maximum de vraisemblance.
Il peut arriver que certains paramètres soient estimés par maximum de vraisemblance et d'autres non. Par exemple, considérons un GLM de Poisson sur-dispersé - le paramètre de dispersion ne sera pas estimé par maximum de vraisemblance, car le MLE n'est pas utile dans ce cas.
Eh bien, parfois vous pouvez en avoir deux, mais parfois vous avez un paramètre, parfois trois ou quatre ou plus.
Pensez-vous à un modèle particulier peut-être? Ce n'est pas toujours le cas. Envisagez d'estimer le paramètre d'une distribution exponentielle ou d'une distribution de Poisson ou d'une distribution binomiale. Dans chacun de ces cas, il y a un paramètre et la variance est fonction du paramètre qui décrit la moyenne.
Ou considérons une distribution gamma généralisée , qui a trois paramètres. Ou une distribution bêta à quatre paramètres , qui a (peut-être sans surprise) quatre paramètres. Notez également que (selon la paramétrisation particulière) la moyenne ou la variance ou les deux peuvent ne pas être représentés par un seul paramètre mais par les fonctions de plusieurs d'entre eux.
Par exemple, la distribution gamma, pour laquelle il existe trois paramétrisations dont l'utilisation est assez courante - les deux plus courantes ont à la fois la moyenne et la variance en fonction de deux paramètres.
Typiquement dans un modèle de régression ou un GLM, ou un modèle de survie (parmi de nombreux autres types de modèles), le modèle peut dépendre de plusieurs prédicteurs, auquel cas la distribution associée à chaque observation sous le modèle peut avoir un de ses propres paramètres (ou même plusieurs paramètres) qui sont liés à de nombreuses variables prédictives ("variables indépendantes").
la source
Bien que les estimateurs de maximisation de vraisemblance puissent sembler suspects étant donné les hypothèses sur la distribution des données, des estimateurs de quasi-maximum de vraisemblance sont souvent utilisés. L'idée est de commencer par supposer une distribution et de résoudre le MLE, puis de supprimer l'hypothèse de distribution explicite et de regarder plutôt les performances de votre estimateur dans des conditions plus générales. Ainsi, le quasi-MLE devient simplement un moyen intelligent d'obtenir un estimateur, et l'essentiel du travail dérive ensuite des propriétés de l'estimateur. Étant donné que les hypothèses de distribution sont supprimées, le quasi MLE n'a généralement pas les bonnes propriétés d'efficacité.
la source
L'estimation du maximum de vraisemblance est souvent utilisée dans l'apprentissage automatique pour entraîner:
Notez que dans certains cas, on préfère ajouter une certaine régularisation, qui est parfois équivalente à l' estimation Maximum a posteriori , par exemple Pourquoi la pénalité de Lasso est-elle équivalente à la double exponentielle (Laplace) antérieure? .
la source
Un cas très typique est celui de la régression logistique. La régression logistique est une technique souvent utilisée en apprentissage automatique pour classer les points de données. Par exemple, la régression logistique peut être utilisée pour classer si un e-mail est du spam ou non, ou classer si une personne a ou non une maladie.
la source
Nous utilisons MLE tout le temps, mais nous ne le ressentons peut-être pas. Je vais donner deux exemples simples à montrer.
Exemple 1
Si nous observons le résultat du retournement de pièce, avec8 sortir de dix flips (en supposant iid. de Bernoulli), comment deviner le paramètre θ (prob de tête) de la pièce? Nous pouvons direθ = 0,8 , en utilisant "comptage".
Pourquoi utiliser le comptage? c'est en fait implicitement utiliser MLE! Où est le problème
Pour résoudre l'équation, nous aurons besoin d'un peu de calcul, mais la conclusion compte.
Exemple 2
Comment estimerions-nous les paramètres de distribution gaussienne à partir des données? Nous utilisons la moyenne empirique comme moyenne estimée et la variance empirique comme variance estimée, qui provient également de MLE !.
la source
Quelques utilisations maximales de vraisemblance en communication sans fil:
la source