Dans une récente conférence, on m'a dit que, pour que l'estimation du maximum de vraisemblance soit valide, la probabilité logarithmique doit aller à moins l'infini lorsque le paramètre va à la limite de l'espace des paramètres. Mais je ne comprends pas pourquoi c'est essentiel. Supposons que la probabilité logarithmique va à une sorte d'asymptote. Ensuite, le paramètre qui maximise la probabilité est toujours l'estimation du maximum de vraisemblance, non?
8
Réponses:
Cela revient à dire que la probabilité d'un paramètre doit devenir 0 à la limite de l'espace des paramètres pour que le résultat soit valide.
Eh bien tout d'abord, vous pouvez restreindre l'espace des paramètres à des valeurs qui ont toutes une probabilité positive tout en obtenant une estimation valide.
Deuxièmement, même si vous utilisez, par exemple , vous ne vous approchez pas de la frontière, car tout package d'optimisation prêt à l'emploi effectue une sorte d'initialisation aléatoire, puis se rapproche du minimum en utilisant une méthode telle que gradient descente, gradient conjugué ou autre. Dans les deux cas, vous ne vous approchez presque jamais de la limite de l'espace des paramètres, donc je ne comprends pas très bien pourquoi les limites sont importantes en premier lieu.(−∞,∞)
Et même si vous le faites exprès, à un moment donné, vous atteindrez la précision à virgule flottante de votre système d'exploitation. Je peux vous garantir qu'à ce stade, vous n'avez pas vraiment beaucoup approché la frontière . :)−∞
Personnellement, je trouve le problème de sous-dépassement qui se pose lors du calcul des sommes et des produits de très petites probabilités et le truc de somme de log exp beaucoup plus intéressant et plus remarquable qui compte vraiment beaucoup dans la pratique, contrairement à atteindre les limites de l'espace des paramètres.
la source