Est-il possible d'appliquer la procédure MLE habituelle à la distribution triangulaire? - J'essaie mais je semble être bloqué à un moment ou à un autre dans les mathématiques par la façon dont la distribution est définie. J'essaie d'utiliser le fait que je connais le nombre d'échantillons au-dessus et au-dessous de c (sans connaître c): ces 2 nombres sont cn et (1-c) n, si n est le nombre total d'échantillons. Cependant, cela ne semble pas aider à la dérivation. Le moment des moments donne un estimateur pour c sans trop de problème. Quelle est la nature exacte de l'obstruction au MLE ici (s'il y en a effectivement un)?
Plus de détails:
Considérons dans [ 0 , 1 ] et la distribution définie sur [ 0 , 1 ] par:
si x <cf(x;c)=2(1-x)
si c <= x
Prenons un échantillon iid { x i } de cette distribution sous forme de log-vraisemblance de c étant donné cet échantillon:
J'essaie ensuite d'utiliser le fait que, étant donné la forme de , nous savons que c n échantillons tomberont en dessous de (inconnu) c , et ( 1 - c ) n tombera au-dessus de c . À mon humble avis, cela permet de décomposer la somme dans l'expression du log-vraisemblance ainsi:
Ici, je ne sais pas comment procéder. MLE impliquera de prendre une dérivée par rapport à de la log-vraisemblance, mais j'ai c comme limite supérieure de la somme, ce qui semble bloquer cela. Je pourrais essayer avec une autre forme de log-vraisemblance, en utilisant des fonctions d'indicateur:
Mais dériver les indicateurs ne semble pas facile non plus, bien que les deltas de Dirac pourraient permettre de continuer (tout en ayant des indicateurs, car nous devons dériver des produits).
Donc, ici, je suis bloqué dans MLE. Une idée?
Réponses:
Certainement! Bien qu'il y ait quelques bizarreries à gérer, il est possible de calculer les MLE dans ce cas.
Cependant, si par «la procédure habituelle» vous voulez dire «prenez des dérivées de la log-vraisemblance et fixez-la à zéro», alors peut-être pas.
Avez-vous essayé de dessiner la probabilité?
-
Suivi après clarification de la question:
La question de dessiner la probabilité n'était pas un commentaire futile, mais centrale à la question.
Non. MLE implique de trouver l'argmax d'une fonction. Cela implique seulement de trouver les zéros d'un dérivé sous certaines conditions ... qui ne tiennent pas ici. Au mieux, si vous parvenez à le faire, vous identifierez quelques minima locaux .
Comme ma question précédente le suggérait, regardez la probabilité.
Les lignes grises marquent les valeurs des données (j'aurais probablement dû générer un nouvel échantillon pour obtenir une meilleure séparation des valeurs). Les points noirs indiquent la vraisemblance / log-vraisemblance de ces valeurs.
Voici un zoom avant proche du maximum de la probabilité, pour voir plus de détails:
Comme vous pouvez le voir d'après la probabilité, dans de nombreuses statistiques d'ordres, la fonction de vraisemblance a des `` coins '' nets - des points où la dérivée n'existe pas (ce qui n'est pas surprenant - le pdf d'origine a un coin et nous prenons un produit de pdfs). Ceci (qu'il y a des cuspides aux statistiques de commande) est le cas avec la distribution triangulaire, et le maximum se produit toujours à l'une des statistiques de commande. (Le fait que les cuspides se produisent lors des statistiques d'ordre n'est pas unique aux distributions triangulaires; par exemple, la densité de Laplace a un coin et, par conséquent, la probabilité pour son centre en a un à chaque statistique d'ordre.)
Comme cela se produit dans mon échantillon, le maximum se produit comme la statistique du quatrième ordre, 0,3780912
Une référence utile est le chapitre 1 de " Beyond Beta " de Johan van Dorp et Samuel Kotz. En l'occurrence, le chapitre 1 est un chapitre «échantillon» gratuit pour le livre - vous pouvez le télécharger ici .
Il y a un joli petit papier par Eddie Oliver sur cette question avec la distribution triangulaire, je pense dans American Statistician (qui fait essentiellement les mêmes points; je pense que c'était dans un coin de l'enseignant). Si je parviens à le localiser, je le donnerai comme référence.
Edit: le voici:
EH Oliver (1972), A Maximum Likelihood Oddity,
The American Statistician , Vol 26, Issue 3, June, p43-44
( lien éditeur )
Si vous pouvez facilement vous en procurer, cela vaut le coup d'œil, mais ce chapitre Dorp et Kotz couvre la plupart des questions pertinentes, donc ce n'est pas crucial.
À titre de suivi de la question dans les commentaires - même si vous pouviez trouver un moyen de `` lisser '' les coins, vous auriez encore à faire face au fait que vous pouvez obtenir plusieurs maxima locaux:
Il pourrait cependant être possible de trouver des estimateurs qui ont de très bonnes propriétés (meilleures que la méthode des moments), que vous pouvez écrire facilement. Mais ML sur le triangulaire sur (0,1) est quelques lignes de code.
S'il s'agit d'énormes quantités de données, cela aussi peut être traité, mais ce serait une autre question, je pense. Par exemple, tous les points de données ne peuvent pas être un maximum, ce qui réduit le travail, et d'autres économies peuvent être réalisées.
la source