Remarque: Je poste une question d'un ancien élève qui ne peut pas publier seul pour des raisons techniques.
Étant donné un échantillon iid d'une distribution de Weibull avec pdf y a-t-il une représentation de variable manquante utile et donc un algorithme EM (expectation-maximization) associé qui pourrait être utilisé pour trouver le MLE de k , au lieu d'utiliser directement optimisation numérique?f k ( x ) = k x k - 1 e - x kf k ( x ) = ∫ Z g k ( x , z )
k
Réponses:
Je pense que la réponse est oui, si j'ai bien compris la question.
Écrivezzje= xkje . Ensuite, un type d'itération de l'algorithme EM, commençant par exemple par k^= 1 , est
Étape E:z^je= xk^je
Étape M:k^= n[ ∑( z^je- 1 ) journalXje]
Il s'agit d'un cas spécial (le cas sans censure et sans covariables) de l'itération suggérée pour les modèles de risques proportionnels de Weibull par Aitkin et Clayton (1980). Il peut également être trouvé dans la section 6.11 d'Aitkin et al (1989).
Aitkin, M. et Clayton, D., 1980. L'ajustement de distributions exponentielles, de Weibull et de valeurs extrêmes à des données de survie complexes censurées à l'aide de GLIM. Statistiques appliquées , pp.156-163.
Aitkin, M., Anderson, D., Francis, B. et Hinde, J., 1989. Modélisation statistique dans GLIM . Oxford University Press. New York.
la source
Le Weibull MLE est uniquement résoluble numériquement:
Soit with . β,
1) Fonction de vraisemblance :
fonction log-vraisemblance :
2) Problème MLE : 3) Maximisation par -gradients: Il s'ensuit:
Brancher dans la deuxième condition de gradient 0:λ∗
Cette équation est uniquement résoluble numériquement, par exemple l'algorithme de Newton-Raphson. peut ensuite être placé dans pour compléter l'estimateur ML pour la distribution de Weibull.β^∗ λ∗
la source
Bien que ce soit une vieille question, il semble qu'il y ait une réponse dans un article publié ici: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
la source
Dans ce cas, les estimateurs MLE et EM sont équivalents, car l'estimateur MLE n'est en fait qu'un cas spécial de l'estimateur EM. (Je suppose un cadre fréquentiste dans ma réponse; ce n'est pas vrai pour EM dans un contexte bayésien dans lequel nous parlons de MAP). Puisqu'il n'y a pas de données manquantes (juste un paramètre inconnu), l'étape E renvoie simplement la vraisemblance logarithmique, quel que soit votre choix de . L'étape M maximise ensuite la probabilité logarithmique, ce qui donne le MLE.k( t )
EM serait applicable, par exemple, si vous aviez observé des données à partir d'un mélange de deux distributions de Weibull avec les paramètres et , mais vous ne saviez pas de laquelle de ces deux distributions venait chaque observation.k1 k2
la source