Lorsque vous essayez d'estimer des paramètres, vous souhaitez toujours qu'il existe une solution de formulaire fermé. Cependant, il n'en existe pas toujours (je suppose qu'il est possible que dans certains cas il y en ait un mais il est inconnu à l'heure actuelle). Lorsqu'une solution sous forme fermée n'existe pas, une stratégie heuristique doit être utilisée pour rechercher dans l'espace des paramètres les meilleures estimations de paramètres possibles à utiliser. Il y a beaucoup de stratégies de recherche (par exemple dans R
, ? Optim listes 6 méthodes d'usage général). L'IRWLS est une version simplifiée de l' algorithme de Newton-Raphson .
Malheureusement, la réponse à votre [ 1 ] est qu'aucune stratégie de recherche heuristique n'est garantie pour trouver le minimum global (maximum). Il y a trois raisons pour lesquelles c'est le cas:
- Comme indiqué sur la diapositive 9 de votre présentation liée, aucune solution unique ne peut exister. Des exemples de ceci peuvent être la multicolinéarité parfaite , ou lorsqu'il y a plus de paramètres à estimer qu'il n'y a de données .
- Comme indiqué sur la diapositive 10 (cette présentation est assez bonne, je pense), la solution peut être infinie. Cela peut se produire dans la régression logistique, par exemple, lorsque vous avez une séparation parfaite .
Il peut aussi arriver qu'il existe un minimum global fini (maximum), mais que l'algorithme ne le trouve pas. Ces algorithmes (en particulier IRWLS et NR) ont tendance à partir d'un emplacement spécifié et à «regarder autour» pour voir si se déplacer dans une certaine direction constitue une «descente» (c'est-à-dire améliorer l'ajustement). Si c'est le cas, il se réadaptera à une certaine distance dans cette direction et répétera jusqu'à ce que l'amélioration supposée / prédite soit inférieure à un certain seuil. Ainsi, il peut y avoir deux façons de ne pas atteindre le minimum mondial:
- Le taux de descente de l'emplacement actuel vers le minimum global (maximum) est trop faible pour franchir le seuil et l'algorithme s'arrête avant la solution.
- Il existe un minimum local (maximum) entre l'emplacement actuel et le minimum global (maximum), de sorte qu'il apparaît à l'algorithme qu'un mouvement ultérieur entraînerait un ajustement pire .
En ce qui concerne votre [ 2 ], sachez que les différentes stratégies de recherche ont des tendances différentes à être prises dans les minima locaux. Même la même stratégie peut parfois être adaptée ou commencée à partir d'un point de départ différent pour résoudre les deux derniers problèmes.
gung - Réintégrer Monica
la source
Vous avez raison de dire qu'en général, IWLS, comme les autres méthodes d'optimisation numérique, ne peut garantir la convergence à un maximum local que si elles convergent. Voici un bel exemple où la valeur de départ était en dehors du domaine de convergence pour l'algorithme utilisé par glm () dans R. Cependant, il convient de noter que pour les GLM avec le lien canonique, la probabilité est concave, voir ici . Ainsi, si l'algorithme converge, il aura convergé vers le mode global!
Le dernier problème signalé dans la diapositive est un problème où le MLE d'un paramètre est à l'infini. Cela peut se produire dans la régression logistique où il existe une séparation complète. Dans un tel cas, vous obtiendrez un message d'avertissement indiquant que les probabilités ajustées sont numériquement 0 ou 1. Il est important de noter que lorsque cela se produit, l'algorithme n'a pas convergé vers le mode, donc cela n'a pas à voir avec l'algorithme étant coincé dans un maximum local.
la source