Informations extraites de la matrice chapeau pour la régression logistique

12

Il est clair pour moi, et bien expliqué sur plusieurs sites, quelles informations les valeurs sur la diagonale de la matrice de chapeau donnent pour la régression linéaire.

La matrice chapeau d'un modèle de régression logistique est moins claire pour moi. Est-ce identique aux informations que vous extrayez de la matrice de chapeau en appliquant une régression linéaire? Voici la définition de la matrice chapeau que j'ai trouvée sur un autre sujet de CV (source 1):

H=VX(XVX)1XV

avec X le vecteur des variables prédictives et V est une matrice diagonale avec (π(1π)) .

En d'autres termes, est-il également vrai que la valeur particulière de la matrice chapeau d'une observation présente également la position des covariables dans l'espace de covariable et n'a rien à voir avec la valeur de résultat de cette observation?

Ceci est écrit dans le livre "Analyse des données catégoriques" d'Agresti:

Plus l'effet de levier d'une observation est important, plus son influence potentielle sur l'ajustement est grande. Comme dans la régression ordinaire, les leviers se situent entre 0 et 1 et totalisent le nombre de paramètres du modèle. Contrairement à la régression ordinaire, les valeurs de chapeau dépendent de l'ajustement ainsi que de la matrice du modèle, et les points qui ont des valeurs de prédicteur extrêmes n'ont pas besoin d'avoir un effet de levier élevé.

Donc, hors de cette définition, il semble que nous ne pouvons pas l'utiliser comme nous l'utilisons dans la régression linéaire ordinaire?

Source 1: Comment calculer la matrice chapeau pour la régression logistique dans R?

Kasper
la source

Réponses:

13

Permettez-moi de changer un peu la notation et d'écrire la matrice de chapeau comme où est une matrice diagonale symétrique avec des éléments généraux . Notons que les groupes d'individus ayant la même valeur de covariable . Vous pouvez obtenir l' élément de diagonale ( ) de la matrice chapeau comme La somme de donne alors le nombre de paramètres comme en régression linéaire. Passons maintenant à votre question:

H=V12X(XVX)1XV12
v j = m j π (Vvj=mjπ(xj)[1π(xj)]mjj t hx=xjjthhj
hj=mjπ(xj)[1π(xj)]xj(XVX)1xj
hj

L'interprétation des valeurs de levier dans la matrice chapeau dépend de la probabilité estimée . Si , vous pouvez interpréter les valeurs de levier de la même manière que dans le cas de la régression linéaire, c'est-à-dire qu'être plus éloigné de la moyenne vous donne des valeurs plus élevées. Si vous êtes aux extrémités de la distribution de probabilité, ces valeurs de levier pourraient ne plus mesurer la distance dans le même sens. Ceci est illustré dans la figure ci-dessous tirée de Hosmer et Lemeshow (2000):π0.1<π<0.9

entrez la description de l'image ici

Dans ce cas, les valeurs les plus extrêmes dans l'espace covariable peuvent vous donner le plus petit effet de levier, ce qui est contraire au cas de régression linéaire. La raison en est que l'effet de levier dans la régression linéaire est une fonction monotone, ce qui n'est pas vrai pour la régression logistique non linéaire. Il y a une part monotone croissante dans la formulation ci-dessus des éléments diagonaux de la matrice chapeau qui représente la distance de la moyenne. C'est la partie , que vous pourriez regarder si vous n'êtes intéressé que par la distance en soi. La majorité des statistiques de diagnostic pour les régressions logistiques utilisent l'effet de levier complet , donc cette partie monotone distincte est rarement considérée seule. h jxj(XVX)1xjhj

Si vous voulez approfondir ce sujet, jetez un œil à l'article de Pregibon (1981), qui a dérivé la matrice du chapeau logistique, et au livre de Hosmer et Lemeshow (2000).

Andy
la source