Pearson VS Deviance Residuals dans la régression logistique

16

Je sais que les résidus Pearson standardisés sont obtenus de manière probabiliste traditionnelle:

ri=yiπiπi(1πi)

et les résidus de déviance sont obtenus de manière plus statistique (la contribution de chaque point à la vraisemblance):

di=si2[yilogπi^+(1yi)log(1πi)]

où = 1 si = 1 et = -1 si = 0.siyisiyi

Pouvez-vous m'expliquer, intuitivement, comment interpréter la formule des résidus de déviance?

De plus, si je veux en choisir un, lequel est le plus adapté et pourquoi?

BTW, certaines références affirment que nous dérivons les résidus de déviance en fonction du terme

12ri2

où est mentionné ci-dessus.ri

Jack Shi
la source
Toutes les pensées seraient appréciées
Jack Shi
1
Quand vous dites "quelques références" ... quelles références, et comment font-elles?
Glen_b -Reinstate Monica

Réponses:

10

La régression logistique cherche à maximiser la fonction de vraisemblance logarithmique

LL=kln(Pi)+rln(1Pi)

où est la probabilité prédite que le cas i soit ; est le nombre de cas observés comme et est le nombre de cas (les autres) observés comme .PiY^=1kY=1rY=0

Cette expression est égale à

LL=(kdi2+rdi2)/2

parce que la déviance résiduelle d' un cas est définie comme:

di={2ln(Pi)if Yi=12ln(1Pi)if Yi=0

Ainsi, la régression logistique binaire cherche directement à minimiser la somme des résidus de déviation au carré. Ce sont les résidus de déviance qui sont impliqués dans l'algorithme ML de la régression.

La statistique du chi carré de l'ajustement du modèle est , où le modèle complet contient des prédicteurs et pas le modèle réduit.2(LLfull modelLLreduced model)

ttnphns
la source