Quelle est la différence entre la régression binomiale et la régression logistique?

20

J'ai toujours pensé que la régression logistique était simplement un cas spécial de régression binomiale où la fonction de lien est la fonction logistique (au lieu, disons, d'une fonction probit).

En lisant les réponses à une autre question que j'avais, cependant, il semble que je puisse être confus, et il y a une différence entre la régression logistique et la régression binomiale avec un lien logistique.

Quelle est la différence?

raegtin
la source

Réponses:

13

La régression logistique est une régression binomiale avec la fonction de lien "logistique":

g(p)=log(p1p)=Xβ

Bien que je pense également que la régression logistique est généralement appliquée aux proportions binomiales plutôt qu'aux nombres binomiaux.

probabilitéislogique
la source
1
Que voulez-vous dire par régression logistique généralement appliquée aux proportions plutôt qu'aux nombres? Supposons que j'essaie de prédire si des gens assisteront à une fête ou non, et que pour une fête en particulier, je sais que 9 personnes y ont assisté et 1 ne l'a pas fait - voulez-vous dire que la régression logistique prend cela comme un exemple de formation ce parti a eu un taux de réussite de 0,9), alors que la régression binomiale avec un lien prendrait cela comme 10 exemples de formation (9 succès, 1 échec)?
raegtin
@raehtin - dans les deux cas, il s'agirait d' échantillon / cas d'apprentissage, avec ( n i , f i ) = ( 10 , 0,9 ) et ( n i , x i ) = ( 10 , 9 ) respectivement. La différence est la forme des fonctions moyenne et variance. Pour le binôme, la moyenne est μ i = n i p i , le lien canoncial est maintenant log ( μ i1(ni,fi)=(10,0.9)(ni,xi)=(10,9)μi=nipi(également appelé "paramètre naturel"), et la fonction de variance estV(μi)=μi(ni-μi)log(μiniμi) avec le paramètre de dispersionϕi=1. Pour la logistique, nous avons une moyenneμi=pi, le lien ci-dessus, la fonction de variance deV(μi)=μi(1-μi)et une dispersion égale àϕi=1V(μi)=μi(niμi)niϕi=1μi=piV(μi)=μi(1μi) . ϕi=1ni
probabilitéislogic
Avec la logistique, le est séparé des fonctions moyenne et variance, il peut donc être plus facilement pris en compte via la pondérationni
probabilités
Ah, j'ai compris, je pense que je vois. Est-ce à dire qu'ils produisent des résultats équivalents (simplement obtenus d'une manière différente)?
raegtin
1
@raegtin - Je pense que oui. Les poids GLM, wi2=1ϕiV(μi)[g(μi)]2
4

var(Y)=Y^(1Y^)Y^=logit1(Xβ^)=1/(1exp(Xβ^))[0,1]

AdamO
la source