J'ai ces données:
set.seed(1)
predictor <- rnorm(20)
set.seed(1)
counts <- c(sample(1:1000, 20))
df <- data.frame(counts, predictor)
J'ai couru une régression de poisson
poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson")
Et une régression binomiale négative:
require(MASS)
nb_counts <- glm.nb(counts ~ predictor, data = df)
Ensuite, j'ai calculé les statistiques de dispersion pour la régression du poisson:
sum(residuals(poisson_counts, type="pearson")^2)/df.residual(poisson_counts)
# [1] 145.4905
Et la régression binomiale négative:
sum(residuals(nb_counts, type="pearson")^2)/df.residual(nb_counts)
# [1] 0.7650289
Quelqu'un peut-il expliquer, SANS UTILISER D'ÉQUATIONS, pourquoi la statistique de dispersion pour la régression binomiale négative est considérablement plus petite que la statistique de dispersion pour la régression poisson?
la source
Pour le modèle de Poisson, si l'espérance pour la ème observation est sa variance est , et le résidu de Pearson doncY i μ i μ ije Ouije μje μje
où est l'estimation de la moyenne. La paramétrisation du modèle binomial négatif utilisé dans MASS est expliquée ici . Si l'espérance pour la ème observation est sa variance est , et le résidu de Pearson donc iYiμiμi+μ2μ^ je Ouije μje μje+ μ2θ
où est l'estimation de la moyenne. Plus la valeur de - c'est-à-dire plus de variance extra-Poisson - est petite, plus le résidu est petit par rapport à son équivalent de Poisson. [Mais comme @whuber l'a souligné, les estimations des moyennes ne sont pas les mêmes, , car la procédure d'estimation pondère les observations en fonction de leur variance supposée. Si vous deviez faire des mesures répétées pour le ème modèle de prédicteur, elles se rapprocheraient, et en général, l'ajout d'un paramètre devrait donner un meilleur ajustement à toutes les observations, bien que je ne sache pas comment le démontrer rigoureusement. Néanmoins, les quantités de population que vous estimez sont plus grandes si le modèle de Poisson tient, donc cela ne devrait pas être une surprise.] & thetav μ ≠ ~ μ iμ~ θ μ^≠μ~ i
la source