Plus précisément, je veux savoir s’il existe une différence entre lm(y ~ x1 + x2)
et glm(y ~ x1 + x2, family=gaussian)
. Je pense que ce cas particulier de glm est égal à lm. Ai-je tort?
r
normal-distribution
generalized-linear-model
lm
utilisateur3682457
la source
la source
Réponses:
Alors que pour la forme spécifique de modèle mentionnée dans le corps de la question (c.-à-d.
lm(y ~ x1 + x2)
Vsglm(y ~ x1 + x2, family=gaussian)
), régression et GLM sont le même modèle, la question du titre pose une question légèrement plus générale:A quoi la réponse est "Oui!".
Ils peuvent être différents parce que vous pouvez également spécifier une fonction de lien dans le GLM. Cela vous permet d’adapter des formes particulières de relation non linéaire entrey (ou plutôt sa moyenne conditionnelle) et les variables x ; bien que vous puissiez le faire
nls
également, vous n'avez pas besoin de valeurs de départ, parfois la convergence est meilleure (la syntaxe aussi est un peu plus simple).Comparez, par exemple, ces modèles (vous avez R, donc je suppose que vous pouvez les exécuter vous-même):
Donc, en ce qui concerne la question du titre, vous pouvez adapter un modèle GLM à une variété beaucoup plus large de modèles gaussiens qu’une régression.
la source
MASS::rlm
Réponse courte, ils sont exactement les mêmes:
Réponse plus longue; La fonction glm correspond au modèle de MLE, cependant, en raison de l'hypothèse que vous avez faite à propos de la fonction de liaison (dans ce cas, normale), vous vous retrouvez avec les estimations MLS.
la source
glm
isglm(y ~ x1 + x2, family = gaussian(link = "identity"))
.D'après la réponse de @ Repmat, le résumé du modèle est identique, mais les CI des coefficients de régression de
confint
sont légèrement différents entrelm
etglm
.lm
glm
la source