Logique derrière le test F ANOVA en régression linéaire simple

17


J'essaie de comprendre la logique derrière le test F ANOVA dans l'analyse de régression linéaire simple. Ma question est la suivante. Lorsque la valeur F, c'est-à MSR/MSE- dire est grande, nous acceptons le modèle comme significatif. Quelle est la logique derrière cela?

Je ne sais pas
la source
@ Can'tTell Vous pouvez trouver de l'aide sur le formatage ici: stats.stackexchange.com/editing-help

Réponses:

21

Dans le cas le plus simple, lorsque vous n'avez qu'un seul prédicteur (régression simple), disons , le test F vous indique si l'inclusion de X 1 explique une plus grande partie de la variance observée dans Y par rapport au modèle nul (interception uniquement) . L'idée est alors de tester si la variance expliquée ajoutée (variance totale, TSS, moins variance résiduelle, RSS) est suffisamment importante pour être considérée comme une "quantité significative". Nous comparons ici un modèle avec un prédicteur, ou variable explicative, à une ligne de base qui n'est que du «bruit» (rien sauf la moyenne).X1FX1Y

De même, vous pouvez calculer une statistique dans un paramètre de régression multiple: dans ce cas, cela équivaut à un test de tous les prédicteurs inclus dans le modèle, ce qui signifie que dans le cadre HT, nous nous demandons si l'un d'eux est utile pour prédire la réponse variable. C'est la raison pour laquelle vous pouvez rencontrer des situations où le test F pour l'ensemble du modèle est significatif alors que certains des tests t ou z associés à chaque coefficient de régression ne le sont pas.FFtz

La statistique ressembleF

F=(TSSRSS)/(p1)RSS/(np),

est le nombre de paramètres du modèle et n le nombre d'observations. Cette quantité doit être référée à une distribution F p - 1 , n - p pour une valeur critique ou p . Il s'applique également au modèle de régression simple et présente évidemment une certaine analogie avec le cadre ANOVA classique.pnFp1,npp

Sidenote. Lorsque vous avez plusieurs prédicteurs, vous vous demandez peut-être si le fait de considérer uniquement un sous-ensemble de ces prédicteurs "réduit" la qualité de l'ajustement du modèle. Cela correspond à une situation où nous considérons des modèles imbriqués . C'est exactement la même situation que les précédentes, où nous comparons un modèle de régression donné avec un modèle nul (aucun prédicteur inclus). Afin d'évaluer la réduction de la variance expliquée, nous pouvons comparer la somme résiduelle des carrés (RSS) des deux modèles (c'est-à-dire ce qui reste inexpliqué une fois que vous tenez compte de l'effet des prédicteurs présents dans le modèle). Soit et M 1 le modèle de base (avec pM0M1pet un modèle avec un prédicteur supplémentaire ( paramètres ), alors si RSS M 1 - RSS M 0 est petit, nous considérerions que le modèle plus petit fonctionne aussi bien que le plus grand. Une bonne statistique à utiliser serait le rapport de tels SS, ( RSS M 1 - RSS M 0 ) / RSS M 0 , pondéré par leurs degrés de liberté ( p - q pour le numérateur, et n - pq=p+1RSSM1RSSM0(RSSM1RSSM0)/RSSM0pqnppour le dénominateur). Comme déjà dit, on peut montrer que cette quantité suit une distribution (ou Fisher-Snedecor) avec p - q et n - p degrés de liberté. Si le F observé est plus grand que le quantile F correspondant à un α donné (typiquement, α = 0,05 ), alors nous conclurons que le plus grand modèle fait un "meilleur travail". (Cela n'implique nullement que le modèle est correct, d'un point de vue pratique!)FpqnpFFαα=0.05

Une généralisation de l'idée ci-dessus est le test du rapport de vraisemblance .

Si vous utilisez R, vous pouvez jouer avec les concepts ci-dessus comme ceci:

df <- transform(X <- as.data.frame(replicate(2, rnorm(100))), 
                                   y = V1+V2+rnorm(100))
## simple regression
anova(lm(y ~ V1, df))         # "ANOVA view"
summary(lm(y ~ V1, df))       # "Regression view"
## multiple regression
summary(lm0 <- lm(y ~ ., df))
lm1 <- update(lm0, . ~ . -V2) # reduced model
anova(lm1, lm0)               # test of V2
chl
la source
@chl - Tout d'abord, belle réponse! Cela peut justifier sa propre question, alors faites-le moi savoir ... mais les descriptions que j'ai lues sur les tableaux ANOVA pour les modèles de régression se réfèrent généralement à trois lignes dans le tableau: prédicteurs, erreurs et total. Cependant, la anova()fonction dans R renvoie une ligne individuelle pour chaque prédicteur du modèle. Par exemple, des anova(lm0)rendements supérieurs à une ligne pour V1, V2et Residuals(et non totale). En tant que tel, nous obtenons deux statistiques F * pour ce modèle. Comment cela change-t-il l'interprétation de la statistique F * rapportée dans le tableau ANOVA?
Chase
@Chase Oui, la table ANOVA que j'ai en tête est également organisée de cette façon. N'hésitez pas à poser la question; J'adorerais entendre ce que les autres utilisateurs en pensent. J'utilise généralement anova()pour la comparaison GLM. Lorsqu'il est appliqué à un objet lmou aov, il affiche des effets distincts (SS) pour chaque terme du modèle et n'affiche pas TSS. (J'appliquais cela dans l'autre sens, à savoir après avoir ajusté une ANOVA avec aov(), je peux utiliser summary.lm()pour avoir une idée des contrastes de traitement.) Cependant, il y a des problèmes subtils entre summary.lm()et summary.aov(), en particulier liés à l'ajustement séquentiel.
chl
Je @Chase redécouvert cette réponse très agréable de @Gavin sur l' interprétation de la production de film () de R .
chl
@chl - Un peu de tergiversations de ma part. C'est une bonne réponse à propos de l' intuition derrière le test F et comment il "va dans la bonne direction". Mais cela n'explique pas la logique de la raison pour laquelle vous devriez choisir ce test particulier. Par exemple, pourquoi ne devrions-nous pas utiliser la statistique PRESS? Vous avez laissé entendre au rapport de vraisemblance - qui ne une justification logique - d' où son applicabilité à tous les modèles, à la différence du F-test.
probabilitéislogic
@probabilityislogic Bon point. Mon idée était à l'origine de montrer la logique derrière la comparaison des modèles, dont le modèle de régression simple n'est qu'un cas particulier (comparer au modèle "très nul"), ce qui motive également la note rapide sur le TLR. Je suis d'accord avec vous, si nous travaillons dans la ligne d'une approche Neyman-Pearson pure pour HT. Cependant, je pensais principalement en termes de Théorie des LM, où les SS ont une interprétation géométrique directe et où la comparaison des modèles ou le test F unique pour une ANOVA unidirectionnelle (...)
chl