J'expérimente avec R et j'ai découvert qu'un anova () a besoin d'un objet de type lm. Mais pourquoi devrais-je continuer avec une anova après cela:
> x <- data.frame(rand=rnorm(100), factor=sample(c("A","B","C"),100,replace=TRUE))
> head(x)
rand factor
1 0.9640502 B
2 -0.5038238 C
3 -1.5699734 A
4 -0.8422324 B
5 0.2489113 B
6 -1.4685439 A
> model <- lm(x$rand ~ x$factor))
> summary(model)
Call:
lm(formula = x$rand ~ x$factor)
Residuals:
Min 1Q Median 3Q Max
-2.74118 -0.89259 0.02904 0.59726 3.19762
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -0.1878 0.1845 -1.018 0.311
x$factorB -0.1284 0.2689 -0.477 0.634
x$factorC 0.4246 0.2689 1.579 0.118
Residual standard error: 1.107 on 97 degrees of freedom
Multiple R-squared: 0.04345, Adjusted R-squared: 0.02372
F-statistic: 2.203 on 2 and 97 DF, p-value: 0.1160
Cela me dit tout ce dont j'ai besoin, ou non? Je suis curieux de savoir pourquoi vous souhaitez continuer avec un anova (modèle)
Réponses:
Voyons ce que vous obtenez lorsque vous utilisez réellement la fonction anova () (les nombres sont différents de ceux de votre exemple, car je ne sais pas quelle graine vous avez utilisée pour générer les nombres aléatoires, mais le point reste le même):
Le test F pour le facteur teste simultanémentH0:β1=β2= 0 , c'est-à-dire l'hypothèse que le facteur en général n'est pas significatif. Une stratégie courante consiste à tester d'abord cette hypothèse omnibus avant de déterminer quels niveaux du facteur sont différents les uns des autres.
En outre, vous pouvez utiliser la fonction anova () pour des tests de modèle complets ou réduits. Par exemple:
qui est une comparaison du modèle complet avec le facteur et deux covariables (y1 et y2) et le modèle réduit, où nous supposons que les pentes des deux covariables sont simultanément égales à zéro.
la source
summary.aov(lm(...))
ouanova(lm(...))
ne présentent pas un intérêt particulier.