Comment tester si les pentes du modèle linéaire sont égales à une valeur fixe?

9

Supposons que nous ayons un modèle de régression linéaire simple et que nous tester l'hypothèse nulle rapport à l'alternative générale.Z=aX+bYH0:a=b=12

Je pense que l'on peut utiliser l'estimation de et et appliquer en outre un test pour obtenir l'intervalle de confiance autour de . Est-ce correct?a^SE(a^)Z12

L'autre question est fortement liée à celle-ci. Supposons que nous ayons un échantillon et nous calculons des statistiques{(x1,y1,z1),,(xn,yn,zn)}χ2

i=1n(zixi+yi2)2xi+yi2.
Ces statistiques peuvent-elles être utilisées pour tester la même hypothèse nulle?
Lan
la source

Réponses:

8

En régression linéaire, l'hypothèse est que et ne sont pas des variables aléatoires. Par conséquent, le modèleXY

Z=aX+bY+ϵ

est algébriquement le même que

Z12X12Y=(a12)X+(b12)Y+ϵ=αX+βY+ϵ.

Ici, et . Le terme d'erreur n'est pas affecté. Ajustez ce modèle en estimant les coefficients respectivement et et testez l'hypothèse de la manière habituelle.α=a12β=b12ϵα^β^α=β=0


La statistique écrite à la fin de la question n'est pas une statistique chi carré, malgré sa similitude formelle avec une. Une statistique chi carré implique des nombres , pas des valeurs de données, et doit avoir des valeurs attendues dans son dénominateur, pas des covariables. Il est possible qu'un ou plusieurs des dénominateurs soient nuls (ou proches), ce qui montre que quelque chose ne va vraiment pas avec cette formulation. Si même cela n'est pas convaincant, considérez que les unités de mesure de , et pourraient être n'importe quoi (comme les drams, les parsecs et les picots), de sorte qu'une combinaison linéaire comme n'a (en général) aucun sens. Il ne teste rien.xi+yi2ZXYzi(xi+yi)/2

whuber
la source
1
Merci pour votre réponse. C'était très utile. En fait, je n'ai pas été très précis dans la formulation de la deuxième partie de la question. Imaginez que xs et ys soient des nombres positifs, mesurés dans les mêmes unités. Les zs (résultat observé) mesurent en quelque sorte l '"interaction" en ce sens que s'il n'y a pas d'interaction, les zs devraient être (x + y) / 2 (résultat attendu). Donc, de mon point de vue, c'était la même chose pour utiliser la régression avec l'hypothèse nulle a = b = 1/2 ou pour comparer la qualité de l'ajustement en utilisant les statistiques chi ^ 2 de Pearson. Est-ce que cela a un sens? Merci!
Lan
1
@Lan Je pense que la réponse de Wolfgang illustre bien comment faire le test que vous proposez. C'est un exemple de ce que l'on entend par tester une hypothèse «de la manière habituelle».
whuber
9

Vous pouvez tester cette hypothèse avec un test de modèle complet ou réduit. Voici comment procéder. Tout d'abord, le modèle et obtenez les résidus de ce modèle. Équilibrez les résidus et résumez-les. Il s'agit de la somme des erreurs carrées pour le modèle complet. Appelons cela . Ensuite, calculer où . Ce sont vos résidus sous l'hypothèse nulle. Mettez-les au carré et résumez-les. Il s'agit de la somme des erreurs carrées pour le modèle réduit. Appelons cela .Z=aX+bYSSEfZZ^Z^=1/2X+1/2YSSEr

Calculez maintenant:

F = ,((SSErSSEf)/2)/(SSEf/(n2))

où est la taille de l'échantillon. Sous , cette statistique F suit une distribution F avec et degrés de liberté.H 0 2 n - 2nH02n2

Voici un exemple utilisant R:

x <- rnorm(n)
y <- rnorm(n)
z <- 1/2*x + 1/2*y + rnorm(n) ### note I am simulating under H0 here

res <- lm(z ~ x + y - 1)
summary(res)
SSE.f <- sum(resid(res)^2)

zhat  <- 1/2*x + 1/2*y
SSE.r <- sum((z-zhat)^2)

F <- ((SSE.r - SSE.f) / 2) / (SSE.f / (n-2))
pf(F, 2, n-2, lower.tail=FALSE) ### this is the p-value

Rejetez le null si la valeur de p est inférieure à 0,05 (si votre est effectivement 0,05).α

Je suppose que vous vouliez vraiment que votre modèle ne contienne pas d'interception. En d'autres termes, je suppose que vous travaillez vraiment avec le modèle et non .Z = c + a X + b YZ=aX+bYZ=c+aX+bY

Wolfgang
la source