Outre les nombreux commentaires (corrects) d'autres utilisateurs soulignant que la valeur de p pour r2 est identique à la valeur de p pour le test global F, notez que vous pouvez également obtenir la valeur de p associée à r2 " directement "en utilisant le fait que r2 sous l'hypothèse nulle est distribué comme Beta(vn2,vd2), oùvnetvdsont les degrés de liberté du numérateur et du dénominateur, respectivement, pour lastatistiqueFassociée.
Le troisième point de la sous-section Dérivé d'autres distributions de l'entrée Wikipedia sur la distribution bêta nous dit que:
Si et Y ∼ χ 2 ( β ) sont indépendants, alors XX∼χ2(α)Y∼χ2(β).XX+Y∼Beta(α2,β2)
Eh bien, nous pouvons écrire dans ce Xr2Forme X + Y.XX+Y
Soit la somme totale des carrés pour une variable Y , S S E la somme des erreurs au carré pour une régression de Y sur certaines autres variables, et S S R la «somme des carrés réduits», c'est-à-dire: S S R = S S Y - S S E . Alors
r 2 = 1 - S S ESSYYSSEYSSRSSR=SSY−SSE
Et bien sûr, étant des sommes de carrés,SSRetSSEsont tous les deux distribués commeχ2avecvnetvddegrés de liberté, respectivement. Par conséquent,
r2∼Beta(vn
r2=1−SSESSY=SSY−SSESSY=SSRSSR+SSE
SSRSSEχ2vnvd
(Bien sûr, je n'ai pas montré que les deux chi-carrés sont indépendants. Peut-être qu'un commentateur peut dire quelque chose à ce sujet.)
r2∼Beta(vn2,vd2)
Démonstration en R (code emprunteur de @gung):
set.seed(111)
x = runif(20)
y = 5 + rnorm(20)
cor.test(x,y)
# Pearson's product-moment correlation
#
# data: x and y
# t = 1.151, df = 18, p-value = 0.2648
# alternative hypothesis: true correlation is not equal to 0
# 95 percent confidence interval:
# -0.2043606 0.6312210
# sample estimates:
# cor
# 0.2618393
summary(lm(y~x))
# Call:
# lm(formula = y ~ x)
#
# Residuals:
# Min 1Q Median 3Q Max
# -1.6399 -0.6246 0.1968 0.5168 2.0355
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 4.6077 0.4534 10.163 6.96e-09 ***
# x 1.1121 0.9662 1.151 0.265
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 1.061 on 18 degrees of freedom
# Multiple R-squared: 0.06856, Adjusted R-squared: 0.01681
# F-statistic: 1.325 on 1 and 18 DF, p-value: 0.2648
1 - pbeta(0.06856, 1/2, 18/2)
# [1] 0.2647731
set.seed(111); x = runif(20); y = 5 + rnorm(20); cor.test(x,y); summary(lm(y~x))
. Le p pour r est.265
. Les p pour b et pour le test F global sont identiques, même si le p pour a l'est6.96e-09
.R
1 - pbeta(0.06856, 1/2, 18/2)
0.2647731
.265
, comment ne sont-ils pas identiques?Il existe plusieurs façons de dériver la statistique de test pour les tests de la corrélation de Pearson, . Pour obtenir une valeur p , il convient de souligner que vous avez besoin à la fois d'un test et d'une distribution d'échantillonnage d'une statistique de test sous l'hypothèse nulle. Votre titre et votre question semblent avoir une certaine confusion entre la corrélation de Pearson et la «variance expliquée» r 2 . Je considérerai d'abord le coefficient de corrélation.ρ p r2
Il n'y a pas de "meilleure" façon de tester la corrélation de Pearson, à ma connaissance. La transformation Z de Fisher en est une, basée sur des transformations hyperboliques, de sorte que l'inférence est un peu plus efficace. C'est certainement une "bonne" approche, mais le plus triste est que l'inférence pour ce paramètre est cohérente avec l'inférence sur le paramètre de pente pour l'association: ils racontent la même histoire à long terme.β
La raison pour laquelle les statisticiens ont (classique) des tests entièrement préférés de est parce que nous n'avons un « meilleur » test: régression linéaire, qui est l'estimateur BLEU. À l'époque des statistiques modernes, nous ne nous soucions plus vraiment si un test est "meilleur", mais la régression linéaire a beaucoup d'autres propriétés fantastiques qui justifient son utilisation continue pour déterminer l'association entre deux variables. En général, votre intuition est bonne: c'est essentiellement la même chose, et nous concentrons notre attention sur β comme une mesure d'association plus pratique.β β
Le est fonction à la fois de la pente et de l'ordonnée à l'origine. Si l'une ou l'autre de ces valeurs n'est pas nulle, le r 2 devrait avoir une distribution d'échantillonnage discernable par rapport à celle qui serait attendue si les paramètres linéaires étaient nuls. Cependant, dériver des distributions de r 2 sous la valeur nulle et comparer à r 2r2 r2 r2 r2 sous une autre hypothèse alternative ne me donne pas beaucoup de confiance que ce test a beaucoup de pouvoir pour détecter ce que nous voulons. Juste un instinct. En se tournant à nouveau vers les «meilleurs» estimateurs, l'OLS nous donne les «meilleures» estimations de la pente et de l'ordonnée à l'origine, nous avons donc la certitude que notre test est au moins bon pour déterminer la même (le cas échéant) association en testant directement les paramètres du modèle . Pour moi, tester conjointement les et β avec OLS est supérieur à tout test sur r 2, sauf dans un cas rare (peut-être) d'une application d'étalonnage de modélisation prédictive non imbriquée ... mais BIC serait probablement une meilleure mesure dans ce scénario en tous cas.α β r2
la source
Ce n'est pas tout à fait comme ça que j'interpréterais les choses. Je ne pense pas que j'aurais jamais calculé une valeur de pour r ou r 2 . r et r 2 sont des mesures qualitatives d'un modèle, pas des mesures que nous comparons à une distribution, donc une valeur p n'a pas vraiment de sens.p r r2 r r2 p
Obtenir une valeur de pour b est très logique - c'est ce qui vous indique si le modèle a une relation linéaire ou non. Si b est statistiquement significativement différent de 0, vous concluez qu'il existe une relation linéaire entre les variables. Le r ou r 2 vous indique ensuite dans quelle mesure le modèle explique la variation des données. Si r 2 est faible, alors votre variable indépendante n'aide pas beaucoup à expliquer la variable dépendante.p b b 0 r r2 r2
Une valeur pour a nous indique si l'ordonnée à l'origine est statistiquement significativement différente de 0 ou non. Cela a une utilité variable, selon les données. Mon exemple préféré: si vous effectuez une régression linéaire entre le temps de gestation et le poids à la naissance, vous pourriez trouver une interception de, disons, 8 onces qui est statistiquement différente de 0 . Cependant, puisque l'interception représente un âge de gestation de 0 semaine, cela ne signifie vraiment rien.p a 0 0 0
Si quelqu'un calcule régulièrement des valeurs de pour un r 2, je serais intéressé d'en entendre parler.p r2
la source