Je sais empiriquement que c'est le cas. Je viens de développer des modèles qui se heurtent à cette énigme. Je soupçonne également que ce n'est pas nécessairement une réponse oui / non. Je veux dire par là que si A et B sont tous deux corrélés avec C, cela peut avoir une implication concernant la corrélation entre A et B. Mais, cette implication peut être faible. Ce n'est peut-être qu'un signe et rien d'autre.
Voici ce que je veux dire ... Disons que A et B ont tous les deux une corrélation de 0,5 avec C. Cela étant, la corrélation entre A et B pourrait bien être de 1,0. Je pense que cela pourrait aussi être 0,5 ou même inférieur. Mais, je pense qu'il est peu probable que ce soit négatif. Êtes-vous d'accord avec cela?
En outre, y a-t-il une implication si vous envisagez le coefficient de corrélation de Pearson standard ou le coefficient de corrélation de Spearman (rang)? Mes observations empiriques récentes ont été associées au coefficient de corrélation de Spearman.
Réponses:
La corrélation étant une propriété mathématique des distributions multivariées, certaines informations peuvent être obtenues uniquement par le biais de calculs, quelle que soit la genèse statistique de ces distributions.
Pour les corrélations de Pearson , tenez compte des variables multinormal , , . Celles-ci sont utiles car toute matrice définie non négative est en réalité la matrice de covariance de certaines distributions multinormales, ce qui résout la question de l'existence. Si nous nous en tenons aux matrices avec sur la diagonale, les entrées hors diagonale de la matrice de covariance seront leurs corrélations. Ecrire la corrélation de et sous la forme , la corrélation de et sous la forme et la corrélation de et commeY Z 1 X Y ρ Y Z τ X Z σX Y Z 1 X Y ρ Y Z τ X Z σ , nous calculons que
Lorsque cela signifie que . En d'autres termes: lorsque et ont tous deux une grande magnitude, et doivent avoir une corrélation non nulle.ρ 2 + τ 2 ≤ 1 ρ τ X Zσ=0 ρ2+τ2≤1 ρ τ X Z
Si , toute valeur non-négative de (entre et bien sûr) est possible.σ 0 1ρ2=τ2=1/2 σ 0 1
Lorsque , les valeurs négatives de sont autorisées. Par exemple, lorsque , peut être compris entre et .σ ρ = τ = 1 / 2 σ - 1 / 2 1ρ2+τ2<1 σ ρ=τ=1/2 σ −1/2 1
Ces considérations impliquent qu'il existe en effet des contraintes sur les corrélations mutuelles. Les contraintes (qui ne dépendent que du caractère définitif non négatif de la matrice de corrélation, et non des distributions réelles des variables) peuvent être resserrées en fonction d'hypothèses relatives aux distributions univariées. Par exemple, il est facile de voir (et de prouver) que lorsque les distributions de et ne font pas partie de la même famille d'emplacement-échelle, leurs corrélations doivent être strictement inférieures à . (Preuve: une corrélation de implique que et sont liés linéairement comme)Y 1 ± 1 X YX Y 1 ±1 X Y
En ce qui concerne les corrélations de rangs de Spearman , considérons trois observations triviales , et de . Leurs corrélations mutuelles sont , et . Ainsi , même le signe de la corrélation de rang de et peut être l'inverse des signes des corrélations de et et et .( 2 , 3 , 1 ) ( 3 , 2 , 3 ) ( X , Y , Z ) 1 / 2 1 / 2 - 1 / 2 Y Z X Y X Z(1,1,2) (2,3,1) (3,2,3) (X,Y,Z) 1/2 1/2 −1/2 Y Z X Y X Z
la source
Je suis en voyage de pêche annuel en ce moment. Il existe une corrélation entre l'heure de la journée où je pêche et la quantité de poisson que je pêche. Il existe également une corrélation entre la taille de l'appât que j'utilise et la quantité de poisson que je capture. Il n'y a pas de corrélation entre la taille de l'appât et l'heure du jour.
la source
La corrélation est le cosinus de l'angle entre deux vecteurs. Dans la situation décrite, (A, B, C) est un triple d'observations, effectuées n fois, chaque observation étant un nombre réel. La corrélation entre A et B est le cosinus de l'angle entre et , mesuré dans un espace euclidien à n dimensions. Donc, notre situation se réduit à considérer 3 vecteurs , et dans un espace n dimensionnel. Nous avons 3 paires de vecteurs et donc 3 angles. Si deux des angles sont petits (forte corrélation), le troisième sera également petit. Mais dire "corrélé" n’est pas une restriction: cela signifie que l’angle est compris entre 0 etVA=A−E(A) VB=B−E(B) VA VB VC π/2 . En général, cela ne donne aucune restriction sur le troisième angle. En d'autres , commencez par un angle inférieur à entre et (toute corrélation sauf -1). Laissez l'angle entre et . Alors C sera corrélé avec A et B.π VA VB VC VA VB
la source
En complément de la réponse de whuber: la formule présentée
peuvent être transformés en inégalités suivantes (Olkin, 1981):
Une représentation graphique des limites supérieure et inférieure de ressemble à :ρ
Olkin, I. (1981). Restrictions de plage pour les matrices de corrélation produit-moment. Psychometrika, 46, 469-472. doi: 10.1007 / BF02293804
la source
Je pense qu'il est préférable de demander "pourquoi DEVRAIENT-ils être corrélés?" ou peut-être "Pourquoi devrait avoir une corrélation particulière?"
Le code R suivant montre un cas où x1 et x2 sont tous deux corrélés avec Y, mais ont une corrélation 0 l'un avec l'autre
La corrélation avec Y peut être renforcée en réduisant le .3 à .1 ou peu importe.
la source
Je laisserai la démonstration statistique à ceux qui lui conviennent mieux ... mais disons intuitivement que l'événement A génère un processus X qui contribue à la génération de l'événement C. Ensuite, A est corrélé à C (via X). B, en revanche, génère Y, qui façonne également C. Par conséquent, A est corrélé à C, B est corrélé à C mais A et B ne sont pas corrélés.
la source
Pour ceux qui veulent de l'intuition, une corrélation peut être vue comme un cosinus d'un certain angle. Donc, considérons trois vecteurs en 3D, disons A, B et C, chacun correspondant à une variable. La question est de déterminer la gamme d'angles possibles entre A et C lorsque l'angle entre A et B ainsi que l'angle entre B et C sont connus. Pour cela, vous pouvez jouer avec un outil en ligne sans installer de logiciel. Il suffit d'aller à la page http://www.montefiore.ulg.ac.be/~pierard/chained_correlations.php
la source
Prenons un exemple:
Pour certains x, A et B auront une corrélation significative. De même, A et C auront également une corrélation significative, mais la corrélation de B et C ne sera pas significative.
Donc, ce n'est pas nécessairement vrai que si A et B sont corrélés et que A et C sont corrélés, alors B et C le sont également.
Remarque: Pour une compréhension approfondie, pensez à cet exemple sur des données volumineuses.
la source