Quelle est la relation entre orthogonale, corrélation et indépendance?

25

J'ai lu un article disant que lorsque vous utilisez des contrastes planifiés pour trouver des moyens qui sont différents d'une manière ANOVA, les contrastes doivent être orthogonaux afin qu'ils ne soient pas corrélés et empêchent que l'erreur de type I ne soit gonflée.

Je ne comprends pas pourquoi orthogonal signifierait non corrélé en aucune circonstance. Je ne trouve pas d'explication visuelle / intuitive de cela, j'ai donc essayé de comprendre ces articles / réponses

https://www.psych.umn.edu/faculty/waller/classes/FA2010/Readings/rodgers.pdf

Que signifie orthogonal dans le contexte des statistiques?

mais pour moi, ils se contredisent. La première dit que si deux variables sont non corrélées et / ou orthogonales, elles sont linéairement indépendantes, mais que le fait qu'elles soient linéairement indépendantes n'implique pas qu'elles soient non corrélées et / ou orthogonales.

Maintenant, sur le deuxième lien, il y a des réponses qui énoncent des choses comme «orthogonal signifie non corrélé» et «Si X et Y sont indépendants, alors ils sont orthogonaux. Mais l'inverse n'est pas vrai».

Un autre commentaire intéressant dans le deuxième lien indique que le coefficient de corrélation entre deux variables est égal au cosinus de l'angle entre les deux vecteurs correspondant à ces variables, ce qui implique que deux vecteurs orthogonaux sont complètement non corrélés (ce qui n'est pas ce que le premier article réclamations).

Quelle est donc la véritable relation entre l'indépendance, l'orthogonale et la corrélation? Peut-être que j'ai raté quelque chose mais je ne peux pas savoir ce que c'est.

Carl Levasseur
la source
1
Est-ce qu'aucune des réponses aux questions affichées comme "Lié" et "Lié" à droite de cette question ne vous satisfait?
Dilip Sarwate
2
Les deux liens que j'ai fournis semblent fournir des réponses solides mais énoncent des choses différentes, et quand je regarde les questions connexes, je peux voir que les gens qui donnent des réponses sont loin d'être d'accord
Carl Levasseur
2
La confusion / contradiction perçue pourrait être entièrement due à la différence entre l'indépendance linéaire et l'indépendance statistique.
jona
1
Je pense que les contrastes (ANOVA) devraient être orthogonaux est un aspect essentiel de cette question: il ne s'agit pas seulement de variables aléatoires. L'accent est également mis davantage sur l '"indépendance" par rapport à la question étroitement liée que Xian a suggérée comme un double éventuel (dans cette question, le PO a déclaré qu'il comprenait "l'indépendance", ce qui était largement considéré comme acquis dans les réponses). Je suggère donc que ce n'est pas un doublon, et deuxièmement @jona que la confusion pourrait bien être enveloppée dans les multiples significations de "l'indépendance".
Silverfish
1
Je crois également que ce n'est pas un doublon. Cette question ne fait pas référence à la corrélation et la réponse ne détaille pas la différence possible entre l'orthogonalité et la non-corrélation. De plus, comme l'a souligné l'affiche, des réponses contradictoires sont données à différentes questions connexes.
A. Donda

Réponses:

39

L'indépendance est un concept statistique. Deux variables aléatoires et Y sont statistiquement indépendantes si leur distribution conjointe est le produit des distributions marginales, à savoir f ( x , y ) = f ( x ) f ( y ) si chaque variable a une densité f , ou plus généralement F ( x , y ) = F ( x ) F ( y )FXY

f(x,y)=f(x)f(y)
f
F(x,y)=F(x)F(y)
F désigne la fonction de distribution cumulative de chaque variable aléatoire.

ρ=E[XE[X]E[(XE[X])2]YE[Y]E[(YE[Y])2]].
ρ=0

uvu,v

u,v=0.
u=(u1,u2,un)u,v=i=1nuivi

L'orthogonalité n'est donc pas un concept statistique en soi, et la confusion que vous observez est probablement due aux différentes traductions du concept d'algèbre linéaire en statistiques:

X,Y=cov(X,Y)=E[(XE[X])(YE[Y])].
Puisque la corrélation de deux variables aléatoires est nulle exactement si la covariance est nulle, selon cette définition, la non-corrélation est la même que l'orthogonalité. (Une autre possibilité consiste à définir le produit interne des variables aléatoires simplement comme l' espérance du produit .)

b) Toutes les variables que nous considérons dans les statistiques ne sont pas des variables aléatoires. Surtout en régression linéaire, nous avons des variables indépendantes qui ne sont pas considérées comme aléatoires mais prédéfinies. Les variables indépendantes sont généralement données sous forme de séquences de nombres, pour lesquelles l'orthogonalité est naturellement définie par le produit scalaire (voir ci-dessus). Nous pouvons ensuite étudier les conséquences statistiques des modèles de régression où les variables indépendantes sont ou ne sont pas orthogonales. Dans ce contexte, l'orthogonalité n'a pas de définition spécifiquement statistique, et encore plus: elle ne s'applique pas aux variables aléatoires.

Ajout répondant au commentaire de Silverfish: l' orthogonalité n'est pas seulement pertinente en ce qui concerne les régresseurs d'origine mais aussi en ce qui concerne les contrastes, car (des ensembles de) contrastes simples (spécifiés par des vecteurs de contraste) peuvent être considérés comme des transformations de la matrice de conception, c'est-à-dire l'ensemble de variables indépendantes, dans un nouvel ensemble de variables indépendantes. L'orthogonalité des contrastes est définie via le produit scalaire. Si les régresseurs d'origine sont mutuellement orthogonaux et que l'on applique des contrastes orthogonaux, les nouveaux régresseurs sont également orthogonaux entre eux. Cela garantit que l'ensemble des contrastes peut être considéré comme décrivant une décomposition de la variance, par exemple en principaux effets et interactions, l'idée sous-jacente à l' ANOVA .

Étant donné que, selon la variante a), la non-corrélation et l'orthogonalité ne sont que des noms différents pour la même chose, à mon avis, il est préférable d'éviter d'utiliser le terme dans ce sens. Si nous voulons parler de la non-corrélation des variables aléatoires, disons-le simplement et ne compliquons pas les choses en utilisant un autre mot avec un arrière-plan différent et des implications différentes. Cela libère également le terme d'orthogonalité à utiliser selon la variante b), qui est très utile en particulier pour discuter de la régression multiple. Et inversement, nous devons éviter d'appliquer le terme de corrélation à des variables indépendantes, car ce ne sont pas des variables aléatoires.


r

J'ai dispersé des liens vers les réponses aux deux questions connexes dans le texte ci-dessus, ce qui devrait vous aider à les replacer dans le contexte de cette réponse.

A. Donda
la source
1
+1 Les distinctions que vous faites ici sont très claires et utiles - j'ai bien aimé lire l'intégralité du message.
whuber
+1 J'ai aimé la façon dont vous avez réuni les autres réponses qui pourraient autrement sembler contradictoires. Peut-être que dans la partie (b), il serait bon de mentionner quelque chose de spécifiquement sur la conception expérimentale ou l'ANOVA (puisque cela a été mentionné dans la question du PO) - ce n'est pas immédiatement évident, dans le contexte de votre réponse, pourquoi "l'orthogonalité" pourrait être un intéressant ou bien la propriété souhaitable d'une variable indépendante.
Silverfish
@Silverfish, vous avez raison, je vais essayer d'ajouter cela.
A. Donda
2
XYF()F(x)F(y)XYF()F(x)F(y)xy
FX,Y(x,y)=FX(x)FY(y) for all x and y,<x,y<.
2
@DilipSarwate, puh-lease ...
A. Donda
0

Voici mon point de vue intuitif: affirmer que x et y sont non corrélés / orthogonaux sont les deux façons de dire que la connaissance de la valeur de x ou y ne permet pas de prédire l'autre - x et y sont indépendants l'un de l'autre - en supposant que toute relation est linéaire.

Le coefficient de corrélation donne une indication de la façon dont la connaissance de x (ou y) nous permet de prédire y (ou x). En supposant des relations linéaires.

Dans un plan, un vecteur le long de l'axe X peut varier en amplitude sans changer sa composante le long de l'axe Y - les axes X et Y sont orthogonaux et le vecteur le long de X est orthogonal à tout le long de Y. Faire varier l'amplitude d'un vecteur pas le long de X, fera varier les composants X et Y. Le vecteur n'est plus orthogonal à Y.

Si deux variables ne sont pas corrélées, elles sont orthogonales et si deux variables sont orthogonales, elles ne sont pas corrélées. La corrélation et l'orthogonalité sont simplement différentes, bien qu'équivalentes - algébriques et géométriques - pour exprimer la notion d'indépendance linéaire. À titre d'analogie, considérons la solution d'une paire d'équations linéaires à deux variables en traçant (géométrique) et par des déterminants (algébrique).

En ce qui concerne l'hypothèse de linéarité - soit x le temps, soit y une fonction sinus. Sur une période, x et y sont à la fois orthogonaux et non corrélés en utilisant les moyens habituels pour calculer les deux. Cependant, la connaissance de x nous permet de prédire y avec précision. La linéarité est un aspect crucial de la corrélation et de l'orthogonalité.

Bien que cela ne fasse pas partie de la question, je note que la corrélation et la non-orthogonalité n'équivalent pas à la causalité. x et y peuvent être corrélés car ils ont tous deux une certaine dépendance, éventuellement cachée, à l'égard d'une troisième variable. La consommation de glaces augmente en été, les gens vont plus souvent à la plage en été. Les deux sont corrélés, mais aucun ne "cause" l'autre. Voir https://en.wikipedia.org/wiki/Correlation_does_not_imply_causation pour plus d'informations sur ce point.

James R. Matey
la source
La décorrélation et l'orthogonalité sont des choses différentes. Vous pouvez le vérifier ici - terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf
Yurii
0

Voici la relation: si X et Y ne sont pas corrélés, alors XE [X] est orthogonal à YE [Y].

Contrairement à cet indépendant, il existe un concept plus fort de non corrélé, c'est-à-dire que indépendant conduira à des corrélations non corrélées, (non) orthogonales et (non) pouvant survenir en même temps. Exemple

Je suis l'AT de probabilité ce semestre, alors je fais une courte vidéo sur l'indépendance, la corrélation, l'orthodogonalité.

https://youtu.be/s5lCl3aQ_A4

J'espère que ça aide.

linan huang
la source
Cela ne répond pas à la question.
Michael R. Chernick
Je révise la réponse, j'espère que cela aiderait ~ @ Michael Chernick
linan huang
@linanhuang Des gens de Larx?
YHH