Une corrélation non nulle implique-t-elle une dépendance?

17

Nous savons que la corrélation zéro n'implique pas l'indépendance. Je souhaite savoir si une corrélation non nulle implique une dépendance - c'est-à-dire si Corr(X,Y)0 pour certaines variables aléatoires X et Y , peut-on dire en général que fX,Y(x,y)fX(x)fY(y) ?

Comp_Warrior
la source

Réponses:

13

Oui parce que

Corr(X,Y)0Cov(X,Y)0

E(XY)E(X)E(Y)0

xyfX,Y(x,y)dxdyxfX(x)dxyfY(y)dy0

xyfX,Y(x,y)dxdyxyfX(x)fY(y)dxdy0

xy[fX,Y(x,y)fX(x)fY(y)]dxdy0

ce qui serait impossible si . DoncfX,Y(x,y)fX(x)fY(y)=0,{x,y}

Corr(X,Y)0{x,y}:fX,Y(x,y)fX(x)fY(y)

Question: que se passe-t-il avec des variables aléatoires sans densité?

Alecos Papadopoulos
la source
1
Alecos, j'ai une question stupide. Que signifie la flèche fantaisie dans, par exemple, la ligne 1? J'imagine quelque chose comme "impliquer", mais je suis incertain.
Sycorax dit Réintégrer Monica
2
@ user777 Vous voulez dire ? En effet, cela signifie "implique".
Alecos Papadopoulos
La raison d'utiliser uniquement la flèche d'implication dans un argument informel: la flèche d'implication est-elle associative gauche ou droite?
kasterma
\implies produit qui semble mieux que \rightarowce qui produit .
Dilip Sarwate du
14

Soit et Y des variables aléatoires telles que E [ X 2 ] et E [ Y 2 ] sont finies. Ensuite, E [ X Y ] , E [ X ] et E [ Y ]XYE[X2]E[Y2]E[XY]E[X]E[Y] sont tous finis.

La restriction de notre attention à ces variables aléatoires, que dénoter l'affirmation selon laquelle X et Y sont indépendantes des variables aléatoires et B l'affirmation selon laquelle X et Y sont décorrélés des variables aléatoires, qui est, E [ X Y ] = E [ X ] E [ Y ] . On sait alors que A implique B , c'est-à-dire que les variables aléatoires indépendantes sont des variables aléatoires non corrélées. En effet, une définitionAXYBXYE[XY]=E[X]E[Y]AB de variables aléatoires indépendantes est que est égal à E [ g ( X ) ] E [ h ( Y ) ] pour toutes les fonctions mesurables g ( ) et h ( ) ). Ceci est généralement exprimé comme AE[g(X)h(Y)]E[g(X)]E[h(Y)]g()h() Mais un

AB.
est logiquement équivalent à ¬ BAB , c'est-à-dire¬B¬A

les variables aléatoires corrélées sont des variables aléatoires dépendantes .

E[XY]E[X]E[Y]XYE[XY]=E[X]E[Y]. For example, X and Y could be independent Cauchy random variables (for which the mean does not exist). Are they uncorrelated random variables in the classical sense?

Dilip Sarwate
la source
3
The nice thing about this answer is that it applies whether or not the random variables in question admit a density function, as opposed to other answers on this thread. This is true due to the fact that expectations can be defined with Stieltjes integrals using the CDF, with no mention of the density.
ahfoss
1

Here a purely logical proof. If AB then necessarily ¬B¬A, as the two are equivalent. Thus if ¬B then ¬A. Now replace A with independence and B with correlation.

Think about a statement "if volcano erupts there are going to be damages". Now think about a case where there are no damages. Clearly a volcano didn't erupt or we would have a condtradicition.

Similarly, think about a case "If independent X,Y, then non-correlated X,Y". Now, consider the case where X,Y are correlated. Clearly they can't be independent, for if they were, they would also be correlated. Thus conclude dependence.

Tony
la source
If you will read my answer carefully, you will see that I too used the argument that you have made in your answer, namely that AB is the same as B¬A.
Dilip Sarwate
@DilipSarwate Edited to reflect that.
Tony