Un rappel historique des statistiques est que "la non-corrélation n'implique pas l' indépendance". Habituellement, ce rappel est complété par l'affirmation psychologiquement apaisante (et scientifiquement correcte) "quand, néanmoins, les deux variables sont distribuées normalement conjointement , alors l'absence de corrélation implique l'indépendance".
Je peux augmenter le nombre d'exceptions heureuses de un à deux: lorsque deux variables sont distribuées par Bernoulli , là encore, la non-corrélation implique l'indépendance. Si et sont deux RV de Bermoulli, , pour lequel nous avons , et de façon analogue pour , leur covariance estY X ∼ B ( q x ) ,P ( X = 1 ) = E ( X ) = q x Y
Pour la non-corrélation, nous exigeons que la covariance soit nulle, donc
qui est la condition également nécessaire pour que les variables soient indépendantes.
Ma question est donc la suivante: connaissez-vous d'autres distributions (continues ou discrètes) pour lesquelles la non-corrélation implique l'indépendance?
Signification: Supposons deux variables aléatoires qui ont des distributions marginales qui appartiennent à la même distribution (peut-être avec des valeurs différentes pour les paramètres de distribution impliqués), mais disons avec le même support, par exemple. deux exponentielles, deux triangulaires, etc. Toutes les solutions à l'équation sont-elles telles qu'elles impliquent également l'indépendance, en vertu de la forme / des propriétés des fonctions de distribution impliquées? C'est le cas des marginaux normaux (étant donné également qu'ils ont une distribution normale bivariée), ainsi que des marginaux de Bernoulli - y a-t-il d'autres cas?Cov ( X , Y ) = 0
La motivation ici est qu'il est généralement plus facile de vérifier si la covariance est nulle que de vérifier si l'indépendance tient. Donc si, compte tenu de la distribution théorique, en vérifiant la covariance vous vérifiez également l'indépendance (comme c'est le cas avec le Bernoulli ou le cas normal), alors ce serait une chose utile à savoir.
Si on nous donne deux échantillons de deux RV qui ont des marginaux normaux, nous savons que si nous pouvons statistiquement conclure des échantillons que leur covariance est nulle, nous pouvons également dire qu'ils sont indépendants (mais uniquement parce qu'ils ont des marginaux normaux). Il serait utile de savoir si nous pourrions conclure de même dans les cas où les deux RV avaient des marginaux qui appartenaient à une autre distribution.
la source
Réponses:
"Néanmoins, si les deux variables sont normalement distribuées, alors l'absence de corrélation implique l'indépendance" est une erreur très courante .
Cela ne s'applique que s'ils sont distribués normalement conjointement .
Le contre-exemple que j'ai vu le plus souvent est un normal et un Rademacher indépendant (il vaut donc 1 ou -1 avec une probabilité de 0,5 chacun); alors est également normal (clair si l'on considère sa fonction de distribution), (le problème ici est de montrer par exemple en itérant l'attente sur , et notant que est ou avec une probabilité de 0,5 chacun) et il est clair que les variables sont dépendantes (par exemple, si je connais alors soit ou , donc des informations surY Z = X Y Cov ( X , Z ) = 0 E ( X Z ) = 0 Y X Z X 2 - X 2 X > 2 Z > 2 Z < - 2 X ZX∼ N( 0 , 1 ) Oui Z= XOui Cov( X, Z) = 0 E(XZ)=0 Y XZ X2 −X2 X>2 Z>2 Z<−2 X me donne des informations sur ). Z
Il convient également de garder à l'esprit que les distributions marginales ne déterminent pas uniquement la distribution conjointe. Prenez deux vrais VR et avec les CDF marginaux et . Alors pour tout la fonction:X Y FX(x) GY(y) α<1
sera un CDF bivarié. (Pour obtenir le marginal partir de prenez la limite lorsque va à l'infini, où Vice-versa pour ) Clairement en sélectionnant différentes valeurs of vous pouvez obtenir différentes distributions conjointes!H X , Y ( x , y ) y F Y ( y ) = 1 Y αFX(x) HX,Y(x,y) y FY(y)=1 Y α
la source