La covariance entre deux variables aléatoires définit une mesure de leur lien linéaire entre elles. Mais que se passe-t-il si la distribution conjointe est circulaire? Il y a sûrement une structure dans la distribution. Comment cette structure est-elle extraite?
covariance-matrix
Infini
la source
la source
L'information mutuelle a des propriétés quelque peu analogues à la covariance. La covariance est un nombre qui est 0 pour les variables indépendantes et différent de zéro pour les variables qui dépendent linéairement. En particulier, si deux variables sont identiques, alors la covariance est égale à la variance (qui est généralement un nombre positif). Un problème avec la covariance est qu'elle peut être nulle même si deux variables ne sont pas indépendantes, à condition que la dépendance ne soit pas linéaire.
L'information mutuelle (MI) est un nombre non négatif. Elle est nulle si et seulement si les deux variables sont statistiquement indépendantes. Cette propriété est plus générale que celle de la covariance et couvre toutes les dépendances, y compris les dépendances non linéaires.
Si les deux variables sont identiques, MI est égal à l'entropie de la variable (encore une fois, généralement un nombre positif). Si les variables sont différentes et ne sont pas liées de manière déterministe, alors MI est plus petit que l'entropie. En ce sens, l'IM de deux variables se situe entre 0 et H (l'entropie), avec 0 uniquement si indépendant et H uniquement s'il dépend de façon déterministe.
la source
Veuillez lire l'article suivant de la science - il répond exactement à votre point:
Détection de nouvelles associations dans de grands ensembles de données par David N. Reshef et al.
Du résumé:
Vous trouverez des informations supplémentaires ici: http://www.sciencemag.org/content/suppl/2011/12/14/334.6062.1518.DC1
Les auteurs fournissent même un outil gratuit incorporant la nouvelle méthode qui peut être utilisée avec R et Python: http://www.exploredata.net/
la source