Distance de Mahalanobis entre deux distributions bivariées avec différentes covariances

9

La question est à peu près contenue dans le titre. Quelle est la distance de Mahalanobis pour deux distributions de matrices de covariance différentes? Ce que j'ai trouvé jusqu'à présent suppose la même covariance pour les deux distributions, c'est-à-dire quelque chose de ce genre:

ΔTΣ1Δ

Que faire si j'ai deux différents ?Σ

Remarque: - Le problème est le suivant: il y a deux distributions bivariées qui ont les mêmes dimensions mais qui sont tournées et traduites l'une par rapport à l'autre (désolé, je viens d'un arrière-plan purement mathématique, pas statistique). J'ai besoin de mesurer leur degré de chevauchement / distance.

* Mise à jour: * Ce qui pourrait ou non être implicite dans ce que je demande, c'est que j'ai besoin d'une distance entre les moyennes des deux distributions. Je sais où sont les moyens, mais comme les deux distributions sont tournées l'une par rapport à l'autre, j'ai besoin d'attribuer des poids différents à différentes orientations et donc une simple distance euclidienne entre les moyens ne fonctionne pas. Maintenant, comme je l'ai compris, la distance de Mahalanobis ne peut pas être utilisée pour mesurer cette information si les distributions sont de forme différente (apparemment, cela fonctionne avec deux distributions normales multivariées de covariances identiques, mais pas dans le cas général). Existe-t-il une bonne mesure qui code ce souhait de coder des orientations avec des poids différents?

Kristian D'Amato
la source
1
La distance de Mahalanobis n'a aucun sens lorsque les distributions diffèrent. (C'est comme dire "Peter vit sur une sphère et Paul vit sur un plan euclidien; comment calculer la distance entre eux?") Peut-être pourriez-vous reculer d'un pas et nous aider à comprendre la motivation de la question: que faites-vous exactement voulez-vous accomplir ici? Quel est le contexte statistique?
whuber
D'accord, je soupçonnais tellement. La raison pour laquelle je pose la question est que j'ai vu l'équation suivante utilisée pour calculer une distance 'Mahalanobis', ou alors elle a affirmé: I ' je ne suis pas trop sûr que ce soit une distance Mahalanobis; Je ne fais que refléter ce qui a été revendiqué. Une distance Bhattacharya fonctionnerait-elle mieux à sa place?
ΔT\(Σ1Σ2\)1Δ
Kristian D'Amato
@ k-damato Mahalanobis distance mesure la distance entre les points, pas les distributions.
vqv
Très bien, est-ce que quelqu'un reconnaît l'équation ci-dessus comme quelque chose de significatif? Les deltas sont des vecteurs de déplacement.
Kristian D'Amato
@Kristian J'ai fusionné vos deux comptes en double. Veuillez utiliser votre compte enregistré à partir de maintenant.
chl

Réponses:

6

Il existe de nombreuses notions de distance entre les distributions de probabilité. Lequel utiliser dépend de vos objectifs. La distance de variation totale est un moyen naturel de mesurer le chevauchement entre les distributions. Si vous travaillez avec des normales multivariées, la divergence Kullback-Leibler est mathématiquement pratique. Bien qu'il ne s'agisse pas réellement d'une distance (car il ne parvient pas à être symétrique et ne respecte pas l'inégalité du triangle), il limite la distance de variation totale - voir Inégalité de Pinsker .

vqv
la source
2
quelques discussions récentes ici ont porté sur les modifications de la divergence KL qui aboutissent à une métrique appropriée. Si vous êtes intéressé, voyez ici et ici .
Cardinal
3

Intro Comme @vqv l'a mentionné La variation totale et Kullback Leibler sont deux distances intéressantes. Le premier est significatif car il peut être directement lié aux erreurs de premier et de second type dans les tests d'hypothèse. Le problème avec la distance de variation totale est qu'elle peut être difficile à calculer. La distance Kullback Leibler est plus facile à calculer et j'y reviendrai plus tard. Il n'est pas symétrique mais peut être rendu symétrique (en quelque sorte un peu artificiellement).

Réponse Quelque chose que je mentionne ici est que siL est le rapport de vraisemblance logarithmique entre vos deux mesures gaussiennes P0,P1 (dis que pour i=0,1 Pi a signifie μi et covariance Ci) mesure d'erreur qui est également entrecroisée (dans le cas gaussien, je l'ai trouvé assez central en fait) est

LL2(P1/2)2

pour un bien choisi .P1/2

En termes simples :

  • il peut y avoir différentes rotations "directions" intéressantes, qui sont obtenues en utilisant votre formule avec l'une des matrices de covariance "interpolées" ( ou ) défini à la fin de ce post (le chiffre est celui que vous proposez dans votre commentaire à votre question). Σ=Ci,1/2i=1,2,3,455
  • comme vos deux distributions ont des covariances différentes, il ne suffit pas de comparer les moyennes , il faut aussi comparer les covariances.

Permettez-moi de vous expliquer pourquoi c'est mon sentiment, comment vous pouvez calculer cela dans le cas de et comment choisir .C1C0P1/2

Cas linéaire Si .C1=C0=Σ

σ=ΔΣ1Δ=2LL2(P1/2)2

où est l '"interpolation" entre et (gaussien avec covariance et moyenne ). Notez que dans ce cas, la distance Hellinger, la distance de variation totale peut être écrite en utilisant .P1/2P1P0Σ(μ1+μ0)/2σ

Comment calculer dans le cas généralL Une question naturelle qui découle de votre question (et de la mienne ) est de savoir ce qu'est une "interpolation" naturelle entre et lorsque . Ici, le mot naturel peut être spécifique à l'utilisateur, mais par exemple, il peut être lié à la meilleure interpolation pour avoir une limite supérieure étroite avec une autre distance (par exemple, la distance ici )P1P0C1C0L1

Écriture ( ) peut aider à voir où est la tâche d'interpolation, mais:

L=ϕ(Ci1/2(xμi))ϕ(Cj1/2(xμj))12log(CiCj)
i=0,j=1

L(x)=12Aij(xsij),xsijRp+Gij,xsijRpcij,[1]

avec

Aij=CiCj,Gij=Sijmij,Sij=Ci+Cj2,
cij=18Aijmij,mijRp+12log|det(CjCi)|

et

mij=μiμjandsij=μi+μj2

est plus pertinent à des fins de calcul. Pour tout gaussien de moyenne et de covariance le calcul de partir de l'équation est un peu technique mais faisable. Vous pouvez également l'utiliser pour calculer la distance du leibler de Kulback.P1/2s01CLL2(P1/2)21

Quelle interpolation devons-nous choisir (c'est-à-dire comment choisir )P1/2 Il est clairement compris à partir de l'équation qu'il existe de nombreux candidats différents pour (interpoler) dans le cas "quadratique". Les deux candidats que j'ai trouvés "les plus naturels" (subjectifs :)) résultent de la définition de une distribution gaussienne de moyenne :1P1/2t[0,1]Pttμ1+(1t)μ0

  1. Pt1 comme la distribution de (où est tiré de ) qui a la covariance ).
    ξt=tξ1+(1t)ξ0
    ξiPi i=0,1Ct,1=(tC11/2+(1t)C01/2)2
  2. Pt2 avec covariance inverseCt,21=tC11+(1t)C01
  3. Pt3 avec covarianceCt,3=tC1+(1t)C0
  4. Pt4 avec covariance inverseCt,41=(tC11/2+(1t)C01/2)2

EDIT: Celui que vous proposez dans un commentaire à votre question pourrait être , pourquoi pas ...Ct,5=C1tC01t

J'ai mon choix préféré qui n'est pas le premier :) je n'ai pas beaucoup de temps pour en discuter ici. Peut-être que je modifierai cette réponse plus tard ...

Robin Girard
la source
2

C'est ancien, mais pour ceux qui lisent ceci, la matrice de covariance reflète la rotation des distributions gaussiennes et la moyenne reflète la translation ou la position centrale de la distribution. Pour évaluer la distance mahab, il s'agit simplement de D = ((m2-m1) * inv ((C1 + C2) / 2) * (m2-m1) '). Maintenant, si vous pensez que les deux distributions bivariées sont identiques, mais que vous pensez qu'elles ont été tournées, calculez les deux paires de vecteurs propres et les valeurs propres pour chaque distribution. Les vecteurs propres pointent dans le sens de la propagation des données bivariées le long des axes majeur et mineur et les valeurs propres indiquent la longueur de cette propagation. Si les valeurs propres sont identiques, alors les deux distributions sont identiques mais tournées. Prenez des acos du produit scalaire entre les vecteurs propres pour obtenir l'angle de rotation.

chasseur de tempête
la source