La question est à peu près contenue dans le titre. Quelle est la distance de Mahalanobis pour deux distributions de matrices de covariance différentes? Ce que j'ai trouvé jusqu'à présent suppose la même covariance pour les deux distributions, c'est-à-dire quelque chose de ce genre:
Que faire si j'ai deux différents ?
Remarque: - Le problème est le suivant: il y a deux distributions bivariées qui ont les mêmes dimensions mais qui sont tournées et traduites l'une par rapport à l'autre (désolé, je viens d'un arrière-plan purement mathématique, pas statistique). J'ai besoin de mesurer leur degré de chevauchement / distance.
* Mise à jour: * Ce qui pourrait ou non être implicite dans ce que je demande, c'est que j'ai besoin d'une distance entre les moyennes des deux distributions. Je sais où sont les moyens, mais comme les deux distributions sont tournées l'une par rapport à l'autre, j'ai besoin d'attribuer des poids différents à différentes orientations et donc une simple distance euclidienne entre les moyens ne fonctionne pas. Maintenant, comme je l'ai compris, la distance de Mahalanobis ne peut pas être utilisée pour mesurer cette information si les distributions sont de forme différente (apparemment, cela fonctionne avec deux distributions normales multivariées de covariances identiques, mais pas dans le cas général). Existe-t-il une bonne mesure qui code ce souhait de coder des orientations avec des poids différents?
la source
Réponses:
Il existe de nombreuses notions de distance entre les distributions de probabilité. Lequel utiliser dépend de vos objectifs. La distance de variation totale est un moyen naturel de mesurer le chevauchement entre les distributions. Si vous travaillez avec des normales multivariées, la divergence Kullback-Leibler est mathématiquement pratique. Bien qu'il ne s'agisse pas réellement d'une distance (car il ne parvient pas à être symétrique et ne respecte pas l'inégalité du triangle), il limite la distance de variation totale - voir Inégalité de Pinsker .
la source
Intro Comme @vqv l'a mentionné La variation totale et Kullback Leibler sont deux distances intéressantes. Le premier est significatif car il peut être directement lié aux erreurs de premier et de second type dans les tests d'hypothèse. Le problème avec la distance de variation totale est qu'elle peut être difficile à calculer. La distance Kullback Leibler est plus facile à calculer et j'y reviendrai plus tard. Il n'est pas symétrique mais peut être rendu symétrique (en quelque sorte un peu artificiellement).
Réponse Quelque chose que je mentionne ici est que siL est le rapport de vraisemblance logarithmique entre vos deux mesures gaussiennes P0,P1 (dis que pour i=0,1 Pi a signifie μi et covariance Ci ) mesure d'erreur qui est également entrecroisée (dans le cas gaussien, je l'ai trouvé assez central en fait) est
pour un bien choisi .P1 / 2
En termes simples :
Permettez-moi de vous expliquer pourquoi c'est mon sentiment, comment vous pouvez calculer cela dans le cas de et comment choisir .C1≠C0 P1 / 2
Cas linéaire Si .C1=C0= Σ
où est l '"interpolation" entre et (gaussien avec covariance et moyenne ). Notez que dans ce cas, la distance Hellinger, la distance de variation totale peut être écrite en utilisant .P1 / 2 P1 P0 Σ (μ1+μ0) / 2 σ
Comment calculer dans le cas généralL Une question naturelle qui découle de votre question (et de la mienne ) est de savoir ce qu'est une "interpolation" naturelle entre et lorsque . Ici, le mot naturel peut être spécifique à l'utilisateur, mais par exemple, il peut être lié à la meilleure interpolation pour avoir une limite supérieure étroite avec une autre distance (par exemple, la distance ici )P1 P0 C1≠C0 L1
Écriture ( ) peut aider à voir où est la tâche d'interpolation, mais:
avec
et
est plus pertinent à des fins de calcul. Pour tout gaussien de moyenne et de covariance le calcul de partir de l'équation est un peu technique mais faisable. Vous pouvez également l'utiliser pour calculer la distance du leibler de Kulback.P1/2 s01 C ∥L∥2L2(P1/2) 1
Quelle interpolation devons-nous choisir (c'est-à-dire comment choisir )P1/2
Il est clairement compris à partir de l'équation qu'il existe de nombreux candidats différents pour (interpoler) dans le cas "quadratique". Les deux candidats que j'ai trouvés "les plus naturels" (subjectifs :)) résultent de la définition de une distribution gaussienne de moyenne :1 P1/2 t∈[0,1] Pt tμ1+(1−t)μ0
EDIT: Celui que vous proposez dans un commentaire à votre question pourrait être , pourquoi pas ...Ct,5=Ct1C1−t0
J'ai mon choix préféré qui n'est pas le premier :) je n'ai pas beaucoup de temps pour en discuter ici. Peut-être que je modifierai cette réponse plus tard ...
la source
C'est ancien, mais pour ceux qui lisent ceci, la matrice de covariance reflète la rotation des distributions gaussiennes et la moyenne reflète la translation ou la position centrale de la distribution. Pour évaluer la distance mahab, il s'agit simplement de D = ((m2-m1) * inv ((C1 + C2) / 2) * (m2-m1) '). Maintenant, si vous pensez que les deux distributions bivariées sont identiques, mais que vous pensez qu'elles ont été tournées, calculez les deux paires de vecteurs propres et les valeurs propres pour chaque distribution. Les vecteurs propres pointent dans le sens de la propagation des données bivariées le long des axes majeur et mineur et les valeurs propres indiquent la longueur de cette propagation. Si les valeurs propres sont identiques, alors les deux distributions sont identiques mais tournées. Prenez des acos du produit scalaire entre les vecteurs propres pour obtenir l'angle de rotation.
la source