Selon certains articles que je lis, la distance de Jeffries et Matusita est couramment utilisée. Mais je n'ai pas trouvé beaucoup d'informations à ce sujet, sauf pour la formule ci-dessous
JMD (x, y) =
Elle est similaire à la distance euclidienne à l'exception de la racine carrée
E (x, y) =
La distance JM serait plus fiable que la distance euclidienne en termes de classification. Quelqu'un peut-il expliquer pourquoi cette différence améliore la distance JM?
Réponses:
Certaines différences clés, précédant une explication plus longue ci-dessous, sont les suivantes:
La distance de Jeffries-Matusita, qui semble être particulièrement populaire dans la littérature de télédétection, est une transformation de la distance de Bhattacharrya (une mesure populaire de la dissimilarité entre deux distributions, notée ici ) à partir de la plage à la plage fixe :bp,q [0,inf) [0,2–√]
Un avantage pratique de la distance JM, selon cet article, est que cette mesure "tend à supprimer les valeurs de séparabilité élevées, tout en surestimant les valeurs de séparabilité faibles".
La distance de Bhattacharrya mesure la dissimilarité de deux distributions et dans le sens continu abstrait suivant: Si les distributions et sont capturés par des histogrammes, représentés par des vecteurs de longueur unitaire (où le ème élément est le compte normalisé pour ème de cases) cela devient: Et par conséquent la distance JM pour les deux histogrammes est: Qui, en notant que pour les histogrammes normalisésp q
la source