Quelques observations classiques sur les distances dans les données de grande dimension:
- K. Beyer, J. Goldstein, R. Ramakrishnan et U. Shaft, ICDT 1999: "Quand les voisins les plus proches ont-ils un sens?"
- CC Aggarwal, A. Hinneburg et DA Keim, ICDT 2001: "Sur le comportement surprenant des métriques de distance dans l'espace de grande dimension"
Quelques recherches plus récentes à ce sujet, qui impliquent des voisins et des hubs partagés:
- ME Houle, H.-P. Kriegel, P. Kröger, E. Schubert et A. Zimek, SSDBM 2010: "Les distances entre voisins partagés peuvent-elles vaincre la malédiction de la dimensionnalité?"
- T. Bernecker, ME Houle, H.-P. Kriegel, P. Kröger, M. Renz, E. Schubert et A. Zimek, SSTD 2011: "Qualité des classements de similarité dans les séries chronologiques"
- N. Tomašev, M. Radovanović, D. Mladenić et M. Ivanović. Adv. KDDM 2011: "Le rôle du hubness dans le clustering de données de grande dimension"
- Je ne me souviens pas des autres, cherchez "Hubness", c'était leur observation de grande dimension
Celles-ci sont intéressantes, car elles mettent en évidence certains malentendus populaires concernant la malédiction de la dimensionnalité. En substance, ils montrent que les résultats théoriques - qui supposent que les données sont iid - peuvent ne pas être généralement vrais pour les données qui ont plus d'une distribution. La malédiction entraîne des problèmes numériques et une perte de discrimination au sein d' une même distribution, tout en facilitant encore la différenciation de deux distributions bien séparées.
Cela devrait être assez évident. Supposons que vous ayez des objets qui sont iid dans chaque dimension et un autre ensemble d'objets qui sont iid dans chaque dimension. La différence entre les objets de deux ensembles différents sera toujours magnitudes supérieure à une distance dans un seul ensemble, et le problème sera même obtenir plus facile avec dimensionnalité de plus en plus .UNEje∼ N( 0 ; 1 )Bje∼ N( 100 ; 1 )
Je recommande la lecture de cet ouvrage de Houle et al., En grande partie parce qu'il montre qu'en affirmant que "ces données sont de grande dimension et qu'en raison de la malédiction de la dimensionnalité, elles ne peuvent pas être analysées", vous pourriez rendre les choses un peu trop faciles. C'est toujours une ligne qui est utilisée partout. "Notre algorithme ne fonctionne que pour les données de faible dimension, en raison de la malédiction de la dimensionnalité." "Notre indice ne fonctionne que jusqu'à 10 dimensions, en raison de la malédiction de la dimensionnalité." Yadda yadda yadda. Beaucoup de ces déclarations montrent simplement que ces auteurs n'ont pas compris ce qui se passe à haute dimensionnalité dans leurs données et algorithme (ou avaient besoin d'une excuse). Houle et al. ne résout pas complètement le casse-tête (encore? c'est assez récent), mais ils reconsidèrent au moins un grand nombre des déclarations populaires.
Après tout, si la dimensionnalité élevée était un gros problème, comment se fait-il que dans l'exploration de texte, les gens utilisent volontiers les dimensionnalités de l'ordre de 10000-100000, alors que dans d'autres domaines, les gens abandonnent à seulement 10 dimensions?!?
Quant à la deuxième partie de votre question: la similitude cosinus semble moins souffrir de la dimensionnalité . En dehors de cela, tant que vous souhaitez différencier différentes distributions, contrôler la précision numérique et ne pas compter sur des seuils choisis à la main (car vous devrez peut-être les donner avec beaucoup de chiffres significatifs), les -Norms classiques devraient toujours convenir.Lp
Cependant, Cosine est également affecté par la malédiction de la dimensionnalité , comme indiqué dans:
- M. Radovanović, A. Nanopoulos et M. Ivanović, SIGIR 2010. «Sur l'existence de résultats obstinés dans les modèles spatiaux vectoriels».
Aussi:
Robert J. Durrant, Ata Kabán: Quand le «plus proche voisin» a-t-il un sens: un théorème inverse et ses implications. J. Complexity 25 (4): 385-397 (2009)
Ata Kabán: Sur la concentration à distance de la conscience de certaines techniques de réduction de données. Reconnaissance de formes 44 (2): 265-277 (2011)
Ata Kabán: Détection non paramétrique de distances sans signification dans des données de grande dimension. Statistiques et informatique 22 (2): 375-385 (2012)
la source