J'essaie de comprendre les différences entre les méthodes de réduction de dimensionnalité linéaire (par exemple, PCA) et les méthodes non linéaires (par exemple, Isomap).
Je ne comprends pas très bien ce que la (non) linéarité implique dans ce contexte. J'ai lu sur Wikipedia que
Par comparaison, si PCA (un algorithme de réduction de dimensionnalité linéaire) est utilisé pour réduire ce même ensemble de données en deux dimensions, les valeurs résultantes ne sont pas si bien organisées. Cela démontre que les vecteurs de haute dimension (représentant chacun une lettre «A») qui échantillonnent ce collecteur varient de manière non linéaire.
Qu'est-ce que
les vecteurs de grande dimension (représentant chacun une lettre «A») qui échantillonnent ce collecteur varient de manière non linéaire.
signifier? Ou plus largement, comment puis-je comprendre la (non) linéarité dans ce contexte?
la source
Une image vaut mieux que mille mots:
Nous recherchons ici une structure unidimensionnelle en 2D. Les points se trouvent le long d'une courbe en forme de S. PCA essaie de décrire les données avec une variété linéaire à 1 dimension, qui est simplement une ligne; bien sûr, une ligne correspond assez mal à ces données. Isomap recherche une variété unidimensionnelle non linéaire (c'est-à-dire incurvée!) Et devrait pouvoir découvrir la courbe en S sous-jacente.
la source