Je travaille actuellement à comprendre l'utilisation de la limite de Cheeger et de l'inégalité de Cheeger, et leur utilisation pour le partitionnement spectral, la conductance, l'expansion, etc., mais j'ai encore du mal à avoir un début d'intuition concernant la deuxième valeur propre de la matrice d'adjacence.
Habituellement, dans la théorie des graphes, la plupart des concepts que nous rencontrons sont assez simples à comprendre, mais dans ce cas, je ne peux même pas trouver quel type de graphiques aurait une deuxième valeur propre très faible ou très élevée.
J'ai lu des questions similaires posées ici et là sur le réseau SE, mais elles se réfèrent généralement à des valeurs propres dans différents domaines ( analyse multivariée , matrices de distances euclidiennes , matrices de corrélation ...).
Mais rien sur le partitionnement spectral et la théorie des graphes.
Quelqu'un peut-il essayer de partager son intuition / expérience de cette deuxième valeur propre dans le cas des graphes et des matrices d'adjacence?
la source
Réponses:
La deuxième valeur propre (en magnitude) contrôle le taux de convergence de la marche aléatoire sur le graphique. Ceci est expliqué dans de nombreuses notes de cours, par exemple les notes de cours de Luca Trevisan . En gros, la distance de L2 à l'uniformité aprèst étapes peut être limitée par λt2 .
Un autre endroit où la deuxième valeur propre apparaît est le problème de la clique plantée . Le point de départ est l'observation selon laquelle un aléatoireG(n,1/2) graphique contient une clique de taille 2log2n , mais l'algorithme glouton trouve seulement une clique de taille log2n , et pas de meilleur algorithme efficace est connu. (L'algorithme gourmand choisit simplement un nœud aléatoire, jette tous les non-voisins et répète.)
Cela suggère la plantation d' une grande clique sur le dessus deG(n,1/2) . La question est: quelle doit être la taille de la clique, afin que nous puissions la trouver efficacement. Si nous plantons une clique de taille Cnlogn−−−−−√ , alors nous pourrions identifier les sommets de la clique juste par leur degré; mais cette méthode ne fonctionne que pour les cliques de tailleΩ(nlogn−−−−−√) . Nous pouvons améliorer cela en utilisant des techniques spectrales: si nous plantons une clique de tailleCn−−√ , puis ledeuxième vecteur proprecode la clique, comme lemontrent Alon, Krivelevich et Sudakovdans un article classique.
Plus généralement, les premiers vecteurs propres sont utiles pour partitionner le graphique en un petit nombre de clusters. Voir par exemple le chapitre 3 des notes de cours de Luca Trevisan , qui décrit les inégalités de Cheeger d'ordre supérieur.
la source
(Avertissement: cette réponse concerne les valeurs propres des graphiques en général, pas la deuxième valeur propre en particulier. J'espère que cela sera néanmoins utile.)
Une façon intéressante de penser les valeurs propres d'un grapheG=(V,E) est de prendre l'espace vectoriel Rn où n=|V| et identifier chaque vecteur avec une fonction f:V→R (c'est-à-dire un étiquetage de sommet). Un vecteur propre de la matrice d'adjacence est donc un élément de f∈Rn tel qu'il existe λ∈R (c'est-à-dire une valeur propre) avec Af=λf , A étant la matrice d'adjacence de G . Notez que Af est le vecteur associé à la carte qui envoie chaque sommet v∈V à ∑u∈N(v)f(u) , N(v) étant l'ensemble des voisins (c'est-à-dire les sommets adjacents à) u . Par conséquent, dans ce paramètre, la propriété vecteur propre de f correspond à la propriété qui sommant les valeurs de fonction (sous f )des voisins d'un sommet donne le même résultat que la multiplication de la valeur de fonction du sommet par la constante λ .
la source
Je pense que pour la plupart des choses, il est plus productif de regarder le laplacien du grapheG , qui est étroitement lié à la matrice d'adjacence. Ici, vous pouvez l'utiliser pour relier la deuxième valeur propre à une propriété "locale vs globale" du graphique.
Pour simplifier, supposons queG soit d régulier. Alors le laplacien normalisé de G est L=I−1dA , oùI est l'identitén×n , etA est la matrice d'adjacence. La chose agréable sur le Laplacien est que,écriturevecteurs commefonctionsf:V→R comme @dkaeae, etutilisant⟨⋅,⋅⟩ pour le produit intérieurhabitude, nous avons cette expression très agréable pour la forme quadratique donnée parL :
⟨f,Lf⟩=1d∑(u,v)∈E(f(u)−f(v))2.
La plus grande valeur propre deA est d , et correspond à la plus petite valeur propre de L , qui est 0 ; la deuxième plus grande valeur propre λ2 de A correspond à la deuxième plus petite valeur propre de L , qui est 1−λ2d . Par leprincipe min-max, nous avons
Notez que⟨f,Lf⟩ ne change pas quand on passe f par la même constante pour chaque sommet. Donc, de manière équivalente, vous pouvez définir, pour tout f:V→R , la fonction "centrée" f0 par f0(u)=f(u)−1n∑v∈Vf(v) , et écrivez
Maintenant , un peu de calcul montre que⟨f0,f0⟩=1n∑{u,v}∈(V2)(f(u)−f(v))2 , en remplaçant ci-dessus le numérateur et le dénominateur parn2 , nous avons
What this means is that, if we place every vertexu of G on the real line at the point f(u) , then the average distance between two independent random vertices in the graph (the denominator) is at most dd−λ2 times the average distance between the endpoints of a random edge in the graph (the numerator). So in this sense, a large spectral gap means that what happens across a random edge of G (local behavior) is a good predictor for what happens across a random uncorrelated pair of vertices (global behavior).
la source