Supposons que le système linéaire suivant soit donné où est le Laplacien pondéré connu pour être défini positif avec un espace nul unidimensionnel par , et la variance de translation de , c'est-à-dire que ne change pas la valeur de la fonction (dont la dérivée est ). Les seules entrées positives de trouvent sur sa diagonale, qui est une somme des valeurs absolues des entrées négatives hors diagonale. Lsemi-1n=(1,…,1)∈Rnx∈Rnx+a1n(1)L
J'ai trouvé dans un travail universitaire très cité dans son domaine que, bien que soit dominant en diagonale, des méthodes telles que le gradient conjugué, Gauss-Seidl, Jacobi, pouvaient toujours être utilisées en toute sécurité pour résoudre . La raison est que, en raison de l'invariance de la traduction, il est sûr de fixer un point (par exemple, supprimer la première ligne et la colonne de et la première entrée de ), convertissant ainsi en une matrice diagonale dominante. Quoi qu'il en soit, le système d'origine est résolu sous la forme complète de , avec .n o t s t r i c t l y ( 1 ) L c L s t r i c t l y ( 1 ) L ∈ R n × n
Cette hypothèse est-elle correcte et, dans l'affirmative, quelle est la justification alternative? J'essaie de comprendre comment la convergence des méthodes tient toujours.
Si la méthode de Jacobi est convergente avec , que pourrait-on dire sur le rayon spectral de la matrice d'itération , où est la matrice diagonale avec les entrées de sur sa diagonale? Est-ce que , donc différent des garanties de convergence générales pour ? Je le demande car les valeurs propres de la La matrice laplacienne avec celles sur la diagonale doit être dans la plage .ρ D - 1 ( D - L ) D L ρ ( D - 1 ( D - L ) ≤ 1 ρ ( D - 1 ( D - L ) ) < 1 D - 1 L
De l'œuvre originale:
......................................
À chaque itération, nous calculons une nouvelle disposition (x (t +1), y (t + 1)) en résolvant le système linéaire suivant: Sans perte de généralité, nous pouvons fixer l'emplacement de l'un des les capteurs (en utilisant le degré de liberté de translation de la contrainte localisée) et obtenir une matrice strictement diagonale dominante. Par conséquent, nous pouvons utiliser en toute sécurité l'itération de Jacobi pour résoudre (8)
.......................................
Dans ce qui précède, la notion d '"itération" est liée à la procédure de minimisation sous-jacente et ne doit pas être confondue avec l'itération de Jacobi. Ainsi, le système est résolu par Jacobi (de manière itérative), puis la solution est achetée à droite de (8), mais maintenant pour une autre itération de la minimisation sous-jacente. J'espère que cela clarifie la question.
Notez que j'ai trouvé Quels solveurs linéaires itératifs convergent pour des matrices semi-définies positives? , mais je cherche une réponse plus élaborée.
Réponses:
L'itération de Jacobi peut être prouvée convergente.
La première chose que vous devez vous assurer est que , qui est la condition d'existence de la solution (je suppose que , sinon vous avez besoin de ) parce que vous avez dit . Nous utiliserons la convention selon laquelle est également la matrice dont les colonnes en sont la base orthonormée. Dans votre cas, .L = L T c ∈ ( K e r L T ) ⊥ V 0 : = K e r L = s p a n { 1 n } V 0 V 0 : = 1 n / √cT1n=0 L=LT c∈(KerLT)⊥ V0:=KerL=span{1n} V0 V0:=1n/n−−√
Ensuite, pour les erreurs de l'itération Jacobi sur le système d'origine, vous avez où est la projection orthogonale sur . De l'itération ci-dessus, nous savons que partir de laquelle nous avons la matrice d'itération dans , Non pas que ait les mêmes spectres (sauf les zéros) avec la matrice suivante Nous voulons le rayon spectral deP : = I - V 0 V ′ 0 V 1 :
La citation suivante est ancienne et conservée uniquement pour référence. Voir après pour la nouvelle preuve.
Notez que est le vecteur eigen correspondant à la valeur propre de . Sur la base de l'observation, nous appelons le théorème 2.1 à partir des valeurs propres des matrices mises à jour de rang 1 avec quelques applications de Jiu Ding et Ai-Hui Zhou. 1 I - D - 1 LV0 1 I−D−1L
Théorème 2.1 Soit et deux vecteurs de colonnes à dimensions telles que est un vecteur propre de associé à la valeur propre . Ensuite, les valeurs propres de sont comptant la multiplicité algébrique.u v n u A λ1 A+uvT {λ1+uTv,λ2,…,λn}
Ensuite, nous savons que les spectres de sont les mêmes que sauf que la valeur propre dans ce dernier est décalée de dans la valeur propre zéro dans le premier. Depuis , nous avons .S~ I−D−1L 1 −1 ρ(I−D−1L)⊂(−1,1] ρ(S~)⊂(−1,1)
la source
Les méthodes Krylov n'utilisent jamais explicitement la dimensionnalité de l'espace dans lequel elles itèrent, vous pouvez donc les exécuter sur des systèmes singuliers tant que vous gardez les itérations dans le sous-espace non nul. Cela se fait normalement en projetant l'espace nul à chaque itération. Il y a deux choses qui peuvent mal tourner, la première est beaucoup plus courante que la seconde.
Pour résoudre des systèmes singuliers à l'aide de PETSc, voir
KSPSetNullSpace()
. La plupart des méthodes et préconditionneurs peuvent résoudre des systèmes singuliers. En pratique, le petit espace nul pour les PDE avec les conditions aux limites de Neumann n'est presque jamais un problème tant que vous informez le solveur Krylov de l'espace nul et choisissez un préconditionneur raisonnable.D'après les commentaires, il semble que vous soyez spécifiquement intéressé par Jacobi. (Pourquoi? Jacobi est utile comme un lisseur multigrille, mais il existe de bien meilleures méthodes à utiliser comme solveurs.) Jacobi appliqué à ne converge pas lorsque le vecteur a une composante dans l'espace nul de , cependant, le une partie de la solution orthogonale à l'espace nul converge, donc si vous projetez l'espace nul hors de chaque itération, il converge. Alternativement, si vous choisissez un cohérent et une estimation initiale, les itérations (en arithmétique exacte) n'accumulent pas de composants dans l'espace nul.Ax=b b A b
la source