Si je comprends bien, il existe deux grandes catégories de méthodes itératives pour résoudre des systèmes linéaires d'équations:
- Méthodes stationnaires (Jacobi, Gauss-Seidel, SOR, Multigrid)
- Méthodes Krylov Subspace (Gradient Conjugué, GMRES, etc.)
Je comprends que la plupart des méthodes stationnaires fonctionnent en relaxant de manière itérative (lissage) les modes de Fourier de l'erreur. Si je comprends bien, la méthode du gradient conjugué (méthode du sous-espace de Krylov) fonctionne en "progressant" à travers un ensemble optimal de directions de recherche à partir des puissances de la matrice appliquées au ème résiduel. Ce principe est-il commun à toutes les méthodes du sous-espace de Krylov? Sinon, comment caractérisons-nous le principe de la convergence des méthodes du sous-espace de Krylov, en général?
Réponses:
En général, toutes les méthodes de Krylov recherchent essentiellement un polynôme qui est petit lorsqu'il est évalué sur le spectre de la matrice. En particulier, le ème résidu d'une méthode de Krylov (avec une supposition initiale nulle) peut être écrit sous la formen
où est un polynôme monique de degré n .Pn n
Si est diagonalisable, avec A = V Λ V - 1 , on aA A = VΛ V- 1
Dans le cas où est normal (par exemple, symétrique ou unitaire), nous savons que GMRES construit un tel polynôme via l'itération Arnoldi, tandis que CG construit le polynôme en utilisant un produit interne différent (voir cette réponse pour plus de détails ). De même, BiCG construit son polynôme à travers le processus non symétrique de Lanczos, tandis que l'itération de Chebyshev utilise des informations préalables sur le spectre (généralement des estimations des valeurs propres les plus grandes et les plus petites pour les matrices définies symétriques).κ ( V ) = 1.A κ(V)=1.
Comme exemple sympa (motivé par Trefethen + Bau), considérons une matrice dont le spectre est le suivant:
Dans MATLAB, j'ai construit cela avec:
Si nous considérons GMRES, qui construit des polynômes qui minimisent réellement le résidu sur tous les polynômes moniques de degré , nous pouvons facilement prédire l'historique résiduel en examinant le polynôme candidatn
qui dans notre cas donne
pour dans le spectre de .Az A
Maintenant, si nous exécutons GMRES sur un RHS aléatoire et comparons l'historique résiduel avec ce polynôme, ils devraient être assez similaires (les valeurs polynomiales candidates sont plus petites que le résidu GMRES parce que ):∥b∥2>1
la source
Sur les normes
où nous avons utilisé l'erreur
Netteté des limites de convergence
Enfin, il existe une littérature intéressante concernant les différentes méthodes et subtilités de Krylov de la convergence GMRES, en particulier pour les opérateurs non normaux.
Nachtigal, Reddy et Trefethen (1992) À quelle vitesse les itérations matricielles non symétriques? (pdf de l'auteur) donne des exemples de matrices pour lesquelles une méthode bat toutes les autres d'un grand facteur (au moins la racine carrée de la taille de la matrice).
Embree (1999) Dans quelle mesure les limites de convergence GMRES sont-elles descriptives? donne une discussion perspicace en termes de pseudospectres qui donnent des limites plus nettes et s'applique également aux matrices non diagonalisables.
Embree (2003) La tortue et le lièvre redémarrent GMRES (auteur pdf)
Greenbaum, Pták et Strakoš (1996) Toute courbe de convergence non croissante est possible pour GMRES
la source
Méthodes itératives en bref:
Ceci est bien expliqué dans le livre de Youcef Saad sur les méthodes itératives .
la source