Si je comprends bien, la relaxation successive fonctionne en choisissant un paramètre et en utilisant une combinaison linéaire d'une itération (quasi) de Gauss-Seidel et de la valeur au pas de temps précédent ... c'est-à-dire
Je dis «quasi» car inclut les dernières informations mises à jour selon cette règle, à tout instant. (notez qu'à , c'est exactement gauss-seidel).
Dans tous les cas, j'ai lu que sur le choix optimal pour (de sorte que l'itération converge plus rapidement que tout autre) approche 2 pour le problème du poisson car la résolution spatiale approche de zéro. Existe-t-il une tendance similaire pour d'autres problèmes symétriques à dominante diagonale? Autrement dit, existe-t-il un moyen de choisir les oméga de manière optimale sans les intégrer dans un schéma d'optimisation adaptative? Existe-t-il d'autres heuristiques pour d'autres types de problèmes? Quels types de problèmes la sous-relaxation ( ) serait-elle optimale?
Réponses:
Jacobi amorti
Supposons que la matrice possède diagonale D . Si le spectre de D - 1 A se situe dans l'intervalle [ a , b ] de l'axe réel positif, alors la matrice d'itération de Jacobi avec facteur d'amortissement ω B Jacobi = I - ω D - 1 A a un spectre dans la plage [ 1 - ω b , 1 - ω a ] , minimisant ainsi le rayon spectral avec ω opt = 2UNE ré ré- 1UNE [ a , b ] ω
Sur-relaxation successive (SOR)
commentaires
la source