1 / 32

METHODES ITERATIVES POUR DES MATRICES SYMETRIQUES DEFINIES POSITIVES:

METHODES ITERATIVES POUR DES MATRICES SYMETRIQUES DEFINIES POSITIVES: PLUS PROFONDE DESCENTE ET GRADIENT CONJUGUE. I-Forme quadratique associée à un système de matrice s.d.p. Soit le système Ax=b où A est une matrice (n,n) à valeurs réelles, symétrique définie positive. Proposition 1

ciaran-guy
Download Presentation

METHODES ITERATIVES POUR DES MATRICES SYMETRIQUES DEFINIES POSITIVES:

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. METHODES ITERATIVES POUR DES MATRICES SYMETRIQUES DEFINIES POSITIVES: PLUS PROFONDE DESCENTE ET GRADIENT CONJUGUE

  2. I-Forme quadratique associée à un système de matrice s.d.p. Soit le système Ax=b où A est une matrice (n,n) à valeurs réelles, symétrique définie positive.

  3. Proposition 1 définit un produit scalaire sur et une norme sur est une forme bilinéaire sur est la norme induite par le produit scalaire Démonstration:

  4. On introduit est la forme quadratique associée à la forme bilinéaire Par extension, on dira (abusivement) que q est la forme quadratique associée au système Ax=b

  5. A s.d.p Etude dans le cas n=1: q admet un minimum en x* et il est unique. Ces résultats se généralisent au cas n quelconque.

  6. Proposition 2 gradq(x)=Ax-b où gradq(x) désigne le vecteur de défini par Théorème 1 La fonction q admet un minimum unique sur en Conséquence La recherche de la solution d’un système de matrice s.d.p. peut être ramenée à un problème de minimisation. Démonstration en TD Démonstration en TD

  7. On s’intéresse à la classe de méthodes de minimisation sur s’écrivant sous la forme suivante p(k)est un vecteur de qui détermine la direction de descente. est un réel tel que II-Généralités sur les méthodes de descente

  8. p(k)étant fixé, le qui satisfait au mieux l’inégalité (2) se caractérise facilement. Proposition 3

  9. Démonstration:

  10. Remarques: Egalité utilisée dans la mise en oeuvre des méthodes de descente

  11. Algorithme général affectation d ’une valeur à x(0) détermination de p(0) Introduction de la variable z(k)pour économiser un produit matrice vecteur

  12. Proposition 4 Dans une méthode de descente où est donné par (3), le résidu en x(k+1) estorthogonal à la direction de descente p(k), c’est à dire Démonstration: Ce résultat sera utilisé dans la suite pour l’étude de la convergence du gradient conjugué.

  13. Interprétation géométrique dans le cas n=2: Le résidu étant égal au gradient de q, la direction de descente est tangente à l’ellipse d’équation q(x)=q(x(k+1)) x(k) q(x)=q(x(k+1)) p(k) q(x)=q(x(k)) x* x(k+1) r(k+1) Les équations q(x)=constante sont celles d’une famille d’ellipses concentriques autour du point x* .

  14. III Méthode de la plus profonde descente III-1 Description et programmation C’est une méthode de descente avec C’est une « méthode de  gradient » puisque Pour , on fait le choix de la proposition 3 soit

  15. Algorithme de la méthode de la plus profonde descente affectation d ’une valeur à x(0) initialisation de x

  16. La méthode de descente où la direction de descente est encore donnée parmais avecs’écrit: Remarque: C’est une itération linéaire dite méthode de Richardson dont la convergence sera étudiée en TD.

  17. III-2 Etude de la convergence a)Conditionnement d’une matrice symétrique définie positive On note respectivement la plus petite et la plus grande des valeurs propres. mesure le conditionnement de A Pour As.d.p., les valeurs propres sont strictement positives . Si A et B sont 2 matrices s.d.p , A est dit mieux conditionnée que B si K(A)<K(B).

  18. Remarques:

  19. : matrice du laplacien discrétisé sur lecarré Exemple: Plus le maillage est fin, plus la matrice est mal conditionnée

  20. L’étude de la convergence se fait en norme Théorème 2 La méthode de la plus profonde descente pour résoudre un système de matrice symétrique définie positive converge vers la solution x* du système quel que soit le vecteur initial. De plus l’erreur à chaque pas vérifie la relation: b) Résultats de convergence Démonstration en TD

  21. Conséquences du théorème 2: Plus K(A) est proche de 1, plus est petit, plus la convergence est rapide. Avec la méthode du gradient conjugué, il deviendra proportionnel à Le nombre d’itérations est proportionnel à K(A)

  22. On choisit A partir de p(k), r(k), on calcule p(k+1) est alors la direction « A-conjuguée » de p(k), c’est à dire telle que IV Méthode du gradient conjugué IV-I Description et programmation On cherche p(k+1)dans le plan engendré par les vecteurs orthogonaux r(k+1) et p(k) sous la forme

  23. 2 produits matrice vecteur par itération

  24. La méthode ne se programme pas sous la forme précédente mais à partir d’expressions équivalentes de qui permettent de réduire les coûts de calcul. On montre les résultats suivants:

  25. affectation d ’une valeur à x(0) Algorithme de la méthode du gradient conjugué initialisation de x

  26. Par construction : On montre que La méthode construit donc une famille orthogonale de vecteurs p(k)dans IV-2 Résultats de convergence La méthode du gradient conjugué converge en un nombre fini de pas au plus égal à n.

  27. En théorie: La méthode du gradient conjugué est donc une méthode directe comme Gauss. En pratique: En raison deserreurs d’arrondi, la convergence n’est pas assurée au bout de n pas. La méthode se programme donc comme une méthode itérative comme il est fait dans l’algorithme précédent. Pour évaluer les performances du gradient conjugué il est nécessaire de connaître des informations supplémentaires sur le comportement de l’erreur.

  28. Théorème 3: La méthode du gradient conjugué pour résoudre un système de matrice A (n,n) symétrique définie positive converge quel que soit le vecteur initial vers la solution x* du système en un nombre fini de pas inférieur ou égal à n. De plus l’erreur au pas k vérifie

  29. Remarques: mais b) a) La borne d’erreur n’a d’intérêt que pour k assez « grand » (donc n « grand »). En effet:

  30. matrices Exemples: Le coût d’une itération du gradient conjugué sur ces 2 matrices est en O(N). On peut alors donner un tableau comparatif des performances des méthodes de résolution étudiées depuis le début de ce cours:

  31. test d ’arrêt Illustration numérique:

More Related