• Aucun résultat trouvé

Programmer la méthode de gradient à pas constant

N/A
N/A
Protected

Academic year: 2022

Partager "Programmer la méthode de gradient à pas constant"

Copied!
1
0
0

Texte intégral

(1)

Calcul scientique et Informatique 7 novembre 2012 TP 4: Systèmes linéaires, valeurs propres.

Exercice 1. On cherche à résoudre un système linéaire Ax = b, où A est une matrice symétrique dénie positive. En pratique, on considèrera la matrice

A=

2 −1 0

−1 2 −1 ...

0 ... ... ... 0 ... −1 2 −1

0 −1 2

qui apparaît dans la discrétisation du problème de Poisson sur un segment avec conditions de Dirichlet1.

1. Montrer que résoudreAx=brevient à minimiser la fonctionJ(x) := 12hAx|xi−hb|xi. La méthode de gradient à pas constant consiste à résoudre le système linéaire de manière itérative en cherchant un minimum de J par descente de gradient. Plus précisément, il s'agit de construire une suite d'approximation de la solution de la façon suivante : on part d'un choix de x0 ∈ Rn arbitraire, puis l'on pose xn+1 = xn−τ∇J(xn).

2. Programmer la méthode de gradient à pas constant. Tracer le résidus kAxn−bken fonction de n pour diérentes valeurs de τ. En déduire son ordre.

3. Montrer que cette méthode converge si 0< τ < λ2

n où λn est la plus grande valeur propre de A. Illustrer numériquement la nécessité de cette condition.

4. On s'intéresse maintenant à l'algorithme de gradient à pas optimal. Étant donné un point x, et v := ∇J(x), calculer explicitement le minimum de t 7→ J(x+tv). En partant d'un vecteur x0 ∈ Rn quelconque, on posera : vn = ∇J(xn), tn = arg mintJ(xn+tvn) et nalement xn+1=xn+tnvn.

5. Programmer la méthode de gradient à pas optimal, et comparer son ordre de con- vergence à celui de la méthode de gradient à pas xe.

Exercice 2. Dans cet exercice, on considère une matrice carrée symmétriqueA, dont l'on suppose que la plus grande valeur propre (en valeur absolue) a pour multiplicité 1.

1. On noteλla plus grande valeur propre deAetuun vecteur propre associé. Montrer que, si hu0|ui>0, alors la suite un = kAAnnuuk converge vers le vecteur kuku .

2. En déduire un algorithme itératif pour calculer la plus grande valeur propre d'une matriceA. Programmer cet algorithme, et déterminer numériquement son ordre sur la matriceA de l'exercice précédent.

1. Il s'agit, étant donné une fonction f : (0,1)R, de trouveru: [0,1]R qui vérieu00=f sur (0,1)et u(0) =u(1) = 0.

1

Références

Documents relatifs

Ce développement est extrait du Cours de mathématiques pures et appliquées, volume 1 de Ramis, Warusfel et Moulin.. La preuve de l’inégalité de Kantorovitch se trouve dans les

Grâce aux résultats de simulation, nous avons montré que l’algorithme degradient offre une bonne qualité de reconstruction en termes des critères d’évaluation en plus la

Grâce aux résultats de simulation, nous avons montré que l’algorithme de gradient offre une bonne qualité de reconstruction en termes des critères d’évaluation en plus la

La DG s'applique lorsque l'on cherche le minimum d'une fonction dont on connaît l'expression analytique, qui est dérivable, mais dont le calcul direct du minimum est difficile..

c Éditions H &amp; K Publié dans les Annales des Concours 4/15 Une méthode alternative consiste à utiliser la définition du gradient par une formule intrinsèque, et non à l’aide

Ainsi, malgré la validation initiale des outils plasmidiques (Figure 80 et Figure 81 ) nous n’avons pas été en mesure, dans nos conditions expérimentales, de mettre en évidence

On se propose de trouver un point o` u le minimum de J est atteint `a l’aide de

300 GHz link enabled by Yagi-Uda antenn Guillaume Ducournau, Fabio Pavanello, C Belem-Goncalves, Frederic Gianesello, Cyril Luxey, Emilien Peytavit, Jean-Francois Lampin,