Universit´e Joseph Fourier M´ethodes Num´eriques
Licence de Math´ematiques 2`eme semestre 2007/2008
Feuille d’exercices n
o4 : un peu d’optimisation.
1
`erem´ ethode : m´ ethode du gradient ` a pas constant
Soit d≥1 et soit J :Rd −→R une fonctionnelle diff´erentiable. On suppose que
• −→
∇J est globalement lipschitzien c’est-`a-dire qu’il existe C tel que
∀x, y ∈Rd , k−→
∇J(x)−−→
∇J(y)k ≤Ckx−yk ,
• J est strictement convexe c’est-`a-dire qu’il existe η >0 tel que
∀x, y ∈Rd , <−→
∇J(x)−−→
∇J(y)|x−y > ≥ ηkx−yk2 . 1) Etablir que pour tous x, y ∈Rd ett∈R,
J(y+t(x−y)) =J(y) + Z t
0
<−→
∇J(y+s(x−y))|x−y > ds
≥ η
2t2kx−yk2+t <−→
∇J(y)|x−y >+J(y) .
Donner une interpr´etation g´eom´etrique de l’in´egalit´e pr´ec´edente justifiant l’appellation
“strictement convexe” pour une telle fonction.
2) En d´eduire que J est born´ee inf´erieurement et atteint son minimum en un point xmin. Montrer que −→
∇J ne s’annule qu’en au plus un point et en d´eduire que xmin est unique.
On souhaite trouver le minimum de J ainsi quexmin. Pour cela, on utilise la m´ethode du gradient `a pas constant. Soit τ >0 un petit pas. On part dex0 ∈Rd quelconque et on pose
xn+1 =xn−τ−→
∇J(xn).
3) En utilisant un th´eor`eme de point fixe, montrer que si le pasτ > 0 est choisi assez petit, alors pour tout x0, la suite (xn) converge vers xmin. Quelle est la vitesse de convergence ?
1
Application aux fonctions r´eelles : soit f ∈ C2(R,R). On suppose que f00(x)≥α >0 pour tout x∈R. Justifier et appliquer la m´ethode du gradient `a pas constant.
Application `a la r´esolution de syst`emes lin´eaires : soit A ∈ Md(R) une ma- trice sym´etrique d´efinie positive et soit b un vecteur de Rd. On souhaite r´esoudre le syst`eme Ax = b. Montrer que cela est ´equivalent `a minimiser sur Rd la fonctionnelle J : x 7−→ 12 < Ax|x > − < b|x >. Justifier et appliquer la m´ethode du gradient `a pas constant.
Application aux moindres carr´es : soit{(xi, yi)}i=1..n une famille de points deR2. On souhaite trouver la droite y = αx+β approchant au mieux les points selon les moindres carr´es, c’est-`a-dire minimisant J(α, β) = Pn
i=1|yi−(αxi+β)|2. Montrer que sous des hy- poth`eses naturelles, le probl`eme se ram`ene `a l’application pr´ec´edente.
2
`emem´ ethode : m´ ethode de relaxation ` a pas optimal
Soit J : Rd −→R une fonctionnelle continue. On suppose que J est coercive, c’est-`a-dire que J(x) tend vers +∞ quand kxk tend vers +∞.
1) Montrer que J est born´ee inf´erieurement et atteint son minimum.
On se propose de trouver un point o`u le minimum de J est atteint `a l’aide de l’algorithme suivant. Soit (ei)i=1..dune base deRd. Soitx0 un point de Rd. On construit par r´ecurrence une suite (xn) en posant :
• x1n=xn+t1e1 o`u t1 est tel que J(xn+t1e1) = mint∈RJ(xn+te1),
• x2n=x1n+t2e2 o`u t2 est tel que J(x1n+t2e2) = mint∈RJ(x1n+te2), ...
• xn+1 =xdn=xdn−1 +tded o`utd est tel que J(xdn−1+tded) = mint∈RJ(xdn−1 +ted).
2) Montrer que l’on peut toujours construire une telle suite (xn). Cette suite est-elle unique ?
3) Montrer que (J(xn)) est une suite d´ecroissante qui converge vers une valeur J0 ∈R. 4) Montrer qu’il existe une sous-suite (xϕ(n)) qui converge vers un point x∗ ∈ Rd et que J(x∗) =J0.
5) Montrer que si J est diff´erentiable et strictement convexe, alors J(x∗) est le minimum de J (indication : on commencera par montrer que pour une telle fonction, le choix de ti est unique).
Application `a la r´esolution de syst`emes lin´eaires : soit A ∈ Md(R) une matrice sym´etrique d´efinie positive et soitb un vecteur deRd. Montrer que la m´ethode it´erative de Gauss-Seidel pour r´esoudre le syst`eme Ax =b est en fait une m´ethode de relaxation `a pas optimal pour trouver le minimum de la fonctionnelle J :x7−→ 12 < Ax|x >−< b|x >.
2