Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Méthodes de gradient
Noémie Orvain et Thomas Geslin
30 mars 2012
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
1 Introduction
2 Méthode de gradient à pas constant
3 Méthode de gradient à pas optimal
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
1 Introduction
2 Méthode de gradient à pas constant
3 Méthode de gradient à pas optimal
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
1 Introduction
2 Méthode de gradient à pas constant
3 Méthode de gradient à pas optimal
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Problème : Résoudre Ax = b
où : A ∈ M n ( R ) , b ∈ R n , n ∈ N.
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Méthodes itératives : On cherche : ( x k ) k ∈ N −→ x
avec x solution de Ax = b.
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Méthodes variationnelles : f : x 7→ 1 2 h Ax | x i − h b | x i .
On va prouver que :
∇ f ( x ) = ∂ f
∂ x k ( x )
k ∈{ 1 ,..., n }
= Ax − b
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
On aura alors :
∇ f ( x ) = 0 ⇔ Ax = b.
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1
2 h Ax | x i − h b | x i
= 1 2
n
X
i , j = 1
a i , j x i x j −
n
X
i = 1
b i x i
= 1 2
X n i = 1
a i , i x i 2 + X
i < j
a i , j x i x j − X n
i = 1
b i x i
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1
2 h Ax | x i − h b | x i
= 1 2
n
X
i , j = 1
a i , j x i x j −
n
X
i = 1
b i x i
= 1 2
X n i = 1
a i , i x i 2 + X
i < j
a i , j x i x j − X n
i = 1
b i x i
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1
2 h Ax | x i − h b | x i
= 1 2
n
X
i , j = 1
a i , j x i x j −
n
X
i = 1
b i x i
= 1 2
X n i = 1
a i , i x i 2 + X
i < j
a i , j x i x j − X n
i = 1
b i x i
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1 2
n
X
i = 1
a i,i x i 2 + X
i < j
a i ,j x i x j −
n
X
i = 1
b i x i
d'où :
∂ f
∂ x k ( x ) = a k , k x k + X
i < k
a i , k x i + X
k < j
a k , j
|{z}
= a
j,kx j − b k
= a k , k x k + X
i 6= k
a k , i x i − b k
= X n
i = 1
a k , i x i − b k
= ( Ax ) k − ( b ) k
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1 2
n
X
i = 1
a i,i x i 2 + X
i < j
a i ,j x i x j −
n
X
i = 1
b i x i
d'où :
∂ f
∂ x k ( x ) = a k , k x k + X
i < k
a i , k x i + X
k < j
a k , j
|{z}
= a
j,kx j − b k
= a k , k x k + X
i 6= k
a k , i x i − b k
= X n
i = 1
a k , i x i − b k
= ( Ax ) k − ( b ) k
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1 2
n
X
i = 1
a i,i x i 2 + X
i < j
a i ,j x i x j −
n
X
i = 1
b i x i
d'où :
∂ f
∂ x k ( x ) = a k , k x k + X
i < k
a i , k x i + X
k < j
a k , j
|{z}
= a
j,kx j − b k
= a k , k x k + X
i 6= k
a k , i x i − b k
= X n
i = 1
a k , i x i − b k
= ( Ax ) k − ( b ) k
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
f ( x ) = 1 2
n
X
i = 1
a i,i x i 2 + X
i < j
a i ,j x i x j −
n
X
i = 1
b i x i
d'où :
∂ f
∂ x k ( x ) = a k , k x k + X
i < k
a i , k x i + X
k < j
a k , j
|{z}
= a
j,kx j − b k
= a k , k x k + X
i 6= k
a k , i x i − b k
= X n
i = 1
a k , i x i − b k
= ( Ax ) k − ( b ) k
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
∇ f ( x ) = 0 ?
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Proposition (admise) :
∀α ∈
0 , 2 ρ(A)
, f ( x − α∇ f ( x )) < f ( x )
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Méthode de gradient à pas constant
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
On prend x 0 ∈ R n , α ∈ i
0 , ρ( 2 A ) h . On pose :
∀ k ∈ N , x k + 1 = x k − α∇ f ( x k )
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Théorème :
Quel que soit le x 0 de départ, la suite ( x k ) k ∈ N converge vers x ∈ R n vériant Ax = b.
Démonstration.
x k+1 = x k − α∇ f (x k ) = x k − α(Ax k − b)
Méthode itérative de Richardson.
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Théorème :
Quel que soit le x 0 de départ, la suite ( x k ) k ∈ N converge vers x ∈ R n vériant Ax = b.
Démonstration.
x k+1 = x k − α∇ f (x k ) = x k − α(Ax k − b)
Méthode itérative de Richardson.
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Méthode de gradient à pas optimal
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
On prend x 0 ∈ R n .
On pose ∀ k ∈ N , x k + 1 = x k − α k ∇ f ( x k )
avec α k tel que : d
d α ( f ( x k − α∇ f ( x k ))(α k ) = 0
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
On prend x 0 ∈ R n .
On pose ∀ k ∈ N , x k + 1 = x k − α k ∇ f ( x k ) avec α k tel que :
d
d α ( f ( x k − α∇ f ( x k ))(α k ) = 0
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
On trouve :
α k = h∇ f ( x k )|∇ f ( x k )i
h A ∇ f ( x k )|∇ f ( x k )i
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal
Théorème (admis) :
Quel que soit le x 0 de départ, la suite ( x k ) k ∈ N converge vers
x ∈ R n vériant Ax = b.
Méthodes de gradient Noémie Orvain et
Thomas Geslin
Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal