• Aucun résultat trouvé

Méthodes de gradient

N/A
N/A
Protected

Academic year: 2022

Partager "Méthodes de gradient"

Copied!
28
0
0

Texte intégral

(1)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Méthodes de gradient

Noémie Orvain et Thomas Geslin

30 mars 2012

(2)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

1 Introduction

2 Méthode de gradient à pas constant

3 Méthode de gradient à pas optimal

(3)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

1 Introduction

2 Méthode de gradient à pas constant

3 Méthode de gradient à pas optimal

(4)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

1 Introduction

2 Méthode de gradient à pas constant

3 Méthode de gradient à pas optimal

(5)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Problème : Résoudre Ax = b

où : A ∈ M n ( R ) , b ∈ R n , n ∈ N.

(6)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Méthodes itératives : On cherche : ( x k ) k ∈ N −→ x

avec x solution de Ax = b.

(7)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Méthodes variationnelles : f : x 7→ 1 2 h Ax | x i − h b | x i .

On va prouver que :

∇ f ( x ) = ∂ f

∂ x k ( x )

k ∈{ 1 ,..., n }

= Ax − b

(8)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

On aura alors :

∇ f ( x ) = 0 ⇔ Ax = b.

(9)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1

2 h Ax | x i − h b | x i

= 1 2

n

X

i , j = 1

a i , j x i x j −

n

X

i = 1

b i x i

= 1 2

X n i = 1

a i , i x i 2 + X

i < j

a i , j x i x j − X n

i = 1

b i x i

(10)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1

2 h Ax | x i − h b | x i

= 1 2

n

X

i , j = 1

a i , j x i x j −

n

X

i = 1

b i x i

= 1 2

X n i = 1

a i , i x i 2 + X

i < j

a i , j x i x j − X n

i = 1

b i x i

(11)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1

2 h Ax | x i − h b | x i

= 1 2

n

X

i , j = 1

a i , j x i x j −

n

X

i = 1

b i x i

= 1 2

X n i = 1

a i , i x i 2 + X

i < j

a i , j x i x j − X n

i = 1

b i x i

(12)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1 2

n

X

i = 1

a i,i x i 2 + X

i < j

a i ,j x i x j −

n

X

i = 1

b i x i

d'où :

∂ f

∂ x k ( x ) = a k , k x k + X

i < k

a i , k x i + X

k < j

a k , j

|{z}

= a

j,k

x j − b k

= a k , k x k + X

i 6= k

a k , i x i − b k

= X n

i = 1

a k , i x i − b k

= ( Ax ) k − ( b ) k

(13)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1 2

n

X

i = 1

a i,i x i 2 + X

i < j

a i ,j x i x j −

n

X

i = 1

b i x i

d'où :

∂ f

∂ x k ( x ) = a k , k x k + X

i < k

a i , k x i + X

k < j

a k , j

|{z}

= a

j,k

x j − b k

= a k , k x k + X

i 6= k

a k , i x i − b k

= X n

i = 1

a k , i x i − b k

= ( Ax ) k − ( b ) k

(14)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1 2

n

X

i = 1

a i,i x i 2 + X

i < j

a i ,j x i x j −

n

X

i = 1

b i x i

d'où :

∂ f

∂ x k ( x ) = a k , k x k + X

i < k

a i , k x i + X

k < j

a k , j

|{z}

= a

j,k

x j − b k

= a k , k x k + X

i 6= k

a k , i x i − b k

= X n

i = 1

a k , i x i − b k

= ( Ax ) k − ( b ) k

(15)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

f ( x ) = 1 2

n

X

i = 1

a i,i x i 2 + X

i < j

a i ,j x i x j −

n

X

i = 1

b i x i

d'où :

∂ f

∂ x k ( x ) = a k , k x k + X

i < k

a i , k x i + X

k < j

a k , j

|{z}

= a

j,k

x j − b k

= a k , k x k + X

i 6= k

a k , i x i − b k

= X n

i = 1

a k , i x i − b k

= ( Ax ) k − ( b ) k

(16)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

∇ f ( x ) = 0 ?

(17)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Proposition (admise) :

∀α ∈

0 , 2 ρ(A)

, f ( x − α∇ f ( x )) < f ( x )

(18)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Méthode de gradient à pas constant

(19)
(20)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

On prend x 0 ∈ R n , α ∈ i

0 , ρ( 2 A ) h . On pose :

∀ k ∈ N , x k + 1 = x k − α∇ f ( x k )

(21)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Théorème :

Quel que soit le x 0 de départ, la suite ( x k ) k ∈ N converge vers x ∈ R n vériant Ax = b.

Démonstration.

x k+1 = x k − α∇ f (x k ) = x k − α(Ax k − b)

Méthode itérative de Richardson.

(22)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Théorème :

Quel que soit le x 0 de départ, la suite ( x k ) k ∈ N converge vers x ∈ R n vériant Ax = b.

Démonstration.

x k+1 = x k − α∇ f (x k ) = x k − α(Ax k − b)

Méthode itérative de Richardson.

(23)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Méthode de gradient à pas optimal

(24)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

On prend x 0 ∈ R n .

On pose ∀ k ∈ N , x k + 1 = x k − α k ∇ f ( x k )

avec α k tel que : d

d α ( f ( x k − α∇ f ( x k ))(α k ) = 0

(25)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

On prend x 0 ∈ R n .

On pose ∀ k ∈ N , x k + 1 = x k − α k ∇ f ( x k ) avec α k tel que :

d

d α ( f ( x k − α∇ f ( x k ))(α k ) = 0

(26)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

On trouve :

α k = h∇ f ( x k )|∇ f ( x k )i

h A ∇ f ( x k )|∇ f ( x k )i

(27)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

Théorème (admis) :

Quel que soit le x 0 de départ, la suite ( x k ) k N converge vers

x ∈ R n vériant Ax = b.

(28)

Méthodes de gradient Noémie Orvain et

Thomas Geslin

Introduction Méthode de gradient à pas constant Méthode de gradient à pas optimal

FIN.

Références

Documents relatifs

c Éditions H &amp; K Publié dans les Annales des Concours 4/15 Une méthode alternative consiste à utiliser la définition du gradient par une formule intrinsèque, et non à l’aide

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

De ce fait, l’objectif général de ce travail de thèse était d’évaluer à différents délais, par une approche comportementale et neuroendocrinienne, les effets du

La méthode de gradient à pas constant consiste à résoudre le système linéaire de manière itérative en cherchant un minimum de J par descente de gradient.. Programmer la méthode

Algorithme d’Uzawa L’algorithme d’Uzawa consiste à utiliser l’algorithme du gradient à pas fixe avec pro- jection (qu’on a appelé “GPFK”, voir page 271) pour résoudre

Cette dernière catégorie est intéressante car elle contient les méthodes ité- ratives de type ORTHOMIN (m) et MIN (m) qui offrent de nombreuses possi- bilités choix des

Résumé - On montre que les méthodes de gradient réduit sous contraintes linéaires sont aussi des méthodes de directions réalisables Ceci nous permettra à partir de deux lemmes dus

Je trouvais que le fait d’invoquer directement la formule bien connue des polynômes du 2 nd degré était préférable à la dérivation, car cela permet d’aller plus vite, ce