• Aucun résultat trouvé

Analyse Numérique

N/A
N/A
Protected

Academic year: 2021

Partager "Analyse Numérique"

Copied!
20
0
0

Texte intégral

(1)

Analyse Numérique

Problèmes Pratiques

Méthodes itératives

(2)

Introduction 1/2

 Quel est le point commun entre :

 la résolution d'un système linéaire

par Jacobi

par Gauss-Seidel

par relaxation

 le calcul des valeurs propres

par la puissance itérée

 la résolution d'un système non linéaire

par Newton

par Quasi-Newton

(3)

Introduction 2/2

 Réponse = Méthodes itératives !

 On construit une suite u

k+1

= g(u

k

) qui converge vers û la solution du problème

 On peut étudier les propriétés "générales" de ces méthodes :

 convergence

 taux de convergence

 accélération de la convergence

(4)

 On peut écrire les méthodes itératives sous la forme :

A x = b avec A = M - N et M régulière

M uk+1 =N uk + b uk+1 =M-1N uk + M-1b uk+1 =M-1(M-A) uk + M-1b

uk+1 =(I - M-1A) uk + M-1b

û solution de A x = b vérifie

û =(I - M-1A) û + M-1b

Convergence 1/3

(5)

 Erreur à la k

ème

itération :

ek = û - uk

ek+1 = (I - M-1A) uk + M-1b - (I - M-1A) û - M-1b ek+1 = (I - M-1A) ek = (I - M-1A)k e0

ek = Bk e0 avec B = (I - M-1A)

 Ré-écriture de la suite :

uk+1 = B uk + c avec c = M-1b

Convergence 2/3

(6)

 Théorème :

 la suite uk converge vers û ssi (B) < 1

 démonstration :

il faut que ek converge vers 0 quelque soit e0

Convergence 3/3

(7)

Taux de convergence 1/8

 En dimension 1 :

 la suite (uk) converge vers û

 si l'on arrive à trouver  et  tels que :

 alors la convergence est d'ordre , avec une erreur asymptotique 

 

u û

û lim u

k 1 k k

(8)

Taux de convergence 2/8

 En dimension 1 (suite)

 Cas particuliers :

si =1, la suite a une convergence linéaire

si =2, la suite a une convergence quadratique

 En général, plus si  est grand, plus la suite converge vite.

 

u û

û lim u

k 1 k k

(9)

Taux de convergence 3/8

 En dimension 1 (suite)

 Ex d'une suite de limite 0 :

convergence linéaire convergence quadratique

 

u û

û lim u

k 1 k k

5 . u 0

lim u

k 1 k

5 . u 0

u

k 1 k

0 k k

k 0 u (0.5 ) u

u   

5 . u 0

lim u 2

k 1 k

5 . u 0

u

2 k

1 k

0 1 k 2 k

k 0 u (0.5 ) u

u   

(10)

1 2 3 4 5 6 7 8 9 10 0

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Taux de convergence 4/8

 En dimension 1 (suite)

linéaire quadratique

la convergence linéaire

c'est bien...

la convergence quadratique c'est mieux !

(11)

Taux de convergence 5/8

 En dimension n

 taux de convergence = vitesse à laquelle ek tend vers 0

 on a ek = Bk e0 donc

 Définitions :

  : facteur moyen de réduction de l'erreur

0 k

k B . e

e

k 0

k k B

e

e

    Bk 1/ k

(12)

Taux de convergence 6/8

 Définitions (suite)

Rk(B) : taux moyen de convergence pour k itérations

R(B) : taux de convergence asymptotique

en effet

k / k 1

k( B ) ln B

R  

) B ( ln )

B (

R    lim Bk 1/ k ( B )

k  

(13)

Taux de convergence 7/8

 Application

 combien faut-il d'itérations pour réduire l'erreur d'un facteur  ?

étape 1 : convergence donc pour k assez grand

puisque on choisit

ainsi :

 problème : k dépend de Rk(B)

0 B

ln )

B (

Rk   k 1/ k

0 k

k B . e

eBk  

k ln B 1

ln )

B (

Rk   k 1/ k  

) B ( R k ln

k

 

(14)

Taux de convergence 8/8

 Application (suite)

étape 2 : exprimer k en fonction de R(B)

donc

ainsi : soit

 conclusion :

) B ( R k ln

k

 

k k

k ( B ) B

) B

(   

 ( B )Bk 1/k

k / k 1

B ln )

B (

ln  

  R( B )Rk ( B )

) B ( R k ln

(15)

Accélération de la convergence 1/5

 Principe :

 prendre une méthode itérative de convergence linéaire

 construire une nouvelle suite qui converge plus vite.

 Exemple :

 soit une suite (uk) de convergence linéaire

 supposons que pour k suffisamment grand,

û u

û u

û u

û u

1 k

2 k k

1 k

 

(16)

Accélération de la convergence 2/5

 Exemple (suite)

 Méthode du 

2

d'Aitken

 la suite

converge plus vite que la suite originale û

u

û u

û u

û u

1 k

2 k k

1 k

 

uk2 uk 2uk1

û uk2uk uk21

 

k 1

k 2

k

2 k 1

k k

1 k k

2 k

2 1 k k

2 k

u u

2 u

u u u

u 2 u

u

u u

û u

 

 

 

 

k 1

k 2

k

2 k 1

k k

k u 2u u

u u u

u~  

 

(17)

Accélération de la convergence 3/5

 En dimension n

uk+1 = B uk + c

on va chercher à construire une suite qui converge plus vite que uk

en général, on prend :

avec

Erreur à la kème itération :

avec

u~k

 

n

0 i

i k i

k a u

u~ n a  1

0 i

k

i

 

0 k

n

0 i k i k

k û u~ a BP ( B )

   

 

k ik k

k(t ) a t

P

(18)

Accélération de la convergence 4/5

 En dimension n (suite)

 pour que la nouvelle suite converge rapidement, il faut que :

[Pk(B)] soit le plus petit possible

Pk(1)=1

le calcul de la nouvelle suite ne soit pas trop lourd !

 plusieurs méthodes d'accélération :

méthode de Tchebycheff

méthode de relaxation symétrique

...

  1 a

n 0 i

k

i

(19)

Accélération de la convergence 5/5

 En dimension n (suite)

 Accélération de Tchébycheff

si B hermitienne, et si ses valeurs propres [-,]

alors :

converge vers û

avec

k k 1

k 1

1 n 1

k Bu~ c u~ u~

u~    

n 1 2

2 n 2

1

1 4

1 2

1 2

 

 

 

(20)

Conclusion

 les méthodes itératives sont très courantes

 propriétés des méthodes itératives

convergence

taux de convergence

accélération de la convergence :

en dimension 1 :

méthode d'Aitken (facile et pas "chère")

en dimension n :

plusieurs méthodes, mais assez lourdes en calcul

 il faut trouver un compromis

(B) < 1

Références

Documents relatifs

DEMONSTRATION.. La mˆ eme d´ emotranstion reste valable si on remplace le corps C par le corps R et on suppose que les valeurs propres de A sont r´ eelles ; dans ce cas tous

plus simples, appelée méthode des diérenes nies (nous verrons plus loin une autre. méthode, dite des

Soit A une matrice tridiagonale de taille n × n inversible dont les coefficients diagonaux sont tous non nuls. Alors les méthodes de J ACOBI et de G AUSS -S EIDEL sont soit toutes

De plus, si la matrice A est creuse, comme c’est souvent le cas dans les applications (e.g., résolution d’équations aux dérivées partielles par discrétisation- voir Section 4.1),

Ainsi tout comme pour l’analyseur de spectre analogique, le temps d’une analyse augmente si la fréquence du signal à analyser diminue.. Ce résultat était prévisible dans la

❚ Optimisation = trouver le minimum (/maximum) d'une fonction.

 découpage récursif de la surface en trapèzes.. Sujet

Résolution d'équations différentielles.. Sujet