• Aucun résultat trouvé

Cours d’analyse num´erique de licence de math´ematiques

N/A
N/A
Protected

Academic year: 2022

Partager "Cours d’analyse num´erique de licence de math´ematiques"

Copied!
85
0
0

Texte intégral

(1)

Cours d’analyse num´ erique de licence de math´ ematiques

Roland Masson

16 novembre 2011

(2)

1 Introduction Objectifs Plan du cours

Exemples d’applications du calcul scientifique D´ebouch´es

Calendrier du cours Evaluation

2 Quelques rappels d’alg`ebre lin´eaire en dimension finie Espaces vectoriels

Applications lin´eaires Matrices

Transposition de matrices et matrices sym´etriques D´eterminants

Normes matricielles 3 M´ethodes directes

M´ethode d’´elimination de Gauss et factorisation LU 4 M´ethodes it´eratives

5 Solveurs non lin´eaires

(3)

Analyse num´ erique: objectifs

Analyse num´erique: con¸coit et analyse math´ematiquement les algorithmes

`

a la base des simulations num´eriques de la physique

Objectifs du cours

Introduction `a quelques algorithmes de bases en calcul scientifique

Fondements math´ematiques (complexit´e, stabilit´e, convergence, consistance, ...)

Exemples d’applications et mise en oeuvre informatique sous scilab (TDs et TPs)

(4)

Plan du cours

R´esolution des syst`emes lin´eairesAx =b,A∈ Mn,b,x∈Rn M´ethodes directes: m´ethode d’´elimination de Gauss, factorisation LU, factorisation de Choleski

M´ethodes it´eratives: m´ethodes de Richardon, de Jacobi, de Gauss Seidel R´esolution des syst`emes non lin´eairesf(x) = 0, f :Rn→Rn

M´ethodes de Newton

Algorithmes d’optimisation: x= argminyRnf(y),f :Rn→R M´ethodes de descente selon le gradient

R´esolution des ´equations diff´erentielles ordinaires (EDO):y0=f(y,t), f :Rn×R→Rn

Sch´emas d’Euler explicite et implicite

(5)

R´ ef´ erences

Cours d’analyse num´erique de Rapha`ele Herbin (Universit´e de Provence):

http://www.cmi.univ-mrs.fr/∼herbin/anamat.html

Livre de Quateroni et al: “M´ethodes num´eriques, algorithmes, analyse et applications”, Springer, 2007.

(6)

Domaines d’applications du calcul scientifique

Energie´ Nucl´eaire P´etrole

Fusion nucl´eaire

Eolien, hydrolien, solaire, ...

Transport A´eronautique Spatial Automobile Environnement

M´et´eorologie Hydrologie G´eophysique Climatologie

Finance, Biologie, Sant´e, T´el´ecommunications, Chimie, mat´eriaux, ...

(7)

Exemple de la simulation des r´ eservoirs p´ etroliers

P´etrole = huile de pierre

Bassin de paris

(8)

Exemple de la simulation des r´ eservoirs p´ etroliers

R´eservoir: pi`ege g´eologique rempli d’hydrocarbures

(9)

Exemple de la simulation des r´ eservoirs p´ etroliers

Enjeux de la simulation Pr´ediction de la production

Optimisation de la production (ou du rendement ´economique) Int´egration des donn´ees

Evaluation des incertitudes sur la production

(10)

D´ ebouch´ es

Comp´etences

Analyse num´erique Mod´elisation Informatique M´etiers

D´eveloppements de codes de calculs scientifiques Etudes en mod´elisation num´erique

Ing´enieur de recherches en calcul scientifique Chercheur acad´emique en math´ematiques appliqu´ees Employeurs

SSII en calcul scientifique

EPIC: CEA, ONERA, IFPEN, BRGM, IFREMER, INRA, CERFACS, ...

Industrie: EDF, EADS, Dassault, Michelin, Areva, Total, CGGVeritas, Thales, Safran, Veolia, Rhodia, ...

Acad´emique: Universit´es, CNRS, INRIA, Ecoles d’ing´enieurs, ...

(11)

Calendrier du cours

Cours en amphi biologie le mercredi de 17h `a 18h30: semaines 1,2,3,5,6,7,8,10,11,12,13,14,15

TD et TP en M31/PV212-213 le jeudi de 15h `a 18h15: semaines 2,3,5,7,8,10,11,12,13,14,15

Un seul groupe en TD salle M31

A priori deux groupes en TP salles PV212 et PV213

deuxi`eme groupe avec AUDRIC DROGOUL

(12)

Evaluation

Un examen partiel semaine 11 en cours: noteP Contrˆole continu: noteC = (C1 +C2)/2

une interrogation ´ecrite en TD semaine 7: noteC1 une interrogation ´ecrite en TP semaine 13: noteC2 Un examen final: note F

Note finale: 0.4F+ 0.3P+ 0.3C

(13)

Espaces vectoriels

D´efinition d’un e.v. surK =RouC: ensemble E muni d’une loi de composition interne not´ee + et d’une loi d’action deK surE not´ee. tels que:

(E,+) est un groupe commutatif 1.x=x, (αβ).x=α.(β.x) (associativit´e)

(α+β).x=α.x+β.x,α.(x+y) =α.x+α.y(distributivit´e) Exemple: Rn e.v. surR(Cn e.v. surC):

x=

 x1

.. . xn

, x+y=

 x1+y1

.. . xn+yn

, λ.x=

 λx1

.. . λxn

(14)

Familles libres, g´ en´ eratrices, base, dimension

Famille libre demvecteursv1,· · · ,vm deE: Pm

i=1λivi= 0⇒λi= 0∀i = 1,· · ·,m

Famille g´en´eratrice demvecteursv1,· · · ,vm deE: E = Vect{v1,· · ·,vm}

Base: famille libre et g´en´eratrice

Dimension (suppos´ee finie): toutes les bases ont mˆeme dimension appel´ee dimension de l’espace vectorielE not´een

Une famille libre denvecteurs est g´en´eratrice, c’est une base Une famille g´en´eratrice denvecteurs est libre, c’est une base

(15)

Espaces vectoriels norm´ es

D´efinition: e.v. muni d’une norme, ie une application deE →R+, not´ee x→ kxksatisfaisant les propri´et´es suivantes

kxk= 0⇒x= 0 kλ.xk=|λ|kxk kx+yk ≤ kxk+kyk

Une norme d´efinit surE une topologie d’espace m´etrique avec d(x,y) =kx−yk

Limite de suite de vecteurs: limk→+∞vk=v⇔limk→+∞kvk−vk= 0 Exemples de normes surRn

kxk1=Pn

i=1|xi|,kxk2= Pn

i=1|xi|21/2

, kxk= maxi=1,···,n|xi|.

En dimension finie toutes les normes sont ´equivalentes ie il existec,C >0 telles queckxk ≤ kxk?≤Ckxk (attentionc etC d´ependent den).

(16)

Espaces vectoriels euclidiens

e.v. muni d’un produit scalaire ie une forme bilin´eaire sym´etrique d´efinie positive not´eeh., .i

SurRn le produit scalaire canonique esthx,yi=Pn i=1xiyi

kxk=hx,xi1/2 est une norme appel´ee norme euclidienne

(17)

Applications lin´ eaires

f :E →F,f(λ.x) =λ.f(x),f(x+y) =f(x) +f(y)

L(E,F) espace vectoriel des applications lin´eaires de E dans F L(E) espace vectoriel des applications lin´eaires deE dansE ou endomorphismes deE

L(E),+, .,◦

anneau unitaire non commutatif munie de la loi de composition des applicationsf ◦g(x) =f(g(x))

Noyau def, Ker(f) ={x∈E tels quef(x) = 0}(sous e.v. deE) Image def, Im(f) ={f(x), x∈E} (sous e.v. deF)

Endomorphismes deE inversibles:

Application bijective ssi il existef−1∈ L(E) telle quef ◦f−1=f−1◦f =Id f bijective⇔f injective: Ker(f) ={0}

f bijective⇔f surjective: Im(f) =E

(18)

Matrice d’une application lin´ eaire

Bases

ej,j = 1,· · ·,n

deE et

fi,i= 1,· · ·,m deF f ∈ L(E,F) telle quef(ej) =Pm

i=1Ai,jfi x=Pn

j=1xjej ∈E y=f(x) =Pm

i=1

Pn

j=1Ai,jxj fi

X =

 x1

... xn

∈Rn, Y =

 y1

... ym

∈Rm, Y =AX

Retenir que lesncolonnesj deAsont donn´ees par les imagesf(ej) Espace vectoriel des matrices de dimensionm,n: Mm,n (`a coefficients dans K =RouC)

Matrices remarquables: diagonale, sym´etrique, triangulaires inf´erieure ou sup´erieure

(19)

Exercice: produit de matrices versus composition d’applications lin´ eaires

SoientE,F,G des e.v de dimensions resp. n,m,p,f ∈ L(E,F) et g ∈ L(F,G)

Des bases ´etant donn´ees,f a pour matriceA∈ Mm,net g a pour matrice B ∈ Mp,m

g ◦f a pour matrice le produitBA∈ Mp,ntel que (BA)i,j =

m

X

k=1

Bi,kAk,j

Produit de matrices: Mp,m× Mm,n→ Mp,n

produit matrice vecteur: Mm,n× Mn,1→ Mm,1

produit scalaire de deux vecteurs: ligne . colonneM1,n× Mn,1→ M1,1

produit tensoriel de deux vecteurs: colonne. ligneMn,1× M1,n→ Mn,n

(20)

Exercice: changements de base pour les vecteurs et les matrices

P: matrice de passage d’une base dans une autre ˜ej =Pn

k=1Pk,jek (colonnes de la nouvelle base dans l’ancienne)

Changement de base pour les coordonn´ees des vecteurs: X =PX˜.

Changement de base pour les matrices des applications lin´eaires: X =PX˜, Y =QY˜ et ˜Y = ˜AX˜,Y =AX implique que

A˜ =Q−1AP.

(21)

Matrices carr´ es inversibles

A∈ Mn,n=Mn est inversible ssi l’une des propri´et´es suivantes est v´erifi´ee Il existeA−1∈ Mn,ntel queAA−1=A−1A=I

Aest injective ieAX = 0⇒X = 0

Aest surjective ie Im(A) ={AX,X ∈Rn}=Rn A,B∈ Mn inversibles

(AB)−1=B−1A−1

(22)

Transposition de matrices

A∈ Mm,n, on d´efinitAt∈ Mn,m par

(At)i,j =Aj,i pour tousi = 1,· · · ,n,j= 1,· · ·,m Produit scalaire canonique de deux vecteurs (colonnes)X,Y ∈Rn:

XtY =

n

X

i=1

XiYi

Matrice carr´ee A∈ Mnest sym´etrique ssi At =A

(23)

Diagonalisation d’une matrice carr´ ee sym´ etrique A ∈ M

n

Les valeurs propres surCd’une matrice r´eelle sym´etriqueAsont r´eelles et il existe une base orthonorm´ee de vecteurs propresFi ∈Rn,i= 1,· · · ,ntelle que

AFiiFi et (Fi)tFji,j pour tousi,j= 1,· · · ,n SiP est la matrice de passage de la base canonique dans la baseFi, i= 1, . . . ,n, alors on a

P−1=Pt et

PtAP=

λ1 0

. ..

0 λn

(24)

D´ eterminants de n vecteurs dans un e.v. E de dimension n pour une base donn´ ee

Unique forme n-lin´eaire altern´ee surE valant 1 sur la base Det

v1,· · ·,v,· · ·,v,· · ·,vn

= 0 (altern´ee) Antisym´etrie:

Det

v1,· · ·,vi,· · ·,vj,· · ·,vn

=−Det

v1,· · ·,vj,· · ·,vi,· · ·,vn

On a donc aussi pour toute permutationσde{1,· · ·,n}, Det

v1,· · ·,vn

= sign(σ)Det

vσ(1),· · ·,vσ(n)

D´eterminant d’une matrice carr´eeA= d´eterminant des vecteurs colonnes Det

A

= Det

A.,1,· · ·,A.,n

= X

σ∈Σn

n

Y

i=1

sign(σ)Aσ(i),i

(25)

Propri´ et´ es du d´ eterminant

Les vecteurs colonnes deAsont libres ssi Det(A)6= 0 DoncAest inversible ssi Det(A)6= 0

Det(AB) = Det(A)Det(B) = Det(BA) Det(At) = Det(A)

D´eveloppement par rapport aux lignes ou aux colonnes Det(A) =

n

X

i=1

(−1)i+jDet(A(i,j)) =

n

X

j=1

(−1)i+jDet(A(i,j))

(26)

Normes matricielles

Une norme matricielle sur l’e.v. Mnest une norme telle que kABk ≤ kAkkBk

Une norme matricielle induite par une normek.ksurRnest la norme matricielle d´efinie par

kAk= sup

X6=0

kAXk kXk

On a pour une norme matricielle induite: kAXk ≤ kAkkXkpour tout X ∈Rn

(27)

Exercice: exemples de normes induites

kAk= SupX6=0kAXkkXk

= maxi=1,···,nPn j=1|Ai,j| kAk1= SupX6=0kAXkkXk1

1 = maxj=1,···,nPn i=1|Ai,j| kAk2= SupX6=0kAXkkXk2

2 =ρ(tAA)1/2

(28)

Convergence de la suite A

k

pour A ∈ M

n

Rayon spectral ρ(A),A∈ Mn est le module de la valeur propre maximale deAdans C.

On admettra le lemme suivant:

ρ(A)<1 ssilimk→+∞Ak= 0 quel que soit la norme sur Mn

ρ(A) =limk→+∞kAkk1/k quel que soit la norme surMn

ρ(A)≤ kAkquel que soit la norme matricielle surMn

(29)

Matrices de la forme I + A ou I − A

Siρ(A)<1 alors les matricesI +AetI−Asont inversibles La s´erie de terme g´en´eralAk converge (vers (I−A)−1 ssiρ(A)<1

Preuve: PN

k=0Ak(I−A) =I−AN+1 et utiliser le lemme pr´ec´edent SikAk<1 pour une norme matricielle, alorsI−Aest inversible et on a k(I −A)−1k ≤ 1−kAk1 (idem pourI+A)

(30)

M´ ethode d’´ elimination de Gauss: exemple

AX =

1 3 2

−1 2 1

2 1 2

X =

 1 2 1

=b det(A) = 5 Descente: ´elimination sur la premi`ere colonne (x1)

1 0 0

1 1 0

−2 0 1

1 3 2

−1 2 1

2 1 2

X =

1 0 0

1 1 0

−2 0 1

 1 2 1

=b

1 3 2

0 5 3

0 −5 −2

X=

 1 3

−1

 Descente: ´elimination sur la deuxi`eme colonne (x2)

1 0 0

0 1 0

0 1 1

1 3 2

0 5 3

0 −5 −2

X =

1 0 0

0 1 0

0 1 1

 1 3

−1

1 3 2

0 5 3

0 0 1

X =

 1 3 2

 d’o`u par remont´eeX =

−6/5

−3/5 2

(31)

factorisation de Gauss: exemple

D’o`uUX =b0 avec

b=

1 0 0

1 1 0

−2 0 1

−1

1 0 0

0 1 0

0 1 1

−1

b0 =

1 0 0

−1 1 0

2 0 1

1 0 0

0 1 0

0 −1 1

b0

b=

1 0 0

−1 1 0

2 −1 1

b0 D’o`u la factorisation de Gauss

A=LU avec

L=

1 0 0

−1 1 0

2 −1 1

 etU =

1 3 2

0 5 3

0 0 1

(32)

G´ en´ eralisation ` a A ∈ M

n

inversible: AX = b

A(1)=A, b(1)=b

A(2)=L(1)A(1)=

1 0 . . . . . . . . . 0

a(1) 2,1 a(1) 1,1

1 0 . . . . . . 0

.. .

a(1)

k,1 a(1) 1,1

0 . . . 1 . . . 0

.. .

a(1) n,1 a(1) 1,1

0 . . . . . . . . . 1

a(1)

1,1 . . . . . . . . . . . . a(1)

1,n a(1)

2,1 . . . . . . . . . . . . a(1)

2,n ..

.

.. . a(1)

k,1 . . . . . . . . . . . . a(1)

k,n ..

.

.. . a(1)

n,1 . . . . . . . . . . . . a(1)

n,n

etb(2)=L(1)b(1)

A(2)=

a(1)

1,1 . . . . . . . . . . . . a(1)

1,n

0 a(2)

2,2 . . . . . . . . . a(2)

2,n ..

. .. .

.. .

0 a(2)

k,2 . . . . . . . . . a(2)

k,n ..

. .. .

.. .

0 a(2)

n,2 . . . . . . . . . a(2)

n,n

aveca(2)

i,j =a(1) i,j

a(1) i,1a(1)

1,j a(1)

1,1

,i,j= 2,· · ·,n

(33)

G´ en´ eralisation ` a A ∈ M

n

inversible: AX = b

A(k+1)=L(k)A(k)=

1 0 . . . . . . . . . 0

0 1 . . . . . . . . .

.. . ..

. 0 1 . . . . . . 0

0 0

a(k) k+1,k a(k)

k,k

1 0

.. .

0 0

..

. 0 1 0

0 0 a(k)

n,k a(k) k,k

. . . 0 1

a(1)

1,1 . . . . . . . . . . . . a(1)

1,n

0 a(2)

2,2 . . . . . . . . . a(2)

2,n ..

. 0 a(k)

k,k . . . . . . a(k)

k,n

0 . . . a(k)

k+1,k . . . . . . a(k) k+1,n ..

.

.. .

.. .

.. .

.. .

0 . . . a(k)

n,k . . . . . . a(k)

n,n

etb(k+1) =L(k)b(k)

A(k+1)=

a(1)

1,1 . . . . . . . . . . . . a(1)

1,n

0 a(2)

2,2 . . . . . . . . . a(2)

2,n ..

. 0 a(k)

k,k a(k)

k,k+1 . . . a(k) k,n

0 . . . 0 a(k+1)

k+1,k+1 . . . a(k+1) k+1,n ..

.

.. .

.. .

.. .

.. .

0 . . . 0 a(k+1)

n,k+1 . . . a(k+1) n,n

aveca(k+1)

i,j =a(k) i,j

a(k) i,ka(k)

k,j a(k)

k,k

,i,j=k+ 1,· · ·,n

(34)

G´ en´ eralisation ` a A ∈ M

n

inversible: AX = b

A=LU avec

U=A(n)

U=

a(1)

1,1 . . . . . . . . . . . . a(1)

1,n

0 a(2)

2,2 . . . . . . . . . a(2)

2,n ..

. 0 a(k)

k,k a(k)

k,k+1 . . . a(k) k,n

0 . . . 0 a(k+1)

k+1,k+1 . . . a(k+1) k+1,n ..

.

.. .

.. .

... .. .

0 . . . 0 0 0 a(n)

n,n

(35)

G´ en´ eralisation ` a A ∈ M

n

inversible: AX = b

A=LU avec

U=A(n) L=

L(n−1)· · ·L(k)· · ·L(1)−1

= (L(1))−1· · ·(L(k))−1· · ·(L(n−1))−1

(L(k))−1=

1 0 . . . . . . . . . 0

0 1 . . . . . . . . .

.. . ..

. 0 1 . . . . . . 0

0 0

a(k) k+1,k

a(k) k,k

1 0

.. .

0 0

..

. 0 1 0

0 0

a(k) n,k a(k) k,k

. . . 0 1

(36)

G´ en´ eralisation ` a A ∈ M

n

inversible: AX = b

(L(k))−1(L(k+1))−1=

1 0 . . . . . . . . . 0

0 1 . . . . . . . . .

.. . ..

. 0 1 . . . . . . 0

0 0

a(k) k+1,k

a(k) k,k

1 0

.. .

0 0

.. .

a(k+1) k+2,k+1 a(k+1)

k+1,k+1

1 0

0 0

a(k) n,k a(k) k,k

a(k+1) n,k+1 a(k+1)

k+1,k+1

0 1

(37)

G´ en´ eralisation ` a A ∈ M

n

inversible: AX = b

L=

1 0 . . . . . . . . . 0

a(1) 2,1 a(1) 1,1

1 0 . . . . . .

.. . ..

.

... 1 0 . . . 0

.. .

.. .

a(k) k+1,k a(k)

k,k

1 0

.. . ..

. .. .

.. .

a(k+1) k+2,k+1 a(k+1)

k+1,k+1

1 0

a(1) n,1 a(1) 1,1

.. .

a(k) n,k a(k) k,k

a(k+1) n,k+1 a(k+1)

k+1,k+1

a(n−1) n,k a(n−1)

n−1,n−1 1

(38)

Existence et unicit´ e de la factorisation A = LU

SoitA∈ Mn, on suppose que les sous matrices diagonales de dimensionk

a1,1 · · · a1,k

... · · · ... ak,1 · · · ak,k

sont inversibles pour tousk = 1,· · ·n.

Alors la factorisationA=LU avec Li,i = 1,i= 1,· · ·,nexiste et est unique.

Preuve:

Existence ´etablie pr´ec´edemment car on montre que le pivotakk,k 6= 0 Unicit´e: A=L1U1=L2U2 impliqueL−12 L1=U2U1−1=I

(39)

Algorithme: factorisation LU de A ∈ M

n

inversible

Initialisation: U=A,L=I

Fork = 1,· · ·,n−1 (boucle sur les pivots) Fori,j=k+ 1,· · ·,n

Ui,jUi,jUi,kUk,j

Uk,k

(on suppose le pivotUk,knon nul) End For

Fori =k+ 1,· · ·,n Li,k= Ui,k

Uk,k

End For End For U ←triu(U)

Remarque 1: on a suppos´e queUk,k 6= 0

Remarque 2: on peut tout stocker dansAau cours de l’algorithme

(40)

R´ esolution de LUX = b

Descente: LY =b Fori = 1,· · · ,n

Yi =bi−Pi−1 j=1Li,jYj

End For

Remont´ee: UX =Y Fori =n,· · ·,1;−1

Xi =Yi−Pn

j=i+1Ui,jXj

Ui,i

End For

(41)

Complexit´ e de l’algorithme

On compte le nombre d’additions et de multiplications et de divisions (op´erations flottantes)

Factorisation: 2/3n3+O(n2) Descente remont´ee: 2n2+O(n)

(42)

Conservation de la largeur de bande

q= max

i,j=1,···,n{|j−i|tel queAi,j 6= 0}

La factorisationA=LU pr´ec´edente (sans pivotage) conserve la largeur de bandeq pourU etL

Preuve: propri´et´e v´erifi´ee pour toutes les matricesA(k) `a chaque ´etape k = 1,· · ·,n

Complexit´e:

Factorisation: 2nq2+O(nq) Descente remont´ee: 2nq+O(n)

(43)

Algorithme: factorisation LU pour une matrice bande de largeur de bande q

Initialisation: U=A,L=I

Fork = 1,· · ·,n−1 (boucle sur les pivots) Fori,j=k+ 1,· · ·,max(k+q,n)

Ui,jUi,jUi,kUk,j

Uk,k (on suppose le pivotUk,knon nul) End For

Fori =k+ 1,· · ·,max(k+q,n) Li,k= Ui,k

Uk,k

End For End For U ←triu(U)

(44)

R´ esolution de LUX = b pour une matrice bande de largeur de bande q

Descente: LY =b Fori = 1,· · · ,n

Yi =bi−Pi−1

j=max(i−q,1)Li,jYj

End For

Remont´ee: UX =Y Fori =n,· · ·,1;−1

Xi =Yi−Pmin(i+q,n) j=i+1 Ui,jXj

Ui,i

End For

(45)

Matrices de permutation

Bijection de {1,· · · ,n} dans{1,· · ·,n}

Premi`ere repr´esentation:

P=

j1,· · · ,jn

avec ji∈ {1,· · ·,n}etji 6=jl pouri 6=l.

Action sur les vecteursb∈Rn: (Pb)i =bP(i) pour i= 1,· · ·,n

D’o`u la repr´esentation matricielle: Pi,j = 1 sij =P(i), sinon 0. On a sur les matricesA∈ Mn:

(PA)i,j =AP(i),j. Exemple

P=

0 1 0 0

1 0 0 0

0 0 0 1

0 0 1 0

 ,Pb=

 b2

b1

b4

b3

(46)

Transpositions

τ= (i1,i2) est la permutation telle que

τ(i1) =i2, τ(i2) =i1, τ(i) =i ∀i 6=i1,i2. On a

τ2=I, donc

τ−1=τ.

(47)

factorisation avec pivotage PA = LU

On aA(1)=Aet pourk = 1,· · ·,n−1

A(k+1)=L(k)τ(k)A(k) avec τ(k) = (k,ik) pourik ≥k tel que|A(ki )

k,k|=maxi=k,···,n|A(k)i,k|.

D’o`u par r´ecurrence

A(n)X =UX =L(n−1)τ(n−1)L(n−2)τ(n−2)· · ·τ(k+1)L(k)τ(k)· · ·τ(2)L(1)τ(1)b UX=L(n−1)

τ(n−1)L(n−2)τ(n−1)

· · ·

τ(n−1)· · ·τ(2)L(1)τ(2)· · ·τ(n−1)

τ(n−1)· · ·τ(1) b d’o`u

L=

τ(n−1)· · ·τ(2)(L(1))−1τ(2)· · ·τ(n−1)

· · ·

τ(n−1)(L(n−2))−1τ(n−1)

(L(n−1))−1 et

P=

τ(n−1)· · ·τ(2)τ(1)

(48)

Algorithme avec pivotage partiel PA = LU

Initialisation: U=A,L=I,P= (1,· · · ,n) Fork = 1,· · ·,n−1 (boucle sur les pivots)

ik= argmaxi=k,···,n|Ui,k|(choix du pivot) transposition: τ= (k,ik),ik≥k U←τUpermutation des lignes deU

L←τLτ permutation des lignes deLhors diagonale P←τP mise `a jour de la permutationPpourb Fori,j=k+ 1,· · ·,n

Ui,jUi,jUi,kUk,j

Uk,k

End For

Fori =k+ 1,· · ·,n Li,k= Ui,k

Uk,k

End For End For U ←triu(U)

(49)

Algorithme avec pivotage partiel PA = LU et avec stockage de L (sans la diagonale) et de U dans la matrice A

Initialisation: P= (1,· · · ,n)

Fork = 1,· · ·,n−1 (boucle sur les pivots)

ik= argmaxi=k,···,n|Ai,k|(choix du pivot) transposition: τ = (k,ik),ik≥k A←τApermutation des lignesk etik

P←τP mise `a jour de la permutation Fori =k+ 1,· · ·,n

Ai,k Ai,k

Ak,k

End For

Fori,j=k+ 1,· · ·,n Ai,jAi,jAi,kAk,j

End For End For

Lest la partie triangulaire inf´erieure stricte deAplus la diagonale unit´e.

U est la partie triangulaire sup´erieure deA(avec la diagonale).

(50)

R´ esolution de PAX = LUX = Pb pour la factorisation avec pivotage P

Descente: LY =Pb Fori = 1,· · · ,n

Yi =bP(i)−Pi−1 j=1Li,jYj

End For

Remont´ee: UX =Y Fori =n,· · ·,1;−1

Xi =Yi−Pn

j=i+1Ui,jXj

Ui,i

End For

(51)

Conditionnement

Soitkkla norme induite dansMnpar une normekksurRn

Conditionnement deAinversible : Cond(A) =kAkkA−1k

Cond(A)≥1

Cond(αA) = Cond(A)

Cond(AB)≤Cond(A)Cond(B)

SoitAinversible etσ1nles vp min et max deAtA, on a pour la normekk2

Cond2(A) =σn

σ1

1/2

On en d´eduit que Cond2(A) = 1 ssiA=αQ o`uQ matrice orthogonale Pour ASDP de vp min et maxλ1etλn, on a pour la normekk2

Cond2(A) = λn

λ1

(52)

Erreur d’arrondi

SoitAune matrice inversible, on cherche `a estimer l’influence sur la solution d’une erreur d’arrondi sur le second membreb

Ax =b A(x+δx) = b+δb implique

kδxk

kxk ≤ kAkkA−1kkδbk kbk

(53)

M´ ethodes it´ eratives: motivations

Matrice creuse: O(n) termes non nuls

M´ethodes it´eratives: calcul d’une suitexn faisant intervenir que des produits matrice - vecteur

Pour une matrice creuse, une it´eration coˆuteO(n) op´erations flottantes Le probl`eme `a r´esoudre est la maˆıtrise de la convergence de la suite xn vers x et du nombre d’it´erations

Coˆut pour une matrice creuse et une convergence en nitit´erations O(n.nit)

(54)

matrices creuses: exemple du Laplacien 2D sur maillage Cart´ esien

Maillage cart´esien uniforme (n+ 1)×(n+ 1) du carr´e Ω = (0,1)×(0,1) de pas

∆x= n+11 Laplacien avec conditions limites homog`enes:

( −∂x2u2∂y2u2 =f sur Ω u(x) = 0 sur ∂Ω Discr´etisation:

1

(∆x)2(4ui,j−ui+1,j−ui−1,j−ui,j+1−ui,j−1=fi,j pour i,j = 1,· · ·,n ui,j = 0 pouri= 0,n+ 1,j= 0,· · · ,n+ 1 etj= 0,n+ 1,i= 0,· · ·,n+ 1 Syst`eme lin´eaire: num´erotation des inconnuesk=i+ (j−1)nde 1 `aN=n2

AU=F avecAmatrice pentadiagonale de largeur de bandeq=n Coˆut d’une m´ethode directeLU: 2Nn2= 2N2

Coˆut d’une m´ethode it´erative convergente ennit it´erations: 10N.nit

(55)

M´ ethode de Richardson

SoitA∈ Mn inversible etb∈Rn. Soitx ∈Rnsolution de Ax=b.

M´ethode de Richardson: soit α∈R, on construit une suite de solution xk de la forme

xk+1=xk+α(b−Axk).

On a donc

(xk+1−x) = (I −αA)(xk−x), (xk+1−x) = (I−αA)k(x1−x),

B= (I−αA) Convergence: ssiρ(B)<1

Taux de convergence: kBkk1/k →ρ(I −αA)

(56)

M´ ethode de Richardon pour les matrices SDP

SoitA∈ Mn SDP (Sym´etrique D´efinie Positive) etλi >0,i= 1,· · ·,nses valeurs propres par ordre croissant

ρ(I −αA) =max

|1−αλ1|,|1−αλn|

αopt =argminα∈Rmax

|1−αλ1|,|1−αλn|

αopt = 2

λ1n

, ρ(I−αoptA) =λn−λ1 λ1n

=κ−1 κ+ 1 <1 Probl`eme: on ne connait pas les valeurs propres deA

Voir Exercice: M´ethode de Richardson `a pas variable

(57)

M´ ethode de Richardon pour les matrices SDP

Nombre d’it´erations pour une pr´ecision fix´ee:

kxk+1−xk2

ρ(I −αoptA)k

kx1−xk2,

kxk+1−xk2≤κ−1 κ+ 1

k

kx1−xk2, On cherche le nb d’it´erationk pour atteindre une pr´ecision , ie

κ−1 κ+ 1

k

≤,

k≥ ln(1) ln(1+1−κ11 κ

) Pour κgrand:

k >

∼ κ 2 ln(1

)

(58)

M´ ethode de Richardon ` a pas variable pour les matrices SDP

SoitA∈ Mn SDP (Sym´etrique D´efinie Positive).

On poseek =x−xk, rk =Aek =b−Axk, et on consid`ere l’algorithme it´eratif: x1 donn´e et pourk = 1,· · ·

αk = (rk,rk) (Ark,rk), xk+1 =xkk rk. On montre que

αk = Argminα∈R(Aek+1,ek+1) =α2(Ark,rk)−2α(rk,rk) + (Aek,ek), et

(Aek+1,ek+1) =

1− (rk,rk)2 (Ark,rk)(A−1rk,rk)

(Aek,ek), d’o`u

(Aek+1,ek+1)≤

1− 1

Cond2(A)

(Aek,ek)

(59)

M´ ethode de Richardon ` a pas variable pour les matrices SDP: algorithme

Ax=bavecAmatrice SDP

Choix de la pr´ecisionsur le r´esidu relatif Initialisation: x1,r1=b−Ax1,nr=nr0=kr1k It´erer tant que nrnr0

pk=Ark αk= (rk,rk)

(pk,rk)

xk+1=xkkrk rk+1=rk−αkpk nr=krk+1k

(60)

M´ ethode de Richardon pr´ econditionn´ ee

Pr´econditionnement: matriceC ∈ Mninversible xk+1=xk +αC−1(b−Axk) (xk+1−x) = (I−αC−1A)(xk−x)

B = (I −αC−1A) On cherche un pr´econditionnementC tel que

C ∼αAieρ(I−αC−1A)<<1

le syst`emeCy =r est peu coˆuteux `a r´esoudre

(61)

Exemple des matrices et pr´ econditionnements SDP

A,C∈ Mn sym´etriques d´efinies positives.

Soienty =C1/2x,yk =C1/2xk,c=C−1/2bon a C−1/2AC−1/2

y =c, La matriceC−1/2AC−1/2 est SDP, et

yk+1=yk

c−C−1/2AC−1/2yk Convergence ssiρ(I −αC−1/2AC−1/2)<1

αopt = 2

λmin(C−1/2AC−1/2) +λmax(C−1/2AC−1/2)

ρ(I −αoptC−1/2AC−1/2) = λmax(C−1/2AC−1/2)−λmin(C−1/2AC−1/2) λmin(C−1/2AC−1/2) +λmax(C−1/2AC−1/2)

(62)

Exemple des matrices et pr´ econditionnements SDP

A,C∈ Mn sym´etriques d´efinies positives.

Soienty =C1/2x,yk =C1/2xk,c=C−1/2bon a C−1/2AC−1/2

y =c, La matriceC−1/2AC−1/2 est SDP, et

yk+1=yk

c−C−1/2AC−1/2yk Convergence ssiρ(I −αC−1/2AC−1/2)<1

αopt = 2

λmin(C−1/2AC−1/2) +λmax(C−1/2AC−1/2)

ρ(I −αoptC−1/2AC−1/2) = λmax(C−1/2AC−1/2)−λmin(C−1/2AC−1/2) λmin(C−1/2AC−1/2) +λmax(C−1/2AC−1/2)

Références

Documents relatifs

– ` A la fin de l’oral, vous devez remettre au jury le pr´ esent dossier, les transparents et les brouillons utilis´ es pour cette partie de l’oral, ainsi que TOUS les transparents

Universit´ e Pierre et Marie Curie – Paris 6 Examen de rattrapage Licence de Math´ ematiques Analyse Hilbertienne et Num´ erique.. 29 janvier 2007 9h

[r]

[r]

On a montr´ e par ailleurs pr´ ec´ edemment que toutes les valeurs propres d’un ´ el´ ement de K ´ etaient dans l’intervalle [0, 1]... Diagonaliser M dans une base

A l’aide du Th´ eor` eme 10.2.8, montrer que les points de minimum de J sur la sph` ere unit´ e sont des vecteurs propres de A associ´ es ` a la plus petite valeur

Si T est inf´ erieur ` a la distance de K ` a la fronti` ere de Ω, la solution explicite donn´ ee par l’exercice pr´ ec´ edent est aussi solution de l’´ equation des ondes dans

Nous allons aborder l’´ etude d’un probl` eme multi-´ echelle et une technique d’analyse num´ erique : l’homog´ en´ eisation.. Ecrire la formulation varitionnelle du