• Aucun résultat trouvé

Factorisation de Cholesky

Dans le document Analyse numérique élémentaire (Page 96-109)

Résolution de systèmes linéaires

4.2.5 Factorisation de Cholesky

ðù SoitAPMnpCqune matrice hermitienne dénie positive.

5

D'après le Corollaire 4.10, page 85, la matriceAadmet une unique factorisationLUet donc d'après

6

le Théorème 4.13, page 91, la matrice hermitienneApeut s'écrire sous la formeALDL˚Dest

7

diagonale à coecients réels etLtriangulaire inférieure à diagonale unité. Il reste à démontrer que

8

Di,ią0, @iP v1, nw.

9

CommeAest dénie positive, on a@xxxPCnzt0u,xAxxx, xxxy ą0.Or on a

10

xAxxx, xxxy “ xLDL˚xxx, xxxy “ xDL˚xxx,L˚xxxy

On noteteee1,¨ ¨ ¨ , eeenu,la base canonique de Cn et on rappelle que @iP v1, nw,xDeeei, eeeiy “Di,i.Soit

11

iP v1, nw.En choisissantxxx“ pL˚q-1eeei‰0,on obtient alors

12

xDL˚xxx,L˚xxxy “ xDeeei, eeeiy “Di,ią0.

13

4.2.5 Factorisation de Cholesky

14

Denition 4.14

Une factorisation régulière de Cholesky d'une matrice APMnpCqest une factorisation ABB˚Best une matrice triangulaire inférieure inversible.

Si les coecients diagonaux de B sont positifs, on parle alors d'une factorisation positive de Cholesky.

15

Théorème 4.15: Factorisation de Cholesky

La matriceAPMnpCqadmet une factorisation régulière de Cholesky si et seulement si la matrice A est hermitienne dénie positive. Dans ce cas, elle admet une unique factorisation positive.

16

Proof. ùñ SoitAPMnpCqadmettant une factorisation régulière de CholeskyABB˚ avecBest une

17

matrice triangulaire inférieure inversible.

18

La matriceAest hermitienne car

19

A˚“ pBB˚q˚“ pB˚q˚B˚BB˚A.

SoitxxxPCnzt0u, on a

20

xAxxx, xxxy “ xBB˚xxx, xxxy “ xB˚xxx,B˚xxxy “ }B˚xxx}2ą0

carB˚xxx‰0(B˚ inversible etxxx‰0). Donc la matriceAest bien hermitienne dénie positive.

21

ðù SoitAPMnpCqune matrice hermitienne dénie positive.

22

D'après le Corollaire 4.13, page 91, il existe alors une matriceLPMnpCqtriangulaire inférieure à

23

diagonale unité et une matriceDPMnpRqdiagonale à coecient strictement positifs telles que

24

ALDL˚.

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.5FactorisationdeCholesky On note HMnpRq une matrice diagonale inversible vériant H2D (i.e. Hi,i “ ˘Di,i ‰ 0, 1

@iP v1, nw). On a alors 2

ALHHL˚“ pLHqpLHq˚

En posantBLH,la matriceBest bien triangulaire inférieure inversible car produit d'une matrice 3 triangulaire inférieure inversible par une matrice diagonale inversible et on aABB˚. 4

Montrons qu'une factorisation positive de Cholesky est unique. 5

SoientB1 etB2 deux factorisations positives de la matriceA,on a donc 6 AB1B˚1B2B˚2.

En multipliant à gauche parB-12 et à droite parpB˚1q-1 cette équation on obtient B-12 B1B˚2pB˚1q-1B˚2pB-11 q˚“ pB-11 B2q˚

En notantGB-12 B1,on tire de l'équation précédente 7

G“ pG-1q˚. (4.26)

On déduit de la (voir Proposition A.37, page 144), que l'inverse d'une matrice triangulaire inférieure à 8

coecients diagonaux réels strictement positifs est aussi une matrice triangulaire inférieure à coecients 9

diagonaux réels strictement positifs. De la (voir Proposition A.36, page 144), on obtient que le produit 10 de matrices triangulaires inférieures à coecients diagonaux réels strictement positifs reste triangulaire 11 inférieure à coecients diagonaux réels strictement positifs, on en déduit que les matricesGB-12B1 et 12 G-1B-11 B2sont triangulaires inférieures à coecients diagonaux réels strictement positifs. Or l'équation 13 (4.26) identie la matrice triangulaire inférieure G à la matrice triangulaire supérieurepG-1q˚ : ce sont 14 donc des matrices diagonales à coecients diagonaux réels strictement positifs et on a alorspG-1q˚G-1. 15

De l'équation (4.26), on obtient alorsGG-1,c'est à direGIB-12 B1 et doncB1B2. 16

Résolution d'un système linéaire par la factorisation de Cholesky 17

Pour commencer, avec la factorisation de Cholesky point de salut sans matrice hermitienne dénie posi- 18

tive! 19

N'utiliser la factorisation de Cholesky pour la résolution d'un système linéaire que si la matrice

du système est hermitienne dénie positive. 20

Soit A P MnpCq une matrice hermitienne dénie positive et bbb P Cn. Grâce au théorème 4.15, on 21

obtient : 22

23

TrouverxxxPCn tel que

Axxx“bbb. (4.27)

24

est équivalent à 25

26

TrouverxxxPCn solution de

B˚xxx“yyy (4.28)

avecBla matrice de factorisation positive de Cholesky de la ma-triceAavecyyyPCn solution de

Byyy“bbb. (4.29)

27

On est donc ramené à 28

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.5FactorisationdeCholesky

Algorithme 4.14 Algorithme de base permettant de résoudre, par une factorisation de Cholesky positive, le système linéaire

Axxx“bbb

Aune matrice de MnpCqhermitienne dénie positive etbbbPCn. Données : A : matrice deMnpCqhermitienne dénie positive,

bbb : vecteur deCn. Résultat : xxx : vecteur deCn.

1: Trouver la factorisation positive de CholeskyBde la matriceA,

2: résoudre le système triangulaire inférieurByyy“bbb,

3: résoudre le système triangulaire supérieurV˚xxx“yyy.

Ceci permet donc de découper le problème initial en trois sous-problèmes plus simples. De plus,

1

ceux-ci peuvent se traiter de manière indépendante.

2

Algorithme 4.15 FonctionRSLCholesky permettant de résoudre, par une factorisation de Cholesky positive, le système linéaire

Axxx“bbb

Aune matrice hermitienne de MnpCqdénie positive etbbbPCn. Données : A : matrice deMnpCqsymétrique dénie positive,

bbb : vecteur deCn. Résultat : xxx : vecteur deCn.

1: FonctionxxxÐRSLCholesky(A, bbb)

2: BÐCholeskypAq ŹFactorisation positive de Cholesky

3: yyyÐRSLTriInfpL, bbbq ŹRésolution du systèmeByyy“bbb

4: UÐMatAdjointepBq ŹCalcul de la matrice adjointe deB

5: xxxÐRSLTriSuppU, yyyq ŹRésolution du systèmeB˚xxx“yyy

6: Fin Fonction

Il nous faut donc écrire la fonctionCholesky (les deux fonctions RSLTriInf etRSLTriSup ayant

3

déjà été écrites et la fonctiontranspose étant simple à écrire).

4

Factorisation positive de Cholesky : écriture de l'algorithme

5

SoitAPMnpCqune matrice hermitienne dénie positive. D'après le Théorème 4.15, il existe une unique

6

Pour déterminer la matriceB,on commence par calculer b1,1(la 1ère ligne deBest donc déterminée)

9

ce qui nous permet de calculer la 1ère colonne deB.

10

Ensuite, on calcule b2,2 (la 2ème ligne deBest donc déterminée) ce qui nous permet de calculer la 2ème

11

colonne deB.Etc ...

12

On écrit en détail les ranements successifs permettant d'aboutir à l'algorithme nal de telle manière

13

que le passage entre deux ranements successifs soit le plus simple possible.

14 15

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.5FactorisationdeCholesky

Algorithme4.16 R0

1: CalulerlamatrieB

Algorithme4.16 R1

1: PouriÐ1ànfaire

2: Calulerbi,i,onnaissantles i´1premières

olonnesdeB.

3: CalulerlaièmeolonnedeB.

4: FinPour

1 2

Pour calculer bi,i,connaissant lesi´1premières colonnes deB.on utilise (4.30) : 3 ai,i

et commeBest triangulaire inférieure on obtient 4

ai,i

Comme lesi´1 premières colonnes deBont déjà été calculées, bi,i est parfaitement déterminée par la 6

formule précédente. 7

Remarque 4.16 Les hypothèses sur la matriceApermettent d'armer que,@iP v1, nw,ai,i´ři´1

j“1|bi,j|2ą 8

CommeLest triangulaire inférieure on obtient 12

aj,i

Algorithme4.16 R1

1: PouriÐ1ànfaire

2:

Calulerbi,i,onnaissantles i´1premièresolonnesdeB.

3: Calulerla ième olonnedeB.

4: FinPour

Algorithme4.16 R2

1: PouriÐ1ànfaire

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.5FactorisationdeCholesky

1

Algorithme4.16 R2

1: PouriÐ1ànfaire

Algorithme4.16 R3

1: PouriÐ1ànfaire

Algorithme4.16 R3

1: PouriÐ1ànfaire

Algorithme4.16 R4

1: PouriÐ1ànfaire

On obtient alors l'algorithme nal

6

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR Algorithme 4.16 FonctionCholesky permettant de calculer la matriceB,dites matrice de factorisation

positive de Cholesky associée à la matriceA,telle que ABB˚.

Données : A : matrice deMnpCqhermitienne dénie positive.

Résultat : B : matrice deMnpCqtriangulaire inférieure avec Bpi, iq ą0, @iP v1, nw

1: Fonction BÐCholesky( A )

2: PouriÐ1ànfaire

3: S1Ð0

4: Pour jÐ1à i´1 faire

5: S1ÐS1` |Bpi, jq|2

6: Fin Pour

7: Bpi, iq ÐsqrtpApi, iq ´S1q

8: Pour jÐ1à i´1 faire

9: Bpj, iq Ð0

10: Fin Pour

11: Pour jÐi`1 ànfaire

12: S2Ð0

13: PourkÐ1ài´1faire

14: S2ÐS2`Bpj, kq ˚Bpi, kq

15: Fin Pour

16: Bpj, iq Ð pApj, iq ´S2q{Bpi, iq.

17: Fin Pour

18: Fin Pour

19: Fin Fonction

4.2.6 Factorisation QR

1

La tranformation de Householder 2

Denition 4.17: Matrice élémentaire de Householder

Soit uuu P Cn tel que }uuu}2 “ 1. On appelle matrice élémentaire de Householder la matrice Hpuuuq PMnpCqdénie par

Hpuuuq “I´2uuuuuu˚. (4.35) 3

Propriété 4.18

Toute matrice élémentaire de Householder est hermitienne et unitaire. 4

Proof. Pour simplier, on noteHHpuuuq.Cette matrice est hermitienne car 5 H˚“ pI´2uuuuuu˚q˚I´2puuuuuu˚q˚I´2uuuuuu˚H.

Montrons qu'elle est unitaire (i.e. H˚HI). On a

H˚HHH“ pI´2uuuuuu˚qpI´2uuuuuu˚q

I´4uuuuuu˚`4uuuuuu˚uuuuuu˚.

Or on auuu˚uuu“ }uuu}2“1 par hypothèse et donc 6

H˚HI´4uuuuuu˚`4uuupuuu˚uuuquuu˚I.

7

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR

Propriété 4.19

SoientxxxPKn etuuuPKn,}uuu}2“1.On notexxxk“projuuupxxxqdef“ xuuu, xxxyuuuetxxxK“xxx´xxxk.On a alors HpuuuqpxxxK`xxxkq “xxxK´xxxk. (4.36) et

Hpuuuqxxx“xxx, si xxxx, uuuy “0. (4.37)

1

Proof. On note que par constructionxuuu, xxxKy “0. On a

HpuuuqpxxxK`xxxkq “ pI´2uuuuuu˚q pxxxK`xxxkq “xxxK`xxxk´2uuu uuu˚xxxK loomoon

“0

´2uuuuuu˚xxxk

“xxxK`xxxk´2uuuuuu˚uuuxuuu, xxxy “xxxK`xxxk´2uuu ulouuomo˚uuuon

“1

uu u˚xxx

“xxxK`xxxk´2uuuuuu˚xxx“xxxK`xxxk´2xxxk

“xxxK´xxxk. Sixxxx, uuuy “0 alorsxxxk“0etxxx“xxxK.

2

Théorème 4.20

Soient aaa, bbb deux vecteurs non colinéaires de Cn avec }bbb}2 “ 1. Soit α P C tel que |α| “ }aaa}2 et argα“ ´argxaaa, bbby rπs.On a alors

H

ˆ aaa´αbbb }aaa´αbbb}2

˙

aaa“αbbb. (4.38)

3

Proof. (voir Exercice 4.2.5, page 98)

4

Exercice 4.2.5

Soient aaa etbbb deux vecteurs non colinéaires de Cn avec }bbb}2“1. On va chercherαPCet uuuPCn vériant

Hpuuuqaaa“αbbb. (4.39)

Q. 1 1. Montrer que siαvérie (4.39) alors |α| “ }aaa}2. 2. Montrer que siargα“ ´argpxaaa, bbbyq rπs alorsαxaaa, bbby PR. Q. 2 Soient αetuuuvériant (4.39).

1. Montrer que

| xuuu, aaay |2“ xaaa, aaay ´αxaaa, bbby

2 (4.40)

2. Montrer que siargα“ ´argpxaaa, bbbyq rπs alors xaaa, aaay ´αxaaa, bbby PR˚`. 3. En déduire que

uuu“ 1

2λpaaa´αbbbq, avec λ“ ˘

ˆxaaa, aaay ´αxaaa, bbby 2

˙1{2

(4.41)

5

Correction Exercice 4.2.5 On poseHHpuuuqpour alléger les notations.

6

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR Q. 1 1. On a

}aaa}22“ xaaa, aaay “ xH˚Haaa, aaay carHunitaire

“ xHaaa,Haaay par dénition du produit scalaire

“ }Haaa}22“ }αbbb}22“ |α|2}bbb}22“ |α|2.

2. On a par dénition de l'argumentα“ |α|eıargα etxaaa, bbby “ | xaaa, bbby |eıargpxaaa,bbbyqce qui donne 1 αxaaa, bbby “ |α|| xaaa, bbby |eıpargα`argpxaaa,bbbyqq (4.42) et donc αxaaa, bbbyest réel siargα`argpxaaa, bbbyq “0rπs. 2

Q. 2 1. On a

Hpuuuqaaa“αbbbðñ pI´2uuuuuu˚qaaa“αbbb ðñ aaa´2uuupuuu˚aaaq “αbbb

et donc 3

aaa´2xuuu, aaayuuu“αbbb (4.43) En eectuant le produit scalaire avecaaade cette dernière équation, on obtient 4

xaaa, aaay ´2xuuu, aaay xaaa, uuuy “αxaaa, bbby

ce qui prouve (4.40). 5

2. On a montré en Q.1 que αxaaa, bbby P R et donc xaaa, aaay ´αxaaa, bbby P R. Il reste donc à montrer que 6

xaaa, aaay ´αxaaa, bbby ą0. 7

‚ Siargα“ ´argpxaaa, bbbyq`πr2πs,alors de (4.42) on obtientαxaaa, bbby ď0et doncxaaa, aaay´αxaaa, bbby ď 8

}aaa}2ą0 caraaa‰0. 9

‚ Si argα“ ´argpxaaa, bbbyq r2πs,alors de (4.42) on obtientαxaaa, bbby ě0. 10

Comme les vecteursaaaetbbbne sont pas colinéaires on a inégalité stricte dans Cauchy-Schwarz : 11

| xaaa, bbby | ă }aaa}2}bbb}2“ }aaa}2.

On obtient donc 12

0ďαxaaa, bbby ď |α|| xaaa, bbby | ă |α| }aaa}2“ }aaa}22

Attention, dans ce casxaaa, aaay ´αxaaa, bbbypeut-être très petit. 13

3. De (4.43), on en déduit immédiatement (4.41). 14

Vérions que}uuu}2“1.On a 15

}uuu}22“ xuuu, uuuy “ 1

4|λ|2xaaa´αbbb, aaa´αbbby Or

xaaa´αbbb, aaa´αbbby “ xaaa, aaay ´αxbbb, aaay ´αxaaa, bbby ` |α|2xbbb, bbby “ }aaa}22´αxbbb, aaay ´αxaaa, bbby ` |α|2

“2}aaa}22´αxbbb, aaay ´αxaaa, bbby

“2}aaa}22´2αxaaa, bbby carαxaaa, bbby “ pαxaaa, bbbyq “αxbbb, aaay PR De plus

4|λ|2“2pxaaa, aaay ´αxbbb, aaayq PR

“2}aaa}22´2αxbbb, aaay

˛ 16 17

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR

Exercice 4.2.6

Soientaaaetbbbdeux vecteurs non nuls et non colinéaires de Cn avec}bbb}2“1.

Q. 1 Ecrire la fonction algorithmiqueHouseholder permettant de retourner une matrice de House-holder H etαPCtels que Hpuuuqaaa“αbbb. Le choix du αest fait par le paramètre δ (0 ou1) de telle sorte que argα“ ´argpxaaa, bbbyq `δπ avec |α| “ }aaa}2.

Des fonctions comme dotpaaa, bbbq(produit scalaire de deux vecteurs),normpaaaq(norme d'un vecteur), argpzq(argument d'un nombre complexe),matprodpA,Bq(produit de deux matrices),ctransposepAq (adjoint d'une matrice), ... pourront être utilisées

Q. 2 Proposer un programme permettant de tester cette fonction. On pourra utiliser la fonction vecrandpnq retournant un vecteur aléatoire deCn,les parties réelles et imaginaires de chacune de ses composantes étant dans s0,1r(loi uniforme).

Q. 3 Proposer un programme permettant de vérier que δ“1 est le "meilleur" choix.

1

Correction Exercice 4.2.6 Soientaaaetbbbdeux vecteurs non nuls et non colinéaires deCn.

2 3

Q. 1 Les données du problème sontaaa, bbbet δ.On veut calculerαet la matriceHpuuuq.

4

Algorithme 4.17 Calcul duαet de la matrice de HouseholderHpuuuqtelle que Hpuuuqaaa“αbbb.

Données : aaa, bbb : deux vecteurs de Cn non nuls et non colinéaires.

δ : 0ou1,permet de déterminerα.

Résultat : H : matrice de Householder dansMnpCq,

α : nombre complexe, donné par´argpxaaa, bbbyq `δπ.

1: FonctionrH, αs ÐHouseholder(aaa, bbb, δ )

2: abÐdot(aaa,bbb) Źdot produit scalaire dansC.

3: αÐnormpaaa,2q ˚exppi˚ pδ˚π´argpabqqq

4: uuuÐaaa´α˚bbb

5: uuuÐuuu{normpuuu,2q

6: HÐeyepnq ´2˚matprodpuuu,ctransposepuuuqq

7: Fin Fonction

Q. 2 1: nÐ100

5

2: aaaÐvecrandpnq

6

3: bbbÐvecrandpnq

7

4: bbbÐnormpbbb,2q

8

5: rH, αs ÐHouseholderpaaa, bbb,0q

9

6: errorÐnormpH˚aaa´α˚bbb,2q

10

Q. 3 1: nÐ100

11

2: aaaÐvecrandpnq

12

3: bbbÐaaa`1e´6˚vecrandpnq

13

4: bbbÐbbb{normpbbb,2q

14

5: rH1, α1s ÐHouseholderpaaa, bbb,1q

15

6: rH0, α0s ÐHouseholderpaaa, bbb,0q

16

7: error0ÐnormpH0˚aaa´α0˚bbb,2q{abs0q

17

8: error1ÐnormpH1˚aaa´α1˚bbb,2q{abs1q

18

˛

19 20

Si l'on souhaite calculer le produit matrice-vecteur Hpuuuqxxx, il n'est pas nécessaire de calculer

21

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR

102 103 104

n 10-16

10-15 10-14 10-13 10-12 10-11 10-10 10-9

||Ha-α b||2/|α|

δ=1 δ=0

Figure 4.1: Choix deαdansHouseholder : erreur relative en normeL2

explicitement la matriceHpuuuq.En eet, on posevvv“2λuuu“aaa´αbbbetβ “2λ2“ }a}22´αxaaa, bbby ą0.

On choisiαde manière à maximiserβ pour éviter une division par un nombre trop petit. On prend donc

α“ }a}2eıpπ´argpxaaa,bbbyqq On obtient alors

Hpuuuqxxx“xxx´ 1

βvvvvvv˚xxx“xxx´xvvv, xxxy

β vvv. (4.44)

1

Corollaire 4.21

SoitaaaPCn aveca1‰0et Dj P v2, nwtel queaj ‰0.Soientθ“arga1 et uu

u˘“ aaa˘ }aaa}2eıθeee1 }aaa˘ }aaa}2eıθeee1} Alors

Hpuuu˘qaaa“ ¯ }aaa}2eıθeee1 (4.45)

oùeee1désigne le premier vecteur de la base canonique de Cn. 2

Proof. On va utiliser le Théorème 4.20. 3

On poseα“ ˘ }aaa}2eıθ etbbb“eee1.Commeargpxaaa, bbbyq “arga1“ ´arga1“ ´θ,on aargα“θrπs “ 4

´argpxaaa, bbbyq rπs. 5

Les autres hypothèses du Théorème 4.20 sont vériées puisque le vecteuraaan'est pas colinéaire àeee1 6

et que}eee1}2“1. On a donc 7

H

ˆ aaa¯ }aaa}2eıθeee1

}aaa¯ }aaa}2eıθeee1}

˙

aaa“ ˘ }aaa}2eıθeee1.

8

Sur le même principe que l'écriture algébrique de la méthode de Gauss, nous allons transformer la 9 matriceAPMnpKqen une matrice triangulaire supérieure à l'aide de matrices de Householder. On a le 10

théorème 11

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR

Théorème 4.22

Soit A PMnpCq une matrice. Il existe une matrice unitaire QP MnpCq produit d'au plus n´1 matrices de Householder et une matrice triangulaire supérieure RPMnpCqtelles que

AQR. (4.46)

Si Aest réelle alors QetRsont aussi réelles et l'on peut choisirQde telle sorte que les coecients diagonaux deRsoient positifs. De plus, siAest inversible alors la factorisation est unique.

1

Exercice 4.2.7

SoitBPMm`npKqla matrice bloc

B

ˆ B1,1 B1,2 B2,1 S

˙

B1,1 PMmpKq et SPMnpKq. On notesssPKn le premier vecteur colonne de Set on suppose quesss‰0 etsssnon colinéaire àeeen1 premier vecteur de la base canonique deKn.

Q. 1 1. Montrer qu'il existe une matrice de HouseholderHHpuuuq PMnpKqetαPK˚ tel que

HS

¨

˚

˚

˚

˝

˘α ‚ ¨ ¨ ¨ ‚ 0 ‚ ¨ ¨ ¨ ‚ ... ... ...

0 ‚ ¨ ¨ ¨ ‚

˛

‚ .

2. On noteuuuPKm`n,le vecteur déni parui“0,@iP v1, mwetum`i“ui,@iP v1, nw.Montrer que

HpuuuqB“

ˆ B1,1 B1,2

B2,1 HS

˙ . Soient kP v0, n´1wet ArksPMnpKqla matrice bloc dénie par

Arks

˜

Rrks Frks O Arks

¸

Rrksest une matrice triangulaire supérieure d'ordreket Arks une matrice d'ordren´k.

Q. 2 1. Sous certaines hypothèses, montrer qu'il existe une matrice de HouseholderHrk`1s telle queHrk`1sArksArk`1s.

2. Soit A P MnpKq. Montrer qu'il existe une matrice unitaire Q P MnpKq, produit d'au plus n´1 matrices de Housholder, et une matrice triangulaire supérieureRtelles que AQR.

3. Montrer que siA est réelle alors les coecient diagonaux deRpeuvent être choisi positif.

4. Montrer que si Aest réelle inversible alors la factorisationQR,avecRà coecient diagonaux positifs, est unique.

2

Correction Exercice 4.2.7

3

Q. 1 1. D'après le (voir Corollaire 4.21, page 101) avecaaa“sss,en posantα“ ˘ }sss}2eıargs1 et

4

uuu“ sss´αeeen1 }sss´αeeen1} on obtientHpuuuq “αeeen1.

5

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR

. D'après la question 3 précédente sisss‰0 etsssnon colinéaire àeeen´k1 premier vecteur de la base canonique deKn´k alors 4

2. il sut d'appliquer itérativement le résultat précédent n´1 fois en posant Ar0sA et Ark`1s8

Hrk`1sArksHrk`1s est soit une matrice de Householder soit la matrice identité. Par construction 9

la matriceArn´1s est triangulaire supérieure et l'on a 10

Arn´1sHrn´1sˆ ¨ ¨ ¨ ˆHr1sA

On pose HHrn´1sˆ ¨ ¨ ¨ ˆHr1s et RArn´1s.La matrice Hest unitaire car produit de matrices 11

unitaires. On note QH˚ On a 12

QHr1sˆ ¨ ¨ ¨ ˆHrn´1s

car les matrices de Householder et matrice identité sont unitaires et hermitiennes. 13 3. SiA est réelle alors par constructionQ et Rsont réelles. Les coecients diagonaux peuvent alors 14 être choisi positif lors de la construction de chaque matrice de Householder. 15 4. Pour montrer l'unicité d'une telle factorisation, on note Q1, Q2, deux matrices orthogonales etR1, 16

R2,deux matrices triangulaires à coecients diagonaux positifs telles que 17 AQ1R1Q2R2.

CommeAest inversible les coecients diagonaux deR1 etR2sont strictement positifs. On a alors 18 IAA-1Q1R1R-12 Q-12

4.Résolutiondesystèmeslinéaires 4.2.Résolutiondesystèmeslinéaires4.2.6FactorisationQR

et donc

1

Q-11 Q2R1R-12 defT.

CommeQ1est orthogonale on aTQt1Q2 et

2

TtT“ pQt1Q2qtQt1Q2Qt2Q1Qt1Q2I.

De plus la matriceTR1R-12 est triangulaire supérieure à coecients diagonaux strictement positifs

3

puisque produit de triangulaire supérieure à coecients diagonaux strictement positifs. D'après

4

le théorème (factorisation de Cholesky) il existe une unique matrice L triangulaire inférieure à

5

coecients diagonaux strictement positifs telle que LLtI et Cette matrice L est la matrice

6

identité. On en déduit queTLtIet doncQ1Q2 etR1R2.

7

˛

8 9

Exercice 4.2.8: Algorithmique

Q. 1 Ecrire une fonction FactQR permettant de calculer la factorisation QR d'une matrice A P MnpCq.

On pourra utiliser la fonction Householder (voir Exercice 4.2.6, page 100).

Q. 2 Ecrire un programme permettant de tester cette fonction.

10

Correction Exercice 4.2.8

11

Q. 1 L'objectif est de déterminer les matricesQ, matrice unitaire, etRmatrice triangulaire supérieure

12

telle queAQR.

13

Données : A : matrice deMnpKq.

Résultat : Q : matrice unitaire deMnpKq.

R : matrice triangulaire supérieure deMnpKq.

14

On rappelle la technique utilisée dans la correction de l'exercice 4.2.7 pour déterminer l'ensemble des

15

matrices de Householder permettant de transformer la matriceAen une matrice triangulaire supérieure.

16

On pose

17

Ar0sA, Ark`1sHrk`1sArks, @kP v0, n´2w

Hrk`1sest soit une matrice de Householder soit la matrice identité. Plus précisement, on notesssPKn´k

18

le vecteur composé desn´kdernières composantes de lak`1-ème colonne deArks etaaa“ ˆ 000k

s s s

˙

19 .

‚ Sis1“0oussscolinéaire àeeen´k1 premier vecteur de la base canonique deKn´k alors

20

Hrk`1sHpuuuq.

En notanteeenk`1 lek`1-ème vecteur de la base canonique deKn, cette matrice peut-être calculée

21

avec la fonctionHouseholder par

22

rHrk`1s, αs ÐHouseholderpaaa, eeenk`1,1q

‚ sinonHrk`1sI.

23

On a vu que dans ce casArn´1s est triangulaire supérieure. On poseHHrn´1sˆ ¨ ¨ ¨ ˆHr1s qui est une

24

matrice unitaire. On a alorsRArn´1sHAet QH˚.

25

Algorithme4.18 R0

1: CalulerQetR

Algorithme4.18 R1

1: HÐHrn´1sˆ ¨ ¨ ¨ ˆHr1s

2: RÐH˚A

3: QÐH˚

26

4.Résolutiondesystèmeslinéaires 4.3.Résolutiondesystèmeslinéaires4.3.1Normesvectorielles

Algorithme4.18 R1

1: HÐHrn´1sˆ ¨ ¨ ¨ ˆHr1s

2: RÐH˚A

3: QÐH˚

Algorithme4.18 R2

1: HÐI

2: Ar0sÐA

3: PourkÐ0àn´2faire

4: CalulerHrk`1sàpartirdeArks

5: Ark`1sÐHrk`1s˚Arks

6: HÐHrk`1s˚H

7: FinPour

8: RÐH˚A ŹouRÐArn´1s

9: QÐH˚

1

Algorithme4.18 R2

1: HÐI

2: PourkÐ0àn´2faire

3: CalulerHrk`1sàpartirdeArks

4: Ark`1sÐHrk`1s˚Arks

5: HÐHrk`1s˚H

6: FinPour

7: RÐArn´1s

8: QÐH˚

Algorithme4.18 R3

1: HÐI

2: PourkÐ0àn´2faire

3: aaaÐ r000k;Arkspk`1 :n, k`1qs

4: rHrk`1s, αs ÐHouseholderpaaa, eeenk`1,1q

5: Ark`1sÐHrk`1s˚Arks

6: HÐHrk`1sH

7: FinPour

8: RÐArn´1s

9: QÐH˚

2

Ici, l'opérateurr‚;‚sest l'opérateur de concaténation de deux vecteurs. 3 Algorithme 4.18 FonctionFactQR

Données : A : matrice deMnpKq.

Résultat : Q : matrice unitaire deMnpKq.

R : matrice triangulaire supérieure deMnpKq.

1: FonctionrQ,Rs Ð FactQR (A)

2: HÐI

3: RÐA

4: PourkÐ0à n´2faire

5: aaaÐ r000k;Rpk`1 :n, k`1qs

6: rS, αs ÐHouseholderpaaa, eeenk`1,1q

7: RÐS˚R

8: HÐS˚H

9: Fin Pour

10: QÐH˚

11: Fin Fonction

Q. 2 4

˛ 5 6

Dans le document Analyse numérique élémentaire (Page 96-109)