• Aucun résultat trouvé

Algèbre linéaire

Dans le document Analyse numérique élémentaire (Page 186-200)

Ceux-ci ne seront pas optimisés a !

B.2 Algèbre linéaire

13

Toute cette partie peut être joyeusement omise par tout Homo sapiens algebra linearis compat-ible. Toutefois une lecture rapide permet de se raraichir la mémoire.

14

SoitV un espace vectoriel de dimension nien, sur le corpsRdes nombres réels, ou sur le corpsC

15

des nombres complexes. Notons plus généralementK le corpsRouC.

16

B.2.1 Vecteurs

1

Une base deV est un ensembleteee1, eee2, . . . , eeenudenvecteurs linéairement indépendants. Le vecteur

n

ř

i“1

vieeei sera représenté par le vecteur colonne

v vv“

¨

˚

˚

˚

˝ v1 v2 ...

vn

˛

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.1Vecteurs 181

et on désignera parvvvt etvvv˚ les vecteurs lignes suivants vvvt“`

v1 v2 ¨ ¨ ¨ vn

˘, vvv˚“`

v1 v2 ¨ ¨ ¨ vn

˘

oùαest le nombre complexe conjugué du nombreα. 2

Denition B.7

• Le vecteur lignevvvtest le vecteur transposé du vecteur colonnevvv.

• Le vecteur lignevvv˚ est le vecteur adjoint du vecteur colonnevvv. 3

Denition B.8

L'applicationx‚,‚y:V ˆV ÑKdénie par xuuu, vvvy “uuut.vvv“vvvt.uuu“

n

ÿ

i“1

uivi, si K“R (B.2)

xuuu, vvvy “uuu˚.vvv“vvv˚.uuu“ xvvv, uuuy “

n

ÿ

i“1

uivi, si K“C (B.3)

est appelée produit scalaire euclidien siK“R, hermitienasiK“C. Pour rappeler la dimension de l'espace, on écrit

xuuu, vvvy “ xuuu, vvvyn.

aLa convention choisie pour le produit scalaire hermitien étant ici : linéarité à droite et semi-linéarité à gauche.

Il est aussi possible de dénir le produit scalaire hermitien par le complexe conjugué de B.3 : xuuu, vvvy “vvv˚.uuu

n

ÿ

i“1

uivi.

Dans ce cas le produit scalaire est une forme sesquilinéaire à droite. 4

Denition B.9

SoitV est un espace vectoriel muni d'un produit scalaire.

˛ Deux vecteursuuuetvvvsont orthogonaux si xuuu, vvvy “0.

˛ Un vecteurvvv est orthogonal à une partieU deV si

@uuuPU, xuuu, vvvy “0.

On notevvvKU.

˛ Un ensemble de vecteurs tvvv1, vvv2, . . . , vvvkude l'espace V est dit orthonormal si xvvvi, vvvjy “δij, @pi, jq P v1, kw2

oùδij est le symbole de Kronecker : δij

"

1 sii“j, 0 sii‰j.

5

Denition B.10

Le vecteur nul deKn est représenté par000n ou000 lorsqu'il n'y a pas d'ambiguité.

1

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices

Denition B.11

SoituuuPKn non nul. On dénit l'opérateur de projection suruuupar projuuupvvvq “ xuuu, vvvy

xuuu, uuuyuuu“ 1

xuuu, uuuyuuuuuu˚vvv, @vvvPKn. (B.4) La matricePuuu“uuuuuu˚ s'appelle la matrice de la projection orthogonale suivant le vecteuruuu.

2

Proposition B.12: Procédé de Gram-Schmidt

SoittvvviuiPv1,nwune base de Kn.On construit successivement les vecteursuuui

uuui “vvvi´

i´1

ÿ

k“1

projuuu

kpvvviq “vvvi´

i´1

ÿ

k“1

xuuuk, vvviy

xuuuk, uuukyuuuk, @iP v1, nw.

Ils forment une base orthogonale de Kn etVectpuuu1, . . . , uuuiq “Vectpvvv1, . . . , vvviq, @iP v1, nw(voir Exercice B.3.5, page 197).

Pour construire une base orthonormale tzzziuiPv1,nw,il sut de normaliser les vecteurs de la base orthogonale:

zzzi“ uuui

xuuui, uuuiy1{2

, @iP v1, nw.

3

B.2.2 Matrices

4

Généralités

5

Une matrice à m lignes et n colonnes est appelée matrice de type pm, nq, et on note Mm,npKq, ou

6

simplement Mm,n , l'espace vectoriel sur le corps K formé par les matrices de type pm, nqà éléments

7

dansK.

8

Une matriceAPMm,npKqd'éléments aij PK est notée A“ paijq1ďiďm,1ďjďn,

le premier indiceicorrespond aux lignes et le secondj aux colonnes. On désigne par pAqij l'élément de

9

laième ligne et de lajème colonne. On peut aussi le noter ai,j.

10

Denition B.13

La matrice nulle de Mm,npKq est représentée par Om,n ou O lorsqu'il n'y a pas d'ambiguité. Si m“non peut aussi noterOn cette matrice.

11

Denition B.14 1

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices 183

˛ Soit une matriceAPMm,npCq, on noteA˚ PMn,mpCqla matrice adjointe de la matrice A, dénie de façon unique par

xAuuu, vvvym“ xuuu,A˚vvvyn, @uuuPCn, @vvvPCm qui entrainepA˚qij “aji.

˛ Soit une matriceAPMm,npRq, on noteAtPMn,mpRqla matrice transposée de la matrice A, dénie de façon unique par

xAuuu, vvvym“ xuuu,Atvvvyn, @uuuPRn, @vvvPRm

qui entrainepAtqij “aji. 2

Denition B.15

SiAPMm,ppKqetBPMp,npKq, leur produitABPMm,npKqest déni par pABqij

p

ÿ

k“1

aikbkj,@iP v1, mw, @jP v1, nw. (B.5)

3

Exercice B.2.1: résultats à savoir

SoientAPMm,ppKqetBPMp,npKq,montrer que

pABqtBtAt, siK“R, (B.6)

pABq˚B˚A˚, siK“C (B.7) 4

Les matrices considérées jusqu'a la n de ce paragraphe sont carrées. 5

Denition B.16

Si A P Mn alors les éléments aii “ pAqii sont appelés éléments diagonaux et les éléments aii“ pAqij, i‰j sont appelés éléments hors-diagonaux. 6

Denition B.17

On appelle matrice identitée deMn la matrice dont les éléments diagonaux sont tous égals à1 et les éléments hors-diagonaux nulles. On la noteIou encoreIn et on a

pIqi,j “δij, @pi, jq P v1, nw2. 7

Denition B.18

Une matriceAPMn est inversible ou régulière s'il existe une unique matrice deMn,notéeA-1 et appelée matrice inverse de la matriceA, telle que

AA-1A-1AI (B.8)

Dans le cas contraire, on dit que la matriceAest singulière ou non inversible.

1

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices

Exercice B.2.2: résultats à savoir Soient AetBdeux matrices deMn.Montrer que

ABI ñ BAI.

Que peut-on en conclure?

2

Exercice B.2.3: résultats à savoir

Soient APMnpKqet BPMnpKqinversibles. Montrer queABinversible et

pAtq-1 “ pA-1qt, siK“R, (B.9)

pA˚q-1 “ pA-1q˚, siK“C. (B.10)

pABq-1B-1A-1 (B.11)

pA-1q-1A (B.12)

3

Denition B.19 Une matrice carréeA est :

˛ symétrique siAest réelle etAAt,

˛ hermitienne siAA˚,

˛ normale siAA˚A˚A,

˛ orthogonale siAest réelle etAAtAtAI,

˛ unitaire siAA˚A˚AI,

4

Proposition B.20

‚ une matrice symétrique ou hermitienne est nécessairement normale.

‚ une matrice orthogonale (resp. unitaire) est nécessairement normale et inversible d'inverseAt (resp. A˚).

5

Denition B.21

SoitAPMnpCqune matrice hermitienne.

˛ Elle est dénie positive si

xAuuu, uuuy ą0, @uuuPCnzt0u (B.13)

˛ Elle est semi dénie positive si

xAuuu, uuuy ě0, @uuuPCnzt0u (B.14)

6

Exercice B.2.4 1

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices 185

SoitAPMn.Que peut-on dire de la matriceAA˚?Et si la matriceAest inversible?

Proposer une technique permettant de générer une matrice semi-dénie positive à partir d'une

matrice aléatoire. 2

Denition B.22

SoitAPMn. La trace d'une matrice carréeA“ paijqest dénie par trpAq “

n

ÿ

i“1

aii.

3

Denition B.23

Soit Tn le groupe des permutations de l'ensemble t1,2, . . . , nu. A tout élément σ P Tn, on associe la matrice de permutation dePσPMn est dénie par

pPσqi,j“δiσpjq.

4

Exercice B.2.5: résultats à savoir

Montrer qu'une matrice de permutation est orthogonale. 5

Denition B.24

Soient A“ pai,jqni,j“1PMn et Tn le groupe des permutations de l'ensemblet1,2, . . . , nu.. Le déterminant d'une matriceA est déni par

detpAq “ ÿ

σPTn

εσ n

ź

j“1

aσpjqj

oùεσ désigne la signature de la permutationσ. 6

Proposition B.25: Méthode de Laplace ou des coacteurs

SoitA“ pai,jqni,j“1PMn.On noteAri,jsPMn´1 la matrice obtenue en supprimant la ligneiet la colonnej deA. On a alors le développement par rapport à la ligne iP v1, nw

detpAq “

n

ÿ

j“1

p´1qi`jai,jdet

´ Ari,js

¯

, (B.15)

et le développement par rapport à la colonne jP v1, nw detpAq “

n

ÿ

i“1

p´1qi`jai,jdet

´ Ari,js

¯

. (B.16)

Le termep´1qi`jdet` Ari,js˘

est appellé le cofacteur du terme ai,j.

1

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices

Denition B.26

SoitAPMnpKq. On dit queλPCest valeur propre deA s'il existeuuuPCn non nul tel que

Auuu“λuuu. (B.17)

Le vecteuruuuest appelé vecteur propre associé à la valeur propre λ.

Le couple pλ, uuuqest appelé élément propre deA.

2

Denition B.27

SoitAPMnpKq. SoitλPCune valeur propre deA.Le sous-espace

Eλ“ tuuuPCn:Auuu“λuuuu “kerpA´λIq (B.18) est appelé sous-espace propre associé à la valeur propreλ.

3

Denition B.28

SoitAPMnpKq. Le polynôme de degréndéni par

PApλq “detpA´λIq (B.19)

est appellé polynôme caractéristique de la matriceA.

4

Proposition B.29 SoitAPMnpKq.

˛ Les racines complexes du polynôme caractéristiquePA sont les valeurs propres de la matrice A.

˛ Si la racine λ de PA est de multiplicité k, on dit que la valeur propreλ est de multiplicité algébriquek.

˛ La matriceApossèdenvaleurs propres distinctes ou non.

5

Denition B.30

SoitAPMnpKq.On noteλipAq, iP v1, nw,lesnvaleurs propres deA. Le spectre de la matriceA est le sous-ensemble

SppAq “

n

ď

i“1

ipAqu (B.20)

du plan complexe.

6

Proposition B.31 1

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices 187

SoientAPMn etBPMn. On a les relations suivantes trpAq “

n

ÿ

i“1

λipAq, (B.21)

detpAq “

n

ź

i“1

λipAq, (B.22)

trpABq “ trpBAq, (B.23)

trpA`Bq “ trA`trB, (B.24)

detpABq “ detpAqdetpBq “detpBAq, (B.25)

detpA˚q “ detpAq. (B.26) 2

Denition B.32

Le rayon spectral d'une matriceAPMn est le nombreě0déni par ρpAq “maxt|λipAq|; iP v1, nwu

3

Denition B.33

SoitX et Y deux espaces vectoriels

˛ On notekerpAq “ tvvvPX; Avvv“0ule noyau de l'application linéaireA:X ÑY.

˛ On noteimpAq “ tAvvvPY ; vvvPXul'image de l'application linéaireA:X ÑY. 4

Denition B.34

Le rang d'une matriceA, notérangpAq, est déni comme le rang de l'application linéaireAqui lui et associé

rangpAq “dimpimpAqq. 5

Matrices particulières 6

Denition B.35

1

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices

Une matrice carrée APMn est :

˛ diagonale siaij “0pouri‰j,

˛ triangulaire supérieure siaij “0pour iąj,

˛ triangulaire inférieure siaij“0pour iăj,

˛ triangulaire si elle est triangulaire supérieure ou triangulaire inférieure

˛ à diagonale dominante si

|aii| ěÿ

j‰i

|aij|, @iP v1, nw, (B.27)

˛ à diagonale strictement dominante si

|aii| ąÿ

j‰i

|aij|, @iP v1, nw. (B.28)

2

Proposition B.36

Soient Aet Bdeux matrices deMnpKqtriangulaires inférieures (resp. triangulaires supérieures).

Alors la matrice ABest aussi triangulaire inférieure (resp. triangulaire supérieure).

De plus on a

pABqi,i“Ai,iBi,i, @iP v1, nw.

3

Proof. (voir Exercice B.3.2, page 196)

4

Proposition B.37

SoitAPMnpKqune matrice triangulaire inférieure (resp. triangulaire supérieure).

1. A est inversible si et seulement si ses éléments diagonaux sont tous non nuls (i.e. Ai,i ‰0,

@iP v1, nw).

2. SiAest inversible alors son inverse est triangulaire inférieure (resp. triangulaire supérieure) et

pA-1qi,i“ 1 pAqi,i

5

Proof. (voir Exercice B.3.10, page 202)

6

Denition B.38

On appelle matrice bande une matriceAtelle queaij ‰0pour|j´i| ďc. cest la demi largeur de bande.

Lorsque c“1,la matrice est dite tridiagonale . Lorsque c“2, la matrice est dite pentadi-agonale .

7

Denition B.39 1

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.2Matrices 189

On appelle sous-matrice d'une matrice donnée, la matrice obtenue en supprimant certaines lignes et certaines colonnes. En particulier, si on supprime lespn´kqdernières lignes et colonnes d'une matrice carréeAd'ordren, on obtient la sous matrice principale d'ordrek. 2

Denition B.40

On appelle matrice bloc une matriceAPMN,M écrite sous la forme

A

On dit queA et une matrice bloc-carrée sip“qet si tous les blocs diagonaux sont des matrices

carrées. 3

Propriété B.41: Multiplication de matrices blocs

Soient A PMN,M et BP MM,S. Le produit PABP MN,S peut s'écrire sous forme bloc si les matricesA etBsont compatibles par blocs : il faut que le nombre de blocs colonne deAsoit égale au nombre de blocs ligne deBavec correspondance des dimensions.

APs'écrit alors sous la forme bloc

P

On dit qu'une matrice bloc-carréeAest triangulaire inférieure (resp. supérieure) par blocs si elle peut s'écrire sous la forme d'une matrice bloc avec les sous matricesAi,j “0 pouriăj (resp.

iąj). . Elle s'écrit donc sous la forme

B.Annexes B.2.AlgèbrelinéaireB.2.3Normesvectoriellesetnormesmatricielles

Denition B.43

On dit qu'une matrice bloc-carrée A est diagonale par blocs ou bloc-diagonale si elle peut s'écrire sous la forme d'une matrice bloc avec les sous matrices Ai,j “0 pour i‰ j . Elle s'écrit donc sous la forme

A

SoitAune matrice bloc-carré décomposée ennˆnblocs. SiAest bloc-diagonale ou triangulaire par blocs alors son déterminant est le produit des déterminant des blocs diagonaux :

detA

SoitAune matrice bloc-carré inversible décomposée en nˆnblocs.

• Si A est bloc-diagonale alors son inverse (décomposée en nˆn blocs) est aussi bloc-diagonale.

• SiAest triangulaire inférieure par blocs (resp. supérieure) alors son inverse (décomposée ennˆnblocs) est aussi triangulaire inférieure par blocs (resp. supérieure).

Dans ces deux cas les blocs diagonaux de la matrice inverse sont les inverses des blocs diagonaux deA.On a donc

B.2.3 Normes vectorielles et normes matricielles

1

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.3Normesvectoriellesetnormesmatricielles 191

Denition B.46

Une norme sur un espace vectoriel V est une application}‚}:V ÑR` qui vérie les propriétés suivantes

˛ }vvv} “0ðñvvv“0,

˛ }αvvv} “ |α| }vvv}, @αPK, @vvvPV,

˛ }uuu```vvv} ď }uuu} ` }vvv}, @ pu, vu, vu, vq PV2(inégalité triangulaire).

Une norme sur V est également appelée norme vectorielle . On appelle espace vectoriel

normé un espace vectoriel muni d'une norme. 2

Les trois normes suivantes sont les plus couramment utilisées : }vvv}1

n

ÿ

i“1

|vi|

}vvv}2

˜ n ÿ

i“1

|vi|2

¸1{2

}vvv}8“max

i |vi|.

Théorème B.47

SoitV un espace de dimension nie. Pour tout nombre réelpě1, l'application}‚}pdénie par

}vvv}p

˜ n ÿ

i“1

|vi|p

¸1{p

est une norme. 3

Claim B.48 Pourpą1et 1p `1q “1, on a@uuu, vvvPKn 4

n

ÿ

i“1

|uivi| ď

˜ n ÿ

i“1

|ui|p

¸1{p˜ n ÿ

i“1

|vi|q

¸1{q

“ }uuu}p}vvv}q. (B.30)

Cette inégalité s'appelle l'inégalité de Hölder. 5

Denition B.49

Deux normes }‚} et }‚}1, dénies sur un même espace vectoriel V, sont équivalentes s'il exite deux constantesC etC1 telles que

}vvv}1ďC}vvv} et }vvv} ďC1}vvv}1 pour toutvvvPV. (B.31) 6 Claim B.50 Sur un espace vectoriel de dimension nie toutes les normes sont équivalentes. 7

Denition B.51

1

B.Annexes B.2.AlgèbrelinéaireB.2.3Normesvectoriellesetnormesmatricielles

Une norme matricielle sur MnpKqest une application}‚}:MnpKq ÑR` vériant 1. }A} “0ðñA“0,

2. }αA} “ |α| }A},@αPK,@APMnpKq,

3. }A`B} ď }A} ` }B}, @ pA,Bq PMnpKq2 (inégalité triangulaire) 4. }AB} ď }A} }B}, @ pA,Bq PMnpKq2

2

Claim B.52 Etant donné une norme vectorielle}‚}surKn,l'application}‚}s:MnpKq ÑR`dénie par

3 4

}A}s“ sup

vvvPKn v vv‰0

}Avvv}

}vvv} “ sup

v vvPKn }vvv}ď1

}Avvv} “ sup

v vvPKn }vvv}“1

}Avvv}, (B.32)

est une norme matricielle, appelée norme matricielle subordonnée (à la norme vectorielle donnée).

5

De plus

6

}Avvv} ď }A}s}vvv} @vvvPKn (B.33) et la norme}A}peut se dénir aussi par

7

}A}s“inftαPR:}Avvv} ďα}vvv}, @vvvPKnu. (B.34) Il existe au moins un vecteuruuuPKn tel que

8

uuu‰0 et }Auuu} “ }A}s}uuu}. (B.35) Enn une norme subordonnée vérie toujours

9

}I}s“1 (B.36)

Théorème B.53 SoitAPMnpCq. On a

}A}1déf.“ sup

vvvPCn vvv‰0

}Avvv}1

}vvv}1 “ max

jPv1,nw n

ÿ

i“1

|aij| (B.37)

}A}2déf.“ sup

v vvPCn

vvv‰0

}Avvv}2 }vvv}2 “a

ρpA˚Aq “a

ρpAA˚q “ }A˚}2 (B.38)

}A}8déf.“ sup

vv vPCn

v vv‰0

}Avvv}8

}vvv}8 “ max

iPv1,nw n

ÿ

j“1

|aij| (B.39)

La norme }‚}2 est invariante par transformation unitaire :

UU˚Iùñ }A}2“ }AU}2“ }UA}2“ }U˚AU}2. (B.40) Par ailleurs, si la matrice Aest normale :

AA˚A˚Aùñ }A}2“ρpAq. (B.41)

10

Remarque B.54 1. Si une matriceAest hermitienne, ou symétrique (donc normale), on a}A}2“ρpAq.

11

2. Si une matriceAest unitaire, ou orthogonale (donc normale), on a}A}2“1. 1

Algèbre linéaire

B.Annexes B.2.AlgèbrelinéaireB.2.4Réductiondesmatrices 193

Théorème B.55

1. SoitAune matrice carrée quelconque et}‚}une norme matricielle subordonnée ou non, quel-conque. Alors

ρpAq ď }A}. (B.42)

2. Etant donné une matrice A et un nombre ε ą 0, il existe au moins une norme matricielle subordonnée telle que

}A} ďρpAq `ε. (B.43) 2

Théorème B.56

L'application}‚}E:MnÑR` dénie par

}A}E

¨

˝ ÿ

pi,jq“Pv1,nw2

|aij|2

˛

1{2

“a

trpA˚Aq, (B.44)

pour toute matrice A“ paijq d'ordren,est une norme matricielle non subordonnée (pour ně2), invariante par transformation unitaire et qui vérie

}A}2ď }A}Eď?

n}A}2, @APMn. (B.45)

De plus}I}E“?

n. 3

Théorème B.57

1. Soit}‚}une norme matricielle subordonnée, etBune matrice vériant }B} ă1.

Alors la matricepI`Bqest inversible, et

›pI`Bq´1

›ď 1 1´ }B}.

2. Si une matrice de la formepI`Bqest singulière, alors nécessairement }B} ě1

pour toute norme matricielle, subordonnée ou non. 4

B.2.4 Réduction des matrices

5

Denition B.58

1

B.Annexes B.2.AlgèbrelinéaireB.2.5Suitesdevecteursetdematrices

SoitA:V ÑV une application linéaire, représenté par une matrice carréeAPMn relativement à une baseteeeiuiPv1,nw.Relativement à une autre basetfffiuiPv1,nw,la même application est représentée par la matrice

BP-1AP (B.46)

Pest la matrice inversible dont lej-ème vecteur colonne est formé des composantes du vecteur f

f

fj dans la baseteeeiuiPv1,nw :

P

¨

˚

˚

˚

˚

˝

xeee1, fff1y xeee1, fff2y ¨ ¨ ¨ xeee1, fffny xeee2, fff1y xeee1, fff2y ... ...

... ... ... xeeen´1, fffny xeeen, fff1y ¨ ¨ ¨ xeeen, fffn´1y xeeen, fffny

˛

(B.47)

La matricePest appelée matrice de passage de la base teeeiuiPv1,nw dans le base tfffiuiPv1,nw.

2

Denition B.59

On dit que la matrice carrée A est diagonalisable s'il existe une matrice inversible P telle que la matriceP´1APsoit diagonale.

3

Claim B.60 On notera que, dans le cas où A P Mn est diagonalisable, les éléments diagonaux de la

4

matriceP-1APsont les valeurs propres λ1, λ2, . . . , λn de la matriceA, et que lej-ème vecteur colonnepppj

5

de la matricePest formé des composantes, dans la même base que A, d'un vecteur propre associé à la

6

valeur propreλj. On a

7

P-1AP“diagpλ1, . . . , λnq ðñApppj “λjpppj, @jP v1, nw. (B.48) C'est à dire qu'une matrice est diagonalisable si, et seulement si, il existe une base de vecteurs propres.

8

Théorème B.61

1. Etant donnée une matrice carrée A, il existe une matrice unitaire U telle que la matrice U-1AUsoit triangulaire.

2. Etant donnée une matrice normaleA, il existe une matrice unitaire Utelle que la matrice U-1AUsoit diagonale.

3. Etant donnée une matrice symétrique A, il existe une matrice orthogonaleO telle que la matriceO-1AOsoit diagonale.

9

B.2.5 Suites de vecteurs et de matrices

10

Denition B.62

SoitV un espace vectoriel muni d'une norme}‚}, on dit qu'une suitepvvvkqd'éléments deV converge vers un élémentvvvPV, si

lim

kÑ8}vvvk´vvv} “0 et on écrit

v vv“ lim

kÑ8vvvk.

1

Dans le document Analyse numérique élémentaire (Page 186-200)