• Aucun résultat trouvé

Rappels - Algèbre linéaire Cuvelier François Version du 9 septembre 2014

N/A
N/A
Protected

Academic year: 2022

Partager "Rappels - Algèbre linéaire Cuvelier François Version du 9 septembre 2014"

Copied!
8
0
0

Texte intégral

(1)

Rappels - Algèbre linéaire

Cuvelier François Version du 9 septembre 2014

Table des matières

1 Vecteurs 1

2 Matrices 2

2.1 Généralités . . . . 2 2.2 Matrices particulières . . . . 5

3 Normes vectorielles et normes matricielles 6

4 Réduction des matrices 8

5 Suites de vecteurs et de matrices 8

‚ ‚ ‚ ‚ ‚ ‚ ‚ ‚ ‚ ‚ ‚ ‚ ‚

Soit V un espace vectoriel de dimension nie n , sur le corps R des nombres réels, ou sur le corps C des nombres complexes. Notons plus généralement K le corps R ou C.

1 Vecteurs

Une base de V est un ensemble teee 1 , eee 2 , . . . , eee n u de n vecteurs linéairement indépendants. Le vecteur v

v v “

n

ř

i“1

v i eee i sera représenté par le vecteur colonne

v v v “

¨

˚

˚

˚

˝ v 1 v 2 ...

v n

˛

et on désignera par v v v t et v v v ˚ les vecteurs lignes suivants v

v v t “ `

v 1 v 2 ¨ ¨ ¨ v n ˘

, v v v ˚ “ `

v 1 v 2 ¨ ¨ ¨ v n ˘ où α est le nombre complexe conjugué du nombre α.

Dénition 1.1 Le vecteur ligne v v v t est le vecteur transposé du vecteur colonne v v v . Le vecteur ligne v v v ˚ est le vecteur adjoint du vecteur colonne v v v .

Dénition 1.2 L'application x‚, ‚y : V ˆ V Ñ K dénie par

xu u u, v v vy “ u u u t .v v v “ v v v t .u u u “

n

ÿ

i“1

u i v i , si K “ R

xu u u, v v vy “ v v v ˚ .u u u “ u u u ˚ .v v v “ xv v v, u u uy “

n

ÿ

i“1

v i u i , si K “ C

(2)

est appelée produit scalaire euclidien si K “ R, hermitien si K “ C. Pour rappeler la dimension de l'espace, on écrit

xu u u, v v vy “ xu u u, v v vy n .

Dénition 1.3 Soit V est un espace vectoriel muni d'un produit scalaire.

˛ Deux vecteurs u u u et v v v sont orthogonaux si xu u u, v v vy “ 0.

˛ Un vecteur v v v est orthogonal à une partie U de V si

@u u u P U, xu u u, v v vy “ 0.

On note v v v K U.

˛ Un ensemble de vecteurs tv v v 1 , v v v 2 , . . . , v v v k u de l'espace V est dit orthonormal si xv v v i , v v v j y “ δ ij , @pi, jq P v1, kw 2

où δ ij est le symbole de Kronecker : δ ij “

"

1 si i “ j, 0 si i ‰ j.

Dénition 1.4 Le vecteur nul est représenté par la lettre 0.

Dénition 1.5 Soit u u u P K n non nul. On dénit l'opérateur de projection sur u u u par proj u u u pv v vq “ xu u u, v v vy

xu u u, u u uy u u u, @v v v P K n . (1.1) Rappel 1.1 (Procédé de Gram-Schmidt) Soit tv v v i u iPv1,nw une base de K n . On construit successivement les vecteurs u u u i

u u

u i “ v v v i ´

i´1

ÿ

k“1

proj u u u

k

pv v v i q “ v v v i ´

i´1

ÿ

k“1

xu u u k , v v v i y

xu u u k , u u u k y u u u k , @i P v1, nw.

Ils forment une base orthogonale de K n . En normalisant, zzz ixu u u u u u

i

i

,u u u

i

y

1{2

, @i P v1, nw, on obtient la base orthonormale tzzz i u iPv1,nw de K n .

2 Matrices

2.1 Généralités

Une matrice à m lignes et n colonnes est appelée matrice de type pm, nq , et on note M m,n p K q, ou simplement M m,n , l'espace vectoriel sur le corps K formé par les matrices de type pm, nq à éléments dans K.

Une matrice A P M m,n pKq d'éléments a ij P K est notée

A “ pa ij q 1ďiďm, 1ďjďn ,

le premier indice i correspond aux lignes et le second j aux colonnes. On désigne par p A q ij l'élément de la i ème ligne et de la j ème colonne.

Dénition 2.1 La matrice nulle est représentée par la lettre 0.

Dénition 2.2 ˛ Soit une matrice A P M m,n p C q , on note A ˚ P M n,m p C q la matrice adjointe de la matrice A, dénie de façon unique par

x A u u u, v v vy m “ xu u u, A ˚ v v vy n , @u u u P C n , @v v v P C m qui entraine p A ˚ q ij “ a ji .

˛ Soit une matrice A P M m,n p R q, on note A t P M n,m p R q la matrice transposée de la matrice A, dénie de façon unique par

xA u u u, v v vy m “ @ u u u, A t v v v D

n , @u u u P R n , @v v v P R m

qui entraine pA t q ij “ a ji .

(3)

Dénition 2.3 Si A P M m,p p K q et B P M p,n p K q, leur produit AB P M m,n p K q est déni par

p AB q ij “

p

ÿ

k“1

a ik b kj , @i P v1, mw, @j P v1, nw. (2.1) On a alors

pABq t “ B t A t , si K “ R , (2.2)

p AB q ˚ “ B ˚ A ˚ , si K “ C (2.3)

Dénition 2.4 Une matrice de type pn, nq est dite matrice carrée , ou matrice d'ordre n . On note M n “ M n,n ou M n pKq “ M n,n pKq

l'anneau des matrices carrées d'ordre n, à éléments dans le corps K.

Les matrices considérées jusqu'a la n de ce paragraphe sont carrées.

Dénition 2.5 Si A P M n alors les éléments a ii “ p A q ii sont appelés éléments diagonaux et les éléments a ij “ p A q ij , i ‰ j sont appelés éléments hors-diagonaux.

Dénition 2.6 On appelle matrice identitée de M n la matrice dont les éléments diagonaux sont tous égaux à 1 et les éléments hors-diagonaux nuls. On la note I ou encore I n et on a

p I q i,j “ δ ij , @pi, jq P v1, nw 2 .

Dénition 2.7 Une matrice A P M n est inversible s'il existe une unique matrice de M n , notée A -1 et appelée matrice inverse de la matrice A, telle que

AA -1 “ A -1 A “ I (2.4)

Dans le cas contraire, on dit que la matrice A est singulière .

Rappel 2.1 Soient A P M n pKq et B P M n pKq inversibles. Alors AB inversible et

p A t q -1 “ p A -1 q t , si K “ R , (2.5)

p A ˚ q -1 “ p A -1 q ˚ , si K “ C . (2.6)

pABq -1 “ B -1 A -1 (2.7)

pA -1 q -1 “ A (2.8)

Dénition 2.8 Une matrice carrée A est :

˛ symétrique si A est réelle et A “ A t ,

˛ hermitienne si A “ A ˚ ,

˛ normale si AA ˚ “ A ˚ A ,

˛ orthogonale si A est réelle et AA t “ A t A “ I ,

˛ unitaire si AA ˚ “ A ˚ A “ I ,

Dénition 2.9 Une matrice carrée A P M n est :

˛ diagonale si a ij “ 0 pour i ‰ j,

˛ triangulaire supérieure si a ij “ 0 pour i ą j,

˛ triangulaire inférieure si a ij “ 0 pour i ă j,

˛ triangulaire si elle est triangulaire supérieure ou triangulaire inférieure

˛ à diagonale dominante si

|a ii | ě ÿ

j‰i

|a ij | , @i P v1, nw, (2.9)

˛ à diagonale strictement dominante si

|a ii | ą ÿ

j‰i

|a ij | , @i P v1, nw. (2.10)

(4)

Dénition 2.10 Soit A P M n p C q une matrice hermitienne.

˛ Elle est dénie positive si

x A u u u, u u uy ą 0, @u u u P C n zt0u (2.11)

˛ Elle est semi dénie positive si

xA u u u, u u uy ě 0, @u u u P C n zt0u (2.12) Dénition 2.11 Soit A P M n . La trace d'une matrice carrée A “ pa ij q est dénie par

tr p A q “

n

ÿ

i“1

a ii .

Dénition 2.12 Soit T n le groupe des permutations de l'ensemble t1, 2, . . . , nu . A tout élément σ P T n , on associe la matrice de permutation

P σ “ ` δ iσpjq ˘

.

Rappel 2.2 Une matrice de permutation est orthogonale.

Dénition 2.13 Soit A P M n . Le déterminant d'une matrice A est déni par

det pAq “ ÿ

σPT

n

ε σ n

ź

j“1

a σpjqj

oà ε σ désigne la signature de la permutation σ.

Dénition 2.14 Soit A P M n p K q. On dit que λ P C est valeur propre de A s'il existe u u u P C n non nul tel que

A u u u “ λu u u. (2.13)

Le vecteur u u u est appelé vecteur propre associé à la valeur propre λ.

Le couple pλ, u u uq est appelé élément propre de A .

Dénition 2.15 Soit A P M n p K q . Soit λ P C une valeur propre de A . Le sous-espace

E λ “ tu u u P C n : A u u u “ λu u uu “ Kerp A ´ λ I q (2.14) est appelé sous-espace propre associé à la valeur propre λ.

Dénition 2.16 Soit A P M n p K q. Le polynôme de degré n déni par

P A pλq “ detp A ´ λ I q (2.15)

est appellé polynôme caractéristique de la matrice A . Rappel 2.3 Soit A P M n pKq.

˛ Les racines du polynôme caractéristique P A sont les valeurs propres de la matrice A .

˛ Si la racine λ de P A est de multiplicité k, on dit que la valeur propre λ est de multiplicité algébrique k.

˛ La matrice A possède n valeurs propres distinctes ou non.

Rappel 2.4 Soit A P M n p K q. Soit λ 1 , . . . , Λ k des valeurs propres distinctes de A . On a

E λ

1

` . . . ` E λ

k

“ E λ

1

‘ . . . ‘ E λ

k

. (2.16) Dénition 2.17 Soit A P M n p K q. On note λ i p A q , i P v1, nw, les n valeurs propres de A. Le spectre de la matrice A est le sous-ensemble

Sp p A q “

n

ď

i“1

tλ i p A qu (2.17)

du plan complexe.

(5)

Rappel 2.5 Soient A P M n et B P M n . On a les relations suivantes

tr p A q “

n

ÿ

i“1

λ i p A q , (2.18)

detpAq “

n

ź

i“1

λ i pAq, (2.19)

tr p AB q “ tr p BA q , (2.20)

tr pA ` Bq “ tr A ` tr B , (2.21)

det p AB q “ det p A q det p B q “ det p BA q , (2.22)

detp A ˚ q “ detp A q. (2.23)

Dénition 2.18 Le rayon spectral d'une matrice A P M n est le nombre ě 0 déni par ρ p A q “ max t|λ i p A q| ; i P v1, nwu

Dénition 2.19 Soit X et Y deux espaces vectoriels

˛ On note Kerp A q “ tv v v P X ; A v v v “ 0u le noyau de l'application linéaire A : X Ñ Y.

˛ On note ImpAq “ tA v v v P Y ; v v v P X u l'image de l'application linéaire A : X Ñ Y.

Dénition 2.20 Le rang d'une matrice A, noté rangpAq, est déni comme le rang de l'application linéaire A qui lui et associé

rangp A q “ dimpImp A qq.

2.2 Matrices particulières

Dénition 2.21 On appelle sous-matrice d'une matrice donnée, la matrice obtenue en supprimant certaines lignes et certaines colonnes. En particulier, si on supprime les pn ´kq dernières lignes et colonnes d'une matrice carrée A d'ordre n , on obtient la sous matrice principale d'ordre k.

Dénition 2.22 On appelle matrice bloc une matrice carrée A P M N pouvant s'écrire sous la forme

A “

¨

˚

˚

˚

˚

˝

A 1,1 A 1,2 ¨ ¨ ¨ A 1,n

A 2,1 A 2,2 ... ...

... ... ... A n´1,n

A n,1 ¨ ¨ ¨ A n,n´1 A n,n

˛

où A i,j est une matrice et les matrices diagonales A i,i sont carrées.

Dénition 2.23 On dit qu'une matrice carrée A est triangulaire inférieure (resp. supérieure) par blocs si elle peut s'écrire sous la forme d'une matrice bloc avec les sous matrices A i,j “ 0 pour i ă j (resp. i ą j ).

Dénition 2.24 On dit qu'une matrice carrée A est diagonale par blocs si elle peut s'écrire sous la forme d'une matrice bloc avec les sous matrices A i,j “ 0 pour i ‰ j .

Remarque 1

Il est possible de dénir des matrices blocs non carrées.

Dénition 2.25 On appelle matrice bande une matrice A telle que a ij ‰ 0 pour |j ´ i| ď c. c est la demi largeur de bande.

Lorsque c “ 1, la matrice est dite tridiagonale . Lorsque c “ 2, la matrice est dite pentadiagonale .

(6)

3 Normes vectorielles et normes matricielles

Dénition 3.1 Une norme sur un espace vectoriel V est une application }‚} : V Ñ R ` qui vérie les propriétés suivantes

˛ }v v v} “ 0 ðñ v v v “ 0,

˛ }αv v v} “ |α| }v v v} , @α P K , @v v v P V,

˛ }u u u ` ` ` v v v} ď }u u u} ` }v v v} , @ pu, v u, v u, vq P V 2 (inégalité triangulaire).

Une norme sur V est également appelée norme vectorielle .

On appelle espace vectoriel normé un espace vectoriel muni d'une norme.

Les trois normes suivantes sont les plus couramment utilisées : }v v v} 1

n

ÿ

i“1

|v i |

}v v v} 2

˜ n ÿ

i“1

|v i | 2

¸ 1{2

}v v v} 8 “ max

i |v i | .

Théorème 3.1 Soit V un espace de dimension nie. Pour tout nombre réel p ě 1 , l'application }‚} p dénie par

}v v v} p

˜ n ÿ

i“1

|v i | p

¸ 1{p

est une norme.

Rappel 3.1 Pour p ą 1 et 1 p ` 1 q “ 1, on a @u u u, v v v P K n

}uv uv uv} 1

n

ÿ

i“1

|u i v i | ď

˜ n ÿ

i“1

|u i | p

¸ 1{p ˜ n ÿ

i“1

|v i | q

¸ 1{q

“ }u u u} p }v v v} q . (3.1) Cette inégalité s'appelle l'inégalité de Hölder.

Dénition 3.2 Deux normes }‚} et }‚} 1 , dénies sur un même espace vectoriel V, sont équivalentes s'il exite deux constantes C et C 1 telles que

}v v v} 1 ď C }v v v} et }v v v} ď C 1 }v v v} 1 pour tout v v v P V. (3.2) Rappel 3.2 Sur un espace vectoriel de dimension nie toutes les normes sont équivalentes.

Dénition 3.3 Une norme matricielle sur M n p K q est une application }‚} : M n p K q Ñ R ` vériant 1. } A } “ 0 ðñ A “ 0,

2. }α A } “ |α| } A } , @α P K, @ A P M n p K q,

3. } A ` B } ď } A } ` } B } , @ p A , B q P M n p K q 2 (inégalité triangulaire) 4. } AB } ď } A } } B } , @ p A , B q P M n p K q 2

Rappel 3.3 Etant donné une norme vectorielle }‚} sur K n , l'application }‚} s : M n p K q Ñ R ` dénie par

} A } s “ sup

v v vPK

n

v v v‰0

}A v v v}

}v v v} “ sup

v v vPK

n

}v v v}ď1

} A v v v} “ sup

v v vPK

n

}v v v}“1

} A v v v} , (3.3)

est une norme matricielle, appelée norme matricielle subordonnée (à la norme vectorielle donnée).

De plus

} A v v v} ď } A } s }v v v} @v v v P K n (3.4) et la norme } A } peut se dénir aussi par

} A } s “ inf tα P R : } A v v v} ď α }v v v} , @v v v P K n u . (3.5)

(7)

Il existe au moins un vecteur u u u P K n tel que

u u u ‰ 0 et }A u u u} “ }A} s }u u u} . (3.6)

Enn une norme subordonnée vérie toujours

} I } s “ 1 (3.7)

Théorème 3.2 Soit A P M n pCq. On a

} A } 1 déf. “ sup

v v vPC

n

v v v‰0

} A v v v} 1

}v v v} 1 “ max

jPv1,nw n

ÿ

i“1

|a ij | (3.8)

} A } 2 déf. “ sup

v v vPC

n

v v v‰0

} A v v v} 2 }v v v} 2 “ a

ρ p A ˚ A q “ a

ρ p AA ˚ q “ } A ˚ } 2 (3.9)

} A } 8 déf. “ sup

v v vPC

n

v v v‰0

} A v v v} 8

}v v v} 8 “ max

iPv1,nw n

ÿ

j“1

|a ij | (3.10)

La norme }‚} 2 est invariante par transformation unitaire :

UU ˚ “ I ùñ }A} 2 “ }AU} 2 “ }UA} 2 “ }U ˚ AU} 2 . (3.11) Par ailleurs, si la matrice A est normale :

AA ˚ “ A ˚ A ùñ } A } 2 “ ρ p A q. (3.12)

Remarque 2 1. Si une matrice A est hermitienne, ou symétrique (donc normale), on a } A } 2 “ ρ p A q.

2. Si une matrice A est unitaire, ou orthogonale (donc normale), on a }A} 2 “ 1.

Théorème 3.3 1. Soit A une matrice carrée quelconque et }‚} une norme matricielle subordonnée ou non, quelconque. Alors

ρ p A q ď } A } . (3.13)

2. Etant donné une matrice A et un nombre ε ą 0, il existe au moins une norme matricielle subordonnée telle que

}A} ď ρ pAq ` ε. (3.14)

Théorème 3.4 L'application }‚} E : M n Ñ R ` dénie par

}A} E

¨

˝ ÿ

pi,jq“Pv1,nw

2

|a ij | 2

˛

1{2

“ a

tr pA ˚ Aq, (3.15)

pour toute matrice A “ pa ij q d'ordre n, est une norme matricielle non subordonnée (pour n ě 2 ), invariante par transformation unitaire et qui vérie

}A} 2 ď }A} E ď ?

n }A} 2 , @A P M n . (3.16)

De plus } I } E “ ? n.

Théorème 3.5 1. Soit }‚} une norme matricielle subordonnée, et B une matrice vériant } B } ă 1.

Alors la matrice p I ` B q est inversible, et

› p I ` B q ´1

› ď 1 1 ´ }B} . 2. Si une matrice de la forme p I ` B q est singulière, alors nécessairement

}B} ě 1

pour toute norme matricielle, subordonnée ou non.

(8)

4 Réduction des matrices

Dénition 4.1 Soit A : V Ñ V une application linéaire, représenté par une matrice carrée A P M n relative- ment à une base teee i u iPv1,nw . Relativement à une autre base tf f f i u iPv1,nw , la même application est représentée par la matrice

B “ P -1 AP (4.1)

où P est la matrice inversible dont le j -ème vecteur colonne est formé des composantes du vecteur f f f j dans la base teee i u iPv1,nw . La matrice P est appelée matrice de passage de la base teee i u iPv1,nw dans le base tf f f i u iPv1,nw .

Si la base tf f f i u iPv1,nw est orthonormée, on a :

P “

¨

˚

˚

˚

˚

˝

xeee 1 , f f f 1 y xeee 1 , f f f 2 y ¨ ¨ ¨ xeee 1 , f f f n y xeee 2 , f f f 1 y xeee 1 , f f f 2 y ... ...

... ... ... xeee n´1 , f f f n y xeee n , f f f 1 y ¨ ¨ ¨ xeee n , f f f n´1 y xeee n , f f f n y

˛

(4.2)

Dénition 4.2 On dit que la matrice carrée A est diagonalisable s'il existe une matrice inversible P telle que la matrice P ´1 AP soit diagonale.

Rappel 4.1 On notera que, dans le cas où A P M n est diagonalisable, les éléments diagonaux de la matrice P -1 AP sont les valeurs propres λ 1 , λ 2 , . . . , λ n de la matrice A, et que le j -ème vecteur colonne p p p j de la matrice P est formé des composantes, dans la même base que A, d'un vecteur propre associé à la valeur propre λ j . On a P -1 AP “ diag pλ 1 , . . . , λ n q ðñ A p p p j “ λ j p p p j , @j P v1, nw. (4.3) C'est à dire qu'une matrice est diagonalisable si, et seulement si, il existe une base de vecteurs propres.

Théorème 4.1 1. Etant donnée une matrice carrée A, il existe une matrice unitaire U telle que la matrice U -1 AU soit triangulaire.

2. Etant donnée une matrice normale A, il existe une matrice unitaire U telle que la matrice U -1 AU soit diagonale.

3. Etant donnée une matrice symétrique A, il existe une matrice orthogonale O telle que la matrice O -1 AO soit diagonale.

5 Suites de vecteurs et de matrices

Dénition 5.1 Soit V un espace vectoriel muni d'une norme }‚} , on dit qu'une suite pv v v k q d'éléments de V converge vers un élément v v v P V , si

kÑ8 lim }v v v k ´ v v v} “ 0 et on écrit

v v v “ lim

kÑ8 v v v k .

Théorème 5.1 Soit B une matrice carrée. Les conditions suivantes sont équivalentes : 1. lim kÑ8 B k “ 0,

2. lim kÑ8 B k v v v “ 0 pour tout vecteur v v v, 3. ρ p B q ă 1,

4. } B } ă 1 pour au moins une norme matricielle subordonnée }‚} .

Théorème 5.2 Soit B une matrice carrée, et }‚} une norme matricielle quelconque. Alors lim

kÑ8

› B k

1{k “ ρ p B q.

Références

Documents relatifs

[r]

(b) Une famille est g´ en´ eratrice si et seulement si le rang de la matrice est ´ egal au nombre de lignes (ici 3), donc d’apr` es le calcul pr´ ec´ edent la famille n’est

Déterminer, en justifiant chaque étape, les variations des fonctions suivantes sur l intervalle donné.. Conclure sur le sens de variation

Sont interdits : les docu- ments, les t´el´ephones portables, les baladeurs, et tout autre objet ´electronique (calcu- latrice, ...).. Le barˆeme not´e

1) Si je suis espagnol, alors je suis européen. 2) Si je suis enfant unique, alors je n’ai ni frère, ni sœur. 3) Si je suis français, alors je suis guadeloupéen. 4) Si je

On veut montrer qu'une matrice de permutation est un point extrémal de l'ensemble des matrices bistochastiques.. Montrons d'abord que la matrice identité (qui est une matrice

La matrice A est inversible car l'algorithme du pivot partiel permet de se ramener à une forme triangulaire, on peut poursuivre alors pour calculer l'inverse.. Il existe un

[r]