Applications linéaires, matrices et réduction
I. Applications linéaires
I.1. Notion d’application linéaire
I.1.a) Définition Définition
SoientE etF des espaces vectoriels.
• Une applicationf :E→F est ditelinéaire si :
∀(−→x ,−→y)∈E2, f(−→x +−→y) =f(−→x) +f(−→y) (l’image d’une somme est la somme des images)
∀λ∈R,∀−→x ∈E2, f(λ· −→x) =λ·f(−→x)
(l’image d’une multiplication par un scalaire est la multiplication scalaire de l’image)
• L’ensemble des applications linéaires de E dansF est notéL(E, F).
• Lorsque E=F, on notera simplement L(E).
Une application linéaire deE dansE est appeléeendomorphismedeE.
I.1.b) Exemple fondamental Théorème 1.
Soient (n, p)∈(N∗)2.
Soit h∈L(Mp,1(R),Mn,1(R)).
Alors, il existe une matriceM ∈Mn,p(R) telle que h s’écrit sous la forme : h : Mp,1(R) → Mn,1(R)
X 7→ M X
I.2. Structure de l’ensemble des applications linéaires Théorème 2.
Soient E et F des espaces vectoriels.
• L’ensemble L(E, F) des applications linéaires de E dans F est muni :
× d’une loi de composition interne, notée+
Pour toutu∈L(E, F), pour tout v∈L(E, F), u+v est l’application linéaire de E dans F définie par :
u+v: E → F
−
→x 7→ u(−→x) +v(−→x)
× d’une loi de composition externe, notée ·
Pour toutu∈L(E, F), pour tout λ∈R, λ·u est l’application linéaire deE dans F définie par :
λ·u: E → F
−
→x 7→ λ·u(−→x)
• L’espace L(E, F) muni de +et ·est un espace vectoriel.
I.3. Notion d’isomorphisme, d’automorphisme
I.3.a) Définition Définition
SoientE etF des espaces vectoriels.
• Une applicationu:E →F est un isomorphisme de E dans F si : (i) u∈L(E, F).
(ii) u est bijective.
S’il existe un isomorphisme de E dans F, on dit que E et F sont iso- morphes.
• Une applicationu:E →E est un automorphisme de E dans F si : (i) u∈L(E) (autrement dit, uest un endomorphisme de E).
(ii) u est bijective.
Rappels de première année SoientE etF des ensembles.
Soit f :E →F une application. On suppose quef est bijective.
• On appelle application réciproque de f et on note f−1:F →E : f−1 : F → E
y 7→ f−1(y) : l’unique antécédent dey par l’applicationf Ainsi : ∀x∈E,∀y∈F, y=f(x) ⇔ f−1(y) =x
• Sif :E→F application bijective, les propriétés suivantes sont vérifiées.
1. L’applicationf−1 est bijective et de récirpoquef :
f−1−1
=f
2. a) ∀y ∈F, f(f−1(y)) =y b) ∀x∈E, f−1(f(x)) =x
3. Sif :E→F etg:F →E sont deux applications, alors :
g◦f = idE
f ◦g= idF
)
⇔
Les applications f etg sont bijectives et réciproques l’une de l’autre :
g=f−1 et f =g−1
Représentation graphique.
x1
x2 x3
x4
y2 y1 y4
y3
E F
f
f−1
• Une application f :E → F bijec- tive établit une correspondance un à un entre des éléments de E vers les éléments deF.
• Son application réciproque f−1 établit la même correspondance mais dans l’autre sens : des élé- ments deF vers les éléments deE.
I.3.b) Application réciproque d’un isomorphisme Théorème 3.
Soient E et F des espaces vectoriels.
Soit u∈L(E, F).
• Supposons que u est un isomorphisme de E dans F.
Alors l’application réciproque u−1 est un isomorphisme deF dans E.
(en particulier, u−1 ∈L(F, E))
• Supposons que u et v sont des isomorphismes.
1) Alors v◦u:E→G est un isomorphisme deE.
(on a notamment v◦u∈L(E, G)) 2) De plus : (v◦u)−1 =u−1◦v−1
II. Noyau et image d’une application linéaire
II.1. Noyau d’une application linéaire
II.1.a) Définition Définition
SoientE etF des espaces vectoriels.
Soit f ∈L(E, F).
• On appelle noyau de f et on noteKer(f) l’ensemble :
Ker(f) ={−→x ∈E |f(−→x) =−→ 0F}
• Le noyauKer(f)d’une application linéairef ∈L(E, F)est un sous-espace vectoriel de E.
II.1.b) Caractérisation de l’injectivité d’une application linéaire à l’aide de son noyau
Théorème 4.
Soient E et F des espaces vectoriels.
Soit f ∈L(E, F).
f injective ⇔ Ker(f) ={−→ 0E}
II.2. Image d’une application linéaire
II.2.a) Définition Définition
SoientE etF des espaces vectoriels.
Soit f ∈L(E, F).
• On appelle image de f et on note Im(f)l’ensemble :
Im(f) = {−→y ∈F | ∃−→x ∈E, y=f(−→x)}
= {f(−→x)∈F | −→x ∈E}
• L’image Im(f) d’une application linéaire f ∈L(E, F) est un sous-espace vectoriel de F.
II.2.b) Caractérisation de la surjectivité d’une application Théorème 5.
Soient E et F des espaces vectoriels.
Soit f ∈L(E, F).
f surjective ⇔ Im(f) =F
III. Applications linéaires en dimension finie
III.1. Image d’une application linéaire en dimension finie Théorème 6.
Soient E et F des espaces vectoriels.
Soit f ∈L(E, F).
Suppposons E de dimension finie et soit B= (−→e1, . . . ,−→en) une base de E.
Im(f) = Vect (f(−→e1), . . . , f(−→en))
III.2. Une première caractérisation de l’injectivité / surjecti- vité / bijectivité en dimension finie
Théorème 7.
Soient E et F des espaces vectoriels de dimensions finies.
Soit f ∈L(E, F).
u est injective
⇔ L’image par f de toute famille libre finie deE est une famille (finie) libre de F.
u est surjective
⇔ L’image par f de toute famille génératrice finie de E est une famille (finie) génératrice de F.
u est bijective
⇔ L’image par f de toute base finie deE est une base (finie) de F.
III.3. Rang d’une application linéaire Définition
SoientE etF des ev de dimensions finies.
Soit f ∈L(E, F).
On appelle rang de l’application f et on note rg(F): rg(f) = dim(Im(f))
Théorème 8 (Théorème du rang).
Soit E etF des espaces vectoriels.
On suppose que E est de dimension finie.
Soit f ∈L(E, F).
dim(E) = dim (ker(f)) + dim(Im(f))
= dim (ker(f)) + rg(f)
III.4. Caractérisation de l’injectivité / surjectivité / bijecti- vité en dimension finie
Théorème 9.
Soient E et F des ev de dimensions finies.
Soit f ∈L(E, F).
Alors :
f est injective ⇔ rg(f) = dim(E) f est surjective ⇔ rg(f) = dim(F) Théorème 10.
Soient E et F des espaces vectoriels de dimension finie.
On suppose que dim(E) = dim(F).
Soit f ∈L(E, F).
f est bijective ⇔ f est injective ⇔ f est surjective f est bijective ⇔ ker(f) ={−→
0E} ⇔ rg(f) = dim(F)
IV. Notion de matrice et lien avec les applications linéaires en dimension finie
Remarque
• En première année, l’esprit du programme est de considérer qu’une matrice est un tableau de nombres.
• En deuxième année, dans les chapitre Applications linéaires / Réduction, on axe sur le lien entre applications linéaires et matrices.
IV.1. Matrice colonne associée à un vecteur Définition Matrice colonne associée à un vecteur
Soit E un espace vectoriel.
On suppose que E est de dimension finie p∈N∗. Notons BE = (−→e1, . . . ,−→ep) une base deE.
• Soit −→x ∈E. Il existe un unique p-uplet(x1, . . . , xp)∈Rp tel que :
−
→x = x1· −→e1+· · ·+xp· −→ep
La base BE étant fixée, le vecteur −→x est entièrement déterminé par la donnée dup-uplet(x1, . . . , xp), que l’on nommecoordonnées de−→x dans la base BE.
• Le vecteur −→x admet alors naturellement une représentation matricielle.
Il s’agit du vecteur colonne :
X =
x1
... xp
∈Mp,1(R)
On parle alors de vecteur (ou matrice) colonne associé à−→x dans la base B. Dans la suite, on notera :
MatB(−→x) =
x1
... xp
IV.2. Matrice de passage Définition
Soit E un espace vectoriel.
On suppose que E est de dimension finiep∈N∗.
Notons B= (−→e1, . . . ,−→ep)etB0 = (−→e10, . . . ,−→ep0)deux bases de E.
• On appelle matrice de passage de la baseB à la base B0 et on note PB,B0, la matrice :
PB,B0 =
MatB(−→ e10
) . . . MatB(−→ en0
)
Autrement dit, la matrice obtenue par concaténation des vecteurs colonnes associés à−→ej0 dans la base B.
Remarque
• On considère E un espace vectoriel de dimension finie p ∈ N∗. On note B, B0 et B00 trois bases de E. On considère enfin −→x ∈ E et on note X = MatB(−→x) etX0 = MatB0(−→x). Alors :
1. X=PB,B0 X0 ou encore MatB(−→x) = PB,B0 MatB0(−→x) 2. PB,B00=PB,B0 ×PB0,B00
3. La matricePB,B0 est inversible et : (PB,B0)−1=PB0,B
• On peut dégager de cette formule une règle d’écriture : les bases en regard de deux objets successifs doivent être les mêmes. Plus précisément :
MatB(−→x) =PB,B0×MatB0(−→x) et MatB0(−→x) =PB0,B×MatB(−→x) Cela revient à appliquer une règle de type « relation de Chasles ».
Remarque
On considère E un espace vectoriel de dimension finie p ∈ N∗ et BE = (−→e1, . . . ,−→ep) une base de E. Alors l’application :
ϕ : E → Mp,1(R)
−
→x 7→ MatBE(−→x)
est un isomorphisme deE dansMp,1(R).
• Une fois les base BE fixée, ce résultat signifie que :
× tout vecteur −→x possède une unique représentation matricielle dans la baseBE.
(cela signifie simplement que ϕest une application)
× réciproquement, toute matrice colonne deMp,1(R)est la représentation matricielle d’un unique vecteur deE.
(c’est le caractère bijectif )
• Évidemment, si B1 etB2 sont deux bases différentes deE, on obtient gé- néralement des représentations matriciellesMatB1(−→x) etMatB2(−→x)diffé- rentes pour−→x.
IV.3. Matrice associée à une application linéaire
IV.3.a) Matrice associée à une application linéaire Définition
Soit E etF des espaces vectoriels.
On suppose que E est de dimension finiep∈N∗. On noteBE = (−→e1, . . . ,−→ep) une base de E.
On suppose que F est de dimension finien∈N∗. On noteBF = (−→
f1, . . . ,−→
fn) une base de F.
Soit f ∈L(E, F).
• On appelle matrice de f relativement aux bases BE et BF la ma- trice :
MatBE,BF(f) =
MatBF f(−→e1)
. . . MatBF f(−→ep)
Autrement dit, la matrice de Mn,p(R) obtenue par concaténation des vec- teurs colonnes associés à f(−→ej)dans la base BF.
Remarque
• Si E etF sont de même dimension finie p (par exemple lorsque E =F), la matrice associée à f est une matrice carrée de taillen.
• On pourra retenir le schéma suivant :
E −→f F
MatBE(.)
y
y MatBF(.) Mp1(R) −→ Mn1(R)
IV.3.b) Comportement de l’application Mat(.) vis à vis des opéra- tions classiques
Théorème 11. Isomorphisme de représentation matricielle Soient E et F des espaces vectoriels de dimension finie.
On note BE une base de E et BF une base de F. Les applications :
ϕ:
L(E, F) → Mn,p(R)
f 7→ M atBE,BF(f) et ψ:
L(E) → Mn(R) f 7→ M atBE(f) sont des isomorphismes. En particulier, on a :
dim(L(E, F)) =np et dim(L(E)) =n2 Remarque
• Une fois les base BE etBF fixées, ce résultat signifie que :
× toute application linéaire f possède une unique représentation matri- cielle relativement aux basesBE etBF.
(cela signifie simplement que ϕest une application)
× réciproquement, toute matrice de Mn,p(R) est la représentation matri- cielle relativement aux bases BE et BF d’une unique application li- néaire ϕ.
(c’est le caractère bijectif )
• En plus d’être une application bijective, ϕ est linéaire. Ainsi, la matrice d’une combinaison linéaire d’applications est la combinaison linéaire des matrices des applications.
Plus précisément, si f ∈L(E, F), g∈L(E, F) et(λ1, λ2)∈R2, on a : M atBE,BF(λ1·f+λ2·g) = λ1·M atBE,BF(f) +λ2·M atBE,BF(g)
Théorème 12.
Soient E, F, etG des vectoriels de dimensions finies.
On note BE, BF et BG des bases respectives de E, F, et G.
1) Pour tout f ∈L(E, F) et g∈L(F, G) :
MatBE,BG(g◦f) = MatBF,BG(g)×MatBE,BF(f)
(la composition des applications linéaires correspond à la multiplication des matrices associées)
2) Pour tout f ∈L(E) et pour toutk∈N : MatBE fk
= MatBE(f)k
(où l’on a noté fk=f ◦. . .◦f) Théorème 13.
Soit E un espace vectoriel de dimension finie.
On note B une base deE.
Soit f ∈L(E) un endomorphisme de E.
1) f est bijective ⇔ MatB(f) est inversible 2) Si f est bijective alors : MatB(f)−1
= MatB f−1
IV.3.c) Noyau d’une application linéaire via la matrice associée Théorème 14.
Soient E et F des espaces vectoriels de dimensions finies.
On note BE une base de E et BF une base de F. Soit f ∈L(E, F).
Soient −→x ∈E et−→y ∈F.
1.
−
→y =f(−→x) ⇔ MatBF(−→y) = MatBF f(−→x)
⇔ MatBF(−→y) = MatBE,BF(f)×MatBE(−→x)
2. En particulier : −→x ∈Ker(f) ⇔ MatBE,BF(f)×MatBE(−→x) = 0 IV.3.d) Lien entre le rang d’une application linéaire et le rang de
la matrice associée Théorème 15.
Soient E et F des espaces vectoriels de dimensions finies.
On note BE une base de E et BF base de F. Soit f ∈L(E, F).
rg(f) = rg(MatBE,BF(f))
Théorème 16.
Soit A∈Mn(R).
A est inversible ⇔ A est la matrice associée à un isomorphisme
V. Matrices semblables
V.1. Définition
Définition Matrices semblables Soit n∈N∗.
SoientM ∈Mn(R) etN ∈Mn(R).
• Les matricesM etN sont semblabless’il existe une matrice inversibleP telle que :
M =P N P−1
V.2. Puissances kème de matrices semblables Théorème 17.
Soient M et N deux matrices de Mn(R).
On suppose que M et N sont semblables et donc qu’il existe une matrice P ∈Mn(R) inversible telle que : M =P N P−1.
Alors, pour tout k∈N, Mk=P NkP−1.
(autrement dit, si M et N sont semblables via la matrice P, Mk et Nk le sont aussi via la même matrice P)
Exercice(d’après EDHEC 2016) On considère les matrices :
N =
0 0 2 0 0 1 0 0 0
et T = 2I+N =
2 0 2 0 2 1 0 0 2
1. Déterminer N2 et en déduire, pour tout k∈N,Nk.
2. Soit n∈N. Déterminer Tn à l’aide de la formule du binôme de Newton.
V.3. Lien entre relation de similitude et applications linéaires Théorème 18.
Soit E un ev de dimension finie.
Soit B et B0 deux bases de E.
Soit f ∈L(E).
On note M = MatB(f), N =M atB0(f) et P =PB,B0. 1. Alors :
M =P N P−1 ce qui signifie :
MatB(f) =PB,B0 MatB0(f) (PB,B0)−1
2. De manière générale :
Les matrices M ∈Mn,1(R) et N ∈Mn,1(R) sont semblables ⇔
M et N sont les matrices représentatives d’un même endomorphismef ∈L(E) dans des bases différentes Remarque
On peut retenir cette formule sous la forme :
MatB(f) =PB,B0 MatB0(f) PB0,B
que l’on peut rapprocher une nouvelle fois de la relation de Chasles.
VI. Éléments propres d’un endomorphisme, d’une matrice carrée
VI.1. Valeurs propres et vecteurs propres d’un endomorphisme, d’une matrice carrée
VI.1.a) Définition
Définition (Valeur propre)
Soit E un ev de dimension finie n∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
1) Cas des endomorphismes
• On dit qu’un réel λest une valeur propre de l’endomorphisme f s’il existe un vecteur u∈E non nul tel que :
f(u) =λ u
• L’ensemble des valeurs propres d’un endomorphismef est appeléspectre de f et est notéSp(f).
Sp(f) ={λ∈R| ∃u6= 0E, f(u) =λ u}
2) Cas des matrices carrées
• On dit qu’un réel λest une valeur propre de la matriceA s’il existe un vecteur colonne X∈Mn,1(R)non nul tel que :
AX =λ X
• L’ensemble des valeurs propres d’une matrice carréeAest appeléspectre de Aet est noté Sp(A).
Définition (Vecteur propre)
Soit E un ev de dimension finie n∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
On suppose que f (resp.A) admet une valeur propre λ∈R. (ce n’est pas forcément le cas !)
1) Cas des endomorphismes
• On appelle vecteur propre de f associé à la valeur propre λ, tout vecteurnon nulu de E tel que f(u) =λ u.
2) Cas des matrices carrées
• On appelle vecteur propre de A associé à la valeur propre λ, tout vecteur colonne U ∈Mn,1(R) non nultel que AU =λ U.
VI.1.b) Nombre maximal de valeurs propres Théorème 19.
Soit E un ev de dimension finien∈N∗.
Soit (u1, . . . , up)∈Ep et soit (U1, . . . , Up)∈(Mn,1(R))p. Soit f un endomorphisme de E.
Soit A une matrice deMn(R).
1) Cas des endomorphismes
u1, . . .,up sont vecteurs propres associés à des valeurs propres distinctes λ1, . . .,λp def
⇒ La famille
(u1, . . . , up) est libre On en déduit que l’endomorphisme f possède au plus n valeurs propres distinctes.
2) Cas des matrices carrées
U1, . . . , Up sont vecteurs propres associés à des valeurs propres distinctes λ1, . . ., λp de A
⇒ La famille
(U1, . . . , Up) est libre On en déduit que la matrice A possède au plus n valeurs propres dis- tinctes.
Théorème 20. (Généralisation)
Soit E un ev de dimension finien∈N∗. Soit f un endomorphisme de E.
Soit A une matrice deMn(R).
1) Cas des endomorphismes
• Soient λ1, . . . , λp p valeurs propres distinctes de f.
• Soient F1, . . . , Fp p familles de vecteurs de E telles que, pour tout i∈J1, pK :
× les familles Fi sont libres.
× les vecteurs de Fi sont des vecteurs propres associés à λi. Alors la famille F =F1∪. . .∪ Fp est une famille libre de E.
2) Cas des matrices carrées
• Soient λ1, . . . , λp p valeurs propres distinctes de A.
• Soient F1, . . . , Fp p familles de vecteurs de Mn,1(R) telles que, pour tout i∈J1, pK:
× les familles Fi sont libres.
× les vecteurs de Fi sont des vecteurs propres associés à λi. Alors la famille F =F1∪. . .∪ Fp est une famille libre de Mn,1(R).
VI.1.c) Caractérisation des valeurs propres d’un endomorphisme, d’une matrice carrée
Théorème 21.
Soit E un ev de dimension finien∈N∗. Soit f un endomorphisme de E.
Soit A une matrice deMn(R).
1) Cas des endomorphismes λest valeur
propre def ⇔ Ker(f−λ idE)6=n 0Eo
⇔ L’endomorphismef −λ idE n’est pas injectif
⇔ L’endomorphismef −λ idE n’est pas bijectif 2) Cas des matrices carrées
λest valeur
propre deA ⇔
U ∈Mn,1(R)|(A−λI) U = 0 6=
0Mn,1(R)
⇔ La matrice A−λI n’est pas inversible
VI.1.d) Lien entre éléments propres d’un endomorphisme et élé- ments propres de sa matrice représentative dans une base Théorème 22.
Soit E un ev de dimension finien∈N∗. Soit B une base de E.
On note A= MatB(f).
Soit u∈E. Notons U = MatB(u)∈Mn,1(R).
1) Alors : f(u) =λu ⇔ AU =λU 2) En conséquence :
λest valeur propre de f ⇔ λest valeur propre de A Sp(f) = Sp(A)
Le vecteuru est un vecteur propre de f associé à la valeur propre λ
⇔
Le vecteur colonneU est un vecteur propre de A associé à la valeur propre λ MÉTHODO Déterminer les valeurs propres d’un endomorphisme
λest valeur
propre def ⇔ λest valeur propre deA
⇔ ∃U 6= 0, AU =λU
⇔ ∃U 6= 0, (A−λ In) U = 0
⇔ A−λIn n’est pas inversible
l’un (au moins) des coefficients diagonaux de la
Plus précisément, on procède comme suit.
1) On écrit la matriceA−λIn oùλest inconnu.
2) On calcule le rang deA−λIn.
En opérant par opérations élémentaires sur les lignes de la matrice (ce qui ne modifie pas le rang), on obtient une matrice réduite sous forme triangulaire supérieure.
(cela consiste à appliquer l’algorithme du pivot de Gauss)
3) Les valeurs propres de la matriceAsont exactement les valeurs de λqui annulent un des coefficients diagonaux de la matrice réduite.
Remarque
• Pour A∈M3(R), il faut s’habituer à déterminer les ensembles Eλ(A)par lecture de la matrice A−λ I. Illustrons la méthode avec le cas particulier de la valeur propre λ = 0. On cherche les vecteurs X =
x y z
de E0(A) c’est-à-dire les vecteurs tels que : A X= 0M3,1(R). Or :
−1 1 1
0 0 2
1 −1 1
x y z
= x·C1+y·C2+z·C3
= x·
−1 0 1
+y·
1 0
−1
+z·
1 2 1
Pour obtenir le vecteur nul à l’aide de cette combinaison linéaire, on doit forcément choisir z = 0. On peut alors remarquer que le choix x = 1 et y= 1 permet d’obtenir une combinaison linéaire nulle. Ce n’est qu’une re- formulation du fait que les colonnesC1etC2de la matriceAsont opposées.
On en déduit alors :
E0(A) ⊃ Vect
1 1 0
L’égalité peut alors s’obtenir à l’aide d’un argument de dimension.
• Pour les matrices carrées d’ordre 2 on utilise la caractérisation suivante : λest valeur propre deA ⇔ A−λI2 n’est pas inversible
⇔ det(A−λI2) = 0
Théorème 23.
Soit E un ev de dimension finien∈N∗. Soit A∈Mn(R).
1) La matrice A est triangulaire
supérieure (resp. inférieure) ⇒ Les valeurs propres de A sont ses coefficients diagonaux 2) La matrice A est diagonale ⇒ Les valeurs propres de A sont
ses coefficients diagonaux À RETENIR
Les valeurs propres d’une matrice triangulaire supérieure (resp. inférieure) se lisent sur sa diagonale.
VI.1.e) Valeurs propres de matrices semblables Théorème 24.
Soit E un ev de dimension finien∈N∗. Soient M et N des matrice de Mn(R).
1) M etN sont semblables ⇒ rg(M) = rg(N) 2) Pour tout λ∈R :
M etN sont semblables ⇒ rg(M−λIn) = rg(N−λIn) 3) M etN sont semblables ⇒ Sp(M) = Sp(N)
VI.1.f ) Cas particulier de la valeur propre 0 Théorème 25.
Soit E un ev de dimension finien∈N∗. Soit f un endomorphisme de E.
Soit A une matrice deMn(R).
1) Cas des endomorphismes
Le réel 0 est une valeur propre de f ⇔ Ker(f)6=n 0Eo
⇔ f n’est pas injective
⇔ f n’est pas bijective Évidemment, on peut aussi écrire :
f est bijective ⇔ Le réel 0 n’est pas valeur propre def 2) Cas des matrices carrées
Le réel 0 est une valeur propre deA ⇔ A n’est pas inversible Évidemment, on peut aussi écrire :
A est inversible ⇔ Le réel 0 n’est pas valeur propre deA
VI.2. Sous-espaces propres d’un endomorphisme
VI.2.a) Définition Définition
Soit E un ev de dimension finie n∈N∗. Soit f ∈L(E).
Soit A∈Mn(R).
1) Cas des endomorphismes
On appelle sous-espace propre de f associé à la valeur propre λ, l’en- semble notéEλ(f)défini par :
Eλ(f) =
u∈E|f(u) =λ·u
=
u∈E|(f −λid)(u) = 0E = Ker(f −λid)
Eλ(f) =
vecteurs propres associés à la valeur propreλ
∪ {0E}
2) Cas des matrices carrées
On appelle sous-espace propredeA associé à la valeur propreλ, l’en- semble notéEλ(A) défini par :
Eλ(A) = {U ∈Mn,1(R)|AU =λ·U}
= {U ∈Mn,1(R)|(A−λI)×U = 0Mn,1(R)} Lien entre endomorphisme et représentation matricielle (rappel)
Soit B une base deE.
On note maintenantA= MatB(f).
Considérons u∈E et notonsU = MatB(u).
VI.2.b) Structure d’un sous-espace propre Théorème 26.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E).
Soit A∈Mn(R).
1) Cas des endomorphismes Soit λune valeur propre de f.
a. Eλ(f) est un sous-espace vectoriel de E
b. Eλ(f)6={0E}. En particulier : dim(Eλ(f))>1 2) Cas des matrices carrées
Soit λune valeur propre de A.
a. Eλ(A) est un sous-espace vectoriel de Mn,1(R) b. Eλ(A)6={0Mn,1(R)}. En particulier : dim(Eλ(A))>1
VI.2.c) Détermination d’un sous-espace propre
MÉTHODO Déterminer Eλ(f) le sous-espace propre de f associé à une valeur propre λ donnée
Soit E un ev de dimension finie n∈N∗ et soit B une base deE.
Soit f ∈L(E). Notons A= MatB(f).
Soit u∈E. Notons U = MatB(u). Soitλest une valeur propre de f. On rappelle :
u∈Eλ(f) ⇔ f(u) =λ·u
⇔ (f −λidE)(u) = 0E
⇔ − ×
VI.3. Polynômes annulateurs
VI.3.a) Polynômes d’endomorphismes, de matrices carrées Définition
Soit E un ev de dimension finie n∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
Soit P ∈R[X]. Il existe donc r∈N et(a0, . . . , ar)∈Rr+1 tel que : P(X) =
Pr k=0
ak Xk
1) Cas des endomorphismes
On noteP(f) l’endomorphisme de E défini parP(f) =
r
P
k=0
akfk. C’est un polynôme d’endomorphimsmes.
2) Cas des matrices carrées
On noteP(A) la matrice deMn(R) définie par P(A) =
r
P
k=0
akAk. C’est un polynôme de matrices.
Lien entre les deux
SiB est une base deE etA= MatB(f), on a alors : P(A) = MatB(P(f))
VI.3.b) Polynômes annulateurs Définition
Soit E un ev de dimension finie n∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
Soit P ∈R[X].
1) Cas des endomorphismes
On dit que P est un polynôme annulateur de f siP(f) = 0L(E). 2) Cas des matrices carrées
On dit que P est un polynôme annulateur de Asi P(A) = 0Mn(R).
VI.3.c) Existence d’un polynôme annulateur non nul Théorème 27.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
1) Cas des endomorphismes
Il existe un polynôme annulateur non nulde f. 2) Cas des matrices carrées
Il existe un polynôme annulateur non nulde A.
VI.3.d) Intérêt des polynômes annulateurs Théorème 28.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
Soit P ∈R[X].
1) Cas des endomorphismes
Si P est un polynôme annulateur de f alors :
λune valeur propre de f ⇒ λest une racine de P Ainsi : Sp(f) ⊂ {racines deP}
2) Cas des matrices carrées
Si P est un polynôme annulateur de A alors :
λune valeur propre de A ⇒ λest une racine de P Ainsi : Sp(A) ⊂ {racines de P}
VII. Théorèmes de réduction
VII.1. Endomorphisme diagonalisable, matrice diagonalisable
VII.1.a) Définition
Définition (Endomorphisme / matrice carrée diagonalisable) Soit E un ev de dimension finie n∈N∗.
Soit f ∈L(E) et soit A∈Mn(R).
1) Cas des endomorphismes
• On dit quef ∈L(E)est diagonalisables’il existe une baseB0 de E dans laquelle la matrice représentative de f est diagonale.
• Autrement dit, f ∈ L(E) est diagonalisable s’il existe une baseB0 de E et une matrice diagonaleD∈Mn(R)tels que : MatB0(f) =D.
2) Cas des matrices carrées
On dit que A ∈ Mn(R) est une matrice diagonalisable s’il existe une matrice P inversible et une matrice Ddiagonale telles que :
A=P DP−1
VII.1.b) Caractérisation de la diagonalisabilité Théorème 29.
Soit E un ev de dimension finien∈N∗. Soit B une base de E.
Soit f ∈L(E) et soit A= MatB(f).
1) Cas des endomorphismes
f est diagonalisable ⇔ il existe une base de E formée de vecteurs propres def 2) Cas des matrices carrées
A est diagonalisable ⇔ il existe une base de Mn,1(R) formée de vecteurs propres de A 3) Lien entre endomorphisme et représentation matricielle
f est diagonalisable ⇔ A est diagonalisable
VII.2. Réduction des endomorphismes et des matrices carrées
VII.2.a) Critère de diagonalisabilité Théorème 30.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E) et soitA∈Mn(R).
1) Cas des endomorphismes
Soient λ1, . . . , λm les valeurs propres distinctes de f.
Notons Eλ1(f), . . . , Eλm(f) les sous-espaces propres associés à ces va- leurs propres.
a.
m
P
i=1
dim(Eλi(f))6dim(E)
b. f est diagonalisable ⇔
m
P
i=1
dim(Eλi(f)) = dim(E)
2) Cas des matrices carrées
Soient λ1, . . . , λm les valeurs propres distinctes de A.
Notons Eλ1(A), . . . , Eλm(A) les sous-espaces propres associés à ces va- leurs propres.
a.
m
P
i=1
dim(Eλi(A))6n
b. A est diagonalisable ⇔
m
P
i=1
dim(Eλi(A)) =n
VII.2.b) Condition suffisante de diagonalisabilité Théorème 31.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
1) Cas des endomorphismes
f admetn valeurs propres distinctes ⇒ f est diagonalisable 2) Cas des matrices carrées
A admet nvaleurs propres distinctes ⇒ A est diagonalisable
VII.2.c) Démontrer par l’absurde la non diagonalisabilité Théorème 32.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E) et soit A∈Mn(R).
1) Cas des endomorphismes f est diagonalisable
f n’admet qu’une seule valeur propre λ )
⇔ f =λidE
2) Cas des matrices carrées A est diagonalisable
A n’admet qu’une seule valeur propreλ )
⇔ A=λ In
VII.3. Caractère diagonalisable des matrices symétriques Définition (Matrice symétrique)
Soit A∈Mn(R).
• La matrice A est ditesymétrique si tA=A.
• Autrement dit,A est symétriquesi :
∀(i, j)∈J1, nK
2, ai,j =aj,i
Théorème 33.
Soit E un ev de dimension finien∈N∗. Soit f ∈L(E) et soitA∈Mn(R).
1) Cas des endomorphismes
Il existe une base dans laquelle la matrice
représentative de f est symétrique ⇒ f est diagonalisable 2) Cas des matrices carrées
A est symétrique ⇒ A est diagonalisable