• Aucun résultat trouvé

II. Noyau et image d’une application linéaire

N/A
N/A
Protected

Academic year: 2022

Partager "II. Noyau et image d’une application linéaire"

Copied!
19
0
0

Texte intégral

(1)

Applications linéaires, matrices et réduction

I. Applications linéaires

I.1. Notion d’application linéaire

I.1.a) Définition Définition

SoientE etF des espaces vectoriels.

Une applicationf :E→F est ditelinéaire si :

∀(−→x ,−→y)∈E2, f(−→x +−→y) =f(−→x) +f(−→y) (l’image d’une somme est la somme des images)

∀λ∈R,∀−→x ∈E2, f(λ· −→x) =λ·f(−→x)

(l’image d’une multiplication par un scalaire est la multiplication scalaire de l’image)

L’ensemble des applications linéaires de E dansF est notéL(E, F).

Lorsque E=F, on notera simplement L(E).

Une application linéaire deE dansE est appeléeendomorphismedeE.

I.1.b) Exemple fondamental Théorème 1.

Soient (n, p)∈(N)2.

Soit h∈L(Mp,1(R),Mn,1(R)).

Alors, il existe une matriceM ∈Mn,p(R) telle que h s’écrit sous la forme : h : Mp,1(R) → Mn,1(R)

X 7→ M X

I.2. Structure de l’ensemble des applications linéaires Théorème 2.

Soient E et F des espaces vectoriels.

L’ensemble L(E, F) des applications linéaires de E dans F est muni :

× d’une loi de composition interne, notée+

Pour toutu∈L(E, F), pour tout v∈L(E, F), u+v est l’application linéaire de E dans F définie par :

u+v: E → F

→x 7→ u(−→x) +v(−→x)

× d’une loi de composition externe, notée ·

Pour toutu∈L(E, F), pour tout λ∈R, λ·u est l’application linéaire deE dans F définie par :

λ·u: E → F

→x 7→ λ·u(−→x)

L’espace L(E, F) muni de +et ·est un espace vectoriel.

(2)

I.3. Notion d’isomorphisme, d’automorphisme

I.3.a) Définition Définition

SoientE etF des espaces vectoriels.

Une applicationu:E →F est un isomorphisme de E dans F si : (i) u∈L(E, F).

(ii) u est bijective.

S’il existe un isomorphisme de E dans F, on dit que E et F sont iso- morphes.

Une applicationu:E →E est un automorphisme de E dans F si : (i) u∈L(E) (autrement dit, uest un endomorphisme de E).

(ii) u est bijective.

Rappels de première année SoientE etF des ensembles.

Soit f :E →F une application. On suppose quef est bijective.

On appelle application réciproque de f et on note f−1:F →E : f−1 : F → E

y 7→ f−1(y) : l’unique antécédent dey par l’applicationf Ainsi : ∀x∈E,∀y∈F, y=f(x) ⇔ f−1(y) =x

Sif :E→F application bijective, les propriétés suivantes sont vérifiées.

1. L’applicationf−1 est bijective et de récirpoquef :

f−1−1

=f

2. a) ∀y ∈F, f(f−1(y)) =y b) ∀x∈E, f−1(f(x)) =x

3. Sif :E→F etg:F →E sont deux applications, alors :

g◦f = idE

f ◦g= idF

)

Les applications f etg sont bijectives et réciproques l’une de l’autre :

g=f−1 et f =g−1

Représentation graphique.

x1

x2 x3

x4

y2 y1 y4

y3

E F

f

f−1

Une application f :E → F bijec- tive établit une correspondance un à un entre des éléments de E vers les éléments deF.

Son application réciproque f−1 établit la même correspondance mais dans l’autre sens : des élé- ments deF vers les éléments deE.

I.3.b) Application réciproque d’un isomorphisme Théorème 3.

Soient E et F des espaces vectoriels.

Soit u∈L(E, F).

Supposons que u est un isomorphisme de E dans F.

Alors l’application réciproque u−1 est un isomorphisme deF dans E.

(en particulier, u−1 ∈L(F, E))

Supposons que u et v sont des isomorphismes.

1) Alors v◦u:E→G est un isomorphisme deE.

(on a notamment v◦u∈L(E, G)) 2) De plus : (v◦u)−1 =u−1◦v−1

(3)

II. Noyau et image d’une application linéaire

II.1. Noyau d’une application linéaire

II.1.a) Définition Définition

SoientE etF des espaces vectoriels.

Soit f ∈L(E, F).

On appelle noyau de f et on noteKer(f) l’ensemble :

Ker(f) ={−→x ∈E |f(−→x) =−→ 0F}

Le noyauKer(f)d’une application linéairef ∈L(E, F)est un sous-espace vectoriel de E.

II.1.b) Caractérisation de l’injectivité d’une application linéaire à l’aide de son noyau

Théorème 4.

Soient E et F des espaces vectoriels.

Soit f ∈L(E, F).

f injective ⇔ Ker(f) ={−→ 0E}

II.2. Image d’une application linéaire

II.2.a) Définition Définition

SoientE etF des espaces vectoriels.

Soit f ∈L(E, F).

On appelle image de f et on note Im(f)l’ensemble :

Im(f) = {−→y ∈F | ∃−→x ∈E, y=f(−→x)}

= {f(−→x)∈F | −→x ∈E}

L’image Im(f) d’une application linéaire f ∈L(E, F) est un sous-espace vectoriel de F.

II.2.b) Caractérisation de la surjectivité d’une application Théorème 5.

Soient E et F des espaces vectoriels.

Soit f ∈L(E, F).

f surjective ⇔ Im(f) =F

(4)

III. Applications linéaires en dimension finie

III.1. Image d’une application linéaire en dimension finie Théorème 6.

Soient E et F des espaces vectoriels.

Soit f ∈L(E, F).

Suppposons E de dimension finie et soit B= (−→e1, . . . ,−→en) une base de E.

Im(f) = Vect (f(−→e1), . . . , f(−→en))

III.2. Une première caractérisation de l’injectivité / surjecti- vité / bijectivité en dimension finie

Théorème 7.

Soient E et F des espaces vectoriels de dimensions finies.

Soit f ∈L(E, F).

u est injective

⇔ L’image par f de toute famille libre finie deE est une famille (finie) libre de F.

u est surjective

⇔ L’image par f de toute famille génératrice finie de E est une famille (finie) génératrice de F.

u est bijective

⇔ L’image par f de toute base finie deE est une base (finie) de F.

(5)

III.3. Rang d’une application linéaire Définition

SoientE etF des ev de dimensions finies.

Soit f ∈L(E, F).

On appelle rang de l’application f et on note rg(F): rg(f) = dim(Im(f))

Théorème 8 (Théorème du rang).

Soit E etF des espaces vectoriels.

On suppose que E est de dimension finie.

Soit f ∈L(E, F).

dim(E) = dim (ker(f)) + dim(Im(f))

= dim (ker(f)) + rg(f)

III.4. Caractérisation de l’injectivité / surjectivité / bijecti- vité en dimension finie

Théorème 9.

Soient E et F des ev de dimensions finies.

Soit f ∈L(E, F).

Alors :

f est injective ⇔ rg(f) = dim(E) f est surjective ⇔ rg(f) = dim(F) Théorème 10.

Soient E et F des espaces vectoriels de dimension finie.

On suppose que dim(E) = dim(F).

Soit f ∈L(E, F).

f est bijective ⇔ f est injective ⇔ f est surjective f est bijective ⇔ ker(f) ={−→

0E} ⇔ rg(f) = dim(F)

(6)

IV. Notion de matrice et lien avec les applications linéaires en dimension finie

Remarque

En première année, l’esprit du programme est de considérer qu’une matrice est un tableau de nombres.

En deuxième année, dans les chapitre Applications linéaires / Réduction, on axe sur le lien entre applications linéaires et matrices.

IV.1. Matrice colonne associée à un vecteur Définition Matrice colonne associée à un vecteur

Soit E un espace vectoriel.

On suppose que E est de dimension finie p∈N. Notons BE = (−→e1, . . . ,−→ep) une base deE.

Soit −→x ∈E. Il existe un unique p-uplet(x1, . . . , xp)∈Rp tel que :

→x = x1· −→e1+· · ·+xp· −→ep

La base BE étant fixée, le vecteur −→x est entièrement déterminé par la donnée dup-uplet(x1, . . . , xp), que l’on nommecoordonnées de−→x dans la base BE.

Le vecteur −→x admet alors naturellement une représentation matricielle.

Il s’agit du vecteur colonne :

X =

x1

... xp

∈Mp,1(R)

On parle alors de vecteur (ou matrice) colonne associé à−→x dans la base B. Dans la suite, on notera :

MatB(−→x) =

x1

... xp

IV.2. Matrice de passage Définition

Soit E un espace vectoriel.

On suppose que E est de dimension finiep∈N.

Notons B= (−→e1, . . . ,−→ep)etB0 = (−→e10, . . . ,−→ep0)deux bases de E.

On appelle matrice de passage de la baseB à la base B0 et on note PB,B0, la matrice :

PB,B0 =

MatB(−→ e10

) . . . MatB(−→ en0

)

Autrement dit, la matrice obtenue par concaténation des vecteurs colonnes associés à−→ej0 dans la base B.

Remarque

On considère E un espace vectoriel de dimension finie p ∈ N. On note B, B0 et B00 trois bases de E. On considère enfin −→x ∈ E et on note X = MatB(−→x) etX0 = MatB0(−→x). Alors :

1. X=PB,B0 X0 ou encore MatB(−→x) = PB,B0 MatB0(−→x) 2. PB,B00=PB,B0 ×PB0,B00

3. La matricePB,B0 est inversible et : (PB,B0)−1=PB0,B

On peut dégager de cette formule une règle d’écriture : les bases en regard de deux objets successifs doivent être les mêmes. Plus précisément :

MatB(−→x) =PB,B0×MatB0(−→x) et MatB0(−→x) =PB0,B×MatB(−→x) Cela revient à appliquer une règle de type « relation de Chasles ».

(7)

Remarque

On considère E un espace vectoriel de dimension finie p ∈ N et BE = (−→e1, . . . ,−→ep) une base de E. Alors l’application :

ϕ : E → Mp,1(R)

→x 7→ MatBE(−→x)

est un isomorphisme deE dansMp,1(R).

Une fois les base BE fixée, ce résultat signifie que :

× tout vecteur −→x possède une unique représentation matricielle dans la baseBE.

(cela signifie simplement que ϕest une application)

× réciproquement, toute matrice colonne deMp,1(R)est la représentation matricielle d’un unique vecteur deE.

(c’est le caractère bijectif )

Évidemment, si B1 etB2 sont deux bases différentes deE, on obtient gé- néralement des représentations matriciellesMatB1(−→x) etMatB2(−→x)diffé- rentes pour−→x.

IV.3. Matrice associée à une application linéaire

IV.3.a) Matrice associée à une application linéaire Définition

Soit E etF des espaces vectoriels.

On suppose que E est de dimension finiep∈N. On noteBE = (−→e1, . . . ,−→ep) une base de E.

On suppose que F est de dimension finien∈N. On noteBF = (−→

f1, . . . ,−→

fn) une base de F.

Soit f ∈L(E, F).

On appelle matrice de f relativement aux bases BE et BF la ma- trice :

MatBE,BF(f) =

MatBF f(−→e1)

. . . MatBF f(−→ep)

Autrement dit, la matrice de Mn,p(R) obtenue par concaténation des vec- teurs colonnes associés à f(−→ej)dans la base BF.

Remarque

Si E etF sont de même dimension finie p (par exemple lorsque E =F), la matrice associée à f est une matrice carrée de taillen.

On pourra retenir le schéma suivant :

E −→f F

MatBE(.)

 y

y MatBF(.) Mp1(R) −→ Mn1(R)

(8)

IV.3.b) Comportement de l’application Mat(.) vis à vis des opéra- tions classiques

Théorème 11. Isomorphisme de représentation matricielle Soient E et F des espaces vectoriels de dimension finie.

On note BE une base de E et BF une base de F. Les applications :

ϕ:

L(E, F) → Mn,p(R)

f 7→ M atBE,BF(f) et ψ:

L(E) → Mn(R) f 7→ M atBE(f) sont des isomorphismes. En particulier, on a :

dim(L(E, F)) =np et dim(L(E)) =n2 Remarque

Une fois les base BE etBF fixées, ce résultat signifie que :

× toute application linéaire f possède une unique représentation matri- cielle relativement aux basesBE etBF.

(cela signifie simplement que ϕest une application)

× réciproquement, toute matrice de Mn,p(R) est la représentation matri- cielle relativement aux bases BE et BF d’une unique application li- néaire ϕ.

(c’est le caractère bijectif )

En plus d’être une application bijective, ϕ est linéaire. Ainsi, la matrice d’une combinaison linéaire d’applications est la combinaison linéaire des matrices des applications.

Plus précisément, si f ∈L(E, F), g∈L(E, F) et(λ1, λ2)∈R2, on a : M atBE,BF1·f+λ2·g) = λ1·M atBE,BF(f) +λ2·M atBE,BF(g)

Théorème 12.

Soient E, F, etG des vectoriels de dimensions finies.

On note BE, BF et BG des bases respectives de E, F, et G.

1) Pour tout f ∈L(E, F) et g∈L(F, G) :

MatBE,BG(g◦f) = MatBF,BG(g)×MatBE,BF(f)

(la composition des applications linéaires correspond à la multiplication des matrices associées)

2) Pour tout f ∈L(E) et pour toutk∈N : MatBE fk

= MatBE(f)k

(où l’on a noté fk=f ◦. . .◦f) Théorème 13.

Soit E un espace vectoriel de dimension finie.

On note B une base deE.

Soit f ∈L(E) un endomorphisme de E.

1) f est bijective ⇔ MatB(f) est inversible 2) Si f est bijective alors : MatB(f)−1

= MatB f−1

(9)

IV.3.c) Noyau d’une application linéaire via la matrice associée Théorème 14.

Soient E et F des espaces vectoriels de dimensions finies.

On note BE une base de E et BF une base de F. Soit f ∈L(E, F).

Soient −→x ∈E et−→y ∈F.

1.

→y =f(−→x) ⇔ MatBF(−→y) = MatBF f(−→x)

⇔ MatBF(−→y) = MatBE,BF(f)×MatBE(−→x)

2. En particulier : −→x ∈Ker(f) ⇔ MatBE,BF(f)×MatBE(−→x) = 0 IV.3.d) Lien entre le rang d’une application linéaire et le rang de

la matrice associée Théorème 15.

Soient E et F des espaces vectoriels de dimensions finies.

On note BE une base de E et BF base de F. Soit f ∈L(E, F).

rg(f) = rg(MatBE,BF(f))

Théorème 16.

Soit A∈Mn(R).

A est inversible ⇔ A est la matrice associée à un isomorphisme

(10)

V. Matrices semblables

V.1. Définition

Définition Matrices semblables Soit n∈N.

SoientM ∈Mn(R) etN ∈Mn(R).

Les matricesM etN sont semblabless’il existe une matrice inversibleP telle que :

M =P N P−1

V.2. Puissances kème de matrices semblables Théorème 17.

Soient M et N deux matrices de Mn(R).

On suppose que M et N sont semblables et donc qu’il existe une matrice P ∈Mn(R) inversible telle que : M =P N P−1.

Alors, pour tout k∈N, Mk=P NkP−1.

(autrement dit, si M et N sont semblables via la matrice P, Mk et Nk le sont aussi via la même matrice P)

Exercice(d’après EDHEC 2016) On considère les matrices :

N =

0 0 2 0 0 1 0 0 0

et T = 2I+N =

2 0 2 0 2 1 0 0 2

1. Déterminer N2 et en déduire, pour tout k∈N,Nk.

2. Soit n∈N. Déterminer Tn à l’aide de la formule du binôme de Newton.

V.3. Lien entre relation de similitude et applications linéaires Théorème 18.

Soit E un ev de dimension finie.

Soit B et B0 deux bases de E.

Soit f ∈L(E).

On note M = MatB(f), N =M atB0(f) et P =PB,B0. 1. Alors :

M =P N P−1 ce qui signifie :

MatB(f) =PB,B0 MatB0(f) (PB,B0)−1

2. De manière générale :

Les matrices M ∈Mn,1(R) et N ∈Mn,1(R) sont semblables ⇔

M et N sont les matrices représentatives d’un même endomorphismef ∈L(E) dans des bases différentes Remarque

On peut retenir cette formule sous la forme :

MatB(f) =PB,B0 MatB0(f) PB0,B

que l’on peut rapprocher une nouvelle fois de la relation de Chasles.

(11)

VI. Éléments propres d’un endomorphisme, d’une matrice carrée

VI.1. Valeurs propres et vecteurs propres d’un endomorphisme, d’une matrice carrée

VI.1.a) Définition

Définition (Valeur propre)

Soit E un ev de dimension finie n∈N. Soit f ∈L(E) et soit A∈Mn(R).

1) Cas des endomorphismes

On dit qu’un réel λest une valeur propre de l’endomorphisme f s’il existe un vecteur u∈E non nul tel que :

f(u) =λ u

L’ensemble des valeurs propres d’un endomorphismef est appeléspectre de f et est notéSp(f).

Sp(f) ={λ∈R| ∃u6= 0E, f(u) =λ u}

2) Cas des matrices carrées

On dit qu’un réel λest une valeur propre de la matriceA s’il existe un vecteur colonne X∈Mn,1(R)non nul tel que :

AX =λ X

L’ensemble des valeurs propres d’une matrice carréeAest appeléspectre de Aet est noté Sp(A).

Définition (Vecteur propre)

Soit E un ev de dimension finie n∈N. Soit f ∈L(E) et soit A∈Mn(R).

On suppose que f (resp.A) admet une valeur propre λ∈R. (ce n’est pas forcément le cas !)

1) Cas des endomorphismes

On appelle vecteur propre de f associé à la valeur propre λ, tout vecteurnon nulu de E tel que f(u) =λ u.

2) Cas des matrices carrées

On appelle vecteur propre de A associé à la valeur propre λ, tout vecteur colonne U ∈Mn,1(R) non nultel que AU =λ U.

VI.1.b) Nombre maximal de valeurs propres Théorème 19.

Soit E un ev de dimension finien∈N.

Soit (u1, . . . , up)∈Ep et soit (U1, . . . , Up)∈(Mn,1(R))p. Soit f un endomorphisme de E.

Soit A une matrice deMn(R).

1) Cas des endomorphismes

u1, . . .,up sont vecteurs propres associés à des valeurs propres distinctes λ1, . . .,λp def

⇒ La famille

(u1, . . . , up) est libre On en déduit que l’endomorphisme f possède au plus n valeurs propres distinctes.

(12)

2) Cas des matrices carrées

U1, . . . , Up sont vecteurs propres associés à des valeurs propres distinctes λ1, . . ., λp de A

⇒ La famille

(U1, . . . , Up) est libre On en déduit que la matrice A possède au plus n valeurs propres dis- tinctes.

Théorème 20. (Généralisation)

Soit E un ev de dimension finien∈N. Soit f un endomorphisme de E.

Soit A une matrice deMn(R).

1) Cas des endomorphismes

Soient λ1, . . . , λp p valeurs propres distinctes de f.

Soient F1, . . . , Fp p familles de vecteurs de E telles que, pour tout i∈J1, pK :

× les familles Fi sont libres.

× les vecteurs de Fi sont des vecteurs propres associés à λi. Alors la famille F =F1∪. . .∪ Fp est une famille libre de E.

2) Cas des matrices carrées

Soient λ1, . . . , λp p valeurs propres distinctes de A.

Soient F1, . . . , Fp p familles de vecteurs de Mn,1(R) telles que, pour tout i∈J1, pK:

× les familles Fi sont libres.

× les vecteurs de Fi sont des vecteurs propres associés à λi. Alors la famille F =F1∪. . .∪ Fp est une famille libre de Mn,1(R).

VI.1.c) Caractérisation des valeurs propres d’un endomorphisme, d’une matrice carrée

Théorème 21.

Soit E un ev de dimension finien∈N. Soit f un endomorphisme de E.

Soit A une matrice deMn(R).

1) Cas des endomorphismes λest valeur

propre def ⇔ Ker(f−λ idE)6=n 0Eo

⇔ L’endomorphismef −λ idE n’est pas injectif

⇔ L’endomorphismef −λ idE n’est pas bijectif 2) Cas des matrices carrées

λest valeur

propre deA ⇔

U ∈Mn,1(R)|(A−λI) U = 0 6=

0Mn,1(R)

⇔ La matrice A−λI n’est pas inversible

(13)

VI.1.d) Lien entre éléments propres d’un endomorphisme et élé- ments propres de sa matrice représentative dans une base Théorème 22.

Soit E un ev de dimension finien∈N. Soit B une base de E.

On note A= MatB(f).

Soit u∈E. Notons U = MatB(u)∈Mn,1(R).

1) Alors : f(u) =λu ⇔ AU =λU 2) En conséquence :

λest valeur propre de f ⇔ λest valeur propre de A Sp(f) = Sp(A)

Le vecteuru est un vecteur propre de f associé à la valeur propre λ

Le vecteur colonneU est un vecteur propre de A associé à la valeur propre λ MÉTHODO Déterminer les valeurs propres d’un endomorphisme

λest valeur

propre def ⇔ λest valeur propre deA

⇔ ∃U 6= 0, AU =λU

⇔ ∃U 6= 0, (A−λ In) U = 0

⇔ A−λIn n’est pas inversible

l’un (au moins) des coefficients diagonaux de la

Plus précisément, on procède comme suit.

1) On écrit la matriceA−λIn oùλest inconnu.

2) On calcule le rang deA−λIn.

En opérant par opérations élémentaires sur les lignes de la matrice (ce qui ne modifie pas le rang), on obtient une matrice réduite sous forme triangulaire supérieure.

(cela consiste à appliquer l’algorithme du pivot de Gauss)

3) Les valeurs propres de la matriceAsont exactement les valeurs de λqui annulent un des coefficients diagonaux de la matrice réduite.

Remarque

Pour A∈M3(R), il faut s’habituer à déterminer les ensembles Eλ(A)par lecture de la matrice A−λ I. Illustrons la méthode avec le cas particulier de la valeur propre λ = 0. On cherche les vecteurs X =

x y z

de E0(A) c’est-à-dire les vecteurs tels que : A X= 0M3,1(R). Or :

−1 1 1

0 0 2

1 −1 1

x y z

= x·C1+y·C2+z·C3

= x·

−1 0 1

+y·

1 0

−1

+z·

1 2 1

Pour obtenir le vecteur nul à l’aide de cette combinaison linéaire, on doit forcément choisir z = 0. On peut alors remarquer que le choix x = 1 et y= 1 permet d’obtenir une combinaison linéaire nulle. Ce n’est qu’une re- formulation du fait que les colonnesC1etC2de la matriceAsont opposées.

On en déduit alors :

E0(A) ⊃ Vect

1 1 0

L’égalité peut alors s’obtenir à l’aide d’un argument de dimension.

(14)

Pour les matrices carrées d’ordre 2 on utilise la caractérisation suivante : λest valeur propre deA ⇔ A−λI2 n’est pas inversible

⇔ det(A−λI2) = 0

Théorème 23.

Soit E un ev de dimension finien∈N. Soit A∈Mn(R).

1) La matrice A est triangulaire

supérieure (resp. inférieure) ⇒ Les valeurs propres de A sont ses coefficients diagonaux 2) La matrice A est diagonale ⇒ Les valeurs propres de A sont

ses coefficients diagonaux À RETENIR

Les valeurs propres d’une matrice triangulaire supérieure (resp. inférieure) se lisent sur sa diagonale.

VI.1.e) Valeurs propres de matrices semblables Théorème 24.

Soit E un ev de dimension finien∈N. Soient M et N des matrice de Mn(R).

1) M etN sont semblables ⇒ rg(M) = rg(N) 2) Pour tout λ∈R :

M etN sont semblables ⇒ rg(M−λIn) = rg(N−λIn) 3) M etN sont semblables ⇒ Sp(M) = Sp(N)

VI.1.f ) Cas particulier de la valeur propre 0 Théorème 25.

Soit E un ev de dimension finien∈N. Soit f un endomorphisme de E.

Soit A une matrice deMn(R).

1) Cas des endomorphismes

Le réel 0 est une valeur propre de f ⇔ Ker(f)6=n 0Eo

⇔ f n’est pas injective

⇔ f n’est pas bijective Évidemment, on peut aussi écrire :

f est bijective ⇔ Le réel 0 n’est pas valeur propre def 2) Cas des matrices carrées

Le réel 0 est une valeur propre deA ⇔ A n’est pas inversible Évidemment, on peut aussi écrire :

A est inversible ⇔ Le réel 0 n’est pas valeur propre deA

(15)

VI.2. Sous-espaces propres d’un endomorphisme

VI.2.a) Définition Définition

Soit E un ev de dimension finie n∈N. Soit f ∈L(E).

Soit A∈Mn(R).

1) Cas des endomorphismes

On appelle sous-espace propre de f associé à la valeur propre λ, l’en- semble notéEλ(f)défini par :

Eλ(f) =

u∈E|f(u) =λ·u

=

u∈E|(f −λid)(u) = 0E = Ker(f −λid)

Eλ(f) =

vecteurs propres associés à la valeur propreλ

∪ {0E}

2) Cas des matrices carrées

On appelle sous-espace propredeA associé à la valeur propreλ, l’en- semble notéEλ(A) défini par :

Eλ(A) = {U ∈Mn,1(R)|AU =λ·U}

= {U ∈Mn,1(R)|(A−λI)×U = 0Mn,1(R)} Lien entre endomorphisme et représentation matricielle (rappel)

Soit B une base deE.

On note maintenantA= MatB(f).

Considérons u∈E et notonsU = MatB(u).

VI.2.b) Structure d’un sous-espace propre Théorème 26.

Soit E un ev de dimension finien∈N. Soit f ∈L(E).

Soit A∈Mn(R).

1) Cas des endomorphismes Soit λune valeur propre de f.

a. Eλ(f) est un sous-espace vectoriel de E

b. Eλ(f)6={0E}. En particulier : dim(Eλ(f))>1 2) Cas des matrices carrées

Soit λune valeur propre de A.

a. Eλ(A) est un sous-espace vectoriel de Mn,1(R) b. Eλ(A)6={0Mn,1(R)}. En particulier : dim(Eλ(A))>1

VI.2.c) Détermination d’un sous-espace propre

MÉTHODO Déterminer Eλ(f) le sous-espace propre de f associé à une valeur propre λ donnée

Soit E un ev de dimension finie n∈N et soit B une base deE.

Soit f ∈L(E). Notons A= MatB(f).

Soit u∈E. Notons U = MatB(u). Soitλest une valeur propre de f. On rappelle :

u∈Eλ(f) ⇔ f(u) =λ·u

⇔ (f −λidE)(u) = 0E

⇔ − ×

(16)

VI.3. Polynômes annulateurs

VI.3.a) Polynômes d’endomorphismes, de matrices carrées Définition

Soit E un ev de dimension finie n∈N. Soit f ∈L(E) et soit A∈Mn(R).

Soit P ∈R[X]. Il existe donc r∈N et(a0, . . . , ar)∈Rr+1 tel que : P(X) =

Pr k=0

ak Xk

1) Cas des endomorphismes

On noteP(f) l’endomorphisme de E défini parP(f) =

r

P

k=0

akfk. C’est un polynôme d’endomorphimsmes.

2) Cas des matrices carrées

On noteP(A) la matrice deMn(R) définie par P(A) =

r

P

k=0

akAk. C’est un polynôme de matrices.

Lien entre les deux

SiB est une base deE etA= MatB(f), on a alors : P(A) = MatB(P(f))

VI.3.b) Polynômes annulateurs Définition

Soit E un ev de dimension finie n∈N. Soit f ∈L(E) et soit A∈Mn(R).

Soit P ∈R[X].

1) Cas des endomorphismes

On dit que P est un polynôme annulateur de f siP(f) = 0L(E). 2) Cas des matrices carrées

On dit que P est un polynôme annulateur de Asi P(A) = 0Mn(R).

VI.3.c) Existence d’un polynôme annulateur non nul Théorème 27.

Soit E un ev de dimension finien∈N. Soit f ∈L(E) et soit A∈Mn(R).

1) Cas des endomorphismes

Il existe un polynôme annulateur non nulde f. 2) Cas des matrices carrées

Il existe un polynôme annulateur non nulde A.

VI.3.d) Intérêt des polynômes annulateurs Théorème 28.

Soit E un ev de dimension finien∈N. Soit f ∈L(E) et soit A∈Mn(R).

Soit P ∈R[X].

1) Cas des endomorphismes

Si P est un polynôme annulateur de f alors :

λune valeur propre de f ⇒ λest une racine de P Ainsi : Sp(f) ⊂ {racines deP}

2) Cas des matrices carrées

Si P est un polynôme annulateur de A alors :

λune valeur propre de A ⇒ λest une racine de P Ainsi : Sp(A) ⊂ {racines de P}

(17)

VII. Théorèmes de réduction

VII.1. Endomorphisme diagonalisable, matrice diagonalisable

VII.1.a) Définition

Définition (Endomorphisme / matrice carrée diagonalisable) Soit E un ev de dimension finie n∈N.

Soit f ∈L(E) et soit A∈Mn(R).

1) Cas des endomorphismes

On dit quef ∈L(E)est diagonalisables’il existe une baseB0 de E dans laquelle la matrice représentative de f est diagonale.

Autrement dit, f ∈ L(E) est diagonalisable s’il existe une baseB0 de E et une matrice diagonaleD∈Mn(R)tels que : MatB0(f) =D.

2) Cas des matrices carrées

On dit que A ∈ Mn(R) est une matrice diagonalisable s’il existe une matrice P inversible et une matrice Ddiagonale telles que :

A=P DP−1

VII.1.b) Caractérisation de la diagonalisabilité Théorème 29.

Soit E un ev de dimension finien∈N. Soit B une base de E.

Soit f ∈L(E) et soit A= MatB(f).

1) Cas des endomorphismes

f est diagonalisable ⇔ il existe une base de E formée de vecteurs propres def 2) Cas des matrices carrées

A est diagonalisable ⇔ il existe une base de Mn,1(R) formée de vecteurs propres de A 3) Lien entre endomorphisme et représentation matricielle

f est diagonalisable ⇔ A est diagonalisable

(18)

VII.2. Réduction des endomorphismes et des matrices carrées

VII.2.a) Critère de diagonalisabilité Théorème 30.

Soit E un ev de dimension finien∈N. Soit f ∈L(E) et soitA∈Mn(R).

1) Cas des endomorphismes

Soient λ1, . . . , λm les valeurs propres distinctes de f.

Notons Eλ1(f), . . . , Eλm(f) les sous-espaces propres associés à ces va- leurs propres.

a.

m

P

i=1

dim(Eλi(f))6dim(E)

b. f est diagonalisable ⇔

m

P

i=1

dim(Eλi(f)) = dim(E)

2) Cas des matrices carrées

Soient λ1, . . . , λm les valeurs propres distinctes de A.

Notons Eλ1(A), . . . , Eλm(A) les sous-espaces propres associés à ces va- leurs propres.

a.

m

P

i=1

dim(Eλi(A))6n

b. A est diagonalisable ⇔

m

P

i=1

dim(Eλi(A)) =n

VII.2.b) Condition suffisante de diagonalisabilité Théorème 31.

Soit E un ev de dimension finien∈N. Soit f ∈L(E) et soit A∈Mn(R).

1) Cas des endomorphismes

f admetn valeurs propres distinctes ⇒ f est diagonalisable 2) Cas des matrices carrées

A admet nvaleurs propres distinctes ⇒ A est diagonalisable

VII.2.c) Démontrer par l’absurde la non diagonalisabilité Théorème 32.

Soit E un ev de dimension finien∈N. Soit f ∈L(E) et soit A∈Mn(R).

1) Cas des endomorphismes f est diagonalisable

f n’admet qu’une seule valeur propre λ )

⇔ f =λidE

2) Cas des matrices carrées A est diagonalisable

A n’admet qu’une seule valeur propreλ )

⇔ A=λ In

(19)

VII.3. Caractère diagonalisable des matrices symétriques Définition (Matrice symétrique)

Soit A∈Mn(R).

La matrice A est ditesymétrique si tA=A.

Autrement dit,A est symétriquesi :

∀(i, j)∈J1, nK

2, ai,j =aj,i

Théorème 33.

Soit E un ev de dimension finien∈N. Soit f ∈L(E) et soitA∈Mn(R).

1) Cas des endomorphismes

Il existe une base dans laquelle la matrice

représentative de f est symétrique ⇒ f est diagonalisable 2) Cas des matrices carrées

A est symétrique ⇒ A est diagonalisable

Références

Documents relatifs

Compléter la boucle for du programme principal de façon que le programme ESSEC 2002 affiche la moyenne du rang d'apparition du premier double pile sur n expériences, le nombre

• Ce n’est malheureusement pas toujours le cas (comme on va le voir). Le but du chapitre est donc de caractériser les endomorphismes qui admettent une représentation

Exercice 6: Soit E un K-espace vectoriel, où K est un corps de caractéristique nulle (par exemple Q, R ou C, voire R(X)).. Soit u un endomorphisme nilpotent de

Discuter dans chaque cas l’existence de solutions bornées.. Montrer que u est

8 10 Application de la diagonalisation au calcul des puissances d’une matrice carrée diagonalisable ou d’un..

Lorsque l'espace est orienté, comme le déterminant d'une matrice orthogonale directe est égal à 1 , le déterminant d'une famille de vecteurs est le même dans n'importe quelle

Si deux endomorphismes ont un vecteur propre commun, leur crochet est-il de rang au plus 1?. Cette création est mise à disposition selon

Si deux endomorphismes ont un vecteur propre commun, leur crochet est-il de rang au plus 1?.