• Aucun résultat trouvé

2.4 La solution des équations linéaires à coefficients constants non homogènes

N/A
N/A
Protected

Academic year: 2022

Partager "2.4 La solution des équations linéaires à coefficients constants non homogènes"

Copied!
7
0
0

Texte intégral

(1)

Équations différentielles

Cours de L3 par Frédéric Hélein

1

, janvier–avril 2021

Mardi 9 février 2021

2.4 La solution des équations linéaires à coefficients constants non homogènes

A l’aide de l’exponentielle des matrices nous pouvons exprimer la solution d’une équa- tion différentielle de la forme

dx

dt(t) =A x(t) +B(t), (1)

où A ∈ M(n,R) et B ∈ C0(I,Rn). Nous utilisons pour cela la méthode de la variation de la constante, due à Joseph-Louis Lagrange. L’idée est de chercher les solutions de (1) comme étant des déformations des solutions des solutions de l’équation différentielle linéaire homogène associée dydt =Ay. Nous savons que les solutions de cette équations sont toutes de la forme y(t) = etAy0, où y0 ∈ Rn. Nous y remplaçons la constante y0 par une fonction inconnuez ∈C1(I,Rn).

Ainsi nous posons z(t) :=etAx(t), de sorte que

x(t) = etAz(t) et donc : dx

dt(t) = etA dz

dt(t) +Az(t)

En remplaçant dans l’équation (1) nous obtenons etA

dz dt +Az

=A etAz +B

et donc en simplifiant, on obtientetA dzdt =B, qui équivaut à dz

dt(t) = etAB(t).

La solution de cette équation est obtenue par une simple intégration z(t)−z(t0) =

Z t t0

eτ AB(τ)dτ

Si nous imposons la condition initiale x(t0) = x0, qui équivaut à z(t0) = et0Ax0, nous obtenons z(t) = et0Ax0+Rt

t0eτ AB(τ)dτ et donc x(t) = e(tt0)Ax0+

Z t t0

e(tτ)AB(τ)dτ (2)

1. Université de Paris, Licence 3 de Mathématiques,helein@math.univ-paris-diderot.fr

(2)

En particulier nous en concluons que l’ensemble Sdes solutions de (1) est un sous-espace affine de C1(I,Rn) de dimensionn. En effet Sest l’image de l’application affine

Rn −→ C1(I,Rn)

x0 7−→ [t7−→u(t) +e(tt0)Ax0] oùu(t) :=Rt

t0e(tτ)AB(τ)dτ.

2.5 Exemples d’exponentielles de matrice

Nous avons besoin de savoir calculer l’exponentielle d’une matrice A dans des cas pratiques. Nous connaissons déjà le principe dans le cas où A est diagonalisable : il est alors possible de décomposer A = P∆P1, où P ∈ GL(n,C) et ∆ ∈ M(n,C) est une matrice diagonale. Nous exploitons le fait que

A2 = (P∆P1)2 =P∆P1 P∆P1 =P∆2P1

puis A3 = (P∆P1)3 = P∆3P1 et, d’une façon générale, Ak = P∆kP1, ∀k ∈ N (avec la convention A0 = 1n). Donc

etA =

+

X

k=0

tkAk k! =

+

X

k=0

tkP∆kP1 k! =P

+

X

k=0

tkk

k! P1 =P et∆P1

Voici quelques exemples.

(i) A =

0 1 1 0

Dans ce cas le polynôme caractéristique deAestPA(λ) =det(λ12− A) = (λ − 1)(λ + 1). Les valeurs propres −1 et 1 sont distinctes, donc A est diagonalisable. Des vecteurs propres pour ces valeurs propres sont respectivement

u1 = −1

1

et u1 = 1

1

Nous en déduisons la matrice de passage P =

−1 1 1 1

avec P1 = 1 2

−1 1 1 1

Donc

A= 1 2

−1 1 1 1

−1 0 0 1

−1 1 1 1

et

etA = 1 2

−1 1 1 1

et 0 0 et

−1 1 1 1

=

cosht sinht sinht cosht

(3)

(ii) A =

0 −1 1 0

Le polynôme caractéristique de A est PA(λ) = (λ− i)(λ +i).

Les valeurs propres −i et i sont distinctes, donc A est diagonalisable dans C. Des vecteurs propres pour ces valeurs propres sont respectivement

ui =u:=

1 i

et u1 = ¯u= 1

−i

Nous en déduisons la matrice de passage P =

1 1 i −i

avec P1 = 1 2

1 −i 1 i

Donc

A= 1 2

1 1 i −i

−i 0 0 i

1 −i 1 i

et

etA = 1 2

1 1 i −i

eit 0 0 eit

1 −i 1 i

=

cost −sint sint cost

(iii) A =

2 1 0 0 2 1 0 0 2

 Dans ce cas A n’est pas diagonalisable. En effet le polynôme caractéristique est PA(λ) = (λ−2)3 (ce que l’on peut déduire directement de la forme triangulaire) et donc 2 est l’unique valeur propre de A, avec multiplicité 3.

Si A était diagonalisable, on aurait A = P∆P1, avec ∆ =

2 0 0 0 2 0 0 0 2

, mais

comme ∆ commute avec toutes les matrices, cela entraînerait que A = ∆, ce qui est impossible.

En revanche on a A= ∆ +N, avec N =

0 1 0 0 0 1 0 0 0

, et on remarque que

— [A,∆] = 0ou ∆A=A∆, c’est à dire A et∆ commutent;

— N est nilpotente, plus précisément,

N2 =

0 0 1 0 0 0 0 0 0

 et N3 = 0.

La première remarque a pour conséquence queetA=et∆+tN =et∆etN. La deuxième remarque implique que

etN =

+

X

k=0

tkNk

k! = 1 +tN +1

2t2N2 =

1 t t2/2 0 1 t 0 0 1

(4)

De plus, on a bien évidemment et∆=e2t13. En conclusion on a donc

etA =e2t

1 t t2/2 0 1 t 0 0 1

.

2.6 Le calcul de l’exponentielle d’une matrice dans le cas général

2.6.1 Quelques rappels d’algèbre linéaire

Lorsqu’une matrice n’est diagonalisable ni dans R, ni dans C, parce que certaines de ses valeurs propres sont multiples, il est possible de la réduire sous la forme triangulaire.

Cependant il sera très utile de le faire de manière à obtenir des blocs diagonaux qui ont une structure analogue à celle de la matriceAétudiée au paragraphe (iii) précédemment. Dans ce qui suit, nous considérons un endomorphisme ϕ d’un espace vectoriel E de dimension n.

Le polynôme caractéristique deϕ dans une base BdeE est le polynôme Pϕ défini par Pϕ(λ) = det(λ1n−A), où A est la matrice de ϕ dans la base B. Ce polynôme ne dépend pas du choix de la base.

Théorème 2.1 (de Cayley–Hamilton) Pϕ(ϕ) = 0.

Soitr∈ {1,· · · , n}le nombre de valeurs propres distinctes, soitλ1,· · · , λr ∈Cles valeurs propres deϕ(comptées sans répétition) et, pour toutj ∈ {1,· · · , r}, soitmjla multiplicité deλj dans le polynôme Pϕ. On a alors m1+· · ·+mj =n.

Rappelons que, lorsqu’elle est possible, la diagonalisation deϕrepose sur l’introduction des sous-espaces propres Ej :=Ker(λj1E −ϕ) de ϕ, le fait que chaque Ej est stable par ϕ, i.e. ∀u ∈ Ej, ϕ(u) ∈ Ej et que la somme E1 +· · · + Er est directe. Alors on a E1 ⊕ · · · ⊕Er = E ssi ϕ est diagonalisable. Si cela n’est pas le cas, on fait appel aux sous-espaces caractéristiques.

Définition 2.1 Pour tout j ∈ {1,· · · , r} on définit le sous-espace caractéristique de ϕ pour la valeur propre λj comme étant Cj :=Ker(λj1E−ϕ)mj.

On a bien sûr Ej ⊂Cj et les résultats :

Lemme 2.1 Pour tout j ∈ {1,· · · , r}, Cj est stable par ϕ, i.e. ∀u∈Cj, ϕ(u)∈Cj. Proposition 2.1 La sommeC1+· · ·+Cr est directe et on a toujours C1⊕ · · · ⊕Cr =E. Comme, pour tout j ∈ {1,· · · , r}, Cj est stable par ϕ, la restriction de ϕ à Cj est un endomorphisme de Cj. Nous notons ϕj = ϕ|Cj ∈ End(Cj) et, étant donnée une base Bj = {uj,1,· · · , uj,mj} de Cj, nous notons Aj la matrice de ϕj dans cette base. Alors comme C1 ⊕ · · · ⊕Cr = E, la famille B = B1 ∪ · · · ∪ Br est une base de E et, en

(5)

respectant l’ordre indiqué des vecteurs de cette base, la matrice de A dans cette base est la matrice diagonale par bloc :

A=

A1 0 · · · 0 0 A2 · · · 0 ... ... ... ...

0 0 · · · Ar

et donc

etA=

etA1 0 · · · 0 0 etA2 · · · 0 ... ... ... ...

0 0 · · · etAr

Il nous reste à trouver, pour chaque j, une base Bj et donc une matrice Aj telle que le calcul de etAj soit pratiquable. Posons βj :=ϕj −λj1Cj = (ϕ−λj1E)|Cj ∈ End(Cj), de sorte que

j)mj = (ϕ−λj1E)mj|Cj = 0

Alors ϕj = λj1Cj + βj et, comme 1Cj commute avec tous les éléments de End(Cj), [λj1Cj, βj] = 0 et donc

ej =ejej =ej

mj1

X

k=0

tkj)k k!

En effet la série qui définit ej est un polynôme car βj est nilpotent.

Enfin il est possible de trouver une baseBj dans laquelle la matrice deβj est triangulaire supérieure, avec que des zéros sur la diagonale. Dans le lemme qui suit, nous omettons l’indicej pour alléger l’écriture.

Lemme 2.2 Soit C un espace vectoriel de dimension m et soit β ∈ End(C) tel que βm = 0. Alors il existe une base (u1,· · · , um)dans laquelle la matrice de β est triangulaire supérieure et tous les coefficients sur la diagonale sont nuls.

(Bien entendu on peut remplacer « triangulaire supérieure » par « triangulaire supé- rieure » sans difficulté.)

Démonstration — Nous avons une suite d’inclusions au sens large Kerβ ⊂ Kerβ2 ⊂ · · · ⊂ Kerβm =C

Pourk ∈ {1,· · · , m}, notons jk =dim(Kerβk), de sorte que 0≤j1 ≤j2 ≤ · · · ≤jm =m.

— choisissons une base B(1) ={u(1)1 ,· · · , u(1)j1 } de Kerβ;

— complétons B(1) en une base B(1)∩ B(2) de Kerβ2, où B(2) ={u(2)1 ,· · · , u(2)j2j1};

— complétonsB(1)∩B(2)en une baseB(1)∩B(2)∩B(3)de Kerβ3, oùB(3) ={u(3)1 ,· · · , u(3)j3j2};

— etc.

(6)

— à la fin nous complétons B(1)∩ · · · ∩ B(m1) en une base B(1)∩ · · · ∩ B(m1)∩ B(m) de C, où B(m) ={u(m)1 ,· · · , u(m)jmjm1}.

Bien entendu, si à une étape k, on a jk = jk1, il n’y a rien à faire. Comme β envoie Kerβk+1 sur Kerβk, l’image de chaque vecteur dans B(k+1) est une combinaison linéaire des vecteurs dansB(1)∩ · · · ∩ B(k), ce qui fait que la matrice de β dans la base (ordonnée)

u(1)1 ,· · · , u(1)j1 , u(2)1 ,· · · , u(2)j2j2,· · · , u(m)1 ,· · · , u(m)jmjm−1

a la structure annoncée.

Compléments d’algèbre linéaire

Sur la preuve du théorème de Cayley–Hamilton

Il en existe plusieurs, en voici une possible. Soit E un espace vectoriel sur Rde dimension net soit ϕEnd(E). On note Pϕ son polynôme caractéristique.

DéfinitionUn vecteuruEest ditcycliquepourϕsi la famille(u, ϕ(u), ϕ2(u),· · ·, ϕn−1(u))est libre.

a) Nous supposons dans un premier temps qu’il existe un vecteur cycliqueupourϕ. Alors(u, ϕ(u), ϕ2(u),· · · , ϕn−1(u)) est une base deE et donc nous pouvons décomposerϕn(u)dans cette base :∃a0, a1,· · ·, an1R,

ϕn(u) =−a0ua1ϕ(u)− · · · −an−1ϕ(n1)(u) (3) On en déduit que la matriceM deϕdans la base(u, ϕ(u), ϕ2(u),· · · , ϕn1(u))a pour expression

M =

0 0 · · · −a0

1 0 −a1

... . .. ... ... 0 · · · 1 −an1

Il n’est pas très difficile de calculer le polynôme caractéristique de cette matrice, et donc, en même temps, Pϕ, ce qui donne :

Pϕ(λ) =det(λ1nM) =λn+an1λn1+· · ·+a1λ+a0

A posteriori la relation (3) signifie quePϕ(ϕ)(u) = 0. Cela entraîne aussi

∀j∈ {1,· · ·, n1}, Pϕ(ϕ) ϕj(u)

=ϕj(Pϕ(ϕ)(u)) = 0

et donc, comme(u, ϕ(u), ϕ2(u),· · ·, ϕn1(u))est une base deE,Pϕ(ϕ) = 0. Cela le montre le théorème de Cayley–Hamilton dans le cas où il existe un vecteur cyclique pourϕ.

b) Le cas général s’obtient en observant que : (i) l’application

End(E) −→ R

ϕ 7−→ Pϕ(ϕ)

est un polynôme enn2 variables et est donc une application continue.

(ii) cette application s’annule sur le sous-ensemble de End(n,R)des endomorphismes qui admettent un vecteur cyclique.

(iii) le sous-ensemble de End(n,R)des endomorphismes qui admettent un vecteur cyclique est dense dans End(n,R).

(7)

Les observations (ii) et (iii) entraînent effectivement qu’il existe un sous-ensemble dense de End(E)sur lequelPϕ(ϕ)s’annule, ce qui entraîne, grâce au (i) que quePϕ(ϕ) = 0partout.

L’assertion (i) est évidente, l’assertion (ii) a été montrée précédemment en a), il nous reste à montrer (ii). Fixons une base(e1,· · · , en)deE et considérons l’endomorphismeχEnd(E)tel queχ(ei) =ei+1,

∀i∈ {1,· · · , n1} etχ(en) = 0. Cet endomorphisme admet bien entendu e1comme vecteur cyclique.

Soit, à présent,ϕEnd(E)et montrons qu’on peut approcherϕpar une suite d’endomorphismes qui admettente1 comme vecteur cyclique. Il suffit pour cela de considérerϕs:= (1s)ϕ+sχ, poursR. Cet endomorphisme admete1comme vecteur cyclique ssi le rang de(e1, ϕs(e1),· · · ,s)n−1(e1))est égal àn, c’est à dire ssi

det(e1,···,en) e1, ϕs(e1),· · ·,s)n−1(e1) 6= 0

L’expression à gauche est un polynôme en la variablesde degré n(n2−1)qui est non nul car il vaut 1 pour s= 1. Il admet donc au plus n(n21) racines réelles et est non nul en dehors de ces racines, donc pours prenant ses valeurs dans un sous-ensemble dense deR. En prenant une suite de valeurs desqui évite ces racines et qui tend vers 0, on obtient une suite d’endomorphismesϕs qui tend versϕ et qui admettent e1 comme vecteur cyclique.

Références

Documents relatifs

Il est bien connu que dans ce cas (cf. [2]) le problème périodique a effectivement des solutions. On peut retrouver ce résultat comme conséquence du corollaire l,mais nous nous

Il faut tracer la tangente en 0 et évaluer le coefficient directeur pour chacune des courbes.. La seule courbe qui vérifie cette condition est la

k, s’il existe des relations de dépendance linéaire à coefficients dans k entre les éléments d’une base de solutions d’une équation différentielle linéaire donnée à

Toute utilisation commerciale ou impression sys- tématique est constitutive d’une infraction pénale.. Toute copie ou impression de ce fi- chier doit contenir la présente mention

qui leur est relative, admet au moins une solution en dehors des solutions connues a prioii mais il peut se faire que pour certains ellipsoïdes de bifurcation il y

Il est bien connu que dans ce cas (cf. [2]) le problème périodique a effectivement des solutions. On peut retrouver ce résultat comme conséquence du corollaire l,mais nous nous

Levons maintenant l’hypothèse que nous avons faite sur la continuité des coefficients a.,(t) de l’équation (t) ; d’une façon plus précise, supposons que les

Rappelons que pour les équations aux dérivées partielles linéaires à caractéristiques simples, le problème de la construction de solutions holomorphes ramifiées [d'un type