Équations différentielles
Cours de L3 par Frédéric Hélein
1, janvier–avril 2021
Mardi 9 février 2021
2.4 La solution des équations linéaires à coefficients constants non homogènes
A l’aide de l’exponentielle des matrices nous pouvons exprimer la solution d’une équa- tion différentielle de la forme
dx
dt(t) =A x(t) +B(t), (1)
où A ∈ M(n,R) et B ∈ C0(I,Rn). Nous utilisons pour cela la méthode de la variation de la constante, due à Joseph-Louis Lagrange. L’idée est de chercher les solutions de (1) comme étant des déformations des solutions des solutions de l’équation différentielle linéaire homogène associée dydt =Ay. Nous savons que les solutions de cette équations sont toutes de la forme y(t) = etAy0, où y0 ∈ Rn. Nous y remplaçons la constante y0 par une fonction inconnuez ∈C1(I,Rn).
Ainsi nous posons z(t) :=e−tAx(t), de sorte que
x(t) = etAz(t) et donc : dx
dt(t) = etA dz
dt(t) +Az(t)
En remplaçant dans l’équation (1) nous obtenons etA
dz dt +Az
=A etAz +B
et donc en simplifiant, on obtientetA dzdt =B, qui équivaut à dz
dt(t) = e−tAB(t).
La solution de cette équation est obtenue par une simple intégration z(t)−z(t0) =
Z t t0
e−τ AB(τ)dτ
Si nous imposons la condition initiale x(t0) = x0, qui équivaut à z(t0) = e−t0Ax0, nous obtenons z(t) = e−t0Ax0+Rt
t0e−τ AB(τ)dτ et donc x(t) = e(t−t0)Ax0+
Z t t0
e(t−τ)AB(τ)dτ (2)
1. Université de Paris, Licence 3 de Mathématiques,helein@math.univ-paris-diderot.fr
En particulier nous en concluons que l’ensemble Sdes solutions de (1) est un sous-espace affine de C1(I,Rn) de dimensionn. En effet Sest l’image de l’application affine
Rn −→ C1(I,Rn)
x0 7−→ [t7−→u(t) +e(t−t0)Ax0] oùu(t) :=Rt
t0e(t−τ)AB(τ)dτ.
2.5 Exemples d’exponentielles de matrice
Nous avons besoin de savoir calculer l’exponentielle d’une matrice A dans des cas pratiques. Nous connaissons déjà le principe dans le cas où A est diagonalisable : il est alors possible de décomposer A = P∆P−1, où P ∈ GL(n,C) et ∆ ∈ M(n,C) est une matrice diagonale. Nous exploitons le fait que
A2 = (P∆P−1)2 =P∆P−1 P∆P−1 =P∆2P−1
puis A3 = (P∆P−1)3 = P∆3P−1 et, d’une façon générale, Ak = P∆kP−1, ∀k ∈ N (avec la convention A0 = 1n). Donc
etA =
+∞
X
k=0
tkAk k! =
+∞
X
k=0
tkP∆kP−1 k! =P
+∞
X
k=0
tk∆k
k! P−1 =P et∆P−1
Voici quelques exemples.
(i) A =
0 1 1 0
Dans ce cas le polynôme caractéristique deAestPA(λ) =det(λ12− A) = (λ − 1)(λ + 1). Les valeurs propres −1 et 1 sont distinctes, donc A est diagonalisable. Des vecteurs propres pour ces valeurs propres sont respectivement
u−1 = −1
1
et u1 = 1
1
Nous en déduisons la matrice de passage P =
−1 1 1 1
avec P−1 = 1 2
−1 1 1 1
Donc
A= 1 2
−1 1 1 1
−1 0 0 1
−1 1 1 1
et
etA = 1 2
−1 1 1 1
e−t 0 0 et
−1 1 1 1
=
cosht sinht sinht cosht
(ii) A =
0 −1 1 0
Le polynôme caractéristique de A est PA(λ) = (λ− i)(λ +i).
Les valeurs propres −i et i sont distinctes, donc A est diagonalisable dans C. Des vecteurs propres pour ces valeurs propres sont respectivement
u−i =u:=
1 i
et u1 = ¯u= 1
−i
Nous en déduisons la matrice de passage P =
1 1 i −i
avec P−1 = 1 2
1 −i 1 i
Donc
A= 1 2
1 1 i −i
−i 0 0 i
1 −i 1 i
et
etA = 1 2
1 1 i −i
e−it 0 0 eit
1 −i 1 i
=
cost −sint sint cost
(iii) A =
2 1 0 0 2 1 0 0 2
Dans ce cas A n’est pas diagonalisable. En effet le polynôme caractéristique est PA(λ) = (λ−2)3 (ce que l’on peut déduire directement de la forme triangulaire) et donc 2 est l’unique valeur propre de A, avec multiplicité 3.
Si A était diagonalisable, on aurait A = P∆P−1, avec ∆ =
2 0 0 0 2 0 0 0 2
, mais
comme ∆ commute avec toutes les matrices, cela entraînerait que A = ∆, ce qui est impossible.
En revanche on a A= ∆ +N, avec N =
0 1 0 0 0 1 0 0 0
, et on remarque que
— [A,∆] = 0ou ∆A=A∆, c’est à dire A et∆ commutent;
— N est nilpotente, plus précisément,
N2 =
0 0 1 0 0 0 0 0 0
et N3 = 0.
La première remarque a pour conséquence queetA=et∆+tN =et∆etN. La deuxième remarque implique que
etN =
+∞
X
k=0
tkNk
k! = 1 +tN +1
2t2N2 =
1 t t2/2 0 1 t 0 0 1
De plus, on a bien évidemment et∆=e2t13. En conclusion on a donc
etA =e2t
1 t t2/2 0 1 t 0 0 1
.
2.6 Le calcul de l’exponentielle d’une matrice dans le cas général
2.6.1 Quelques rappels d’algèbre linéaire
Lorsqu’une matrice n’est diagonalisable ni dans R, ni dans C, parce que certaines de ses valeurs propres sont multiples, il est possible de la réduire sous la forme triangulaire.
Cependant il sera très utile de le faire de manière à obtenir des blocs diagonaux qui ont une structure analogue à celle de la matriceAétudiée au paragraphe (iii) précédemment. Dans ce qui suit, nous considérons un endomorphisme ϕ d’un espace vectoriel E de dimension n.
Le polynôme caractéristique deϕ dans une base BdeE est le polynôme Pϕ défini par Pϕ(λ) = det(λ1n−A), où A est la matrice de ϕ dans la base B. Ce polynôme ne dépend pas du choix de la base.
Théorème 2.1 (de Cayley–Hamilton) Pϕ(ϕ) = 0.
Soitr∈ {1,· · · , n}le nombre de valeurs propres distinctes, soitλ1,· · · , λr ∈Cles valeurs propres deϕ(comptées sans répétition) et, pour toutj ∈ {1,· · · , r}, soitmjla multiplicité deλj dans le polynôme Pϕ. On a alors m1+· · ·+mj =n.
Rappelons que, lorsqu’elle est possible, la diagonalisation deϕrepose sur l’introduction des sous-espaces propres Ej :=Ker(λj1E −ϕ) de ϕ, le fait que chaque Ej est stable par ϕ, i.e. ∀u ∈ Ej, ϕ(u) ∈ Ej et que la somme E1 +· · · + Er est directe. Alors on a E1 ⊕ · · · ⊕Er = E ssi ϕ est diagonalisable. Si cela n’est pas le cas, on fait appel aux sous-espaces caractéristiques.
Définition 2.1 Pour tout j ∈ {1,· · · , r} on définit le sous-espace caractéristique de ϕ pour la valeur propre λj comme étant Cj :=Ker(λj1E−ϕ)mj.
On a bien sûr Ej ⊂Cj et les résultats :
Lemme 2.1 Pour tout j ∈ {1,· · · , r}, Cj est stable par ϕ, i.e. ∀u∈Cj, ϕ(u)∈Cj. Proposition 2.1 La sommeC1+· · ·+Cr est directe et on a toujours C1⊕ · · · ⊕Cr =E. Comme, pour tout j ∈ {1,· · · , r}, Cj est stable par ϕ, la restriction de ϕ à Cj est un endomorphisme de Cj. Nous notons ϕj = ϕ|Cj ∈ End(Cj) et, étant donnée une base Bj = {uj,1,· · · , uj,mj} de Cj, nous notons Aj la matrice de ϕj dans cette base. Alors comme C1 ⊕ · · · ⊕Cr = E, la famille B = B1 ∪ · · · ∪ Br est une base de E et, en
respectant l’ordre indiqué des vecteurs de cette base, la matrice de A dans cette base est la matrice diagonale par bloc :
A=
A1 0 · · · 0 0 A2 · · · 0 ... ... ... ...
0 0 · · · Ar
et donc
etA=
etA1 0 · · · 0 0 etA2 · · · 0 ... ... ... ...
0 0 · · · etAr
Il nous reste à trouver, pour chaque j, une base Bj et donc une matrice Aj telle que le calcul de etAj soit pratiquable. Posons βj :=ϕj −λj1Cj = (ϕ−λj1E)|Cj ∈ End(Cj), de sorte que
(βj)mj = (ϕ−λj1E)mj|Cj = 0
Alors ϕj = λj1Cj + βj et, comme 1Cj commute avec tous les éléments de End(Cj), [λj1Cj, βj] = 0 et donc
etϕj =etλjetβj =etλj
mj−1
X
k=0
tk(βj)k k!
En effet la série qui définit etβj est un polynôme car βj est nilpotent.
Enfin il est possible de trouver une baseBj dans laquelle la matrice deβj est triangulaire supérieure, avec que des zéros sur la diagonale. Dans le lemme qui suit, nous omettons l’indicej pour alléger l’écriture.
Lemme 2.2 Soit C un espace vectoriel de dimension m et soit β ∈ End(C) tel que βm = 0. Alors il existe une base (u1,· · · , um)dans laquelle la matrice de β est triangulaire supérieure et tous les coefficients sur la diagonale sont nuls.
(Bien entendu on peut remplacer « triangulaire supérieure » par « triangulaire supé- rieure » sans difficulté.)
Démonstration — Nous avons une suite d’inclusions au sens large Kerβ ⊂ Kerβ2 ⊂ · · · ⊂ Kerβm =C
Pourk ∈ {1,· · · , m}, notons jk =dim(Kerβk), de sorte que 0≤j1 ≤j2 ≤ · · · ≤jm =m.
— choisissons une base B(1) ={u(1)1 ,· · · , u(1)j1 } de Kerβ;
— complétons B(1) en une base B(1)∩ B(2) de Kerβ2, où B(2) ={u(2)1 ,· · · , u(2)j2−j1};
— complétonsB(1)∩B(2)en une baseB(1)∩B(2)∩B(3)de Kerβ3, oùB(3) ={u(3)1 ,· · · , u(3)j3−j2};
— etc.
— à la fin nous complétons B(1)∩ · · · ∩ B(m−1) en une base B(1)∩ · · · ∩ B(m−1)∩ B(m) de C, où B(m) ={u(m)1 ,· · · , u(m)jm−jm−1}.
Bien entendu, si à une étape k, on a jk = jk−1, il n’y a rien à faire. Comme β envoie Kerβk+1 sur Kerβk, l’image de chaque vecteur dans B(k+1) est une combinaison linéaire des vecteurs dansB(1)∩ · · · ∩ B(k), ce qui fait que la matrice de β dans la base (ordonnée)
u(1)1 ,· · · , u(1)j1 , u(2)1 ,· · · , u(2)j2−j2,· · · , u(m)1 ,· · · , u(m)jm−jm−1
a la structure annoncée.
Compléments d’algèbre linéaire
Sur la preuve du théorème de Cayley–Hamilton
Il en existe plusieurs, en voici une possible. Soit E un espace vectoriel sur Rde dimension net soit ϕ∈End(E). On note Pϕ son polynôme caractéristique.
DéfinitionUn vecteuru∈Eest ditcycliquepourϕsi la famille(u, ϕ(u), ϕ2(u),· · ·, ϕn−1(u))est libre.
a) Nous supposons dans un premier temps qu’il existe un vecteur cycliqueupourϕ. Alors(u, ϕ(u), ϕ2(u),· · · , ϕn−1(u)) est une base deE et donc nous pouvons décomposerϕn(u)dans cette base :∃a0, a1,· · ·, an−1∈R,
ϕn(u) =−a0u−a1ϕ(u)− · · · −an−1ϕ(n−1)(u) (3) On en déduit que la matriceM deϕdans la base(u, ϕ(u), ϕ2(u),· · · , ϕn−1(u))a pour expression
M =
0 0 · · · −a0
1 0 −a1
... . .. ... ... 0 · · · 1 −an−1
Il n’est pas très difficile de calculer le polynôme caractéristique de cette matrice, et donc, en même temps, Pϕ, ce qui donne :
Pϕ(λ) =det(λ1n−M) =λn+an−1λn−1+· · ·+a1λ+a0
A posteriori la relation (3) signifie quePϕ(ϕ)(u) = 0. Cela entraîne aussi
∀j∈ {1,· · ·, n−1}, Pϕ(ϕ) ϕj(u)
=ϕj(Pϕ(ϕ)(u)) = 0
et donc, comme(u, ϕ(u), ϕ2(u),· · ·, ϕn−1(u))est une base deE,Pϕ(ϕ) = 0. Cela le montre le théorème de Cayley–Hamilton dans le cas où il existe un vecteur cyclique pourϕ.
b) Le cas général s’obtient en observant que : (i) l’application
End(E) −→ R
ϕ 7−→ Pϕ(ϕ)
est un polynôme enn2 variables et est donc une application continue.
(ii) cette application s’annule sur le sous-ensemble de End(n,R)des endomorphismes qui admettent un vecteur cyclique.
(iii) le sous-ensemble de End(n,R)des endomorphismes qui admettent un vecteur cyclique est dense dans End(n,R).
Les observations (ii) et (iii) entraînent effectivement qu’il existe un sous-ensemble dense de End(E)sur lequelPϕ(ϕ)s’annule, ce qui entraîne, grâce au (i) que quePϕ(ϕ) = 0partout.
L’assertion (i) est évidente, l’assertion (ii) a été montrée précédemment en a), il nous reste à montrer (ii). Fixons une base(e1,· · · , en)deE et considérons l’endomorphismeχ∈End(E)tel queχ(ei) =ei+1,
∀i∈ {1,· · · , n−1} etχ(en) = 0. Cet endomorphisme admet bien entendu e1comme vecteur cyclique.
Soit, à présent,ϕ∈End(E)et montrons qu’on peut approcherϕpar une suite d’endomorphismes qui admettente1 comme vecteur cyclique. Il suffit pour cela de considérerϕs:= (1−s)ϕ+sχ, pours∈R. Cet endomorphisme admete1comme vecteur cyclique ssi le rang de(e1, ϕs(e1),· · · ,(ϕs)n−1(e1))est égal àn, c’est à dire ssi
det(e1,···,en) e1, ϕs(e1),· · ·,(ϕs)n−1(e1) 6= 0
L’expression à gauche est un polynôme en la variablesde degré n(n2−1)qui est non nul car il vaut 1 pour s= 1. Il admet donc au plus n(n2−1) racines réelles et est non nul en dehors de ces racines, donc pours prenant ses valeurs dans un sous-ensemble dense deR. En prenant une suite de valeurs desqui évite ces racines et qui tend vers 0, on obtient une suite d’endomorphismesϕs qui tend versϕ et qui admettent e1 comme vecteur cyclique.