CHAPITRE 8
Equations diff´ ´ erentielles
8.1 Equations diff´ ´ erentielles lin´ eaires
Les applications consid´er´ees dans cette section sont d´efinies sur un intervalle I de R et `a valeurs dans un espace vectoriel norm´e F de dimension finie n sur R ou C .
8.1.1 Equations lin´ ´ eaires d’ordre 1
a) Compl´ ements de calcul int´ egral
Proposition 8.1.1 . Soit f ∈ CM ([a, b], F ), on pose R
n(f ) = b − a n
P
n k=1f(x
k) o` u x
k= a + k b − a
n . La suite R
n(f) admet une limite quand n → + ∞ . D´em : Soit (e
1, . . . , e
p) une base de F et f = P
pi=1
f
ie
i.
• f
i∈ CM ([a, b], K ) donc les sommes de Riemann des f
iconvergent vers leur int´egrale :
n→+∞
lim R
n(f
i) = Z
ba
f
i(t) dt.
Par lin´earit´e, on a alors
R
n(f ) = b − a n
X
nk=1
X
pi=1
f
i(x
k)e
i!
= X
pi=1
b − a n
X
nk=1
f
i(x
k)
! e
i= X
pi=1
R
n(f
i)e
idonc la suite (R
n(f)) converge vers P
p i=1R
ba
f
i(t) dt e
iD´ efinition 8.1.1. Int´ egrale des fonctions de CM ([a, b], F ) On appelle int´egrale de f sur [a, b] la quantit´e not´e
Z
b af (t) dt = lim
n→+∞
R
n(f).
415
Remarque 8.1.1.
(i) La d´efinition de Z
ba
f (t) dt ne d´epend pas de la base (e
i) que l’on a choisie dans la proposition pr´ec´edente.
D´em : C’est une cons´equence de l’unicit´e de la limite. En effet, on vient de prouver que la suite (R
n(f )) avait une limite dans l’espace vectoriel F donc R
ba
f (t) dt ne d´epend pas de la base choisie pour la calculer
(ii) On a les propri´et´es de l’int´egrale des fonctions complexes : lin´earit´e, Chasles, ( R
xa
f(t) dt)
′= f(x), u R
xa
f(t) dt
= R
xa
u(f (t)) dt (u application lin´eaire).
D´em : Il suffit d’utiliser la formule R
xa
f (t) dt = P
p i=1R
xa
f
i(t) dt
e
i. Les trois premi`eres propri´et´es cit´ees d´ecoulent imm´ediatement de cette relation.
De mˆeme, si u est une application lin´eaire alors
u Z
xa
f(t) dt
= u X
pi=1
Z
x af
i(t) dt.e
i!
= X
pi=1
Z
x af
i(t) dt
u(e
i)
= Z
xa
u X
pi=1
f
i(t)e
i! dt =
Z
x au(f (t)) dt
Question
Montrer que, pour f ∈ CM ([a, b], F ),
Z
b af (t) dt
6Z
ba
k f(t) k dt pour a < b.
b) D´ efinitions, th´ eor` eme de Cauchy-Lipschitz D´ efinition 8.1.2. Equation lin´ ´ eaire d’ordre 1
On appelle ´equation diff´erentielle lin´eaire d’ordre 1 (synonyme ´equation diff´erentielle lin´eaire du premier ordre) toute ´equation qui s’´ecrira sous la forme
(1) x
′(t) = a(t)(x(t)) + b(t) = a(t).x(t) + b(t)
o` u a d´esigne une application continue de I dans L (F ) et b une application continue de I dans F , a(t).x ´etant une notation simplifi´ee correspondant `a l’image du vecteur x(t) de F par l’application lin´eaire a(t).
On appelle solution de cette ´equation toute fonction x de classe C
1sur I v´erifiant x
′(t) = a(t).x(t) + b(t) pour tout t de I (mˆeme notation que ci-dessus).
Remarque 8.1.2.
(i) On ´ecrit souvent x
′= a(t).x + b(t) `a la place de (1) (moins de parenth`eses).
(ii) Traduction matricielle Si on prend une base de F et si on note A(t) la matrice de l’application lin´eaire a(t), B(t) la matrice unicolonne de b(t) et X celle de x alors l’´equation diff´erentielle s’´ecrit :
(2) X
′= A(t).X + B(t).
(iii) Traduction en syst` emes d’´ equations diff´ erentielles scalaires On reprend le pr´ec´edent syst`eme et on ´ecrit le syst`eme d´evelopp´e :
(3)
x
′1= a
11(t)x
1+ · · · + a
1n(t)x
n+ b
1(t) . . . .
x
′n= a
n1(t)x
1+ · · · + a
nn(t)x
n+ b
n(t)
(iv) On peut ramener un syst`eme lin´eaire d’ordre p `a un syst`eme lin´eaire du pre- mier ordre :
Si y
(p)+a
p−1y
(p−1)+ · · · +a
0y = b est une ´equation diff´erentielle lin´eaire d’ordre p, on peut la ramener `a un syst`eme lin´eaire du premier ordre en posant x
1= y, x
2= y
′,...,x
p= y
(p−1), on aura alors (dans le cas d’une ´equation scalaire)
X
′=
0 1 0
.. . . .. ...
0 . . . 0 1
− a
0. . . . − a
p−1
X +
0 .. . 0 b
D´em : On a X =
y y
′...
y
(p−1)
or la premi`ere ligne de la matrice s’´ecrit y
′= y
′, il en va de mˆeme des autres `a l’exception de la derni`ere qui s’´ecrit
y
(p)= − a
0y − · · · − a
p−1y
(p−1)+ b
D´ efinition 8.1.3. Probl` eme de Cauchy, conditions initiales
Soit x
′= a(t).x + b(t) une ´equation diff´erentielle lin´eaire, on appelle probl`eme de Cauchy aux conditions initiales (t
0, x
0) ∈ I × F le probl`eme suivant :
trouver une solution v´erifiant la condition initiale x(t
0) = x
0pour un t
0∈ I.
Remarque 8.1.3. Il existe d’autres conditions pour une ´equation diff´erentielle que les conditions initiales, notamment les conditions aux limites.
Th´ eor` eme 8.1. Th´ eor` eme de Cauchy-Lipschitz lin´ eaire
Pour tout probl`eme de Cauchy (i.e. pour toute condition initiale (t
0, x
0) ∈ I × F ) il existe une solution et une seule `a l’´equation diff´erentielle (1).
D´em : (Non exigible)
On va utiliser la convergence normale d’une s´erie de fonctions d´efinie sur un segment J ⊂ I. Comme il n’est pas facile de raisonner avec les fonctions d´eriv´ees, on remplace l’´equation diff´erentielle par une ´equation int´egrale :
x solution de (1), x(t
0) = x
0⇔ x(t) = x
0+ R
tt0
(a(s).x(s) + b(s)) ds.
Montrons cette ´equivalence :
( ⇒ ) On a x
′(s) = a(s).x(s) + b(s) pour tout s ∈ I d’o` u, en int´egrant de t
0`a t, on obtient Z
tt0
x
′(s) ds = x(t) − x(t
0) = Z
tt0
(a(s).x(s) + b(s)) ds.
( ⇐ ) Si x(t) = x
0+ R
tt0
(a(s).x(s) + b(s)) ds alors x est d´erivable grˆace au th´eor`eme fondamental du calcul diff´erentiel et x
′(t) = a(t).x(t) + b(t). Si t = t
0alors x(t
0) = x
0.
Existence : On pose E = C (I, F ), soit G : x ∈ E 7→ G(x) ∈ E d´efini par G(x)(t) = x
0+
Z
t t0(a(s).x(s) + b(s)) ds.
Compte tenu de l’´equivalence montr´ee en pr´eambule, il suffit de trouver un point fixe de G pour obtenir l’existence d’une solution.
Montrons par r´ecurrence que
(I) ∀ (x, y) ∈ E
2, k G
n(x)(t) − G
n(y)(t) k
6K
t(M
t| t − t
0| )
nn!
o` u K
t= sup
s∈[t0,t]
k x(s) − y(s) k , M
t= sup
s∈[t0,t]
k a(s) k et G
nd´esigne l’it´er´e d’ordre n de G. On d´emontre que l’in´egalit´e (I) est r´ealis´ee pour tout u ∈ [t
0, t] :
• Supposons dans un premier temps que t
>t
0, soit u ∈ [t
0, t] alors k G(x)(u) − G(y)(u) k =
Z
u t0a(s).x(s) ds − Z
ut0
a(s).y(s) ds
=
Z
u t0a(s).(x(s) − y(s)) ds
par lin´earit´e de a(s) 6
Z
u t0k a(s).(x(s) − y(s)) k ds 6 Z
ut0
k a(s) k . k x(s) − y(s) k ds on utilise l’in´egalit´e k a(s)(x(s) − y(s)) k
6k a(s) k . k x(s) − y(s) k car a(s) est une application lin´eaire continue donc
k G(x)(u) − G(y)(u) k 6 (u − t
0)M
tK
tcar k a(s) k 6 M
u6 M
tpar hypoth`ese et k x(s) − y(s) k 6 K
u6 K
t(les applications u 7→ M
uet u 7→ K
usont croissantes car on prend la borne sup´erieure sur des ensembles croissants).
• Passage de l’ordre n `a l’ordre n + 1 : on proc`ede de la mˆeme mani`ere, on suppose que k G
n(x)(u) − G
n(y)(u) k
6K
t[M
t(u − t
0)]
nn! , alors k G
n+1(x)(u) − G
n+1(y)(u) k =
Z
u t0a(s).[G
n(x)(s) − G
n(y)(s)] ds
6 Z
ut0
k a(s) k . k G
n(x)(s) − G
n(y)(s) k ds 6
Z
u t0M
tK
t[M
t(s − t
0)]
nn! ds 6 K
tM
tn+1Z
ut0
(s − t
0)
nn! ds 6 K
t[M
t(u − t
0)]
n+1(n + 1)!
car une primitive de (s − t
0)
nest (s − t
0)
n+1n + 1 (surtout ne pas d´evelopper !).
Ceci termine la r´ecurrence en rempla¸cant u par t.
• Pour t < t
0, c’est la mˆeme chose mais il faut g´erer les valeurs absolues dans l’in´egalit´e :
k G
n+1(x)(u) − G
n+1(y)(u) k 6
Z
u t0k a(s) k . k G
n(x)(s) − G
n(y)(s) k ds
6 K
tM
tn+1Z
u t0(s − t
0)
nn! ds
6 K
t[M
t| u − t
0| ]
n+1(n + 1)!
On pose ensuite x
n= G
n(x
0) et en notant x
0la fonction constante ´egale `a x
0, on a alors
k x
n+1(t) − x
n(t) k = k G
n(x
1)(t) − G
n(x
0)(t) k 6 K
t(M
t| t − t
0| )
nn!
en appliquant (I) `a x = x
1et y = x
0(ici K
t= sup
s∈[t0,t]
k x
(s) − x
0k ).
Soit J = [a, b] ⊂ I un segment alors sup
t∈[a,b]
k x
n+1(t) − x
n(t) k 6 K
J(M
Jl)
nn!
o` u K
J= max(K
a, K
b), M
J= max(M
a, M
b) et l = max( | a − t
0| , | b − t
0| ). Par le crit`ere de d’Alembert, la s´erie P
K
J(M
Jl)
nn! converge, on en d´eduit que
• la s´erie x
0+
+P
∞ n=0(x
n+1− x
n) converge normalement sur tout segment J de I.
• Comme C (J, F ) est un espace de Banach, sa somme x est bien d´efinie (on a convergence simple) et continue sur J (cf. th´eor`eme 5.50 page 329 ´etendu au cas des fonctions `a valeurs dans un espace vectoriel norm´e de dimension finie).
• x est donc continue sur tout segment J ⊂ I donc x ∈ C (I, F ).
• x
n=
n−1
P
p=0
(x
p+1− x
p) + x
0donc x
n−−→
C.U.Jx et a.x
n−−→
C.U.Ja.x car k a(s).(x(s) − x
n(s)) k 6 k a(s) k . k x(s) − x
n(s) k 6 M
Jsup
s∈J
k x(s) − x
n(s) k .
• Pour J = [t
0, t], comme on a convergence uniforme de (a.x
n) vers a.x, on peut passer `a la limite dans l’´egalit´e
x
n+1(t) = x
0+ Z
tt0
(a(s).x
n(s) + b(s)) ds pour obtenir x(t) = x
0+
Z
t t0(a(s).x(s) + b(s)) ds.
Conclusion x v´erifie (1) avec la condition initiale x(t
0) = x
0.
Unicit´e : Soit x et y deux solutions alors x = G(x) = G
n(x) (r´ecurrence imm´ediate) pour tout n, de mˆeme pour y.
On applique l’in´egalit´e (I), on a k x(t) − y(t) k
6K
t(M
t| t − t
0| )
nn! pour tout n. En prenant la limite quand n → + ∞ , x(t) = y(t) pour tout t ∈ I i.e. x = y
c) Etude de la r´ ´ esolution
Th´ eor` eme 8.2. Equation homog` ´ ene Les solutions sur I de l’´equation
(4) x
′= a(t).x
constituent un sous-espace vectoriel E de C
1(I, F ). En outre, ´etant donn´e un
´el´ement t
0de I , l’application ϕ qui `a tout ´el´ement x de E associe x(t
0) est un isomorphisme de E sur F .
En particulier, la dimension de E est ´egale `a n = dim F .
D´em : E sous-espace vectoriel de C
1(I, F ) est une cons´equence imm´ediate de la lin´earit´e des applications a(t).
On pose ϕ : x ∈ E 7→ x(t
0) ∈ F et ψ : x
0∈ F 7→ x ∈ E , x(t
0) = x
0. ψ est d´efinie grˆace au th´eor`eme de Cauchy-Lipschitz et c’est l’inverse de ϕ :
• ϕ est une application lin´eaire de E dans F (imm´ediat).
• On sait, grˆace au th´eor`eme de Cauchy-Lipschitz lin´eaire que, t
0∈ I ´etant donn´e, il existe une unique solution de (4) x v´erifiant x(t
0) = x
0donc ψ est bien d´efinie, la lin´earit´e de ψ ´etant elle aussi imm´ediate.
• On a alors ϕ(ψ(x
0)) = ϕ(x) = x(t
0) = x
0pour tout x
0∈ F soit ϕ ◦ ψ = Id
F.
• ψ(ϕ(x)) = ψ(x(t
0)) = x car si y est une solution de (4) qui v´erifie y(t
0) = x(t
0) alors x = y (l’unicit´e de la solution d’une ´equation diff´erentielle joue un grand rˆole ici, rˆole que l’on retrouvera souvent par la suite) donc ψ ◦ ϕ = Id
E. On a ainsi prouv´e que ϕ ´etait un isomorphisme et dim E = dim ϕ(E) = dim F Lemme 8.3. x
1, . . . , x
pd´esignant p solutions de (4), si λ
1x
1(t
0) + · · · + λ
px
p(t
0) = 0 pour un t
0de I alors λ
1x
1(t) + · · · + λ
px
p(t) = 0 pour tout t de I.
D´em : 0 est solution de (4), on utilise alors l’unicit´e :
on pose x = λ
1x
1+ · · · + λ
px
p, par lin´earit´e, x est solution de (4) et x(t
0) = 0. On a donc ϕ(x) = 0 donc ψ(ϕ(x)) = x = 0 (en utilisant les d´etails de la d´emonstration pr´ec´edente
Th´ eor` eme 8.4 . Wronskien
Si x
1, x
2,...,x
nd´esignent n solutions de (4) telles que det(x
i(t
0)) 6 = 0, alors det(x
i(t)) 6 = 0 pour tout t de I (o` u le d´eterminant des x
iest pris dans une base de F ). Ce d´eterminant est appel´e wronskien.
Toutes les solutions de (4) s’´ecrivent x(t) = P
n i=1λ
ix
i(t).
D´em : Par contrapos´ee en utilisant le lemme 8.3, ensuite la famille des (x
i) est une
famille libre de n vecteurs dans un espace de dimension n, c’est une base :
• S’il existe t
1∈ I tel que det(x
i(t
1)) = 0 (c’est la n´egation de la conclusion) alors cela signifie que les vecteurs (x
1(t
1), . . . , x
n(t
1)) sont li´es. Il existe des λ
inon tous nuls tels que λ
1x
1(t
1) + · · · + λ
nx
n(t
1) = 0. Il suffit d’appliquer le lemme pr´ec´edent, on en d´eduit que λ
1x
1(t) + · · · + λ
nx
n(t) = 0 pour tout t ∈ I, en particulier pour t = t
0. On obtient ainsi det(x
i(t
0)) = 0.
• Soit x une solution de (4), la famille (x
i(t
0)) est libre et contient n ´el´ements, c’est donc une base de F , on peut alors exprimer x(t
0) dans cette base :
x(t
0) = λ
1x
1(t
0) + · · · + λ
nx
n(t
0).
On utilise encore le lemme avec λ
1x
1+ · · · + λ
nx
n− x. Comme cette solution de (4) s’annule en t
0, elle s’annule sur tout I donc x =
P
n i=1λ
ix
iD´ efinition 8.1.4. Syst` eme fondamental de solutions
Les x
iforment alors ce qu’on appelle un syst`eme fondamental de solutions.
Application : M´ ethode de variation des constantes
Si on connaˆıt un syst`eme fondamental de solutions de (4), on va chercher une solution particuli`ere de (1) sous la forme :
x(t) = λ
1(t)x
1(t) + λ
2(t)x
2(t) + · · · + λ
n(t)x
n(t). On trouvera alors la condition b(t) = λ
′1(t)x
1(t) + λ
′2(t)x
2(t) + · · · + λ
′n(t)x
n(t) i.e.
b
1(t) = λ
′1(t)x
11(t) + λ
′2(t)x
12(t) + · · · λ
′n(t)x
1n(t) . . . . b
n(t) = λ
′1(t)x
n1(t) + λ
′2(t)x
n2(t) + · · · λ
′n(t)x
nn(t)
Or, pour tout t, ce syst`eme est de Cramer, on pourra calculer les λ
′iet pour avoir une solution particuli`ere de (2), il suffira de les int´egrer.
D´em : On d´erive x(t) :
x
′(t) = λ
1(t)x
′1(t) + · · · + λ
n(t)x
′n(t) + λ
′1(t)x
1(t) + · · · + λ
′n(t)x
n(t)
= λ
1(t)(a(t).x
1(t)) + · · · + λ
n(t)(a(t).x
n(t)) + λ
′1(t)x
1(t) + · · · + λ
′n(t)x
n(t)
= a(t) [λ
1(t)x
1(t) + · · · + λ
n(t)x
n(t)] + λ
′1(t)x
1(t) + · · · + λ
′n(t)x
n(t)
= a(t).x(t) + λ
′1(t)x
1(t) + · · · + λ
′n(t)x
n(t)
= a(t).x(t) + b(t)
d’o` u b(t) = λ
′1(t)x
1(t) + λ
′2(t)x
2(t) + · · · + λ
′n(t)x
n(t).
Les formules de Cramer donnent
λ
′1(t) = det(b(t), x
2(t), . . . , x
n(t)) . . . = . . .
λ
′n(t) = det(x
1(t), . . . , x
n−1(t), b(t))
Il suffit en effet (!) d’int´egrer les λ
′iavec les formules que l’on vient de trouver. Ce
calcul nous fournit une solution particuli`ere de l’´equation compl`ete. Cette m´ethode
est rarement utilis´ee telle qu’elle mais on la retrouvera cependant avec les ´equations
diff´erentielles lin´eaires du second ordre
Questions : (i) R´esoudre
( x
′+ y = a(t)
y
′− x = b(t) o` u a et b sont des fonctions continues sur R .
(ii) R´esoudre
( (t
2+ 1)x
′= tx + y + 2t
2− 1 (t
2+ 1)y
′= − x + ty + 3t
(iii) R´esoudre
( (t + 1)x
′= tx + y − t − 2 (t − 1)y
′= − x + ty − 2t + 1
8.1.2 Equations lin´ ´ eaires ` a coefficients constants
On rappelle que, si a ∈ L (F ) alors exp(ta) est d´erivable, de d´eriv´ee a exp(ta) (cf.
th´eor`eme 5.60 page 338).
Proposition 8.1.2. On a exp(sa). exp(ta) = exp[(s + t)a].
D´em : Avec la th´eorie des ´equations diff´erentielles : on pose g(t) = e
(t+s)ae
−ta. Le th´eor`eme cit´e ci-dessus nous dit que a commute avec e
tad’o` u
g
′(t) = e
(t+s)a( − a e
−ta) + a e
(t+s)ae
−ta= − a e
(t+s)ae
−ta+a e
(t+s)ae
−ta= 0 donc g est constante soit g(t) = g(0) = e
sa= e
(t+s)ae
−ta.
Avec s = 0 on obtient g(t) = e
tae
−ta= e
0= Id
Fdonc e
−ta= (e
ta)
−1.
On obtient le r´esultat en multipliant `a droite par e
tala relation e
sa= e
(t+s)ae
−ta. On peut d´eduire de ce r´esultat que e
taet e
sacommutent
Th´ eor` eme 8.5. R´ esolution de l’´ equation homog` ene
L’unique solution sur R du probl`eme de Cauchy x
′= a.x, x(t
0) = x
0o` u x
0est un vecteur de F , est la fonction t 7→ exp[(t − t
0)a].x
0.
Les solutions correspondant aux conditions initiales (t
0, x
0), (t
0+ s, x
0) se d´eduisent l’une de l’autre par translation du param`etre s.
D´em :
• On a une d´emonstration directe, sans utiliser le th´eor`eme de Cauchy-Lipschitz.
En effet l’´equation x
′= a.x est ´equivalente `a (exp( − ta).x(t))
′= 0 : x
′(t) = a.x(t) ⇔ exp( − ta)[x
′(t) − ax(t)] = 0
⇔ exp( − ta)x
′(t) − a exp( − ta)x(t) = 0
⇔ (exp( − ta).x(t))
′= 0 donc exp( − ta).x(t) est constant et vaut exp( − t
0a).x
0.
On en d´eduit que x(t) = exp(ta) exp( − t
0a).x
0et, en utilisant la proposition
pr´ec´edente, que x(t) = exp[(t − t
0)a].x
0.
• Le deuxi`eme point est une cons´equence imm´ediate de la proposition pr´ec´edente :
Soient x et y les solutions correspondant respectivement aux conditions ini- tiales (t
0, x
0) et (t
0+ s, x
0), alors
x(t) = exp[(t − t
0)a].x
0et y(t) = exp[(t − t
0− s)].x
0donc y(t + s) = x(t) Remarque 8.1.4.
(i) Si on prend une base de F alors l’´equation s’´ecrit X
′= A.X et tout le probl`eme se ram`ene `a calculer exp(tA).
Si A = P DP
−1o` u D = Diag(λ
i) alors exp(tA) = P Diag(e
tλi)P
−1. D´em : On a D
k= Diag(λ
ki) (imm´ediat par r´ecurrence) d’o` u
exp(tD) = lim
p→+∞
X
pk=0
t
kD
kk! = lim
p→+∞
X
pk=0
Diag(t
kλ
ki/k!)
= lim
p→+∞
Diag X
pk=0
t
kλ
ki/k!
!
= Diag lim
p→+∞
X
pk=0
t
kλ
ki/k!
!
= Diag(e
tλi)
On utilise alors la formule exp(tA) = P exp(tD)P
−1qui s’obtient de la mani`ere suivante :
A
k= P D
kP
−1(r´ecurrence imm´ediate) puis exp(tA) = lim
p→+∞
X
pk=0
t
kk! A
k= lim
p→+∞
P X
pk=0
t
kk! D
k! P
−1et par continuit´e du produit matriciel
= P lim
p→+∞
X
pk=0
(tD)
kk!
! P
−1= P exp(tD)P
−1finalement, on arrive `a exp(tA) = P Diag(e
tλi)P
−1(ii) Si A est nilpotent d’indice p (i.e. A
p= 0), toutes les solutions de (1) sont polynomiales : exp(tA) = I
n+ tA + · · · + t
p−1(p − 1)! A
p−1.
Si A − λI
nest nilpotent alors X
′= AX ⇔ Y
′= (A − λI
n)Y o` u Y = e
−λtX et X = e
tλI
n+ (A − λI
n)t + · · · + (A − λI
n)
p−1(p − 1)! t
p−1X
0.
D´em : En effet exp(tA) =
+P
∞ k=0t
kk! A
kor si k > p, A
k= 0 donc cette somme est finie.
Si A − λI
nest nilpotent : X
′= AX alors
Y
′= (e
−λtX)
′= − λ e
−λtX + e
−λtX
′= [ − λI
n+ A] e
−λtX = (A − λI
n)Y.
La r´eciproque est imm´ediate. On utilise alors le premier point pour conclure
(iii) Si X
0est un vep de A associ´e `a la vap λ alors e
tAX
0= e
λtX
0o` u λ est un scalaire (il n’est pas n´ecessaire dans ce cas de calculer e
tA).
D´em : On sait que, si AX
0= λX
0alors A
kX
0= λ
kX
0(r´ecurrence imm´ediate) donc
e
tAX
0=
+∞
X
k=0
t
kk! A
k! X
0et par continuit´e du produit matriciel
= X
+∞k=0
t
kk! A
kX
0= X
+∞k=0
t
kk! λ
kX
0=
+∞
X
k=0
(λt)
kk!
!
X
0= e
λtX
0(iv) Si on connaˆıt une base de vecteurs propres X
iassoci´es `a des valeurs propres λ
ialors l’ensemble des solutions s’´ecrit
X = α
1e
tλ1X
1+ · · · + α
ne
tλnX
n,
les (e
tλiX
i) forment un syst`eme fondamental de solutions (et on peut appliquer la m´ethode de variation des constantes pour trouver une solution de l’´equation non homog`ene).
D´em : Chaque fonction X
i(t) = e
tλiX
iest solution et les vecteurs (X
i(0)) forment une base donc le th´eor`eme 8.4 page 420 nous dit que les fonctions X
i(t) r´ealisent un syst`eme fondamental de solutions
(v) Si la r´esolution de X
′= AX pour des conditions initiales X(0) = X
0quelcon- ques donne X(t) = B (t)X
0alors B(t) = exp(tA). Par exemple si on revient au (ii) de la remarque alors on peut en d´eduire que exp(tA) = e
tλexp(t(A − λI
n)).
D´em : On a d’une part X(t) = B (t)X
0et d’autre part X(t) = e
tAX
0donc B(t)X
0= e
tAX
0et ceci pour tout X
0donc les matrices B (t) et e
tAsont ´egales.
Si on reprend le (ii) alors on a vu que X(t) = e
tλe
t(A−λIn)X
0donc exp(tA) = e
tλexp(t(A − λI
n))
(vi) Ce que l’on a fait avec une matrice unicolonne peut se g´en´eraliser au cas o` u X
0est une matrice rectangulaire (ou carr´ee).
Th´ eor` eme 8.6 . Etude de l’´ ´ equation avec second membre
L’ensemble des solutions de l’´equation (1) x
′= a.x + b(t) s’´ecrit sous la forme
x(t) = e
taZ
tt0
e
−ua.b(u) du + e
(t−t0)a.x
0= Z
tt0
e
(t−u)a.b(u) dt + e
(t−t0)a.x
0.
D´em : L’´equation (1) se met l`a aussi sous la forme ´equivalente e
−ta.x
′= e
−ta.b(t).
En effet, x
′(t) − a.x(t) = b(t) peut s’´ecrire de mani`ere ´equivalente sous la forme e
−ta.x
′(t) − e
−taa.x(t) = e
−ta.b(t) (attention `a l’ordre des termes, bien mettre les matrices avant les vecteurs !). Or (e
−ta.x(t))
′= e
−ta.x
′(t) − e
−taa.x(t) d’o` u l’´equivalence annonc´ee.
Pour obtenir la formule annonc´ee, il suffit alors d’int´egrer cette derni`ere relation entre t
0et t et de tenir compte de la condition initiale x(t
0) = x
0.
On remarque ensuite que, si f est une application lin´eaire, alors f ( R
tt0
h(u) du) = R
tt0
f (h(u)) du o` u h est une fonction vectorielle (cf remarque 8.1.1(ii) page 416). On peut donc finalement ´ecrire
x(t) = Z
tt0
e
tae
−ua.b(u) du + e
(t−t0)a.x
0= Z
tt0
e
(t−u)a.b(u) dt + e
(t−t0)a.x
0. en utilisant la propri´et´e 8.1.2 page 422
Remarque 8.1.5.
(i) Le th´eor`eme pr´ec´edent s’´ecrit X(t) = e
tA. R
tt0
e
−uA.B(u) du + e
(t−t0)A.X
0avec les matrices.
(ii) Si P
A(λ) = ( − 1)
nλ
n+ · · · + a
0est le polynˆome caract´eristique de la matrice A et si x
isont les coordonn´ees d’une solution X
′= AX alors elles v´erifient P
A(D)(x
i) = 0 o` u D est l’op´erateur d´erivation.
D´em : En effet A
pX = X
(p)donc P
A(D)(X) = P
A(A)(X) et on utilise le th´eor`eme de Cayley-Hamilton :
– Par r´ecurrence, AX = X
′puis A
pX = X
(p)devient imm´ediat.
– Si P = a
0+ a
1X + · · · + a
mX
mest un polynˆome alors
P (D)(X) = (a
0Id +a
1D + · · · + a
mD
m)X = a
0X + a
1X
′+ · · · + a
mX
(m)= a
0X + a
1AX + · · · + a
mA
mX = P (A)X.
On applique cette propri´et´e `a P
Apolynˆome caract´eristique de A. Le th´eor`eme de Cayley-Hamilton donne P
A(A) = 0 donc P
A(D)X = 0. En regardant les coordonn´ees de ce vecteur, on obtient P
A(D)(x
i) = 0 ce qui permet de d´ecoupler les fonctions coordonn´ees i.e. de pouvoir trouver une solution sans avoir `a les chercher toutes
Questions : (i) R´esoudre
( x
′= 2x + 3y
y
′= − x − 2y O point r´epulsif.
(ii) R´esoudre
( x
′= 2x + 3y
y
′= − x − y O point attractif.
(iii) R´esoudre
x
′= − 4x + y + z y
′= x − y − 2z z
′= − 2x + y − z
.
8.1.3 Equations lin´ ´ eaires scalaires d’ordre 1 ou 2
a) Equation lin´ ´ eaire scalaire d’ordre 1
On rappelle ici comment on r´esout une ´equation diff´erentielle du premier ordre qui s’´ecrit sous la forme α(t)x
′+ β(t)x = γ(t) :
• On se place sur un intervalle J o` u l’´equation est r´esolue en x
′(i.e. on divise par α(t) sur un intervalle o` u α ne s’annule pas), on aura x
′= a(t)x + b(t) o` u a et b sont des fonctions continues `a valeurs complexes.
• R´ esolution : Soit A une primitive de a sur J qui s’annule en t
0∈ J alors x
′= a(t)x + b(t) ⇔ e
−A(t)x
′= e
−A(t)b(t) ⇔ x = x(t
0) e
A(t)+ e
A(t)Z
t t0e
−A(u)b(u) du.
D’o` u, si l’on se donne (t
0, x
0) ∈ I × C , on ne trouvera qu’une seule solution d´efinie sur I.
• L’ensemble des solutions de l’´equation r´esolue sans second membre est un C - espace vectoriel de dimension 1, l’ensemble des solutions de l’´equation compl`ete est un espace affine sur C de dimension 1.
b) Equations diff´ ´ erentielles lin´ eaires scalaires d’ordre 2
Soit (α, β, γ, δ) ∈ C
4(I, C ), α non identiquement nulle, on ´etudie l’´equation diff´erentielle
(1) α(t)x
′′+ β(t)x
′+ γ (t)x = δ(t)
Soit J un intervalle de R tel que pour tout t de J , on ait α(t) 6 = 0 alors on pourra ramener l’´equation (1) `a une forme ´equivalente
(2) x
′′= a(t)x
′+ b(t)x + c(t)
On sait alors que le probl`eme de Cauchy a une seule solution d´efinie sur J et que l’on peut se ramener `a une ´equation diff´erentielle lin´eaire d’ordre 1 avec y =
x x
′.
• Etude de l’´ ´ equation homog` ene :
(3) x
′′= a(t)x
′+ b(t)x
D´ efinition 8.1.5. Wronskien
Si x
1et x
2sont deux solutions lin´eairement ind´ependantes de (3) alors on appelle wronskien le d´eterminant W (t) =
x
1(t) x
2(t) x
′1(t) x
′2(t) .
Remarque 8.1.6. Cette d´efinition correspond bien `a celle de la d´efinition 8.4 page 420 en prenant X
1=
x
1x
′1et X
2= x
2x
′2.
D´em : On ´ecrit le syst`eme (3) sous la forme X =
0 1 a(t) b(t)
X avec X = x
x
′. Il reste `a montrer que si x
1et x
2sont deux solutions lin´eairement ind´ependantes alors X
1et X
2le sont aussi.
Par l’absurde : soit X
2= λX
1.
• λ est une fonction de classe C
1: λ = (X
2| X
1)
k X
1k
2est bien de classe C
1(X
1ne s’annule jamais car, vu l’unicit´e dans le th´eor`eme de Cauchy-Lipschitz, si X
1(t
0) = 0 alors X
1= 0).
• On a ainsi x
2= λx
1et x
′2= λx
′1d’o` u, en d´erivant la premi`ere relation, x
′2= λx
′1+ λ
′x
1ce qui donne λ
′x
1= 0.
• Or x
′′2= ax
′2+ bx
2= aλx
′1+ bλx
1= λx
′′1et, en d´erivant la deuxi`eme relation x
′2= λx
′1on arrive `a x
′′2= λx
′′1+ λ
′x
′1soit λ
′x
′1= 0.
Finalement, on obtient λ
′x
1x
′1= λ
′X
1= 0 donc λ
′= 0 car on a vu que X
1ne s’annulait pas. λ est donc constante, la famille (x
1, x
2) est li´ee ce qui est contradic- toire
Proposition 8.1.3 . W est solution de l’´equation diff´erentielle W
′= a(t)W d’o` u W (t) = W (t
0) exp
Z
t t0a(u) du
. Les solutions
x
1x
′1, x
2x
′2constituent un syst`eme fondamental de solutions de l’´equation d’ordre 1 associ´ee.
D´em : On peut d´eriver W (t) en d´eveloppant le d´eterminant mais il est une mani`ere plus g´en´erale (elle marche aussi pour les ´equations diff´erentielles lin´eaires d’ordre n) qui consiste `a d´eriver le d´eterminant ligne par ligne.
W
′(t) =
x
′1x
′2x
′1x
′2| {z }
=0
+
x
1x
2x
′′1x
′′2=
x
1x
2bx
1+ ax
′1bx
2+ ax
′2= b
x
1x
2x
1x
2| {z }
=0
+a
x
1x
2x
′1x
′2= aW.
Il suffit alors d’int´egrer l’´equation diff´erentielle W
′= aW
• Recherche des solutions de l’´ equation homog` ene :
→ Si on connaˆıt une solution x
1, on cherche les autres solutions sous la forme x = λx
1: on a ainsi
x
′= λx
′1+λ
′x
1, x
′′= λx
′′1+ 2λ
′x
′1+λ
′′x
1; on aura alors l’´equation diff´erentielle λ
′′x
1+ λ
′(2x
′1− a(t)x
1) = 0 ce qui donne, apr`es int´egration une autre solution x
2(t) = x
1(t)
Z
t t0W (u) x
21(u) du.
D´em : On peut retenir le r´esultat final mais ce n’est pas forc´ement facile aussi je recommande de retrouver cette formule par un calcul litt´eral ou, si les fonctions qui interviennent sont simples, par le calcul effectif. En posant x = λx
1sur un intervalle K o` u x
1ne s’annule pas alors
x(t) = λ(t)x
1(t) × ( − b)
x
′(t) = λ(t)x
′1(t) + λ
′(t)x
1(t) × ( − a) x
′′(t) = λ(t)x
′′1(t) + 2λ
′(t)x
′1(t) + λ
′′(t)x
1(t) × 1
. . . .
0 = 0 + λ
′(t)[2x
′1(t) − a(t)x
1(t)] + λ
′′(t)x
1(t).
On se ram`ene donc `a l’´equation diff´erentielle λ
′′x
1+ λ
′(2x
′1− a(t)x
1) = 0 qui s’int`egre formellement sous la forme λ
′′λ
′= ax
1− 2x
′1x
1= a − 2 x
′1x
1puis ln(λ
′/C) = W − ln(x
21) (toujours formellement) et on retrouve la formule λ
′(t) = C
x
21(t) e
(t)o` u W (t) = W (t
0) R
tt0