Équations différentielles
Cours de L3 par Frédéric Hélein 1 , janvier–avril 2021
Mardi 26 janvier 2021
1 Généralités
Une équation différentielle (ou un système d’équations différentielles) est une équation (ou un système) dont l’inconnue est une fonction de une ou plusieurs variables et qui consiste en un système de relations que doivent satisfaire la fonction et certaines de ses dérivées en chaque valeur de la variable (ou des variables s’il y en a plusieurs).
1.1 Equations différentielles scalaires
Un exemple simple est l’équation : y
′+ ay = 0. Dans ce cas l’inconnue est une fonction y d’une variable réelle et à valeur réelle. Un autre exemple est l’équation de Laplace
∆u =
(∂x∂21u)2+ · · · +
(∂x∂2un)2
= 0. Dans ce cas u est une fonction de n variables (x
1, · · · , x
n) (définie par exemple sur un ouvert de R
n).
Dans ce cours nous ne considérerons que des équations différentielles dont les inconnues sont des fonctions d’une variable. On nomme ces équations les équations différentielles ordinaires (par opposition aux équations aux dérivées partielles, dont les inconnues sont des fonctions de plusieurs variables et qui font intervenir des relations entre dérivées partielles).
Si k ∈ N
∗, une équation différentielle ordinaire scalaire d’ordre k est décrite par la donnée d’un ouvert U ⊂ R
k+2et d’une application
G : U −→ R
(t, x
0, x
1, · · · , x
k) 7−→ G(t, x
0, x
1, · · · , x
k) L’équation s’écrit
G
t, y(t), dy
dt (t), · · · , d
ky dt
k(t)
= 0, ∀t, (1)
Noter que cette équation s’obtient en composant G avec l’application j
ky(t) :=
t, y(t), dy
dt (t), · · · , d
ky dt
k(t)
et en imposant que la condition G ◦ j
ky = 0 soit toujours satisfaite. Dans l’équation (1), l’inconnue est une paire (I, y), dans laquelle I est un intervalle de R et y est une fonction de classe C
kdéfinie sur I telle que ∀t ∈ I, j
ky(t) ∈ U . Le plus souvent il y a des solutions, mais celles-ci ne sont pas uniques en général.
1. Université de Paris, Licence 3 de Mathématiques, helein@math.univ-paris-diderot.fr
Nous ne considérerons que la situation dans laquelle il est possible d’écrire l’équation (1) sous une forme explicite
d
ky
dt
k(t) = F
t, y(t), dy
dt (t), · · · , d
k−1y dt
k−1(t)
(2) Rappelons que, grâce au théorème des fonctions implicites, il est toujours possible de se ramener, au moins localement, à une équation du type (2) à partir d’une équation différentielle implicite (1), pourvu que : (i) G soit une fonction de classe C
1et (ii)
∂G
∂xk
(t, x
0, x
1, · · · , x
k) 6= 0, ∀(t, x
0, x
1, · · · , x
k) ∈ U . Exemple — Considérons l’équation
y
′+ ay = 0, (3)
où a est une constante dans R et l’inconnue est une fonction à valeur réelle. Ses solutions sont
2les couples (I, x
0e
−at), où I est n’importe quel intervalle de R et x
0∈ R . Pour le vérifier, multiplions les deux membres de (3) par e
at(quantité qui a le mérite de ne jamais s’annuler) :
e
at(y
′+ ay) = 0 Cette équation est équivalente à :
d
dt y(t)e
at= 0
et donc il existe une constante x
0∈ R telle que y(t)e
at= x
0. On en déduit que y(t) = x
0e
−at. Ce raisonnement est valable quel que soit le choix de l’intervalle I et marche aussi bien dans le cas où a est complexe (à condition de supposer que y est à valeur complexe).
L’équation (3) est le prototype d’une famille d’équations (les systèmes linéaires) qui jouent un rôle très important dans la théorie des équations différentielles.
Exemple — Considérons l’équation
y
′= y
2(4)
et examinons dans un premier temps, le cas où y ne s’annule jamais sur I. Cette équation
2. Si vous n’avez jamais vu cette équation et si vous n’avez aucune idée de ses solutions, vous pouvez chercher des solutions y en supposant qu’elles ne s’annulent pas, en écrivant
yy′+ a = 0, soit
d
dt
(ln |y(t)| + at) = 0. Vous en déduisez la relation ln |y(t)| + at = C, soit |y(t)| = Ce
−at. Mais il faut
alors discuter suivant le signe de y(t), et considérer le cas où y s’annule. La méthode présentée ici évite
toutes ces complications et se généralisent à des situations plus complexes.
équivaut dans ce cas à
∀t ∈ I, − y
′(t)
y
2(t) + 1 = 0
⇐⇒
∀t ∈ I, d dt
1 y(t) + t
= 0
⇐⇒
∀t, t
0∈ I, Z
tt0
d ds
1 y(s)
ds +
Z
t t0ds = 0
⇐⇒
∀t, t
0∈ I, 1
y(t) − 1
y(t
0) + t − t
0= 0
, On en déduit, en fixant une valeur de t
0et en posant y
0= y(t
0), que
∀t ∈ I, y(t) = y
01 + y
0(t
0− t)
Ici on remarque une difficulté importante : le dénominateur 1 + y
0(t
0− t) s’annule en t = t
0+
y10
. La solution obtenue n’est donc pas définie partout. L’intervalle maximal sur lequel on peut définir y est ] − ∞, t
0+
y10[ si y
0> 0 et ]t
0+
y10, +∞[ si y
0< 0. Et pourtant l’équation est définie partout et est de la forme y
′(t) = f(t, y(t)), où f est très régulière ! On voit sur cet exemple que la question de l’intervalle I (le domaine de définition de la solution) est complexe, elle ne dépend pas uniquement de la fonction F dans (2), mais aussi du choix de la condition initiale y(t
0) = y
0.
Dans les deux exemples vus plus haut on voit aussi que la solution n’est pas unique, pour deux raisons :
— on dispose d’une grande liberté dans le choix de l’intervalle de définition I , tant qu’on ne rencontre pas des phénomènes d’explosion comme pour y
′= y
2. Cela nous amène à nous intéresser à l’intervalle maximal I
M axsur lequel une solution peut être étendue. Les autres solutions s’obtiendront alors en restreignant la solution maximale à un intervalle inclus dans I
M ax:
— la solution (et parfois le domaine de définition maximal) de la solution dépend de la valeur imposée à la solution en un point (ou un instant) t
0. On choisira donc d’imposer la valeur prise par y en un temps t
0(si l’équation est du premier ordre, voir plus bas).
Exemple — L’équation
y
′′+ ω
2y = 0, (5)
où ω ∈ R
∗, admet des solutions réelles définies sur tout intervalle I ⊂ R . Elles sont de la forme
y(t) = Re (a + ib)e
−iωt= a cos(ωt) + b sin(ωt),
où a, b ∈ R . On voit que fixer une condition du type y(t
0) = y
0ne suffit pas à déterminer les valeurs de a et b. Afin de déterminer de façon unique une solution, il est nécessaire d’imposer une condition supplémentaire. Une possibilité est d’imposer la condition supplé- mentaire y
′(t
0) = y
1. Ainsi les conditions y(t
0) = y
0ety
′(t
0) = y
1conduisent au système
a cos(ωt
0) + b sin(ωt
0) = y
0−a sin(ωt
0) + b cos(ωt
0) = y
1/ω
qui admet une unique solution
a = y
0cos(ωt
0) − (y
1/ω) sin(ωt
0) b = y
0sin(ωt
0) + (y
1/ω) cos(ωt
0)
Dans la suite, pour tout j ∈ N , nous notons y
(j)=
(dt)djyj.
Définition 1.1 Soit U ⊂ R
k+1un ouvert et F : U −→ R . Considérons l’équation diffé- rentielle y
(k)= F (t, y, y
(1), · · · , y
(k−1)). Une donnée de Cauchy pour cette équation est un point (t
0, y
0, y
1, · · · , y
k) ∈ U .
Une condition de Cauchy est une condition imposée sur la solution y de l’équation différentielle de la forme
(y(t
0), y
(1)(t
0), · · · , y
(k−1)(t
0)) = (y
0, y
1, · · · , y
k), pour une certaine donnée de Cauchy (t
0, y
0, y
1, · · · , y
k).
La recherche d’une paire (I, y) qui est solution d’un système
∀t ∈ I, y
(k)(t) = F (t, y(t), y
(1)(t), · · · , y
(k−1)(t))
(y(t
0), y
(1)(t
0), · · · , y
(k−1)(t
0)) = (y
0, y
1, · · · , y
k) (6) est un problème de Cauchy.
Définition 1.2 Soit U ⊂ R
k+1un ouvert et F : U −→ R . Une solution locale du problème de Cauchy (6) est une paire (I
0, y) telle que t
0∈ I
0et qui est solution de (6) .
Définition 1.3 Soit U ⊂ R
k+1un ouvert et F : U −→ R . Une solution maximale (I
M ax, y) du problème de Cauchy (6) est une solution locale de (6) telle que, pour toute solution locale (I, z) de (6), on ait I ⊂ I
M axet y|
I= z.
Il découle facilement de la définition d’une solution maximale que, si celle-ci existe, alors elle est unique.
Exemple — Pour le problème de Cauchy y
′= y
2, avec y(t
0) = y
0, la solution maximale est :
— I
M ax=]t
0+
y10
, +∞[ et y(t) =
1+yy00(t0−t)
, si y
0< 0 ;
— I
M ax= R et y(t) = 0, si y
0= 0 ;
— I
M ax=] − ∞, t
0+
y10
[ et y(t) =
1+yy00(t0−t)
, si y
0> 0.
Note : pour justifier totalement ce qui est affirmé, il faut montrer que la solution, si elle existe, est unique, ce que nous verrons plus tard.
Quelques méthodes élémentaires, mais bien utiles :
(i) séparation des variables : dans le cas où l’équation est du premier ordre, si l’on parvient à la réécrire sous la forme
y
′f (y) = g(t),
on peut alors intégrer cette relation sous la forme F (y(t))−F (y(t
0)) = G(t)− G(t
0), où F est une primitive de f et G une primitive de g. A partir de là, on peut en théorie exprimer y(t) en fonction de t et de (t
0, y
0) par quadrature (il faut pour cela que F soit inversible, condition satisfaite au moins localement si f(y(t)) ne s’annule pas). C’est le cas par exemple pour l’équation y
′= y
2, si y ne s’annule pas.
(ii) pour toutes les équations différentielles linéaires
a
k(t)y
(k)+ · · · + a
1(t)y
(1)+ a
0(t)y = b(t)
on observe facilement que, si b = 0, l’ensemble des solutions est un espace vectoriel.
Si b 6= 0, l’ensemble des solutions est un espace affine dont l’espace vectoriel associé est l’espace des solutions de l’équation différentielle linéaires homogène associée.
(iii) équations linéaires à coefficients constant a
ky
(k)+ · · · + a
1y
(1)+ a
0y = 0. On peut rechercher les solutions complexes sous la forme y(t) = e
αt, où α ∈ C . On obtient facilement que y est solution ssi α est une racine du polynôme a
kλ
k+ · · · + a
1λ + a
0. (iv) méthode de la variation de la constante : considérons par exemple l’équation
y
′+ ay = b(t), avec y(t
0) = y
0,
où a ∈ R et b ∈ C
0(J) (J est un intervalle de R ). Les solutions de l’équation différentielle linéaires homogène associée y
′+ ay = 0 sont de la forme y(t) = ue
−at, où u ∈ R . On « remplace » u par une fonction C
1z : y(t) = z(t)e
−at. On obtientpar cette substitution :
y
′+ ay = (z e
−at)
′+ az e
−at= z
′e
−at− az e
−at+ az e
−at= z
′e
−at= b(t)
et donc z
′= b(t)e
at, avec z(t
0) = y
0e
at0. Nous intégrons cela en z(t) = y
0e
at0+
Z
t t0b(s) e
asds et donc
y(t) = y
0e
a(t0−t)+ Z
tt0
b(s) e
a(s−t)ds
Exemple — Revenons à l’équation y
′′+ ω
2y = 0. Elle est équivalente à d
dt − iω d dt + iω
y = 0.
Donc, si nous posons u(t) :=
dtd+ iω
y(t), cette équation équivaut à
dtd− iω
u = 0.
Nous commençons par résoudre cette équation et obtenons u(t) = u
0e
iωt. Ainsi l’équation sur y équivaut à
y
′(t) + iωy(t) = u(t) = u
0e
iωtCette fois-ci, suivant la méthode de la variation de la constante, nous posons y(t) = z(t)e
−iωt. Alors
u
0e
iωt= y
′+ iωy = (ze
−iωt)
′+ iωze
−iωt= z
′e
−iωtet donc z
′= u
0e
i2ωt, ce qui donne z(t) = v
0+ (u
0/2iω)e
i2ωtet donc y(t) = v
0e
−iωt+ (u
0/iω)e
iωt. On retrouve ainsi le résultat annoncé auparavant.
1.2 Systèmes d’équations différentielles
Nous considérerons plus généralement des systèmes d’équations différentielles d
ky
dt
k(t) = F
t, y(t), dy
dt (t), · · · , d
k−1y dt
k−1(t)
(7) où y est une fonction définie sur un intervalle I ⊂ R et y est une application de classe C
kde I vers R
n. Alors F est une application définie sur un ouvert U ⊂ R
1+n(k+1)et à valeur dans R
n.
Un exemple historique est l’équation de Newton m y(t) = ¨ F (t), où y(t) donne la position dans un système de coordonnées cartésiennes de l’espace à l’instant t d’un corps ponctuel de masse m. Si F est la force de gravitation exercée par un corps fixe situé à l’origine du système de coordonnées et de masse M , cette équation devient m y(t) = ¨ −
ky(t)kGM m3y(t), où y est une fonction à valeur dans R
3\ {0}, en vertu des lois de la gravitation de Newton.
Noter qu’ici kyk = p
(y
1)
2+ (y
2)
2+ (y
3)
2est la longeur du vecteur y. Cette équation dans R
3est équivalente au système de trois équations non linéaires
¨
y
1= −GM y
1/kyk
3¨
y
2= −GM y
2/kyk
3¨
y
3= −GM y
3/kyk
3(8)
1.3 Réduction à des systèmes d’équations différentielles du pre- mier ordre
Sans perte de généralité nous pourrons nous contenter d’étudier les systèmes d’équa- tions différentielles du premier ordre, c’est à dire ne faisant intervenir que des dérivées première par rapport au temps.
Si par exemple nous partons d’une équation différentielle scalaire y
(k)= F t, y, y
(1), · · · , y
(k−1),
où y ∈ C
k(J, R ), alors en posant :
x =
x
0x
1...
x
(k−1)
=
y y
(1)...
y
(k−1)
: I −→ R
knous obtenons que l’équation précédente est équivalente à d
dt
x
0x
1...
x
(k−1)
=
x
1x
2...
F (t, x
0, x
1, · · · , x
(k−1))
(9)
un système que l’on peut écrire
dxdt= X(t, x(t)), où x ∈ C
1(J, R
k), c’est à dire un système d’équations différentielles du premier ordre.
Cet argument se généralise sans aucune difficulté (mis à part le caractère fastidieux de son écriture) si on part d’un système de n équations différentielles d’ordre k : on obtient alors un système de nk équations du premier ordre. Par exemple le système (8) est équivalent à
˙
x
1= v
1˙
x
2= v
2˙
x
3= v
3˙
v
1= −GM x
1/kxk
3˙
v
2= −GM x
2/kxk
3˙
v
3= −GM x
3/kxk
3Une application
X : U −→ R
n(t, x) 7−→ X(t, x)
où U est un ouvert de R × R
nsera appelée un champ de vecteur.
Dans le cas où X ne dépend pas du temps, c’est à dire si U = R ×Ω, où Ω est un ouvert de R
net si X(t, x) = X(t), on dira que ce champ de vecteur est autonome. On considérera alors plus que X est simplement une application de Ω vers R
n, où Ω est un ouvert de R
n. A tout champ de vecteur X est associée une équation différentielle du premier ordre de la forme
dx
dt (t) = X(t, x(t)), ∀t ∈ R tel que (t, x(t)) ∈ U
dont l’écriture dans un système de coordonnées cartésiennes sur R
ndonne un système de n équations différentielles. Dans le cas autonome cette équation s’écrit simplement
dx
dt