• Aucun résultat trouvé

Consid´erons le syst`eme diff´erentiel (III.1.2) x0(t

N/A
N/A
Protected

Academic year: 2023

Partager "Consid´erons le syst`eme diff´erentiel (III.1.2) x0(t"

Copied!
17
0
0

Texte intégral

(1)

Johannes Huebschmann

UFR de Math´ematiques, Universit´e de Lille I 59 655 VILLENEUVE D’ASCQ CEDEX

III. Syst`emes diff´erentiels [Dixmier XLIV p. 151]

On prendra les nombres r´eels R ou complexes C comme corps de base, d´esign´e alors par K.

III.1. G´en´eralit´es

III.1.1. D´efinition. Soit

f = (f1, . . . , fn):U →Kn

une application d´efinie sur une partie U ⊆R×Kn. Consid´erons le syst`eme diff´erentiel

(III.1.2) x0(t)

= dx dt

=f(t, x)

du premier ordre. On appelle solution, ou int´egrale, de ce syst`eme toute fonction vectorielle diff´erentiable

x= (x1, . . . , xn):I −→Kn,

qui est d´efinie dans un intervalle I de R et v´erifie l’´equation (III.1.2) pour tout t dans I. R´esoudre, ou int´egrer cette ´equation, c’est en trouver toutes les solutions.

Si x est une solution d´efinie dans I, sa restriction `a un sous-intervalle quelconque de I est encore une solution. Inversement il peut exister des solutions prolongeant x. Si la seule solution prolongeant x est x elle-mˆeme, on dit que x est une solution maximale. La r´esolution d’un syst`eme diff´erentiel se ram`ene donc `a la recherche des solutions maximales: une fois celles-ci obtenues, il reste `a prendre leurs restrictions

`

a des sous-intervalles, op´eration banale qu’on se dispense `a faire.

42

(2)

III.2. Syst`emes diff´erentiels lin´eaires

III.2.1. D´efinition. Un syst`eme diff´erentiel lin´eaire est un syst`eme diff´erentiel de la forme

(III.2.2) x0 =Ax+b

o`u

b:I −→Kn est une fonction vectorielle et

A:I −→Mn(K)

une fonction matricielle, `a valeurs dans l’anneau Mn(K) des matrices carr´ees d’ordre n, d´efinies dans un intervalle I. Si b= 0, le syst`eme est dit homog`ene, sinon, c’est dit non homog`ene. Etant donn´e un syst`eme diff´erentiel non homog`ene de la forme (III.2.2), le syst`eme

(III.2.3) x0 =Ax

est appel´e syst`eme homog`ene associ´e au syst`eme (III.2.2).

Th´eor`eme III.2.4. Les solutions maximales d’un syst`eme homog`ene forment un K-espace vectoriel. Une solution maximale quelconque d’un syst`eme non homog`ene

x0 =Ax+b est de la forme

x=y+z,

o`u y est solution particuli`ere et z solution du syst`eme homog`ene associ´e.

D´emonstration. La premi`ere assertion est ´evident. Pour ´etablir la deuxi`eme, soit y solution particuli`ere et z solution du syst`eme homog`ene associ´e. On a alors

(y+z)0 =Ay+b+Az =A(y+z) +b,

c’est-`a-dire, la somme y+z est ´egalement solution du syst`eme non homog`ene. De plus, soient y et ˜y deux solutions du syst`eme non homog`ene. On a alors

(y−y)˜ 0 =Ay+b−A˜y−b=Ay−A˜y =A(y−y),˜

c’est-`a-dire, la diff´erence y−y˜ est solution du syst`eme homog`ene associ´e.

(3)

III.3. Syst`emes diff´erentiels lin´eaires `a coefficients constants

III.3.1. D´efinition. Un syst`eme diff´erentiel lin´eaire `a coefficients constants est un syst`eme diff´erentiel lin´eaire de la forme

(III.3.2) x0 =Ax+b,

A ´etant une matrice constante. Le syst`eme homog`ene associ´e est

(III.3.3) x0 =Ax.

Th´eor`eme III.3.4. Soient x0 ∈ Kn\0 et λ ∈ K. Pour que la fonction vectorielle x:R →Kn d´efinie par x(t) = eλtu soit solution de (III.3.3) il faut et il suffit que λ soit valeur propre de A et que x0 soit un vecteur propre de A associ´e `a λ.

D´emonstration. En effet, si Ax0 =λx0,

x0(t) =λeλtx0 = eλtλx0 = eλtAx0 =Aeλtx0 =Ax(t).

R´eciproquement, si la fonction vectorielle x:R → Kn d´efinie par x(t) = eλtx0 est solution de (III.3.3),

λeλtx0 =x0(t) =Ax(t) =Aeλtx0 = eλtAx0

c’est-`a-dire,

Ax0 =λx0.

Th´eor`eme III.3.5. Soit A une matrice carr´ee diagonalisable d’ordre n, soient λ1, . . . , λn les valeurs propres de A, et soient y1, . . . , yn des vecteurs propres associ´es lin´eairement ind´ependants. Alors les solutions maximales du syst`eme diff´erentiel

x0 =Ax

sont les fonctions vectorielles x:R→Kn de la forme x(t) =y1e1c1+· · ·+ynencn, o`u c= (c1, . . . , cn)∈Kn d´esigne un vecteur quelconque.

D´emonstration. D’apr`es le th´eor`eme III.3.4, les n fonctions vectorielles t7→y1e1, . . . , t7→ynen

sont des solutions, et il est ´evident qu’elles sont lin´eairement ind´ependantes. Dans la base constitu´ee des vecteurs propres y1, . . . , yn de A, le syst`eme diff´erentiel en consid´eration se r´eduit `a n ´equations diff´erentielles lin´eaires homog`enes ordinaires.

L’´enonc´e du th´eor`eme en d´ecoule.

Remarque III.3.6. Si la matrice A est r´eelle il peut arriver qu’elle n’est diagonalisable que sur les nombres complexes. Les n solutions x1, . . . , xn ainsi trouv´ees sont alors complexes. Parmi les 2n solutions r´eelles

Re(x1), Im(x1), . . . ,Re(xn), Im(xn), on peut alors trouver n solutions lin´eairement ind´ependantes.

Lorsque la matrice A n’est pas diagonalisable le th´eor`eme III.3.5 n’est pas applicable.

(4)

III.4. Exponentielle d’une matrice

On considera les matrices carr´ees d’ordre n comme ´el´ements de l’espace norm´e E =Mn(K) de dimension n2, muni d’une norme adapt´ee que nous notons || · ||.

Th´eor`eme III.4.1. Etant donn´´ ee une matrice carr´ee A d’ordre n quelconque, l’exponentielle matricielle

(III.4.2) etA =

X

j=0

(tA)j j! est une s´erie absolument convergente.

D´emonstration. Puisque

etA

X

j=0

||tA||j

j! = e|t| ||A||, la matrice etA est la limite de la suite

n

X

j=0

(tA)j j!

de points de Mn(K).

Lemme III.4.3. Si les matrices carr´ees A et B commutent, c’est-`a-dire, si AB =BA, on a

eA+B = eAeB. D´emonstration. Exercice.

Corollaire III.4.4. Quelle que soit la matrice carr´ee A, la matrice eA est inversible d’inverse e−A.

Th´eor`eme III.4.5. Etant donn´´ ee une matrice carr´ee A quelconque d’ordre n, l’exponentielle matricielle, consid´er´ee comme fonction matricielle

eA:R−→Mn(K), t7−→etA, est diff´erentiable et v´erifie la relation

(III.4.6) e0A(t) =AetA =AeA(t).

D´emonstration. En effet,

e(t+h)A−etA

h = etAehA−etA

h = etAehA −Id

h .

Or,

ehA−Id

h =A+ 1

2hA2+ 1

3!h2A3+. . . , d’o`u

ehA−Id

h −A

e|hA|−1

h − |A|

et donc

h→0lim

ehA−Id

h =A.

(5)

III.5. Solutions maximales d’un syst`eme `a coefficients constants

Th´eor`eme III.5.1. Quels que soient A ∈ Mn(K), t0 ∈ R, et x0 ∈ Kn, la fonction vectorielle

ϕt0,x0:R−→Kn, ϕt0,x0(t) = e(t−t0)Ax0

est solution maximale du syst`eme diff´erentiel

(III.5.2) x0 =Ax

telle que ϕt0,x0(t0) = x0, et cette solution est d´etermin´ee de fa¸con unique par la condition ϕ(t0) =x0.

D´emonstration. Soit ϕ solution du syst`eme diff´erentiel (III.5.2) telle que ϕ(t0) =x0. Alors la fonction vectorielle t 7→ e−(t−t0)Aϕ(t) a d´eriv´ee nulle et est donc constante d’o`u, puisque ϕ(t0) =x0,

e−(t−t0)Aϕ(t) =x0.

Corollaire III.5.3. Les solutions maximales de (III.5.2) forment un espace vectoriel de dimension n dont une base est constitu´ee des fonctions vectorielles x1, . . . , xn

donn´ees par

xj(t) = etAbj,

(b1, . . . , bn) ´etant une base de Kn. En particulier, une solution maximale quelconque de (III.5.2) s’´ecrit comme combinaison lin´eaire des fonctions vectorielles x1, . . . , xn.

Soient x1, . . . , xn des solutions maximales de (III.5.2) lin´eairement ind´ependantes.

On dit que x1, . . . , xn est un syst`eme fondamental de solutions de (III.5.2). Nous d´esignerons X = [x1, . . . , xn] la fonction matricielle dont x1, . . . , xn sont les fonctions vectorielles colonnes; pour tout t ∈ I, la matrice X(t) est la matrice de passage de la base canonique `a la base x1(t), . . . , xn(t). Il est clair que l’on a d´etX(t)6= 0 pour tout t∈I. De plus, la fonction matricielle X satisfait `a

X0 =AX.

II.6. Calcul de l’exponentielle matricielle

Il reste donc `a calculer la matrice etA. C’est ici o`u l’on applique la th´eorie de r´eduction suivant sous-espaces caract´eristiques d´evelopp´ee ci-dessus. En effet il n’est pas n´ecessaire de calculer la s´erie P(tA)n

n! .

Lemme III.6.1. Soient P une matrice carr´ee inversible d’ordre n et A une matrice carr´ee quelconque d’ordre n. Alors

eP AP−1 =PeAP−1. D´emonstration. En effet, quel que soit j ≥1,

(P AP−1)j =P AjP−1

(6)

et donc eP AP−1 =

X

j=0

(P AP−1)j

j! =

X

j=0

P Aj

j! P−1 =P

X

j=0

Aj j!

P−1 =PeAP−1.

Notation III.6.2. Soit A une matrice carr´ee d’ordre n sur K, et soit (y1, . . . , yn) une base de Kn telle que, avec la matrice

P = [y1, . . . , yn]

dont les vecteurs colonnes soient les vecteurs de base y1, . . . , yn donn´es, on ait A =P J P−1,

avec un tableau diagonal

J =

J1 0 0 · · · 0

0 J2 0 · · · 0

· · · ·

· · · ·

· · · ·

· · · 0

0 0 0 · · · Js

de matrices de Jordan

Jj =

λj 1 0 · · · 0

0 λj 1 · · · 0

· · · ·

· · · ·

· · · ·

· · · 1

0 0 0 · · · λj

 ,

chacune d’ordre (disons) αj, les λ1, . . . , λs ´etant les valeurs propres de A. Pour 1≤j ≤s, on pose

Qj =

1 t 12t2 · · · tαj−1

j−1)!

0 1 t · · · tαj−2

j−2)!

· · · ·

· · · ·

· · · ·

· · · t

0 0 0 · · · 1

 .

Lemme III.6.3. Quel que soit t ∈R,

(III.6.4) etJ =

e1Q1 0 0 · · · 0

0 e2Q2 0 · · · 0

· · · ·

· · · ·

· · · ·

· · · 0

0 0 0 · · · esQs

(7)

d’o`u

(III.6.5) etA =PetJP−1.

D´emonstration. On voit tout de suite que

etJ = Diag(etJ1, . . . ,etJs).

Pour calculer etJj, nous ´ecrivons

JjjId + (Jj −λjId).

Les matrices λjId et Jj −λjId commutent, et un calcul facile montre que et(Jj−λjId) =Qj.

Il s’ensuit que

etJj = ejId+t(Jj−λjId)

= ejIdet(Jj−λjId)

= Diag(ej, . . . ,ej)Qj

= ejQj,

d’o`u la formule annonc´ee (III.6.4) calculant etJ. III.7. Calcul explicit des solutions maximales

Soit toujours A une matrice carr´ee r´eelle ou complexe d’ordre n. On conserve les notations introduites en (III.6.2).

Th´eor`eme III.7.1. Le syst`eme (y1, . . . , yn) d´esignant une base de Kn telle que, avec la matrice P = [y1, . . . , yn] dont les vecteurs colonnes soient les vecteurs de base y1, . . . , yn donn´es, on ait

A =P J P−1,

avec un tableau diagonal J des matrices de Jordan, les solutions maximales x:R→Kn du syst`eme diff´erentiel

x0 =Ax sont les fonctions vectorielles

x(t) = [y1, . . . , yn]

e1Q1 0 0 · · · 0

0 e2Q2 0 · · · 0

· · · ·

· · · ·

· · · ·

· · · 0

0 0 0 · · · esQs

 c1

·

·

·

·

· cn

(8)

o`u c= (c1, . . . , cn)∈Kn d´esigne un vecteur quelconque. Autrement dit, une solution maximale quelconque x s’´ecrit sous la forme

x(t) =y1e1

c1+c2t+ 1

2c3t2+· · ·+ tα1−11−1)!cα1

+y2e1

c2+c3t· · ·+ tα1−21−2)!cα1

+· · ·+yα1e1cα1 +yα1+1e2

cα1+1+cα1+2t+ 1

2cα1+3t2+· · ·+ tα2−1

2−1)!cα12

+yα1+2e2

cα1+2+cα1+3t· · ·+ tα2−2

2−2)!cα2−2

+· · ·+yα12e2cα12

+. . .

+ynescn.

D´emonstration. Soit c un vecteur constant et soit x(t) =PetJc.

Alors

x0(t) =P J P−1PetJc=Ax(t).

Posons c = P−1x0. D’apr`es le th´eor`eme III.5.1 et le lemme III.6.1, la fonction vectorielle

x(t) = etAx0 = etP J P−1x0 =PetJ P−1x0

est la solution maximale qui prend la valeur x0 pour t = 0. D’apr`es le lemme III.6.3,

PetJ = [y1, . . . , yn]

e1Q1 0 0 · · · 0

0 e2Q2 0 · · · 0

· · · ·

· · · ·

· · · ·

· · · 0

0 0 0 · · · esQs

 .

De plus, lorsque x0 parcourt Kn, il en est de mˆeme de c=P−1x0.

Il s’ensuit que les solutions maximales sont les fonctions vectorielles de la forme annonc´ee.

Remarque III.7.2. Si la matrice A est r´eelle il peut arriver qu’elle n’admette une forme de Jordan correspondante que sur les nombres complexes. Les n solutions fondamentales x1, . . . , xn ainsi trouv´ees sont alors complexes. Pour obtenir des solutions r´eelles, comme dans le cas d’une matrice diagonalisable, voir la remarque III.3.6, on consid`ere alors les 2n solutions r´eelles

Re(x1), Im(x1), . . . ,Re(xn), Im(xn).

Parmi eux on peut trouver n solutions lin´eairement ind´ependantes.

(9)

III.8. Variation des constantes

On va voir que la m´ethode de variation des constantes permet, quand on a r´eussi `a r´esoudre le syst`eme homog`ene associ´e (III.3.3), de r´esoudre un syst`eme non homog`ene donn´e (III.3.2).

Soient x1, . . . , xn des solutions maximales de (III.3.3) lin´eairement ind´ependantes et soit Z = [x1, . . . , xn] la fonction matricielle dont x1, . . . , xn soient les fonctions vectorielles colonnes. On cherche une solution particuli`ere de (III.3.2) du type

(III.8.1) x=Zc,

o`u c:I →Kn est une fonction vectorielle `a d´eterminer. La condition (III.8.1) entraˆıne la relation

x0 =Z0c+Zc0 =AZc+Zc0 =Ax+Zc0,

c’est-`a-dire, pour que x soit solution de (III.3.2) il faut et il suffit que Zc0 =b.

Puisque la matrice Z(t) est inversible pour tout t∈R, cette relation ´equivaut `a c0 =Z−1b,

c’est-`a-dire, `a

(c01, . . . , c0n) =

 X

j

z1,jbj, . . . ,X

j

zn,jbj

,

o`u

b= (b1, . . . , bn) et Z−1 = [zi,j],

et les c1, . . . , cn n’interviennent plus que par leurs d´eriv´ees. Autrement dit, il suffit de r´esoudre les ´equations diff´erentielles scalaires

c0k =X

j

zk,jbj, 1≤k ≤n,

`

a une variable d’o`u les cj qui sont d´efinies `a une constante additive pr`es.

III.9. Exemples

Cas homog`ene. On consid`ere le syst`eme (III.9.1)

x01(t) x02(t)

=A

x1(t) x2(t)

,

avec

A=

0 1

−b −2a

.

Le polynˆome caract´eristique PA est:

PA(X) =X2+ 2aX +b.

(10)

Les valeurs propres sont donc:

λ1,2 =−a±p

a2−b.

Si a2 6=b, les deux valeurs propres sont distinctes, et les deux vecteurs 1

λ1,2

sont les vecteurs propres associ´es. Posons

P =

1 1 λ1 λ2

, J =

λ1 0 0 λ2

.

Alors

AP =P J, et les solutions maximales sont de la forme

x(t) =PetJc=

1 1 λ1 λ2

e1 0 0 e2

c1 c2

=c1e1 1

λ1

+c2e2 1

λ2

.

Il s’ensuit que les deux solutions x1 et x2 d´efinies par x1(t) = e1

1 λ1

, x2(t) = e2 1

λ2

forment un syst`eme fondamental de solutions de (III.9.1); ainsi, la matrice fondamentale Z correspondante est

(III.9.2) Z(t) =PetJ =

e1 e2 λ1e1 λ2e2

;

et les solutions maximales sont les fonctions vectorielles qui s’´ecrivent sous la forme x(t) =c1x1(t) +c2x2(t).

Si a2 =b, il n’y a qu’une seule valeur propre. On voit facilement qu’avec P =

1 0

−a 1

,

la matrice A s’´ecrit sous la forme P

−a 1 0 −a

P−1 =

0 1

−b −2a

=A, c’est-`a-dire, la matrice

−a 1 0 −a

est la forme de Jordan de A cherch´ee. Il s’ensuit que les solutions maximales x sont les fonctions vectorielles de la forme

x(t) =

1 0

−a 1

e−at

1 t 0 1

c1 c2

= e−at

c1+tc2

−ac1+ (1−at)c2

.

(11)

En particulier, les deux fonctions x1 et x2 d´efinies par x1(t) = e−at

1

−a

, x2(t) = e−at t

1−at

constituent un syst`eme fondamental de solutions maximales de (III.9.1); ainsi la matrice fondamentale Z correspondante est

(III.9.3) Z(t) = e−at

1 t

−a 1−at

.

Cas non homog`ene; variations des constantes. On consid`ere le syst`eme (III.9.4)

x01(t) x02(t)

=A

x1(t) x2(t)

+

β1(t) β2(t)

,

avec

A=

0 1

−b −2a

,

le syst`eme homog`ene correspondant (III.9.1) ´etant ´etudi´e ci-dessus. Une solution maximale particuli`ere x de (III.9.4) est alors donn´ee par x = Zc o`u la fonction vectorielle c est solution de l’´equation diff´erentielle vectorielle

Zc0 =β.

Si a2 6=b, la matrice inverse Z−1 de la matrice fondamentale (XI.5.2) est:

(III.9.5) Z−1(t) = 1

d´et(Z(t))

λ2e2 −e2

−λ1e1 e1

,

avec

d´et(Z(t)) = (λ2−λ1)et(λ12)=−2p

a2−be−2at.

Une solution maximale particuli`ere x de (III.9.4) est donc donn´ee par x =Zc o`u la fonction vectorielle c est solution du syst`eme

c01(t) c02(t)

= −e2at 2√

a2−b

λ2e2 −e2

−λ1e1 e1

β1(t) β2(t)

.

Si a2 =b, la matrice inverse Z−1 de la matrice fondamentale (XI.5.3) est:

(III.9.6) Z−1(t) = eat

1−at −t

a 1

.

Une solution maximale particuli`ere x de (III.9.4) est donc donn´ee par x =Zc o`u la fonction vectorielle c est solution du syst`eme

c01(t) c02(t)

= eat

1−at −t

a 1

β1(t) β2(t)

.

(12)

III.10. ´Equations diff´erentielles d’ordre sup´erieur; g´en´eralit´es

Jusqu’ici, les ´equations diff´erentielles consid´er´ees ne faisaient intervenir que la d´eriv´ee premi`ere de la fonction inconnue; elles ´etaient dites du premier ordre. Si l’on consid`ere une ´equation faisont intervenir les d´eriv´ees d’ordre sup´erieur, d’une fonction inconnue, on obtient une ´equation diff´erentielle d’ordre sup´erieur. Un artifice nous permettra de ramener une ´equation diff´erentielle d’ordre p `a un syst`eme diff´erentiel d’ordre 1.

Une ´equation

(III.10.1) y(p)=f(t, y, y0, . . . , y(p−1))

s’appelle ´equation diff´erentielle (explicite) d’ordre p. On appelle solution ou int´egrale de (III.10.1) toute fonction r´eelle t 7→φ(t) d´efinie et p fois d´erivable dans un intervalle I, telle que

(III.10.2) φ(p)(t) =f(t, φ(t), φ0(t), . . . , φ(p−1)(t)).

Consid´erons le syst`eme diff´erentiel de p ´equations du premier ordre `a p inconnues x1, . . . , xp:

(III.10.3)

x01 =x2

x02 =x3

· · ·

x0p =f(t, x1, . . . , xp)

Th´eor`eme III.10.4. L’application y7→(y, y0, . . . , y(p−1)) est une application bijective de l’ensemble N des solutions maximales de (III.10.1) sur l’ensemble N0 des solutions maximales de (III.10.3).

D´emonstration. Pour qu’une fonction y, d´efinie et p fois d´erivable dans dans un intervalle, soit solution de (III.10.1) il faut et il suffit que la suite des p fonctions (y, y0, . . . , y(p−1)) soit solution de (III.10.3). L’application y 7→ (y, y0, . . . , y(p−1)) est donc une application de l’ensemble M des solutions de (III.10.1) sur l’ensemble M0 des solutions de (III.10.3). Il est clair que cette application est injective. C’est donc une application bijective de M sur M0.

Soient y et z deux solutions de (III.10.1). Pour que z prolonge y il faut et il suffit que la solution (z, z0, . . . , z(p−1)) de (III.10.3) prolonge la solution (y, y0, . . . , y(p−1)) de (III.10.3). Par suite, pour que y soit solution maximale de (III.10.1) il faut et il suffit que (y, y0, . . . , y(p−1)) soit solution maximale de (III.10.3). Donc y7→(y, y0, . . . , y(p−1)) est une application bijective de l’ensemble N des solutions maximales de (III.10.1) sur l’ensemble N0 des solutions maximales de (III.10.3).

D´efinition III.10.5. On appelle ´equation diff´erentielle lin´eaire d’ordre p une ´equation de la forme

(III.10.6) y(p) =a0y+a1y0 +· · ·+ap−1y(p−1)+b,

o`u a0, . . . , ap−1, b sont des fonctions d´efinies dans un intervalle I. Si b= 0 l’´equation est dite homog`ene. L’´equation

(III.10.7) y(p)=a0y+a1y0+· · ·+ap−1y(p−1)

(13)

est appel´ee ´equation homog`ene associ´ee `a (III.10.6).

Consid´erons le syst`eme diff´erentiel du 1er ordre:

(III.10.8)

x01 =x2

x02 =x3

· · ·

x0p =a0x1+a1x2 +· · ·+ap−1xp+b.

Ce syst`eme est lin´eaire. D’apr`es le th´eor`eme III.10.4, l’association y7→(y, y0, . . . , y(p−1))

est une application bijective de l’ensemble des solutions maximales de (III.10.6) sur l’ensemble des solutions maximales de (III.10.8). L’ensemble des solutions maximales d’une ´equation diff´erentielle homog`ene du type (III.10.7) est un espace vectoriel, et l’association qu’on vient de donner est un isomorphisme d’espaces vectoriels. Le syst`eme diff´erentiel homog`ene du 1er ordre

(III.10.9)

x01 =x2

x02 =x3

· · ·

x0p =a0x1+a1x2+· · ·+ap−1xp est alors le syst`eme homog`ene associ´e `a (III.10.8).

III.11. Equations diff´erentielles lin´eaires d’ordre n `a coefficients constants On appelle ´equation diff´erentielle lin´eaire d’ordre n `a coefficients constants une

´equation de la forme

(III.11.1) y(n)+an−1y(n−1)+· · ·+a1y0+a0y=β,

o`u a0, . . . , an−1 sont des constantes et β une fonction. Si β = 0 l’´equation est dite homog`ene. L’´equation

(III.11.2) y(n)+an−1y(n−1)+· · ·+a1y0+a0y = 0

est appel´ee ´equation homog`ene associ´ee `a (III.11.1). D’apr`es le th´eor`eme III.10.4, pour r´esoudre l’´equation diff´erentielle (III.11.1), il suffit de r´esoudre le syst`eme lin´eaire

(III.11.3)

 x01

·

·

· x0n−1

x0n

=A

 x1

·

·

· xn−1

xn

 +

 0

·

·

· 0 β

 ,

(14)

o`u

(III.11.4) A=

0 1 0 · · · 0

· · · ·

· · · ·

· · · ·

0 · · · · 0 1

−a0 −a1 · · · −an−2 −an−1

 .

En vertu du Corollaire III.5.3, le th´eor`eme III.10.4 entraˆıne que les solutions maximales de l’´equation diff´erentielle (III.11.2) forment un espace vectoriel de dimension n.

Exemple III.11.5. On consid`ere l’´equation

y00 + 2ay0+by = 0.

D’apr`es la discussion dans (III.9) ci-dessus, si a2 6= b, les solutions maximales sont les fonctions y du type

y(t) =c1eλ1t+c2eλ2t,

λ1 et λ2 ´etant les deux valeurs propres distinctes de la matrice associ´ee, tandis que si a2 =b, les solutions maximales sont les fonctions

y(t) = (c1+tc2) e−at; ici c1 et c2 sont des constantes.

L’´equation caract´eristique de l’´equation diff´erentielle (III.11.2) est l’´equation de degr´e n suivante :

(III.11.6) Xn+an−1Xn−1+· · ·+a1X +a0 = 0.

Ainsi, le polynˆome caract´eristique PA(X) de la matrice (III.11.4) et l’´equation caract´eristique de l’´equation diff´erentielle (III.11.2) sont li´es par la relation suivante : (III.11.7) (−1)nPA(X) =Xn+an−1Xn−1+· · ·+a1X +a0

Th´eor`eme III.11.8. [Dixmier 45.3.4. p. 167] On suppose que PA se decompose en facteurs lin´eaires, et soient λ1, . . . , λm les racines distinctes de (III.11.6), et h1, . . . , hm leurs multiplicit´es. Alors les fonctions

(∗)

eλ1t , teλ1t , t2eλ1t , · · ·, th1−1eλ1t, eλ2t , teλ2t , t2eλ2t , · · · , th2−1eλ2t,

· · · ·

eλmt, teλmt, t2eλmt, · · ·, thm−1eλmt,

sont n solutions lin´eairement ind´ependantes de l’´equation diff´erentielle (III.11.2); elle engendrent l’espace vectoriel des solutions de (III.11.2). Une solution maximale quelconque de (III.11.2) est donc combinaison lin´eaire des solutions (∗).

(15)

Lemme III.11.9. [Dixmier 44.3.13. p. 161] Soient λ1, . . . , λm des nombres complexes distincts et P1, . . . , Pm des polynˆomes `a coefficients dans Cn. Si

(III.11.10) eλ1tP1(t) +· · ·+ eλmtPm(t) = 0, quel que soit t, on a

P1 =· · ·=Pm = 0.

D´emonstration. En passant aux coordonn´ees, on se ram`ene au cas o`u P1, . . . , Pm sont des polynˆomes `a coefficients dans C, que nous noterons ´egalement P1, . . . , Pm.

Le lemme est ´evident si m= 1; supposons-le ´etabli pour m−1. Supposons P1 6= 0 et aboutissons `a une contradiction. En multipliant les deux membres de (III.11.10) par e−λmt on se ram`ene au cas o`u λm = 0, donc λ1 6= 0. Si l’on d´erive (III.11.10), on obtient une ´egalit´e de la forme

eλ1tQ1(t) + eλ2tQ2(t) +· · ·+Pm0 (t) = 0,

avec Q1(t) = P10(t) +λ1P1(t), donc Q1 6= 0, en consid´erant le terme de plus haut degr´e. En d´erivant un nombre suffisant de fois, on obtient une ´egalit´e de la forme (III.11.10) avec Pm remplac´e par 0 et P1 6= 0; ceci contredit l’hypoth´ese de r´ecurrence.

Cette contradiction prouve que P1 = 0. On voit de mˆeme que Pj = 0 pour tout

j.

D´emonstration du th´eor`eme III.11.8. Le nombre de fonctions cit´ees dans le th´eor`eme est h1+· · ·+hm = n, et, d’apr`es le lemme III.11.9, ces fonctions sont lin´eairement ind´ependantes. Il reste `a v´erifier que, lorsque λ est racine de (III.11.6) d’ordre h, tieλt est solution de (III.11.2) si i≤h−1. Or, d’apr`es la formule de Leibniz, on a

(tieλt)(j)= eλtjti+jλj−1iti−1+. . . + j(j−1). . .(j−k+ 1)

k! λj−ki(i−1). . .(i−k+ 1)ti−k+. . .].

Rempla¸cons y par tieλt dans (III.11.2). Le coefficient de i(i−1). . .(i−k+ 1)eλtti−k dans (III.11.2) est

p−1

X

j=k

ajj(j−1). . .(j−k+ 1)

k! λj−k.

Or, on a

p(p−1). . .(p−k+ 1)λp−k+

p−1

X

j=k

aj

j(j −1). . .(j −k+ 1)

k! λj−k = 0

pour k = 0, . . . , i; en effet, λ ´etant racine d’ordre h de (III.11.6), annule les d´eriv´ees de

Xn+an−1Xn−1+· · ·+a1X +a0

jusqu’`a l’ordre h−1≥i. Donc tieλt est bien solution de (III.11.2).

(16)

III.12. La m´ethode de variations des constantes.

On suppose qu’on connaˆıt n solutions maximales lin´eairement ind´ependantes y1, . . . , yn

de l’´equation homog`ene associ´ee (III.11.2). On peut alors trouver toutes les solutions de (III.11.1) par la m´ethode de variations des constantes. Cette m´ethode consiste ici en la recherche d’une solution particuli`ere de (III.11.1) du type

(III.12.1) y=c1y1+· · ·+cnyn

o`u les c1, . . . , cn sont des fonctions `a d´eterminer. On La matrice

Z = [z1, . . . , zn] =

y1 y2 · · · yn

y01 y20 · · · yn0

· · · ·

· · · ·

· · · ·

y(n−1)1 y2(n−1) · · · yn(n−1)

fournit alors une matrice fondamentale du syst`eme lin´eaire homog`ene correspondant du type (III.11.3). Par cons´equent, puisqu’ici le vecteur b est du type

b=

 0

·

·

· 0 β

 ,

pour trouver c1, . . . , cn il suffit de r´esoudre les ´equations diff´erentielles scalaires c01 =z1,nβ, . . . , c0n=zn,nβ,

`

a une variable, o`u

Z−1 = [zi,j]. Exemple III.13. On consid`ere l’´equation

(III.13.1) y00 + 2ay0+by =β.

On utilisera les r´esultats dans (III.9) et (III.11.4). Si a2 6=b une solution particuli`ere y de (III.13.1) est donc donn´ee par

y(t) =c1(t)eλ1t+c2(t)eλ2t o`u les fonctions c1 et c2 sont solution de

c01(t) c02(t)

= −e2atβ(t) 2√

a2−b

−e2 e1

.

De mˆeme, si a2 =b, une solution particuli`ere y de (III.13.1) est donn´ee par y(t) = (c1(t) +tc2(t)) e−at

(17)

o`u les fonctions c1 et c2 sont solutions de l’´equation diff´erentielle vectorielle c01(t)

c02(t)

= eatβ(t) −t

1

.

Bibliographie

1. J. Dixmier, Cours de Math´ematiques du 1er cycle, 1er et 2`eme ann´ee, Gauthier- Villars, Paris.

2. J. Lelong-Ferrand, J. M. Arnaudies, Cours de Math´ematiques, tome 1: Alg`ebre, tome 2: Analyse, tome 3: G´eom´etrie et cin´ematique, tome 4: Equations´ diff´erentielles, Int´egrales multiples, Dunod, Paris, 1978–1982.

3. Seymour Lipschutz, Linear Algebra, Schaum’s outline series, Mc Graw Hill Book Company, New York, St. Louis, San Francisco, Toronto, Sydney, 1968.

4. Strang, Linear algebra.

Références

Documents relatifs

Montrer que, si g est une solution strictement positive de l’´ equation diff´ erentielle y 0 = −y, alors le graphe de g est une barri` ere descendante pour l’´ equation

Pour chaque proposition, choisir l’unique bonne

En d´ eduire ses

R´ esoudre les ´ equations diff´ erentielles

Pour ˆetre utilisable, on estime que le mat´eriau plastique ne doit pas avoir perdu plus de 20 % de sa temp´erature initiale lors des 3 premi`eres secondes du refroidissement.. Lors

L’´ etude qualitative d’un syst` eme diff´ erentiel (isoclines, ´ equilibres, fl` eches) ne permet pas toujours ` a elle seule de d´ eduire le comportement de toutes les

Toutes les justifications doivent figurer sur votre copie, mais la r´edaction doit rester sobre.. Vous pouvez admettre un r´esultat, `a condition de le signaler

Dans la partie I, on d´ etermine les valeurs propres d’une matrice tridiagonale sym´ etrique r´ eelle