• Aucun résultat trouvé

1.1 Équation diérentielle linéaire

N/A
N/A
Protected

Academic year: 2022

Partager "1.1 Équation diérentielle linéaire"

Copied!
19
0
0

Texte intégral

(1)

Équations diérentielles linéaires

Contents

1 Généralités 3

1.1 Équation diérentielle linéaire . . . 3

1.2 Forme matricielle . . . 3

1.3 Équation diérentielle homogène associée à une équation dif- férentielle linéaire . . . 3

1.4 Principe de superposition . . . 3

1.5 Problème de Cauchy . . . 4

1.5.1 Dénition . . . 4

1.5.2 Mise sous forme intégrale d'un problème de Cauchy . 4 1.6 Représentation d'une équation scalaire linéaire d'ordre n par un système diérentiel linéaire . . . 4

1.6.1 Equation scalaire linéaire d'ordre n (n≥1) . . . 4

1.6.2 Représentation par un système diérentiel linéaire . . 4

1.6.3 Réciproque . . . 4

1.6.4 Problème de Cauchy pour une équation linéaire scalaire 4 2 Solutions d'une équation diérentielle linéaire 4 2.1 Théorème de Cauchy linéaire . . . 4

2.2 Cas des équations homogènes . . . 5

2.3 Retour au cas général . . . 5

2.4 Une variante . . . 5

2.5 Ebauche de démonstration . . . 6

2.5.1 Unicité . . . 6

2.5.2 Existence . . . 6

2.6 La méthode d'Euler . . . 6

2.6.1 Principe . . . 6

2.6.2 Un exemple . . . 7

3 Exponentielle d'un endomorphisme, d'une matrice 7 3.1 Rappels . . . 7

3.1.1 Applications bilinéaires . . . 7

3.1.2 Produit matriciel . . . 7

3.1.3 Complément : c= 1 . . . 7

3.1.4 Des exemples d'applications continues . . . 7

3.2 Exponentielle de matrices . . . 8

3.2.1 Dénition . . . 8

3.2.2 Cas d'une matrice . . . 8

3.2.3 Si A=MB(a) . . . 8

3.2.4 exp P−1.A.P . . . 8

3.2.5 A.eA=eA.A . . . 8

3.3 Continuité deexp. . . 8

3.4 Théorème : exp (tA) . . . 9

3.5 Spectre . . . 9

3.6 Exercice . . . 9

3.6.1 Cas oùAest nilpotente . . . 9

3.6.2 Cas oùAest diagonale . . . 9

3.6.3 Cas oùAest diagonalisable . . . 9

3.6.4 Cas général . . . 9

3.7 Exp est surjective deMn(C)surGLn(C) . . . 9

(2)

4 Systèmes diérentiels linéaires homogènes à coecients con-

stants 9

4.1 Théorème . . . 9

4.2 Théorème . . . 10

4.2.1 Démonstration . . . 10

4.2.2 Cas particulier . . . 10

4.3 Le cas de la dimension 2 . . . 10

4.3.1 Exemple 1 . . . 10

4.3.2 Exemple 2 . . . 10

4.3.3 Réduction des matrices deM2(R) . . . 11

4.3.4 Application . . . 11

4.3.5 Cas 1 . . . 11

4.3.6 Cas 2 . . . 11

4.3.7 Cas 3 . . . 11

4.4 Exercice : étude asymptotique . . . 12

4.4.1 Cas où Reλ <0. . . 12

4.4.2 Cas où Reλ= 0. . . 12

4.4.3 Si Apossède plusieurs valeurs propres ? . . . 12

4.5 Morphismes de groupes continus de(R,+) dans(GLn(R),×) 12 4.5.1 Endomorphismes de groupes continus de(R,+) . . . 12

4.5.2 Morphismes de groupesC0de(R,+)dans(GLn(R),×) 12 5 Equations diérentielles linéaires homogènes à coecients constants 13 5.1 Utilisation du théorème de décomposition des noyaux . . . . 13

5.2 Cas oùP est scindé à racines simples . . . 14

5.3 Cas général . . . 14

6 Méthode de variation des constantes 14 6.1 Introduction . . . 14

6.2 Justication . . . 14

6.3 Calcul . . . 15

6.4 Cas des systèmes à coecients constants . . . 15

7 Équations diérentielles scalaires du second ordre 15 7.1 L'équation . . . 15

7.2 La méthode de variation des constantes . . . 15

7.3 Exemple 1 . . . 16

7.4 Exemple 2 . . . 16

7.5 Wronskien . . . 16

7.5.1 Dénition . . . 16

7.5.2 Calcul . . . 16

7.5.3 Les zéros dew . . . 16

7.5.4 Cas oùaest nul . . . 16

7.5.5 Cas où on connaît une solution . . . 16

7.6 Exercice 1 . . . 17

7.7 Exercice 2 . . . 17

7.8 Exercice 3 . . . 17

7.9 Exercice 4 . . . 17

7.10 Exercice 5 . . . 18

7.11 Exercice 6 . . . 18

7.12 Exercice 7 . . . 18

7.13 Exercice 8 . . . 19

7.14 Exercice 9 . . . 19

7.15 Exercice 10 . . . 19

7.15.1 Montrer que . . . 19

7.15.2 En déduire que . . . 19

(3)

Dans ce chapitre, I est un intervalle de R, E un espace vectoriel normé de dimension nie n.

1 Généralités

1.1 Équation diérentielle linéaire

x0(t) =a(t)x(t) +b(t)

ou, en résumé,x0=a(t) (x) +b(t);aest une application continue deIdans L(E)etb une application continue deIdansE.

1.2 Forme matricielle

Systèmes diérentiels linéaires :

X0(t) =A(t)X(t) +B(t)

IciAetB sont des applications continues deI dans ? Réponse

A(t)∈Mn(R);B(t)∈Mn,1(R).

1.3 Équation diérentielle homogène associée à une équa- tion diérentielle linéaire

x0(t) =a(t)x(t), ouX0(t) =A(t)X(t) Exemple

y0(t) =−z(t) z0(t) =y(t) Ici,X(t) =

y(t) z(t)

;X0(t) =A(t)X(t)avecA=?

SiX(t)décrit une trajectoire, que dire du vecteur vitesse ? Réponses

A(t) =

0 −1

1 0

. Le vecteur vitesse est normal à X(t).

1.4 Principe de superposition

Dans le cas oùB est une somme

B =B1+...+Bp

pour obtenir une solutionX deX0(t) =A(t)X(t) +B(t), il sut d'ajouter des solutionsX1, X2...des équations

X0(t) =A(t)X(t) +Bj(t) Remarque

Il s'agit d'une équation linéaireu(x) =b,u∈L(E1, E2). Ici,E1, E2, u=?

Réponse

E1=C1(I, E)et E2=C0(I, E).

u(X) =X0−AX

(4)

1.5 Problème de Cauchy

1.5.1 Dénition (1)

X0(t) =A(t)X(t) +B(t) X(t0) =X0

1.5.2 Mise sous forme intégrale d'un problème de Cauchy Le problème précédent est équivalent à l'équation intégrale :

(2) X(t) =X0+ ˆ t

t0

A(u)X(u) +B(u) du Plus précisément :

X est une solution de classeC1 surI de(1)si et seulement siX est une solution continue surI de(2).

1.6 Représentation d'une équation scalaire linéaire d'or- dre n par un système diérentiel linéaire

1.6.1 Equation scalaire linéaire d'ordre n (n≥1)

y(n)(t) +an−1(t).y(n−1)(t) +...+a0(t).y(t) =b(t) (1) Lesaj etbsont des fonctions continues sur Ià valeurs dansRouC.

L'inconnuey est de classeCn surI.

1.6.2 Représentation par un système diérentiel linéaire Supposons y solution de (1) ; soit X = y, y0, ...y(n−1)T

; alors, X est solution de

X0(t) =A(t)X(t) +B(t) avecA=? B=?

Réponse pourn= 4

A(t) =

0 1

0 1

0 1

−a0(t) −a1(t) −a2(t) −a3(t)

, B(t) =

 0 0 0 b(t)

 On reconnaît la transposée d'une matrice compagnon.

1.6.3 Réciproque

SiX = (x0, x1, ...xn−1)T est solution surIde X0(t) =A(t)X(t) +B(t) alorsy=x0est solution surI de(1).

1.6.4 Problème de Cauchy pour une équation linéaire scalaire Ici, la condition initialeX(t0) =X0 s'écrit

y(t0) =u0, y0(t0) =u1, y00(t0) =u2, ..., y(n−1)(t0) =un−1

2 Solutions d'une équation diérentielle linéaire

2.1 Théorème de Cauchy linéaire

Démonstration non exigible

Il y a existence et unicité de la solution surI du problème de Cauchy X0(t) =A(t)X(t) +B(t)

X(t0) =X0

(5)

Cas des équations scalaires d'ordre n

Analogue : il y a existence et unicité de la solution surI du problème de Cauchy

y(n)(t) +an−1(t).y(n−1)(t) +...+a0(t).y(t) =b(t) y(t0) =u0, y0(t0) =u1, y00(t0) =u2, ..., y(n−1)(t0) =un−1

Attention

C'est le mêmet0 poury, y0, y00, ...Contre-exemple : y00(t) +y(t) = 0

y(0) = 0, y0 π2

= 1

Attention

Le coecient dey(n)est 1. Ou une fonctionan continue et qui ne s'annule pas surI.

2.2 Cas des équations homogènes

Théorème

Pour l'équation homogèneX0(t) =A(t)X(t), l'ensembleSH des solutions est un sous-espace vectoriel deEI.

Théorème

Pour toutt0dansI, l'application

SH → E

x → x(t0)

est un isomorphisme d'espace vectoriel deSH surE. En particulier, SH est de dimensionn.

Théorème : cas des équations scalaires d'ordre n Pour toutt0dansI, l'application

SH → Kn

y → y(t0), ..., y(n−1)(t0)

est un isomorphisme d'espace vectoriel deSH sur Kn. En particulier, SH est de dimensionn.

2.3 Retour au cas général

L'ensemble des solutions est un sous-espace ane deEI.

2.4 Une variante

M0(t) =A(t)M(t) +B(t) M(t0) =C

Ici,A(t)est toujours carrée de taille n ;M0,M(t)et B(t)ne sont plus des colonnes, mais des matrices, toujours à n lignes, mais à q colonnes.

Dans ce cas aussi il y a une solution unique ; le système est équivalent à qsystèmes

Mj0(t) =A(t)Mj(t) +Bj(t) Mj(t0) =Cj

(6)

2.5 Ebauche de démonstration

On suppose queI est un segment : I= [a, b] ; on xet0∈Iet α∈E. SoitFl'ensemble des fonctions continues deIdansE=Rn. On utilisera kkdansE et dansF.

F= C0([a, b], E),kk

On noteT l'application qui à X∈F associeY ∈F déni par

Y(t) =α+ ˆ t

t0

A(u)X(u) +B(u) du On cherche à montrer queT possède un unique point xe.

Pour simplier les calculs, on choisit dansMn(R)une norme telle que :

∀M ∈Mn(R),∀X ∈Rn,kM.Xk ≤ kMk.kXk Par exemple,n.kk.

On noteC= max

I kAk. T est lipschitzienne

T est lipschitzienne de rapportk=´

IkA(u)kdu; problème,T peut ne pas être contractante.

2.5.1 Unicité

SoitX0 et Y0 deux éléments deF ; on dénit deux suites (Xk)et (Yk)par Xk+1=T(Xk)etYk+1=T(Yk); on montre par récurrence surk que

∀k≥0,∀t∈I,kYk(t)−Xk(t)k ≤Ck|t−t0|k

k! kY0−X0k Que conclure siX0et Y0 sont deux points xes deT ?

2.5.2 Existence

On dénit une suite parX0∈F quelconque, etXk+1=T(Xk). On étudie la diérenceXk+1−Xk :

∀k≥0,∀t∈I,kXk+1(t)−Xk(t)k ≤Ck|t−t0|k

k! kX1−X0k Qu'en déduire pour la suite(Xk)?

Réponse

La série PXk+1 −Xk converge normalement sur I ; donc la suite (Xk) converge uniformément surI.

2.6 La méthode d'Euler

2.6.1 Principe

X0(t) =A(t)X(t) +B(t) X(0) =X0

Fixonsh >0;X(h)≈X0+h.T0=X1 ;X(2h)≈X1+h.T1=X2. T0=? T1=?

Réponse

T0=A(0)X0+B(0);T1=A(h)X1+B(h).

(7)

2.6.2 Un exemple y0(t) =y(t)

y(0) = 1 ; yn ? Réponse

yn= (1 +h)n ; pour xxé, atteint ennétapes : x=nh, y(x)≈yn= (1 +h)n=

1 +x n

n

Conclusion ?

3 Exponentielle d'un endomorphisme, d'une ma- trice

3.1 Rappels

3.1.1 Applications bilinéaires

SiE1, E2etF sont des espaces normés de dimensions nies, etBune appli- cation bilinéaire deE1×E2 dansF, alors :

∃c >0,∀x, y,kB(x, y)k ≤c.kxk.kyk 3.1.2 Produit matriciel

SoitE=Mn(K); d'après ce qui précède :

∃c >0,∀X, Y ∈E,kX.Yk ≤c.kXk.kYk

Exemple : pourkk,c=? Réponse

c=nconvient.

3.1.3 Complément : c= 1

De plus, on peut choisir une norme dansE pour que c= 1. Par exemple, on choisit une norme quelconque dansMn,1(K), et dansE :

kMk= sup

kM.Xk

kXk / X∈Mn,1(K)− {0}

Cette norme surE vérie aussi :

∀M ∈Mn(R),∀X ∈Rn,kM.Xk ≤ kMk.kXk

Autre exemple plus simple

M → kMk=nkMk est une norme surE=Mn(K)qui vérie

∀X, Y ∈E,kX.Yk ≤ kXk.kYk 3.1.4 Des exemples d'applications continues

Soit E un espace vectoriel de dimension nie ; soit B une base de E ; l'application

u→MB(u)

est continue deL(E)dansMn(C), ainsi que sa réciproque.

SoitA, B∈Mn(C); les applications M →A.M

(8)

M →M.B

M →A.M.B sont continues deMn(C)dansMn(C).

3.2 Exponentielle de matrices

3.2.1 Dénition

SoitE un EVN de dimension nie ; soita∈L(E); on pose

exp (a) =ea=

X

k=0

ak k!

Justication

La série converge absolument d'après :

ak k!

≤ ck−1.kakk k!

et la règle de d'Alembert.

3.2.2 Cas d'une matrice

PourAmatrice carrée : exp (A) =eA=P k=0

Ak k!. 3.2.3 SiA=MB(a)

SoitB une base de E ; soita∈L(E); soit A=MB(a); alors exp (A) =MB(exp (a))

Démonstration On notesk(a) =Pk

j=0 aj

j!...

3.2.4 exp P−1.A.P exp P−1.A.P

=P−1.exp (A).P Démonstration

A nouveau à l'aide desk(A) =Pk j=0

Aj j!. 3.2.5 A.eA=eA.A

3.3 Continuité de exp

Théorème

exp est continue surL(E). Démonstration

On vérie que la série converge normalement sur toute partie bornée :

∀a∈B(0, R),

ak k!

≤ck−1.Rk k!

indépendant dea, et terme général d'une série de réels positifs convergente.

(9)

3.4 Théorème : exp (tA)

NotonseA:t→exp (tA);eA est de classeCsurR; e0A(t) =A.eA(t) =eA(t).A

3.5 Spectre

SoitA∈Mn(C).

Si le spectre deAest(λ1, ..., λn), alors le spectre deexp (A)est eλ1, ..., eλn. det eA

? Réponse det eA

= exp (trA). En particulier,eAest toujours inversible.

3.6 Exercice

SoitA∈Mn(C); montrer queeA∈C[A]. 3.6.1 Cas oùA est nilpotente 3.6.2 Cas oùA est diagonale 3.6.3 Cas oùA est diagonalisable 3.6.4 Cas général

C[A]est un espace vectoriel de dimension nie, donc fermé dansMn(C); il contient les

sk(A) =

k

X

j=0

Aj j!

donc il contient la limite.

3.7 Exp est surjective de M

n

( C ) sur GL

n

( C )

Exercice

SoitB inversible ; on se ramène au cas où B =In+N avec N nilpotente (comment ?).

On pose alors

P =

n

X

k=1

(−1)k−1Xk k

etA=P(N);eA= expP(N) =Q(P(N)), avecQ=Pn k=0

Xk

k! ; pourquoi

?Il reste à étudierQ◦P ; on montre que

Q◦P = 1 +X+Xn+1R(X)

4 Systèmes diérentiels linéaires homogènes à coecients constants

4.1 Théorème

On étudie ici :

X0(t) =A.X(t) X(t0) =X0

Dans le cas oùt0 = 0, on dispose d'une expression pour la solution unique surR:

X(t) =etA.X0 Dans le cas général ? Résultat analogue pour

x0(t) =a(x(t)) x(t0) =x0 .

(10)

Réponse

X(t) =e(t−t0)A.X0

4.2 Théorème

Soita, b deux endomorphismes qui commutent ; alors exp (a+b) = exp (a)◦exp (b)

Analogue pour les matrices carrées.

4.2.1 Démonstration

Soitf(t) =et(A+B)etg(t) =etA.etB; on calcule leurs dérivées ;f etgsont deux solutions de

X0(t) = (A+B).X(t) X(0) =In 4.2.2 Cas particulier

SiB=−A: on constate queexp (−A)est l'inverse deexp (A).

4.3 Le cas de la dimension 2

4.3.1 Exemple 1

y0(t) =−a.z(t) z0(t) =a.y(t) On en déduity00+a2y= 0, etz00+a2z= 0; d'où

y(t) =α.cosat+β.sinat

Avecα=? β =? Réponse

α=y(0) ;β=−z(0). Matriciellement

X0(t) =A.X(t)

X(0) =X0 , avecA=

0 −a a 0

.

X(t) =

y(0) cosat−z(0) sinat y(0) sinat+z(0) cosat

= exp (tA).X(0)

Conclusion : etA=

cosat −sinat sinat cosat

.

Autre méthode pour calculeretA ? CalculerA2, puisA2n...

4.3.2 Exemple 2

y0= 2y+z z0= 3y+ 4z donc

X0 =AX avecA=

2 1 3 4

. On trouve une base de vecteurs propres : Pourλ= 1: U =

1

−1

, pourλ= 5: V = 1

3

.

(11)

On chercheX(t)sous la forme

X(t) =c1(t)U +c2(t)V L'équation s'écrit :

X0(t) =c01(t)U+c02(t)V =c1(t)U+ 5c2(t)V D'oùc01=c1, c02= 5c2 ; nalement :

x(t) =α.et+β.e5t y(t) =−α.et+ 3β.e5t 4.3.3 Réduction des matrices deM2(R) Exercice

SoitM ∈M2(R). Montrer queM est semblable dansM2(R)à une matrice d'une des trois formes suivantes :

- λ 0 0 µ

-

λ 1 0 λ

- a −b b a

, avecb6= 0. Démonstration

Dans le cas où M a une valeur propre λ = a+ib, avec b 6= 0, on écrit M Z=λZ avecZ=X+iY 6= 0.

On obtient

M X=aX−bY M Y =bX+aY Il reste à montrer que(X, Y)est libre :

- Z, Z

est libre carZ etZ sont vecteurs propres deM associés à deux valeurs propres distinctesλet λ.

- Z et Z sont combinaisons C−linéaires de X et Y, donc (X, Y) est C−libre.

-(X, Y)estC−libre, doncR−libre.

Une autre méthode

Il est facile de montrer queM est semblable à a −b b a

dansM2(C); on peut ensuite montrer que deux matrices deMn(R)semblables dansMn(C) sont en fait semblables dansMn(R).

4.3.4 Application

Soita un endomorphisme ; pour étudier x0(t) = a(x(t)), on calcule dans une baseB adaptée.

4.3.5 Cas 1 A=

λ 0 0 µ

;exp (tA) =

eλt 0 0 eµt

. Tracé ?

4.3.6 Cas 2 A=

λ 1 0 λ

;exp (tA) =eλt. 1 t

0 1

. Tracé ?

4.3.7 Cas 3 A=

a −b b a

;exp (tA) =eat.

cosbt −sinbt sinbt cosbt

. Tracé ?

(12)

4.4 Exercice : étude asymptotique

On suppose queA possède une seule valeur propre : A=λIn+N. etA=eλt.etN

Que dire deetN ?

C'est une fonction polynomiale.

4.4.1 Cas où Reλ <0. Dans ce cas :

t→+∞lim etA= 0

4.4.2 Cas où Reλ= 0. Dans ce cas :

t→+∞lim etA

= +∞

sauf siN = 0.

4.4.3 SiA possède plusieurs valeurs propres ? Aest semblable à une matrice diagonale par blocs...

4.5 Morphismes de groupes continus de ( R , +) dans (GL

n

( R ) , ×)

Exercices

4.5.1 Endomorphismes de groupes continus de (R,+) Les seuls endomorphismes de groupes continusf de(R,+)sont les

fa:t→at

oùadécrit R.

Démonstration

SoitF une primitive def. De

(H) : ∀x, y∈R, f(x+y) =f(x) +f(y)

on déduit, en intégrant sur[0,1]par rapport ày :

∀x∈R, F(x+ 1)−F(x) =f(x) +F(1)−F(0)

Ceci montre que f est de classe C1 sur R. On revient à (H) ; en dérivant par rapport ày :

∀x, y ∈R, f0(x+y) =f0(y) D'où

∀x∈R, f0(x) =f0(0) Conclusion ?

4.5.2 Morphismes de groupes C0 de (R,+) dans (GLn(R),×) Les seuls morphismes de groupes continus f de (R,+) dans (GLn(R),×) sont les applications

fA:t→exp (tA) oùA décritMn(R).

(13)

Démonstration

On va d'abord montrer quef est nécessairement de classeC1 ; soita >0; on part de

∀x, y∈R, f(x+y) =f(x)f(y) On xexet on intègre par rapport ày sur[0, a]:

∀x∈R, F(x+a)−F(x) =f(x).(F(a)−F(0)) Comment montrer quef est de classeC1 surR?

Il sut de montrer l'existence deatel queF(a)−F(0)soit inversible ; pour cela, on utilise

a→0lim

F(a)−F(0)

a =f(0) =In

On peut ensuite dériver par rapport àx:

f0(x+y) =f0(x)f(y)

Conclusion ?

∀t∈R, f0(t) =f0(0)f(t) D'où :

∀t∈R, f(t) = exp (tA).f(0) = exp (tA) avecA=f0(0)∈Mn(R).

5 Equations diérentielles linéaires homogènes à coecients constants

y(n)(t) +an−1.y(n−1)(t) +...+a0.y(t) = 0 (1) Lesak sont des complexes, etn≥1.

Notations

E=C(R,C). D∈L(E)est l'endomorphisme de dérivation : D: E→E

y→y0

eλ: R→C t→eλt

P =Xn+

n−1

X

k=0

ak.Xk

On sait qu'on peut ramener l'étude de(1) à celle d'un système diérentiel linéaire homogène à coecients constants. On va voir une autre approche.

SoitS l'ensemble des solutions de(1): S= kerP(D)

5.1 Utilisation du théorème de décomposition des noy- aux

P est scindé dansC:

P =

r

Y

j=1

(X−λj)mj

Donc

S=

r

M

j=1

ker (D−λj.Id)mj

(14)

5.2 Cas où P est scindé à racines simples

On est ramené à déterminerEλ= ker (D−λ.Id). Evidemment : Eλ= Vect (eλ)

Donc une base deS est

eλj

1≤j≤n

Ce qui veut dire que les solutions s'écrivent

y:t→

n

X

j=1

cj.eλjt

où lescj ∈Csont des constantes.

5.3 Cas général

On est ramené à déterminer

F = ker (D−λ.Id)m

Lemme

∀z∈E,(D−λ.Id) (z.eλ) =z0.eλ

Application

On cherche les éléments deF sous la formey=z.eλ.

∀z∈E,(D−λ.Id)m(z.eλ) = 0⇐⇒z(m).eλ= 0

Conclusion : dans ce cas, une base deF est eλ, X.eλ, ..., Xm−1.eλ

6 Méthode de variation des constantes

6.1 Introduction

On cherche à résoudre l'équation

(E) : X0(t) =A(t)X(t) +B(t) dans le cas où on a résolu l'équation homogène.

On suppose donc connue une base deSH : (X1, ..., Xn); une telle base est quelquefois appelée système fondamental de solutions ; notons

R(t) = (X1(t), ..., Xn(t)) (la résolvante).

Une solutionX deSH s'écrit

X =c1X1+...cnXn

On cherche les solutions de(E)sous la forme

X(t) =c1(t)X1(t) +...cn(t)Xn(t)

soitX(t) =R(t)C(t), avecC(t) = (c1(t), ..., cn(t))T.

6.2 Justication

Est-on sûr que toute solutionX peut se mettre sous cette forme ?

(15)

Réponse

Oui, carR(t)étant inversible, on peut poser C(t) =R−1(t)X(t)

etC ainsi dénie est de classeC1.

6.3 Calcul

On obtientRC0=B, d'oùX(t) =R(t).

C0t

t0R−1(s)B(s) ds

6.4 Cas des systèmes à coecients constants

(E) : X0(t) =A.X(t) +B(t) Dans ce cas,R(t) =etA; d'où

X(t) =etA.

C0+ ˆ t

t0

e−sAB(s) ds

7 Équations diérentielles scalaires du second ordre

7.1 L'équation

(E) : y00(t) +a(t)y0(t) +b(t)y(t) =f(t) a, b, f sont continues surI ; le système diérentiel équivalent :

X0(t) =M(t)X(t) +F(t) avecX(t) =

y(t) y0(t)

,M(t) =

0 1

−b(t) −a(t)

,F(t) = 0

f(t)

.

7.2 La méthode de variation des constantes

On suppose connues deux solutions indépendantes de l'équation homogène, y1 ety2 ; on chercheX sous la formeX=RC ; d'où RC0=F ; ici,

R(t) =

y1(t) y2(t) y01(t) y20(t)

d'où la méthode à retenir : On cherchey sous la forme

y=c1.y1+c2.y2

avec

c01.y1+c02.y2= 0 c01.y10 +c02.y20 =f Le déterminant de ce système,

w=y1.y02−y10.y2

est appelé wronskien ; il ne s'annule pas surI. Remarque

Ces formules ne s'appliquent que si le coecient dey00vaut1; sinon, il faut s'y ramener.

(16)

7.3 Exemple 1

Résoudre

y00(x)−y(x) = 1

chx, y(0) = 0, y0(0) = 0

Réponse

y(x) =x.shx−chx.ln (chx)

7.4 Exemple 2

Soitf continue et bornée deRdansR; soit (E) :y00−y=f ; montrer que (E)possède une unique solution bornée.

Réponse

−ex 2

ˆ +∞

x

e−uf(u) du−e−x 2

ˆ x

−∞

euf(u) du

7.5 Wronskien

7.5.1 Dénition

Ici, l'équation est homogène

(E) : y00(t) +a(t)y0(t) +b(t)y(t) = 0

Soity1et y2 deux solutions ; on appelle wronskien : w=y1.y02−y10.y2

Dans le cas où(y1, y2)est libre, c'est le déterminant de la résolvante.

C'est le déterminant du système à résoudre quand on utilise la méthode de variation des constantes.

7.5.2 Calcul

w0=−a.w d'où

w(t) =w(t0).exp

− ˆ t

t0

a(s) ds

7.5.3 Les zéros de w

Si(y1, y2)est liée,west nul ; sinon,w ne s'annule pas.

7.5.4 Cas oùa est nul Dans le cas de l'équation

y00(t) +q(t).y(t) = 0

le wronskien est constant.

7.5.5 Cas où on connaît une solution Si on connaît une solutiony1,

w=y1.y02−y10.y2

est une EDL d'ordre 1 d'inconnue y2 qu'on peut en théorie utiliser pour résoudre complètement l'équation.

(17)

7.6 Exercice 1

(E) : y00(t) +a(t)y0(t) +b(t)y(t) = 0

Montrer que siya une innité de zéros sur un segment J⊂I, alorsy= 0. Démonstration

Supposons l'existence dansJ d'une suite(sn)de zéros dey distincts.

J étant compact, (sn) possède une suite extraite (tn) = sϕ(n) qui converge vers un élémentc deJ. y étant continue :

y(c) = 0 De plus :

∀n≥0, y(tn)−y(c) tn−c = 0 D'où

y0(c) = 0 Avec le théorème de Cauchy linéaire : y= 0.

7.7 Exercice 2

(E) : y00(t) +a(t)y0(t) +b(t)y(t) = 0. Montrer que si deux solutionsuet vont un zéro communt0,(u, v)est liée.

Réponse

On peut utiliser le wronskien, ou appliquer le théorème du rang à y→y(t0)

7.8 Exercice 3

(E) : y00(t) +a(t)y0(t) +b(t)y(t) = 0. Désormais, K = R. On suppose (u, v)libre.

Montrer qu'entre deux zéros de uconsécutifs, v a exactement un zéro.

(Utiliserw).

7.9 Exercice 4

On supposeu00+p.u= 0,v00+q.v= 0, avecpetqcontinues surI, etp≤q; soita < bdeux zéros consécutifs deu; alors,va au moins un zéro sur]a, b]. Démonstration

une s'annule pas sur]a, b[ ; étant continue, elle est de signe constant, par exempleu >0sur]a, b[.

On montre alors que

u0(a)>0, u0(b)<0

Soitw=uv0−u0v ; on trouve que

w0= (p−q)uv Supposons par l'absurde quev >0 sur]a, b]; alors :

w0≤0 sur[a, b]

w(a)≤0 w(b)>0 Contradiction.

(18)

7.10 Exercice 5

On supposey00+p.y= 0, avecpcontinue surR+, etlim

+∞p= 1.

Siy n'est pas nulle, montrer qu'elle a une suite de zéros (tn)vériant limn tn+1−tn

Démonstration, 1e partie Fixonsε >0; xonsc >0tel que :

∀t≥c, p(t)≤q=ω2= π

π−ε 2

Soita < bdeux zéros consécutifs de u=y dans J = [c,+∞[, s'ils existent.

On peut appliquer l'exercice précédent. On choisit v(t) = sinω(t−a)

On sait quevs'annule sur]a, b], d'où b−a≥ π

ω =π−ε Démonstration, 2e partie

Fixonsε >0; xonsc >0tel que :

∀t≥c, p(t)≥ω2= π

π+ε 2

=q

Soit a un zéro de u = y dans J = [c,+∞[. On peut appliquer l'exercice précédent. Ici, les rôles depet qsont inversés.

On choisit

v(t) = sinω(t−a) etble zéro suivant dev :

b−a= π

ω =π+ε On sait queus'annule sur]a, b]...

7.11 Exercice 6

(E) :y00+p.y= 0. On supposepcontinue et intégrable surR+. Montrer que les solutions ne sont pas toutes bornées.

7.12 Exercice 7

(E) : y00+p.y = 0. On suppose pcontinue, positive, et non intégrable sur R+.

Montrer que toute solution a une innité de zéros.

Indications

Supposons par l'absurde l'existence d'une solutiony n'ayant qu'un nombre ni de zéros.

Alors il existea >0 tel que surJ = [a,+∞[,y ne change pas de signe.

Par exemple :

∀x∈J = [a,+∞[, y(x)<0 Ory00=−py, etp≥0, donc

∀x∈J = [a,+∞[, y00(x)≥0

(19)

Autrement dity est convexe surJ.

On sait que dans ce cas la courbe est au dessus de toute tangente :

∀b∈J,∀t∈J, y(t)≥y(b) + (t−b)y0(b) Donc :

∀b∈J,∀t∈J, y(b) + (t−b)y0(b)≤y(t)≤0 Pourbxé, avect→+∞, on constate quey0(b)≤0:

y est donc décroissante surJ. Donc

∀t∈J, y(t)≤y(a)<0 Donc surJ :

y00=−p.y≥ −y(a).p

Orpn'est pas intégrable, doncy00 n'est pas intégrable, donc : lim+∞y0 = +∞

et on est enn arrivé à une contradiction.

7.13 Exercice 8

(E) :y00+p.y= 0. On supposepcontinue et négative surI. Montrer que toute solution non nulle a au plus un zéro.

Par l'absurde Avec z=y2

7.14 Exercice 9

(E) :y00+p.y= 0. On supposepcontinue et négative surI; soita < bdans I; soit α, βdeux réels.

Montrer qu'il existe une solution uniqueytelle quey(a) =αety(b) =β.

7.15 Exercice 10

(E) :y00+ (1 +q).y= 0 On supposeqcontinue et intégrable surI=R+.

Soity ∈S\ {0}. On admet l'existence der >0 etθ, fonctionsC1 surI, telles que

y=r.cosθ, y0 =−r.sinθ

7.15.1 Montrer que

r0=q.r.cosθ.sinθetθ0= 1 +q.cos2θ 7.15.2 En déduire que

ra une limite nier0>0, etθ(t) =t−t0+o(1).

Références

Documents relatifs

En déduire qu'il existe une unique solution de (E n ) qui admet une limite nie en 0 (à préciser)... Bijections réciproques en

Le déterminant D(.r) est une ' fonction analytique de x, holornorphe dans le domaine F, et qui n'est pas identiquement zéro.. u^Çx) forment un système fondamental. En répétant

étant des constantes que l'on peut regarder comme connues, qui, si l'on donne, par exemple, les valeurs au point A de la fonction qui satisfait !A l'équation différentielle et de

Si donc (3 et (3' sont des entiers négatifs, i — (3 et i —(3' sont des entiers positifs et l'intégrale t de l'équation (9) est donnée par la formule établie précédemment.

On peut effectuer les deux codages par l'option 'Q' (barycentrique) du programme 'zrang' (cf. [CODAGE LIN.]) à condition d'avoir préalablement effectué, par un programme approprié,

[r]

D’une manière analogue, nous montrons l’existence d’une solution maximum pour le problème d’évolution

L'ordre des exercices ne correspond à aucun critère de diculté ou de longueur : vous pouvez les traiter dans l'ordre que vous voulez.. Veillez à soigner la copie tant pour