• Aucun résultat trouvé

quations diffrentielles

N/A
N/A
Protected

Academic year: 2021

Partager "quations diffrentielles"

Copied!
28
0
0

Texte intégral

(1)

NICOLAS RAYMOND

Table des matières

Introduction 2

1. Équations différentielles scalaires linéaires du premier ordre 2

1.1. Définitions 2

1.2. Résolution théorique 3

1.3. Résolution pratique 3

1.4. Cas des coefficients constants 4

2. Équations différentielles vectorielles linéaires d’ordre 1 5 2.1. Généralités sur les équations différentielles 5 2.2. Équations différentielles vectorielles linéaires d’ordre 1 6 3. Équations différentielles linéaires scalaires du second ordre 10

3.1. Généralités 10

3.2. Cas des coefficients constants 11

3.3. Quelques problèmes classiques 11

4. Systèmes différentiels linéaires à coefficients constants 12

4.1. Étude théorique 12

4.2. Résolution de (E) quand A est diagonalisable 12 5. Équations différentielles non linéaires : exemples 14

5.1. Autour du théorème de Cauchy-Lipschitz 14

5.2. Notions sur les entonnoirs, échappement des solutions 14

5.3. Quelques exemples d’équations non linéaires 16

5.4. Un exemple pour traiter des équations différentielles : la méthode du tir 17 5.5. Un exemple d’étude qualitative de système non linéaire 19 5.6. Notions des méthodes numériques pour les équations différentielles 20

6. Rappels d’algèbre linéaire 24

6.1. Matrices, changements de bases 24

6.2. Endomorphismes, valeurs propres 25

7. Notions de la théorie des séries entières 26

7.1. Éléments de la théorie 26

7.2. Un exemple fondamental : l’exponentielle 27

Date: 31 août 2013.

(2)

Introduction. Dans de nombreux domaines (mathématiques, physique, chimie, biologie, etc.), on est amené à chercher des fonctions dont les dérivées vérifient certaines relations. Ainsi est-ce le cas pour le principe fondamental de la dynamique (équation différentielle) : d2M dt2 = − → F ,

pour l’équation des ondes (équation aux dérivées partielles) : −∂ 2ψ ∂x2 − ∂2ψ ∂y2 − ∂2ψ ∂z2 − 1 c2 ∂2ψ ∂t2 = 0.

ou encore pour la célèbre équation de Schrödinger (équation aux dérivées partielles) : (−∆ + V (x))ψ = i∂tψ.

Dans ce cours, nous étudierons les équations différentielles (sujet déjà bien vaste !). Le problème général consistera, étant données des conditions initiales (position et vitesse par exemple) et une relation satisfaite par les dérivées d’une fonction (prin-cipe de la dynamique par exemple) à déterminer cette fonction inconnue et/ou ses propriétés.

En particulier, nous ferons l’inventaire des méthodes classiques de résolutions, ainsi que des problèmes divers qui apparaissent dans la théorie des équations différen-tielles.

1. Équations différentielles scalaires linéaires du premier ordre 1.1. Définitions.

Définition 1.1 (Forme générale de l’équation). On appelle équation différentielle scalaire linéaire d’ordre 1 toute équation différentielle de la forme :

(1.1) A(x)y0+ B(x)y = C(x),

où A, B, C sont trois fonctions continues de J ⊂ R à valeurs dans K, J étant un intervalle de R non réduit à un point.

L’équation homogène associée à (1.1) est :

(1.2) A(x)y0+ B(x)y = 0.

Définition 1.2. Si A ne s’annule pas en un point x0 ∈ J, alors il existe un intervalle

I ⊂ J tel que A(x) 6= 0 pour x ∈ I et alors (1.1) se met sous la forme dite "résolue" sur I :

y0 = −B(x) A(x)y +

C(x)

A(x) = b(x)y + c(x).

Définition 1.3. Soit J1 ⊂ J un intervalle de R non réduit à un point. On dit que

f est une J1-solution de (1.1) si, pour tout x ∈ J1, on a :

A(x)f0(x) + B(x)f (x) = C(x).

Nous nous intéresserons donc aux couples (J1, f ) qui résolvent l’équation (1.1). Si

(J1, f ) est une solution de (1.1) et si J2 ⊂ J1, alors (J2, f ) est une J2 solution de

(1.1).

Définition 1.4 (Solution maximale). On dit que (J1, f ) est une solution maximale

de (1.1) si et seulement si elle n’est la restriction à J1 d’aucune autre solution

(3)

Dans la suite, nous allons porter essentiellement notre attention les solutions de l’équation mise sous forme résolue.

1.2. Résolution théorique. Le cas scalaire linéaire a le bon goût d’être particu-lièrement simple à résoudre. Nous considérons donc l’équation :

(1.3) y0 = b(x)y + c(x), x ∈ I,

où b et c sont des fonctions continues sur I. Nous rappelons l’équation homogène :

(1.4) y0 = b(x)y, x ∈ I.

1.2.1. Propriétés élémentaires. Nous disposons des théorèmes élémentaires suivants : Théorème 1.5. L’ensemble des I1-solutions de (1.4) est un K espace vectoriel.

Théorème 1.6. L’ensemble des I1-solutions de (1.3) est un K espace affine de

direction l’ensemble des I1-solutions de (1.4).

1.2.2. Résolution.

Théorème 1.7 (Équation homogène). Soit I1 un intervalle de R non réduit à un

point. Les I1-solutions de l’équation homogène (H) forment un K e. v. de dimension

1. De plus, les solutions maximales sont définies sur I et si une solution de (H) s’annule en un point, elle est identiquement nulle.

Théorème 1.8. Soit I1 un intervalle de R non réduit à un point. Les I1-solutions

de (E) forment une droite affine de dimension 1. De plus, les solutions maximales sont définies sur I.

Remarque 1.9. Si l’équation n’est pas mise sous forme résolue, on résout d’abord sur les intervalles où A ne s’annule pas, puis on se pose la question du recollement des solutions.

1.3. Résolution pratique. La théorie du paragraphe précédent fournit les solu-tions de façon explicite. Cependant, il vaut mieux retenir le principe (très général) de la démonstration :

– on résout l’équation homogène (H),

– on cherche une solution particulière de (E) : soit on en trouve une explicite, soit on utilise la méthode de variation de la constante (qui marche à coup sûr !). Proposition 1.10 (Superposition des solutions). Considérons l’équation :

A(x)y0 + B(x)y =

n

X

i

Ci(x),

avec A, B, Ci continues sur I et avec A ne s’annulant pas sur I. Si yi est une solution

de A(x)y0+ B(x)y = Ci(x), alors, n X i

yi est solution de (E).

(4)

Théorème 1.11 (Problème de Cauchy). On considère (E) avec A, B, C continues sur I et A ne s’annulant pas sur I. Alors, pour tout (x0, y0) ∈ I × K, il existe une

unique solution Y de (E) définie sur I qui vérifie Y (x0) = y0. De plus, toute solution

de (E) qui vérifie y(x0) = y0 est la restriction de Y à un intervalle contenant x0.

Remarque 1.12. Lorsque A s’annule sur I, tous les résultats précédents (structure des solutions, existence, unicité) tombent en défaut : c’est le problème du raccord des solutions définies sur les intervalles où A ne s’annule pas.

Exemple : ty0 − αy = 1. Pour quelles valeurs de α existe-t-il des solutions sur R ? Que dire du problème de Cauchy : existe-t-il des solutions telles que y(0) = y0 ∈ R ?

1.4. Cas des coefficients constants.

Définition 1.13. On appelle équation différentielle linéaire du premier ordre à co-efficients constants toute équation de la forme :

y0 + by = C(x), où C : I → K continue.

Nous avons vu que les solutions de l’équation homogène sont de la forme : y(x) = λe−bx et que les solutions de (E) sont définies sur I. Il y a des cas où on peut déterminer une solution particulière sans recourir à la méthode de variation de la constante.

C(x) = P (x) où P est un polynôme. On cherche une solution particulière sous la forme Q(x).

C(x) = P (x)eαx où P est un polynôme. On cherche une solution sous la forme

eαxg(x).

Exemple : y0− y = (x + 1)ex+ sin(2x) + x cos(x) + 1 1+x2.

(5)

2. Équations différentielles vectorielles linéaires d’ordre 1 2.1. Généralités sur les équations différentielles. Soit E = Kp.

2.1.1. Définition et réduction au premier ordre.

Définition 2.1. On appelle système différentiel d’ordre n sous forme normale toute équation différentielle de la forme :

(E) : y(n) = G(t, y, y0, · · · , y(n−1)),

où G est une application d’un ouvert U de R×En à valeurs dans E et y une fonction

Cn à valeurs dans E.

(E) peut être ramenée à un système d’ordre 1 à l’aide du procédé suivant. On pose :

y0 = z1, y00 = z2, · · · , y(n−1)= zn,

ce qui s’écrit de façon équivalente :

y0 = z1, z10 = z2, · · · , zn−10 = zn.

y est solution de (E) si et seulement si (y, z1, · · · , zn−1, zn) est solution de :

y0 = z1,

z10 = z2,

z0k= zk+1,

zn0 = G(t, y, z1, · · · , zn−1).

Ainsi, nous nous restreignons à l’étude des systèmes différentiels d’ordre 1. 2.1.2. Le problème de Cauchy et sa formulation intégrale. Soit l’équation :

(E) : y0 = G(t, y),

avec G : U → E. Le problème de Cauchy consiste à savoir s’il existe une solution de (E) qui vérifie y(t0) = a0 où (t0, a0) ∈ U .

Théorème 2.2. Soient U un ouvert de R×E, G : U → E une application continue, I un intervalle de R et φ : I → E continue. Alors, on a équivalence :

(1) (I, φ) est solution de y0 = G(t, y) et y(t0) = y0.

(2) ∀t ∈ I, φ(t) = y0 + Z t t0 G(s, φ(s))ds. 2.1.3. Solutions maximales.

Définition 2.3. Si (I, φ) et (J, ψ) sont eux solutions de y0 = G(t, y), on dit que (J, ψ) est un prolongement de (I, φ) si I ⊂ J et si φ est la restriction de ψ à I. Définition 2.4. On appelle solution maximale de l’équation y0 = G(t, y) toute solu-tion (I, φ) qui n’est la restricsolu-tion à I d’aucune solusolu-tion (J, ψ) avec I sous-intervalle strict de J .

(6)

2.2. Équations différentielles vectorielles linéaires d’ordre 1.

Définition 2.5. On appelle équation différentielle vectorielle linéaire d’ordre 1 toute équation différentielle de la forme :

(E) : y0 = a(t)y + b(t), où a : I → L(E) et b : I → E sont continues.

En considérant une base de E, on peut réécrire cette équation sous la forme d’un système :

Y0 = A(t)Y + B.

De même que dans le cas scalaire on définit l’équation homogène associée à (E) : (H) : y0 = a(t)y.

Une solution de (E) est un couple (J, φ) où J est un intervalle inclus dans I et φ une fonction de classe C1 sur J telle que :

∀t ∈ J, φ0 = a(t)φ + b(t).

2.2.1. Préliminaires sur les suites et séries de fonctions. On suppose que K = R ou C et on pose E = Kd. (X, d) désignera un espace métrique ; on pourra prendre pour X un intervalle de R et pour d la valeur absolue.

Définition 2.6. On dit qu’une suite de fonctions (fn) (à valeurs dans E) définies

sur X et bornées converge uniformément vers une fonction f (bornée) sur X si et seulement si :

kfn− f k∞= sup x∈X

kfn(x) − f (x)k → 0, quand n → +∞.

Proposition 2.7. Soit (fn) une suite de fonctions continues et bornées sur X et

qui converge uniformément vers f sur X, alors f est continue sur X.

Démonstration. Soit x0 ∈ X. On veut estimer kf (x) − f (x0)k quand x → x0. Soit

 > 0 et N ∈ N tels que pour tout n ≥ N : kfn− f k∞ ≤  3. On a : kf (x) − f (x0)k ≤ kf (x) − fN(x)k + kfN(x) − fN(x0)k + kfN(x0) − f (x0)k. On trouve donc : kf (x) − f (x0)k ≤ 2 3 + kfN(x) − fN(x0)k.

Pour ce N , on utilise l’hypothèse de continuité des fN en x0 : il existe α > 0 tel que

pour tout x ∈ X tel que d(x, x0) ≤ α, on a :

kfN(x) − fN(x0)k ≤

 3.

 Corollaire 2.8. Soit (fn) une suite de fonctions continues sur [a, b] et convergeant

uniformément vers f sur [a, b], alors : lim n→+∞ Z b a fn(t)dt = Z b a f (t)dt.

(7)

Définition 2.9. On dit qu’une suite de fonctions fndéfinies et bornées sur X vérifie

le critère de Cauchy uniforme si, pour tout  > 0, il existe N ∈ N tel que pour tout n, m ≥ N , on a :

kfn− fmk∞ ≤ .

Proposition 2.10 (Admis). Si une suite (fn) de fonctions bornées vérifie le critère

de Cauchy uniforme, alors elle converge uniformément vers une certaine fonction bornée f .

Corollaire 2.11. Soit (fn) une suite de fonctions continues et bornées sur X. On

pose FN = N X n=0 fn.

Alors, si la série de terme général kfnk∞ converge, alors (FN) vérifie le critère de

Cauchy uniforme et elle converge vers une fonction continue F .

2.2.2. Théorème de Cauchy-Lipschitz (cas linéaire). Nous allons à présent nous in-téresser à un théorème fondamental donnant l’existence et l’unicité d’une solution au problème de Cauchy (dans le cas linéaire ; le cas général sera présenté plus tard). Théorème 2.12. Soit a : I → L(E) et b : I → E deux applications continues sur I. Alors, pour tout (t0, y0) ∈ I × E, l’équation :

(E) : y0 = a(t)y + b admet une unique solution satisfaisant y(t0) = y0.

Démonstration. Nous cherchons une fonction continue y : I → E telle que : ∀t ∈ I, y(t) = y0+

Z t

t0

(a(s)y(s) + b(s))ds.

Supposons déjà que I est un segment. Nous allons construire une telle fonction par une méthode d’approximation. On définit par récurrence la suite de fonctions suivante : Y0(t) = y0, Yn+1(t) = y0+ Z t t0 (a(s)Yn(s) + b(s))ds.

On se pose donc la question de la convergence uniforme de Yn vers une certaine

fonction y sur I. Pour cela nous allons évaluer la norme de Yn+1 − Yn. Il est clair

que :

Yn+1(t) − Yn(t) =

Z t

t0

a(s)(Yn(s) − Yn−1(s))ds.

Ainsi, par continuité de a, nous pouvons majorer : kYn+1− Ynk ≤ α

Z t

t0

kYn(s) − Yn−1(s)kds

Par ailleurs, nous avons :

(8)

Par récurrence, nous déduisons que :

kYn+1(t) − Yn(t)k ≤ (αky0k + β)

αn|t − t 0|n

(n + 1)! , ∀t ∈ I Si h désigne la longueur de I, nous trouvons :

kYn+1(t) − Yn(t)k ≤ (αky0k + β)

αnhn

(n + 1)!, ∀t ∈ I Or, la sérieP αnhn

(n+1)! est convergente, ainsi, par comparaison, nous avons montré que

P(Yn+1(t) − Yn(t)) est une série normalement convergente sur I. La convergence est

par conséquent uniforme sur I Cette série est téléscopique :

N −1

X

n=0

(Yn+1(t) − Yn(t)) = YN(t) − y0.

Cela prouve que Ynconverge uniformément vers une certaine fonction I. Les Ynétant

continues sur I, nous déduisons que y est continue sur I. Il ne reste plus qu’à passer à la limite pour trouver :

∀t ∈ I, y(t) = y0+

Z t t0

(a(s)y(s) + b(s))ds.

Cela achève la preuve de l’existence. Passons à l’unicité. Soient y1et y2deux solutions

du problème de Cauchy. Leur différence δ = y2− y1 satisfait :

δ(t) = Z t

t0

a(s)δ(s)ds.

Par continuité sur un compact, il existe M > 0 tel que pour tout t ∈ I : kδ(t)k ≤ M.

Par récurrence, nous avons donc :

kδ(t)k ≤ M αn|t − t0|n

n! .

Il ne reste qu’à passer à la limite et nous déduisons que δ = 0. Cela achève la preuve de l’unicité.

Le cas où I n’est pas compact s’obtient alors sans mal à partir du cas compact.  2.2.3. Structure des solutions. Nous savons donc que les solutions de (E) existent et sont définies sur I. Examinons donc leurs propriétés.

Proposition 2.13. L’ensemble des solutions de (H) est un K-e. v. de dimension p. L’ensemble des solutions de (E) est un espace affine de direction l’ensemble des solutions de (H).

Choisissons désormais une base de E et considérons plutôt les systèmes : Y0 = A(t)Y.

Nous allons introduire une quantité commode pour savoir si p solutions de l’équation homogène (H) forment une famille libre (et donc une base SH).

(9)

Wronskien de p applications à valeurs dans Kp.

Définition 2.14. On appelle wronskien de p applications Y1, · · · Yp de I à valeurs

dans Kp la quantité :

w(t) = det(Y1(t), · · · , Yp(t)).

Proposition 2.15. Si (Y1, · · · , Yp) est lié, on a :

∀t ∈ I, w(t) = 0.

Proposition 2.16. S’il existe t0 ∈ I tel que w(t0) 6= 0, alors (Y1, · · · , Yp) est libre.

Wronskien des solutions de (H).

Théorème 2.17. Soient Y1, · · · , Yp p solutions du système homogène (H) : Y0 =

A(t)Y avec A continue sur I. Alors, on a :

∀t ∈ I, w0(t) = Tr(A(t))w(t).

En particulier, Y1, · · · , Yp est lié si et seulement si w est identiquement nulle si et

seulement si w s’annule en au moins un point.

Variation des constantes. Supposons qu’on ait trouvé p solutions indépendantes de (H). Nous pouvons alors déterminer les solutions de (E).

Théorème 2.18. Soient Y1, · · · , Yp p solutions indépendantes de (H) sur I. On

pose : Y (t) = p X i=1 λiYi(t), ∀t ∈ I. Alors, on a :

(1) Y est dérivable si et seulement si les λi sont dérivables.

(2) Y est solution de (E) si et seulement si Pp

i=1λ 0

i(t)Yi = B(t).

(10)

3. Équations différentielles linéaires scalaires du second ordre 3.1. Généralités.

Définition 3.1. On appelle équation différentielle linéaire d’ordre 2 toute équation différentielle de la forme :

A(x)y00+ B(x)y + C(x)y = D(x), où A, B, C et D sont des applications de I dans K continues.

Dans la suite, nous nous intéressons aux solutions maximales de l’équation sous forme résolue. Écrivons le système linéaire d’ordre 1 associé à :

(E) : y00 = b(x)y0+ c(x)y + d(x) avec a, b, c et d continues sur I. (E) est équivalent à (S) :

 y0 = u u0 = b(x)u + c(x)y + d(x) ou encore :  y0 u0  =  0 1 c(x) b(x)   y u  + 0 d(x)  .

Nous pouvons appliquer les résultats précédents pour obtenir en particulier : Proposition 3.2. (1) Les solutions de (S) sont définies sur I.

(2) Les solutions de (H) forment un K e.v. de dimension 2.

(3) Pour tout (t0, a0, a1) ∈ I × K2, il existe une unique solution de (E) définie

sur I telle que y(t0) = a0 et y0(t0) = a1.

Résolution de (E). Dans le cas général, on ne sait résoudre ni (H) ni (E).

(1) Si on connaît deux solutions indépendantes y1 et y2 de (H) et une solution

particulière de (E) y0, alors la solution générale de (E) est :

y = λ1y1+ λ2y2+ y0.

(2) Si on connaît une solution Y de (H) ne s’annulant pas sur J ⊂ I, alors on va pouvoir résoudre (E) sur J . On pose en effet y = zY et on est ramené à une équation du premier ordre.

Résoudre : (t2+ 1)x00− 2x = 4t(t2+ 1) en remarquant que (H) possède une

solution polynômiale.

(3) Si on connaît deux solutions indépendantes y1 et y2 de (H), alors on peut

utiliser la méthode de variation des constantes. On commence par écrire le système associé :  y0 u0  =  0 1 c(x) b(x)   y u  + 0 d(x)  .  y1 y10  et y2 y20 

sont deux solutions indépendantes de (H). On cherche alors la solution générale sous la forme : Y = c1(x)Y1+ c2(x)Y2 et on trouve :

c01Y1+ c02Y2 =

 0 d(x)

 .

(11)

Résoudre : x2y00+ xy0− y = 2x en remarquant qu’il existe des solutions de la forme

xm avec m ∈ Z.

3.2. Cas des coefficients constants. 3.2.1. Propriétés générales.

Définition 3.3. On appelle équation différentielle linéaire du second ordre à coeffi-cients constants toute équation du type :

ay00+ by0 + cy = D(x), avec (a, b, c) ∈ K∗× K2

et D : I → K continue.

Les solutions de (H) sont définies sur R et forment un K e. v. de dimension 2. Les solutions de (E) sont définies sur I et forment un plan affine.

3.2.2. Solutions de (H). On sait toujours calculer deux solutions indépendantes de (H). On remarque déjà que x 7→ erx est solution de (H) si et seulement si ar2+ br +

c = 0. Deux cas se présentent.

K = C. Si ∆ = b2− 4ac 6= 0, alors il y a deux racines distinctes r1 et r2 et la solution

générale de (H) est de la forme :

y = λ1er1x+ λ2er2x.

Si ∆ = 0, il y a une racine double r0. On pose y = zer0x et en remplaçant on trouve :

z = λx + µ.

K = R. Si ∆ ≥ 0, cf. le premier cas. Si ∆ < 0, il y a deux racines complexes conjuguées :

r1 = α + iβ et r2 = α − iβ.

Ces racines donnent lieu à deux solutions conjuguées : y1 = eαx(cos(βx) + i sin(βx))

et

y2 = eαx(cos(βx) − i sin(βx)).

On en déduit que Y1 = eαxcos(βx) et Y2 = eαxsin(βx) sont solutions de (H) et elles

sont indépendantes.

Résoudre : y00+ 4y0 + 4y = 0 ; y00− 5y0− 6y = 0 et y00+ y0+ y = 0.

3.2.3. Solutions de (E). On connaît toujours une solution de (H) de la forme erx,

on peut donc chercher les solutions sous la forme : y = erxz.

Résoudre : y00− 6y0+ 9y = 3x2e−3x et y00+ y = tan2(x).

3.3. Quelques problèmes classiques.

3.3.1. Problème des raccords : exemple. Examiner le raccord des solutions de : (t + 1)y00−2y0−(t−1)y = te−t en remarquant que etest solution de l’équation homogène.

Résoudre le problème de Cauchy pour ces solutions...

3.3.2. Développement en série entière des solutions : exemple. Résoudre x(x−1)y00+ 3xy0+ y = 0 en cherchant des solutions DSE en 0. Étudier les raccords.

3.3.3. Changement de variable ou de fonction inconnue : exemple. Résoudre : x2y00+ 4xy0+ 2y = 0

(12)

4. Systèmes différentiels linéaires à coefficients constants 4.1. Étude théorique.

Définition 4.1. On appelle système différentiel linéaire du premier ordre à coeffi-cients constants tout système différentiel de la forme :

X0(t) = AX(t) + B(t), où A ∈ Mn(K) et B : I → Kn est continue.

Proposition 4.2. Pour tout A ∈ Mn(K), PA

k

k! est une série convergente et sa

somme est notée eA. De plus, φt 7→ etA est dérivable et φ0(t) = Aφ(t) = φ(t)A. En particulier, cette proposition prouve que les solutions de (H) sont définies sur R et qu’elles sont toutes de la forme : X(t) = etAx0 où x0 ∈ Kn.

Proposition 4.3. Soit P ∈ GLn(K). Si on pose X = P Z, alors (E) est équivalente

à

Z0(t) = P−1AP Z(t) + P−1B(t). 4.2. Résolution de (E) quand A est diagonalisable.

4.2.1. Résolution de (H). Si A est diagonalisable, alors il existe P ∈ GLn(K) telle

que

P−1AP = diag(λ1, · · · , λn).

En posant X = P Z, il vient :

Z0(t) = diag(λ1, · · · , λn)Z(t)

et donc, pour tout i ∈ {1, · · · , n} :

z0i(t) = λizi(t).

On en déduit que zi(t) = µieλit. On rappelle que P = (V1, · · · , Vn) où les Vi forment

une base de vecteurs propres. Ainsi, on a : X(t) = n X i=1 µieλitVi. Résoudre :    y10 = 5y1+ y2− y3 y20 = 2y1+ 4y2− 2y3 y30 = y1− y2+ 3y3

4.2.2. Résolution de (E). De la même façon que précédemment, on est ramené à résoudre :

zi0 = λizi+ ci(t)

où C(t) = P−1B(t).

Une autre façon serait d’utiliser la méthode de variation des constantes. Résoudre :    y10 = 5y1+ y2− y3 y20 = 2y1+ 4y2− 2y3+ t y30 = y1− y2+ 3y3

Remarque 4.4. Si les coefficients sont réels et si les valeurs propres de A ne sont pas réelles, on peut tout de même remarquer que les parties réelles et imaginaires d’une solution sont solutions de (H).

(13)

4.2.3. Résolution de (E) quand A est trigonalisable. Dans ce cas, il existe P ∈ GLn(K) telle que

P−1AP = T,

avec T triangulaire supérieure. On est alors ramené à la résolution d’un système en cascade. Résoudre :    x0 = 2y + 2z y0 = −x + 2y + 2z z0 = −x + y + 3z

(14)

5. Équations différentielles non linéaires : exemples

Dans la suite, E = Kn et nous nous intéressons à des équations différentielles de

la forme :

X0 = f (t, X), où f est donnée et à valeurs dans E.

5.1. Autour du théorème de Cauchy-Lipschitz. Avant de donner un résultat d’existence et d’unicité pour cette équation, nous avons besoin d’une définition pré-liminaire.

Définition 5.1. Soit U un ouvert de I × E. Une application f : U → E est dite localement lispchitzienne par rapport à la deuxième variable si, pour tout (t0, x0) ∈ U ,

il existe un voisinage V de ce point dans U et un réel positif k tel que pour tout x, y ∈ E et t ∈ I, si (t, x) ∈ V et (t, y) ∈ V , alors :

kf (t, x) − f (t, y)k ≤ kkx − yk. Donnons tout de suite un critère pratique.

Proposition 5.2. Soit U un ouvert de I × E et f : U → E. Pour que f soit localement lispchitzienne par rapport à la deuxième variable , il suffit que f soit différentiable par rapport à cette variable et que ∂xf soit continue sur U .

Nous pouvons énoncer le théorème fondamental de cette section.

Théorème 5.3. Soit U un ouvert de R × E et f : U → E une application continue et localement lispchitzienne par rapport à la deuxième variable. Alors, pour tout (t0, x0) ∈ U , il existe un intervalle J de centre t0 et de longueur non nulle tel que

l’équation différentielle :

X0 = f (t, X)

admette sur J une unique solution telle que X(t0) = x0.

Examiner les exemples y0 = y1/3 et y0 = y2.

5.2. Notions sur les entonnoirs, échappement des solutions.

5.2.1. Solutions globales. Nous allons voir que les solutions maximales non globales du problème de Cauchy ne sont pas bornées.

Proposition 5.4 (Échappement faible). Soit f une fonction continue sur (a, b) × E à valeurs dans E et localement lipschitzienne par rapport à la seconde variable. Soit φ une solution maximale de y0 = f (t, y) et définie sur (α, β). Si β < b, alors φ est non bornée au voisinage de β.

Démonstration. On raisonne par l’absurde. Soit t0 ∈ (α, β) et M > 0 tel que

kφ(t)k ≤ M pour tout t ∈ [t0, β). Comme f est continue sur [t0, β] × Bf(0, M ),

elle y est bornée : il existe K > 0 telle que, pour tout (t, x) ∈ [t0, β] × Bf(0, M ) :

kf (t, x)k ≤ K. Ainsi, on a :

kφ0(t)k ≤ K, ∀t ∈ [t0, β].

Nous pouvons alors prolonger φ par continuité en β. Notons φ(β) = x0. En reprenant

l’équation, on voit que φ0 admet f (β, φ(β)) comme limite en β. Ainsi prolongée φ est solution de l’équation différentielle sur (α, β]. Soit alors ψ la solution maximale de l’équation y0 = f (t, y) telle que ψ(β) = x0. ψ permet alors de prolonger φ et c’est

(15)

Nous donnons maintenant quelques critères pour obtenir la globalité des solutions. Proposition 5.5. Soit f : I × E → E continue et localement lipschitzienne par rapport à la seconde variable. Supposons que pour tout compact K ⊂ I, il existe MK > 0 : kf (t, x)k ≤ MK pour tout (t, x) ∈ K × E. Alors les solutions maximales

sont globales.

Proposition 5.6. Soit f : I × E → E continue et localement lipschitzienne par rapport à la seconde variable. Supposons que pour tout compact K ⊂ I, il existe C1(K), C2(K) telles que :

kf (t, x)k ≤ C1(K)kxk + C2(K), ∀(t, x) ∈ K × E.

Alors, les solutions maximales sont globales. 5.2.2. Entonnoirs.

Définition 5.7. On dit que u : I → R est une sur-solution de x0 = f (t, x) si, pour tout t ∈ I :

u0(t) ≥ f (t, u(t)).

On définit de même les sur-solutions strictes (et les sous-solutions).

Proposition 5.8. Soit u : I → R une sur-solution stricte de x0 = f (t, x) et x : J → R une solution maximale. Soit t0 ∈ J. Si x(t0) ≤ u(t0), alors pour tout t ∈ J avec

t > t0, on a :

u(t) > x(t).

Proposition 5.9. Soit u : I → R une sous-solution stricte de x0 = f (t, x) et x : J → R une solution maximale. Soit t0 ∈ J. Si x(t0) ≥ u(t0), alors pour tout

t ∈ J avec t > t0, on a :

u(t) < x(t). Exemple : x0 = 1 − x2; u(t) = t + c.

Les deux propositions précédentes restent valables sans l’hypothèse "stricte". Définition 5.10. Soient u une sur-solution et v une sous-solution de x0 = f (t, x) sur I × R. On suppose que u > v. L’ensemble

{(t, x) ∈ I × R : ∀t ∈ I : v(t) ≤ x ≤ u(t)} est appelé un entonnoir.

Proposition 5.11. Soit I = (a, b). Soit x : J → R une solution maximale de x0 = f (t, x) sur I × R. Soit t0 ∈ J. Si v(t0) ≤ x(t0) ≤ u(t0), alors [t0, b) ⊂ J et pour

tout t ∈ [t0, b) :

v(t) ≤ x(t) ≤ u(t).

5.2.3. Un exemple d’étude qualitative. On se propose d’étudier l’équation : y0 = y2

(16)

Minoration du temps d’existence. Montrons que l’intervalle d’existence maximal est minoré. Supposons que cet intervalle ne soit pas minoré. Alors, y est définie sur ] − ∞, b[. Ainsi, la solution est strictement croissante sur ] − ∞, 0] et elle s’annule donc au plus une fois sur cet intervalle (par exemple en x1). Alors, y ne s’annule pas

avant x1 et pour x ≤ x1− 1, on a : y0(x) ≥ 1 et donc y tend vers −∞ en −∞. Mais

on a aussi : y0(x) ≥ y(x)2, pour x ≤ x1 et donc :

1 y(x) ≥

1 y(x1)

− (x − x1).

On fait tendre x vers −∞ pour trouver une contradiction. Au voisinage de a, la solu-tion ne peut pas rester dans la parabole y2 ≤ x (elle doit s’échapper des compacts) ;

ainsi, quand x tend vers a, la solution devient croissante. Le théorème d’échappement impose donc que y tend vers −∞.

Piégeage des solutions bornées. Dans la suite, on s’intéresse aux solutions bornées et nous montrons qu’elles entrent dans un entonnoir.

Supposons que y est bornée. Supposons qu’elle est croissante sur ]a, b[. Alors, on a y(x)2 ≥ x et donc b 6= +∞ ce qui entraîne l’explosion de y en temps fini. C’est contradictoire. y ne peut donc pas rester croissante sur ]a, b[. Soit c le plus petit réel de ]a, b[ tel que : y0(c) = 0. En particulier, on a y(c)2 = c.

Vérifions que la parabole y2 = x définit un entonnoir. u(x) =x vérifie u0(x) > 0 =

f (x, u(x)) ; ainsi, u est une sur-solution stricte. De même, v(x) = −√x est une sous-solution stricte. La proposition de piégeage des sous-solutions dans un entonnoir montre que pour tout t ∈ [c, b[, la solution reste dans l’entonnoir et donc que b = +∞. 5.3. Quelques exemples d’équations non linéaires.

5.3.1. Équations de Bernoulli et Riccati.

Équation de Bernoulli. On appelle équation de Bernoulli toute équation différentielle numérique de la forme :

(E) : y0 = A(x)yα+ B(x)y,

où A et B sont des fonctions continues sur I. α est supposé différent de 0 et 1. En essayant le changement de fonction

z = y1−α, on est ramené à

(1 − α)−1z0 = A(x) + B(x)z.

Notons que ce changement de fonction n’est licite que si y > 0. Il faut donc faire attention.

Remarque 5.12. Si α > 1, toute solution de (E) qui s’annule est identiquement nulle.

Exemple 1 : traiter le cas α = 2.

(17)

Équation de Riccati. On appelle équation de Riccati toute équation différentielle numérique de la forme :

(E) : y0 = A(x)y2+ B(x)y + C(x),

où A, B et C sont des fonctions continues sur I. Nous sommes dans le cadre d’appli-cation du théorème de Cauchy-Lipschitz, mais on ne sait pas résoudre explicitement cette équation. Cependant, si on connaît une solution particulière y0 et si on pose :

y = y0+ u, alors u vérifie une équation de Bernoulli (α = 2).

5.3.2. Équations à variables séparées.

y0 = f (x) : f est supposée continue sur I à valeurs dans E. y est une solution si et seulement si y = F (x) + C.

y0 = g(y) : Il s’agit d’une équation autonome (car la variable de dérivation ne figure pas explicitement). Si on suppose que g est C1 sur I, alors on a l’existence et l’unicité d’une solution locale. Supposons que g ne s’annule qu’en un nombre fini de points y1 < · · · < yn. Alors, on remarque déjà que si yj est un zéro de g, alors y = yj

est solution. Par unicité, on peut donc supposer que y vérifie yj < y < yj+1. En

considérant une primitive G de g−1, on obtient que les solutions sont données par G(y) = x + c. Comme G est strictement monotone, on peut l’inverser et retrouver y.

Exemple : y0 = (y−2)2

√ y

(y−2)2+y sur [0, +∞[.

y0 = f (x)g(y) : On suppose que f est continue sur I et que g est C1 sur I de sorte

que les hypothèses du théorème de C. L. soient satisfaites. Avec les notations du paragraphe précédent, sur ]yj, yj+1[, on a : G(y) = F (x) + C avec F une primitive

de f sur I.

Exemple : y0 = ex+y.

5.4. Un exemple pour traiter des équations différentielles : la méthode du tir. Nous allons essentiellement donner des exemples de cette technique. Elle concerne les équations différentielles avec des conditions aux limites qui ne sont pas celles de Cauchy-Lipschitz.

Exemple 1 : Pour c 6= 0, résoudre x0 = cx avec x0(1) = 1.

Le principe est d’introduire un paramètre de tir τ et de résoudre, en fonction de τ le problème :

x0 = cx, x(0) = τ. Dans ce cas, on trouve :

xτ(t) = τ ect.

Il s’agit alors de sélectionner dans cette famille xτ les éléments qui vérifient la

condi-tion aux limites. On calcule donc x0τ(1) = cτ et cela impose : τ = c−1 et nous avons résolu le problème.

Exemple 2 : Résoudre x00+ x = 0 avec x(0) = x(1) = 0.

On introduit le paramètre de tir τ en résolvant le problème de Cauchy suivant : x00+ x = 0, x(0) = 0, x0(0) = τ.

Cela se résout sans difficulté :

xτ(t) = τ sin t.

(18)

Exemple 3 : un peu de théorie spectrale. Déterminer les nombres λ pour lesquels il existe une solution non nulle du problème suivant :

x00+ λx = 0, x(0) = 0, x(1) = 0. Remarquons déjà que si λ = 0, seule la solution nulle convient. On résout donc : x00+ λx = 0, x(0) = 0, x0(0) = τ. Si λ < 0, on trouve : xτ(t) = τ √ −λsinh(t √ −λ). La condition aux limites impose que τ = 0.

Si λ > 0, on trouve sans mal :

xτ(t) = τ √ λsin(t √ λ).

La condition aux limites donne sin(√λ) = 0 et donc λ = n2π2. Ainsi, l’ensemble des solutions est donné par :

xτ(t) =

τ

nπsin(nπt).

Exemple 4 : un peu de théorie des cristaux liquides. Existe-t-il des solutions non nulles de : φ00+ sin φ cos φ = 0, x(0) = 0, x0(L) = 0 et qui s’annulent sans changer de signe ?

On considère plutôt :

φ00+ sin φ cos φ = 0, x(0) = 0, x0(0) = τ. On trouve que :

φ0(z)2+ sin(φ(z))2 = τ2 = sin2(φ(L)).

Examinons les cas limites : τ = 0 et τ = 1. Pour τ = 0, on trouve la solution nulle. Pour τ = 1, on trouve :

φ0(z)2 = cos2(φ(z)). On trouve comme solution

φ1(z) =

π

2 − 2 arctan(e

−z

), mais elle ne satisfait pas la deuxième condition aux limites. On se restreint donc à τ ∈ (0, 1). On déduit déjà que

|φ(z)| ≤ arcsin τ.

Soit z0 le plus petit nombre strictement positif tel que φ0(z0) = 0. φ est strictement

croissante sur [0, z0] et φ(z0) = arcsin τ . Soit alors z1 le plus petit nombre plus grand

que z0 tel que φ(z1) = 0. φ est décroissante sur [z0, z1] et φ0(z1) = −τ . Cela entraîne

que φ est 2z1-périodique. En particulier, on doit avoir :

L = z0+ nz1.

Si n ≥ 1, on aurait z1 ∈ (0, L), ce qui contredirait l’hypothèse du changement de

signe. Ainsi, on a n = 0.

On vient donc de montrer qu’il y avait une solution unique φτ,L strictement positive

et croissante sur (0, L). Nous pouvons exprimer son inverse : φ−1τ,L(ψ) = Z ψ 0 dφ p τ2− sin2φ.

(19)

Par changement de variables, il vient : φ−1τ,L(ψ) = Z sin ψτ 0 1 √ 1 − t2τ2 dt √ 1 − t2, ∀ψ ∈ [0, arcsin τ ]. Pour ψ = arcsin τ , on a : φ−1τ,L(arcsin τ ) = Z 1 0 dt √ 1 − t2τ2√1 − t2 = F (τ ).

La condition aux limites donne :

F (τ ) = L.

On remarque que F est continue et strictement croissante deπ2 à +∞. Cela détermine une unique valeur de τ .

5.5. Un exemple d’étude qualitative de système non linéaire. Le but de cette section est l’étude du système proie-prédateur de Volterra :

x0 = ax − bxy, y0 = −cy + dxy,

où a, b, c, d > 0 et avec données initiales x(t0) = x0 > 0 et y(t0) = y0 > 0.

Le théorème de Cauchy-Lipschitz fournit l’existence d’une solution sur [t0, T [.

Positivité des solutions. Montrons que x > 0 et y > 0 sur cet intervalle. Dans le cas contraire, il existerait s tel que x(s) = 0. Or, nous remarquons que ˜x(t) = 0 et ˜y(t) = y(s)e−c(t−s) sont solutions du système avec données initiales ˜x(s) = 0 et ˜

y(s) = y(s). L’unicité du théorème de Cauchy-Lipschitz impose donc x = 0, ce qui contredit la condition initiale x(t0) > 0. De la même façon, y ne peut s’annuler. Cela

prouve la stricte positivité.

Une intégrale première. On pose :

H(x, y) = by + dx − a ln y − c ln x. Un calcul élémentaire fournit :

H(x(t), y(t)) = H(x0, y0), t ∈ [0, T [.

Globalité des solutions. La positivité des solutions donne : x0 ≤ ax et y0 ≤ dxy. On en déduit que x(t) ≤ x0ea(t−t0), puis : y(t) ≤ y0e dRt t0x(u)du.

On en déduit que x et y sont bornées au voisinage de T si T < +∞ ; par le théorème de prolongement des solutions d’une équation différentielle, on en déduit que T = +∞.

(20)

Périodicité des solutions. On peut découper R∗+× R ∗

+ en quatre cadrans autour de

(cd,ab) (qui est une solution particulière du système : c’est un point d’équilibre). Pour simplifier l’exposé, supposons que (x0, y0) appartienne au cadran supérieur

droit. Dans ce cadran x0 ≤ 0 et y0 ≥ 0. Si la solution reste dans ce cadran, alors, x

est décroissante et y est croissante sur [t0, +∞[. x tend donc vers x1 ≥ dc et y vers

y1. Si y1 = +∞, alors x0 tendrait vers −∞ ce qui est contradictoire. De même, on

en déduit que x0 et y0 tendent vers 0 (sinon, x et y auraient des limites infinies). On en tire que x et y tendent respectivement vers cd et ab. Mais, cela est est absurde, puisque y0 > ab. On en déduit qu’il existe un temps t1 maximal d’existence de la

solution dans le cadran supérieur droit. Pour ce temps, on a : x(t1) = cd, y(t1) > ab

et donc y0(t1) = 0, x0(t1) < 0. On entre ainsi dans le cadran supérieur gauche et

on reproduit le raisonnement. Au bout d’un temps t4, nous sommes revenus dans

le cadran de départ et y(t4) = y(t0) = ab. Nous n’avons pour autant par encore

prouvé la périodicité. Il suffirait de montrer que (x(t0), y(t0)) = (x(t4), y(t4)) et on

conclurait par le théorème de Cauchy-Lipschitz. Or, la conservation de l’énergie H donne :

H(x(t0), y(t0)) = H(x(t4), y(t4)).

C’est alors un calcul élémentaire qui prouve que y 7→ H(x,ab) est strictement crois-sante sur [dc, +∞[. Nous avons alors montré que les solutions sont T -périodiques, avec T = t4− t0.

Moyennes des solutions. Enfin, un petit calcul montre que : 1 T Z T 0 x(u)du = c d et 1 T Z T 0 y(u)du = a b.

5.6. Notions des méthodes numériques pour les équations différentielles. 5.6.1. Rappel sur la formule de Taylor avec reste intégral. On rappelle dans ce pa-ragraphe un ingrédient essentiel pour les approximations que nous allons effectuer. La formule de Taylor avec reste intégral consiste en la proposition suivante :

Proposition 5.13. Soit f ∈ Cn+1([a, b]). Alors, on a, pour tout k ∈ {0, · · · , n} : f (b) = f (a) + f0(a)(b − a) + · · · + f (k)(a) k! (b − a) k+ 1 k! Z b a f(k+1)(t)(b − t)kdt. Démonstration. Elle se fait par récurrence sur k. Pour k = 0, cette formule est claire car :

f (b) − f (a) = Z b

a

f0(t)dt.

Supposons que la formule est satisfaite au rang 0 ≤ k < n. On peut donc écrire : f (b) = f (a) + f0(a)(b − a) + · · · + f (k)(a) k! (b − a) k+ 1 k! Z b a f(k+1)(t)(b − t)kdt. Comme k + 1 < n + 1, on f(k+1) est de classe C1 et on peut ainsi faire une intégration par parties : Z b a f(k+1)(t)(b − t)kdt = − (b − t) k+1 k + 1 f (k+1)(t) b a + 1 k + 1 Z b a f(k+2)(t)(b − t)k+1.

(21)

Cela implique : Z b a f(k+1)(t)(b − t)kdt = 1 k + 1f (k+1)(a) + 1 k + 1 Z b a f(k+2)(t)(b − t)k+1.

Il suffit alors de remplacer dans la formule supposée vraie par récurrence.  5.6.2. Méthodes de quadrature pour les intégrales. Soit f une fonction suffisamment régulière sur [α, β]. On va donner quelques méthodes d’approximation deRαβf (x)dx. Le cas écheant on donnera une estimation de l’erreur.

De façon générale, on se donne une subdivision de [α, β] : α = α0 < α1 < · · · < αk = β.

On note, pour i = 0, · · · , k − 1.

hi = αi+1− αi.

On notera hmax = max(hi).

Méthode des rectangles à gauche. Le principe est d’approcher l’intégrale par :

k−1 X i=0 hif (αi). Estimons l’erreur. Z β α f (x)dx − k−1 X i=0 hif (αi) = k−1 X i=0 Z αi+1 αi (f (x) − f (αi))dx.

Si f ∈ C1([α, β]), nous pouvons utiliser l’inégalité des accroissements finis : |f (x) − f (αi| ≤ M |αi− x|. Il vient : Z β α f (x)dx − k−1 X i=0 hif (αi) ≤ M k−1 X i=0 Z αi+1 αi (x − αi)dx.

Ainsi, nous avons : Z β α f (x)dx − k−1 X i=0 hif (αi) ≤ M 2 k−1 X i=0 (αi+1− αi)2 = M 2 (β − α)hmax. On remarquera que cette méthode est exacte pour les fonctions constantes. Méthode des rectangles à droite. Le principe est d’approcher l’intégrale par :

k−1

X

i=0

hif (αi+1).

(22)

Méthode du point milieu. Le principe est d’approcher l’intégrale par : k−1 X i=0 hif  αi+ αi+1 2  . Estimons l’erreur. Z β α f (x)dx − k−1 X i=0 hif (ci) = k−1 X i=0 Z αi+1 αi (f (x) − f (ci))dx.

Nous utilisons la formule de Taylor à l’ordre 1, au point ci (f est supposée C2) :

|f (x) − f (ci) − f0(ci)(x − ci)| ≤ M |x − ci|2.

Ainsi, nous écrivons : k−1 X i=0 Z αi+1 αi (f (x) − f (ci) − f0(ci)(x − ci))dx ≤ M k−1 X i=0 Z αi+1 αi |x−ci|2dx ≤ M 4 (β−α)h 2. Nous remarquons : Z αi+1 αi (x − ci)dx = 0. Nous en déduisons : Z β α f (x)dx − k−1 X i=0 hif (ci) ≤ M 4 (β − α)h 2 .

On remarquera que cette méthode est exacte pour les fonctions affines.

Méthode de Simpson. Le principe est déja d’approcher f par des arcs de paraboles (voir les exercices). On approche alors l’intégrale par :

k−1 X i=0 hi  1 6f (αi) + 4 6f (ci) + 1 6f (αi+1)  . Exercice : estimer l’erreur.

5.6.3. Méthodes de résolution numérique pour les équations différentielles. On consi-dère :

(E) : y0 = f (t, y), y(t0) = y0.

y est aussi solution de l’équation intégrale : y(t) = y0+

Z t

t0

f (s, y(s))ds. On réalise une subdivision

t0 < t1 < · · · < tN = t0+ T. On remarquera que : y(tn+1) = y(tn) + Z tn+1 tn f (s, y(s))ds. On pose hn = tn+1− tn pour 0 ≤ n ≤ N − 1 et hmax= max(hn).

(23)

Méthode d’Euler. La méthode d’Euler consiste en l’algorithme suivant : yn+1= yn+ hnf (tn, yn)

qui consiste à utiliser la méthode des rectangles à gauche.

Méthode du point milieu. La méthode du point milieu pour les équations différen-tielles consiste à approcher l’intégrale précédente par la méthode du point milieu :

y(tn+1) = y(tn) + hnf (tn+1

2, y(tn+ 1 2)).

Il nous faut donc connaître y(tn+1

2). On utilise donc la méthode d’Euler. Cela mène

à l’algorithme : yn+1= yn+ hnf  tn+ hn 2 , yn+12  , où : yn+1 2 = yn+ hn 2 f (tn, yn).

Méthode de Runge-Kutta "classique". L’étudiant averti s’attend maintenant à ren-contrer la méthode de Simpson ! Nous donnons l’algorithme sans plus de justification.

pn,1 = f (tn, yn), tn,2= tn+ hn 2 , yn,2= yn+ hn 2 pn,1, pn,2 = f (tn,2, yn,2), yn,3= yn+ hn 2 pn,2, pn,3 = f (tn,2, yn,3), tn+1 = tn+ hn, yn,4= yn+ hnpn,3, pn,4= f (tn+1, yn,4), yn+1= yn+ hn  1 6pn,1+ 2 6pn,2+ 2 6pn,3+ 1 6pn,4  .

(24)

6. Rappels d’algèbre linéaire

6.1. Matrices, changements de bases. Soient E et F deux K-e.v. de dimensions respectives n et p. Soit u ∈ L(E, F ). Soient (e1, · · · , en) et (f1, · · · , fp) des bases de

E et F . On écrit : u(ej) = p X i=1 aijfi.

On appelle matrice de u dans les bases E et F le tableau suivant : Matfeu = (ai,j).

Composition des applications linéaires.

Définition 6.1. On définit le produit des matrices de la façon suivante. Soient A = (ai,j) i = 1, · · · , m

j = 1, · · · , p

et B = (bij) i = 1, · · · , p j = 1, · · · , n

. Le produit AB est la matrice C de terme général : cij = p X k=1 aikbkj i = 1 · · · m, j = n.

Soit G un K-e.v. de dimension m et g une base de G. Soit v ∈ L(F, G). On a alors :

Matge(vu) = Matgfv Matfeu. Soit x ∈ E. On écrit x = n X i=1 xiei.

Matfeu X est le vecteur des coordonnées de u(x) dans la base f.

Matrice inverse. Quand E et F ont même dimension, il se peut que u soit inversible ; dans ce cas, on définit :

(Matfeu)−1 = Matefu−1. On vérifie facilement que :

(Matfeu)−1Matfeu = Matfeu (Matfeu)−1 = In.

Matrice de passage. Soient e’ une autre base de E. On note P = Matee’IdE.

Cette matrice est appelée matrice de passage de la base e vers la base e’. Soit X les coordonnées de x dans la base e et X0 les coordonnées de x dans la base e’. On a donc : X = P X0.

Changements de bases. Soient P = Matee’IdE et Q = Matff ’IdF. On a :

(25)

Endomorphismes. Supposons que E = F . Soit e une base de E. La matrice de u dans la base e est la matrice carrée :

A = Mateeu. On pose : Tr(A) = n X i=1 aii. On vérifie que si

B = Mate’e’u, alors

Tr(A) = Tr(B).

Cette quantité, invariante par changement de base, est appelée trace de u. Elle peut être définie indépendamment d’une base via le déterminant.

6.2. Endomorphismes, valeurs propres. On suppose que E = F et u ∈ L(E). Définition 6.2. On dit que λ ∈ K est une valeur propre de u si et seulement si u − λId n’est pas inversible. Un élément non nul x qui vérifie u(x) = λx est appelé vecteur propre de x associé à λ.

Proposition 6.3. λ est une valeur propre de u si et seulement si elle est racine du polynôme : det(A − XIn) où A est la matrice de u dans une base quelconque. En

particulier, il y en a un nombre fini.

Définition 6.4. On dit que u est diagonalisable si et seulement s’il existe une base dans laquelle la matrice A de u est diagonale. En d’autres termes, il existe une ma-trice inversible P telle que P−1AP est diagonale. Dans ce cas, les éléments diagonaux de u sont ses valeurs propres.

Définition 6.5. On dit que u est trigonalisable si et seulement s’il existe une base dans laquelle la matrice A de u est triangulaire supérieure. En d’autres termes, il existe une matrice inversible P telle que P−1AP est triangulaire supérieure. Dans ce cas, les éléments diagonaux de u sont ses valeurs propres.

(26)

7. Notions de la théorie des séries entières

Soit (X, d) un espace métrique. On a vu que si (fn)n∈N est une suite de fonctions

continues et bornées (à valeurs dans E = Kp) qui converge uniformément sur X vers f , alors f est continue sur X.

7.1. Éléments de la théorie. On suppose connues les notions de convergence des séries numériques, notamment que la convergence de P |un| entraîne celle de P un

(via le critère de Cauchy).

Il s’agit ici d’étudier les séries de fonctions de la forme P anzn, avec z ∈ C. On

commence par un lemme fondamental.

Lemme 7.1. S’il existe z0 tel que (anz0n) est bornée, alors, pour tout z tel que

|z| < |z0|, la série P anzn est absolument convergente et il y a convergence normale

(et donc uniforme) sur le disque fermé D(0, r) avec 0 ≤ r < |z0|.

Démonstration. Si z0 6= 0, on a : |anzn| ≤ |anz0n|  z z0 n ≤ M  z z0 n .

La comparaison avec la suite géométrique assure la conclusion.  Définition 7.2. On appelle rayon de convergence de P anzn la borne supérieure de

l’ensemble des r tel que anrn soit bornée.

Théorème 7.3. Soit R > 0 le rayon de convergence de la sérieP anzn. Si R = 0, il

n’y a convergence qu’en z = 0. Si R = +∞, la convergence normale a lieu sur toute partie bornée de C. Si R est fini et non nul, il y a convergence absolue pour |z| < R et convergence normale sur D(0, r) avec r < R et il y a divergence pour |z| > R. Définition 7.4. Soit U un ouvert de C. On dit que f : U → C est dérivable en z0 ∈ U si le rapport

f (z) − f (z0)

z − z0

possède une limite quand z tend vers z0. Cette limite est alors notée f0(z0). Lorsque

cette propriété est vérifiée en tout point de U , on dit que f est holomorphe sur U . Les règles usuelles de dérivation (somme, produit, composée) sont valables pour les C-dérivées.

Lemme 7.5. Pour tout n ∈ N∗, z 7→ zn est holomorphe sur C et de dérivée z 7→

nzn−1.

Lemme 7.6. Les séries P anzn et P nanzn−1 ont même rayon de convergence.

Démonstration. Soit R le rayon de convergence deP anznet R0 celui deP nanzn−1.

On remarque déjà que :

|anzn| ≤ n|an||z|n−1|z|.

On en déduit que R ≥ R0. Il faut montrer l’inverse. Soit r1 < r2 < R et |z| ≤ r1. On

écrit : |nanzn−1| ≤ n|an|rn−12 |z|n−1 r2n−1 ≤ r −1 2 |an|r2nn  r1 r2 n−1 . Ainsi, on a : R0 ≥ R. 

(27)

Théorème 7.7. Soit P anzn une série entière de rayon de convergence R > 0.

Alors, f (z) =P+∞ n=0anz

n est une fonction holomorphe sur le disque de convergence

et on peut dériver terme à terme : f0(z) = ∞ X n=1 nanzn−1. Démonstration. On considère : f (z) − f (z0) z − z0 = ∞ X n=0 un(z), où un(z) = an zn− zn 0 z − z0 = an n−1 X k=0 z0kzn−k−1. On trouve que lim z→z0 un(z) = nanzn−10 .

On peut toujours supposer que |z0| ≤ r et |z| ≤ r avec 0 < r < R et alors :

|un(z)| ≤ n|an|rn.

On a donc convergence normale sur D(0, r) et donc convergence uniforme ; la somme

de la série possède donc une limite quand z → z0. 

Remarque 7.8. Les séries entières sont indéfiniment dérivables sur leur disque ouvert de convergence.

7.2. Un exemple fondamental : l’exponentielle. La série Pzn

n! est une série

entière de rayon de convergence infini. Elle définit donc une fonction holomorphe sur C notée exp(z) ; il est aisé de vérifier les propriétés suivantes :

– exp0(z) = exp(z), pour tout z ∈ C, – exp(0) = 1,

– exp(z) = exp(z), pour tout z ∈ C,

– exp(z + z0) = exp(z) exp(z0), pour tout z, z0 ∈ C, – exp(z) 6= 0 pour tout z,

– exp(z)−1 = exp(−z) pour tout z ∈ C, – | exp(ix)| = 1, pour tout x ∈ R,

– Si φ : I → C est dérivable, alors t 7→ exp(φ(t)) est dérivable sur I et de dérivée t 7→ φ0(t) exp(φ(t)).

Cela demande un peu plus de travail de montrer que : Proposition 7.9. exp : C → C∗ est surjective.

Démonstration. Pour z ∈ C qui n’est pas un réel négatif, on pose : Z =

Z 1

0

z − 1 1 + t(z − 1)dt.

On vérifie facilement que cette intégale est bien définie. On montre que exp(Z) = z.

Pour cela, on introduit :

f (u) = Z u

0

z − 1 1 + t(z − 1)dt.

(28)

u 7→ exp(f (u)) est dérivable sur R de dérivée f0(u) exp(f (u)) = exp(f (u))1+u(z−1)z−1 . Ainsi, on peut écrire :

exp(f (u))0(1 + u(z − 1)) = exp(f (u))(z − 1) ou encore :  exp(f (u)) 1 + u(z − 1) 0 = 0. En prenant la valeur en 0, on trouve :

exp(f (u)) = 1 + u(z − 1).

Alors, on a : exp(Z) = z. Tous les nombres complexes non négatifs sont donc atteints par l’exponentielle. Si a ∈ R∗−, on écrit : a = i2b avec b = −a > 0. On peut écrire

b = exp(Z). Mais, on peut aussi écrire i = exp(Z0) et donc i2 = exp(2Z0). Par

conséquent, on a : a = exp(Z + 2Z0). 

Il est facile de voir que :

Proposition 7.10. {x ∈ R : eix = 1} est un sous-groupe discret de (R, +). Son générateur est par définition 2π.

On définit alors les fonctions cos et sin et on peut alors redémontrer toutes leurs propriétés bien connues...

Références

Documents relatifs

Dans tout le problème, le corps de base des espaces vectoriels est R. Les matrices et les systèmes linéaires sont à coefficients réels.. Pour que le dessin soit plus facile

Soit X une variété complexe et soit Γ un sous-groupe du groupe des automor- phismes holomorphes

Montrer que lorsque λ varie, ces tangentes sont toutes concourantes en un point à déterminer..

La matrice A est inversible car l'algorithme du pivot partiel permet de se ramener à une forme triangulaire, on peut poursuivre alors pour calculer l'inverse.. Il existe un

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/1. 3 Rémy Nicolai

Déduire de la question précédente, le théorème de Darboux : la dérivée d’une fonction vérifie le théorème des valeurs intermédiaires (Bolzano) même si elle n’est

[r]

On considère la variable aléatoire X qui à chaque tirage associe la somme des deux entiers inscrits sur les deux jetons tirés.. 8.3 Espérance, variance