• Aucun résultat trouvé

Analysedeséquationsauxdérivéespartielles Mathématiques2

N/A
N/A
Protected

Academic year: 2021

Partager "Analysedeséquationsauxdérivéespartielles Mathématiques2"

Copied!
232
0
0

Texte intégral

(1)

Mathématiques 2

D. Verwaerde et P. Laurent-Gengoux

Analyse des équations aux dérivées partielles

P. Laurent-Gengoux Année 2006-2007

(2)
(3)

Table des matières

1 Rappels et prérequis 11

1.1 Quelques formules utiles . . . 11

1.1.1 Notations . . . 11

1.1.2 Formule d’intégration par parties en dimensionN . . . 11

1.1.3 Formule deStokes . . . 11

1.2 Systèmes d’équations . . . 12

1.2.1 Systèmes linéaires . . . 12

1.2.2 Systèmes d’équations non linéaires . . . 13

1.2.3 Résolution d’un système non linéaire par déformation . . . 17

1.3 Systèmes différentiels . . . 18

1.3.1 Le problème de Cauchy . . . 19

1.3.2 Systèmes différentiels linéaires homogènes . . . 19

1.4 Principes de construction d’équations aux dérivées partielles . . . 22

1.4.1 Les lois de conservation ou d’équilibre . . . 22

1.4.2 Les principes d’extrémalité . . . 23

2 Exemples d’équations aux dérivées partielles 25 2.1 Les problèmes linéaires canoniques . . . 25

2.1.1 Un problème aux limites elliptique linéaire : l’équation de Poisson . . . 25

2.1.2 Un problème d’évolution, parabolique linéaire : l’équation de la diffusion . . 29

2.1.3 Une équation linéaire du premier ordre : l’équation d’advection . . . 31

2.1.4 Un problème d’évolution, hyperbolique linéaire : l’équation des ondes . . . . 33

2.2 Les problèmes classiques de la physique mathématique . . . 38

2.2.1 Les équations de transport ou de convection avec réaction et diffusion . . . . 38

2.2.2 La diffusion avec rayonnement . . . 39

2.2.3 L’élasticité linéaire . . . 40

2.2.4 L’écoulement des fluides . . . 42

2.2.5 Les phénomènes vibratoires . . . 45

2.2.6 Les équations de Maxwell . . . 45

2.2.7 Exemples de problèmes plus complexes . . . 45

(4)

3 Quelques outils d’analyse des E.D.P. 49

3.1 Propriétés des opérateurs linéaires aux dérivées partielles . . . 49

3.1.1 Opérateurs linéaires aux dérivées partielles . . . 49

3.1.2 Opérateurs du premier et second ordre . . . 50

3.1.3 Symétrie . . . 50

3.1.4 Fonctions propres . . . 55

3.1.5 Noyau des opérateurs . . . 56

3.1.6 Transformation de Fourier . . . 56

3.1.7 Transformation de Laplace . . . 59

3.2 Application de la linéarité de l’opérateur . . . 59

3.2.1 Découplage des données . . . 59

3.2.2 Décomposition à l’aide de fonctions spéciales . . . 60

3.3 Formulation faible des équations aux dérivées partielles . . . 65

3.3.1 Équivalence des formulations . . . 66

3.3.2 Formulation au sens des distributions . . . 67

3.3.3 Utilisation des formulations faibles . . . 67

3.3.4 Interprétation des formulations faibles . . . 68

3.4 Calcul des variations . . . 69

3.4.1 Position du problème . . . 69

3.4.2 Le théorème d’Euler-Lagrange . . . 70

3.4.3 Généralisations . . . 73

3.5 Système du premier ordre équivalent à un système donné . . . 75

3.5.1 Principe . . . 75

3.5.2 Exemples . . . 77

3.6 Le théorème de Cauchy-Kovalevska . . . 78

3.6.1 Position du problème . . . 78

3.6.2 Le théorème de Cauchy-Kovalevska : forme canonique . . . 80

3.6.3 Commentaires . . . 81

3.6.4 Surface caractéristique . . . 81

3.6.5 Système quasi-linéaire . . . 87

4 Les problèmes aux limites 91 4.1 Introduction . . . 91

4.1.1 Quelques définitions . . . 91

4.1.2 Définition des problèmes aux limites . . . 92

4.1.3 Systèmes d’équations elliptiques . . . 93

4.2 Problème associé à un potentiel . . . 95

4.2.1 Position du problème . . . 95

4.2.2 Equation dérivant d’un potentiel . . . 96

4.2.3 Potentiel coercif . . . 97

4.2.4 Potentiel convexe . . . 97

4.2.5 Analyse des conditions aux limites . . . 98

4.3 Exemples d’analyse de problèmes aux limites . . . 100

4.3.1 Équation elliptique linéaire du second ordre générale . . . 100

(5)

4.3.2 Diffusion et membrane . . . 101

4.3.3 Diffusion non homogène . . . 102

4.3.4 Importance des signes : Vibration forcée . . . 102

4.3.5 Une équation faiblement non-linéaire . . . 103

4.3.6 Une équation fortement non linéaire . . . 103

4.3.7 Une équation conditionnellement elliptique . . . 104

4.3.8 Quelles lois linéaires de diffusion impliquent l’ellipticité ? . . . 105

4.3.9 Quelles lois non linéaires de diffusion impliquent l’existence et l’unicité ? . . 106

4.3.10 Cas non convexe 1 . . . 107

4.3.11 Cas non convexe 2 . . . 107

4.3.12 Cas non convexe 3 . . . 107

4.3.13 Cas non convexe 4 . . . 108

4.3.14 Un exemple sans potentiel : la convection diffusion . . . 108

4.4 Exemples en mécanique du solide . . . 110

4.4.1 Élasticité linéaire . . . 110

4.4.2 Élasticité non linéaire . . . 111

5 Les équations d’évolution 113 5.1 Introduction . . . 113

5.1.1 Quelques définitions . . . 113

5.1.2 Exemples . . . 114

5.1.3 Position du problème . . . 114

5.1.4 Classification de problèmes élémentaires . . . 114

5.1.5 Equation parabolique . . . 117

5.1.6 Équation hyperbolique . . . 118

5.2 Equation du premier ordre . . . 120

5.2.1 Equation linéaire du premier ordre . . . 120

5.2.2 Equation homogène . . . 121

5.2.3 Exemples . . . 122

5.2.4 Equation quasi-linéaire du premier ordre . . . 124

5.3 Système linéaire strictement hyperbolique à deux variables(x, t) . . . 125

5.3.1 Système linéaire strictement hyperbolique homogène à coefficients constants à deux variables(x, t) . . . 125

5.3.2 Système général d’équations linéaires aux dérivées partielles à deux variables (x, t) . . . 133

5.4 Système linéaire et quasi-linéaire général . . . 136

5.5 Exemples . . . 136

5.5.1 Burgers, sans viscosité . . . 136

5.5.2 Dynamique des fluides . . . 136

5.5.3 Equation de convection diffusion . . . 136

(6)

6 Le cadre fonctionnel 139

6.1 Formulations faibles et distributions . . . 139

6.1.1 Notion de distributions . . . 139

6.1.2 Distributions surR . . . 140

6.2 Le problème de l’existence des solutions . . . 144

6.2.1 Rappel . . . 144

6.2.2 Le théorème de Lax-Milgram . . . 144

6.2.3 Application . . . 145

6.2.4 Le cadre fonctionnel . . . 146

6.2.5 Exemple d’utilisation du cadre fonctionnel . . . 147

7 L’approximation des problèmes aux limites 149 7.1 Le problème . . . 149

7.1.1 Présentation . . . 149

7.1.2 Le problème général . . . 149

7.1.3 Un problème modèle . . . 150

7.2 Principes généraux d’approximation . . . 150

7.2.1 Méthode des différences finies . . . 150

7.2.2 Méthode de Ritz-Galerkin . . . 153

7.2.3 Approximation par des fonction affines par morceaux . . . 158

7.2.4 L’espaceWhdes fonctions continues affines par morceaux . . . 159

7.2.5 Algorithmes de calcul . . . 165

7.3 Quelques extensions . . . 173

7.3.1 Conditions aux limites . . . 173

7.3.2 Généralisation de l’équation . . . 175

7.3.3 Éléments finis de degré supérieur . . . 176

7.3.4 Dimension 1 et 3 . . . 177

7.4 Étude de l’erreur dans la méthode des éléments finis . . . 177

7.5 Maillage . . . 179

7.5.1 Propriétés nécessaires . . . 179

7.5.2 Méthodes de maillage . . . 179

7.5.3 Triangulation de Delaunay . . . 181

8 L’approximation des problèmes d’évolution 185 8.1 Approximation de problèmes modèles . . . 185

8.1.1 Problèmes modèles . . . 185

8.1.2 Approximation par la méthode des différences finies . . . 186

8.1.3 Analyse des approximations . . . 192

8.1.4 Analyse de l’erreur . . . 197

8.1.5 Critères de stabilité des schémas . . . 202

8.1.6 Analyse et extensions de la méthode des différences finies . . . 206

8.2 Approximation par la méthode des éléments finis . . . 207

8.2.1 Équation de la diffusion . . . 207

8.2.2 Équation des ondes . . . 211

(7)

8.2.3 Analyse et extensions de la méthode des éléments finis . . . 214

8.3 Approximation des équations hyperboliques . . . 214

8.3.1 Un problème modèle . . . 215

8.3.2 Approximation par la méthode des différences finies . . . 217

8.3.3 Conclusion . . . 228

(8)
(9)

Présentation

Objectifs de ce document

Ce document est un document de référence pour le cours d’analyse et d’approximation des équa- tions aux dérivées partielles. Il est complémentaire des documents décrivant chaque séance qui ont été distribués à part. Il contient quelques rappels et de nombreux passages qui ne sont pas au programme, (le programme est défini par les documents décrivant chaque séance). En complément du programme, axé sur l’analyse qualitative et numérique des équations aux dérivées partielles, nous présentons dans ce document :

– des résumés des méthodes classiques de calcul de solutions d’équations aux dérivées partielles.

– quelques compléments pour aller plus loin dans l’étude des équations aux dérivées partielles.

– de nombreux exemples non traités en cours.

Nous nous sommes efforcés de maintenir un équilibre entre la généralité et la complication des énon- cés : les théorèmes ne sont pas énoncés sous la forme la plus générale chaque fois que cela complique trop les notations ou que cela les rend trop abstraites ; c’est a fortiori vrai pour les démonstrations.

Nous avons évité au maximum de recourir à des notions non élémentaires de calcul différentiel et surtout d’intégration et d’analyse fonctionnelle. Notamment nous n’utilisons pas le cadre des espaces de Sobolev ni la théorie des distributions, nous leur consacrons cependant un court chapitre pour en expliquer l’intérêt. Cette simplification est possible parce que nous ne traitons pas la question de l’existence des solutions d’une équation aux dérivées partielles, nous nous limitons à l’étude qualita- tive des solutions.

Position du problème

Nous présentons dans ce document quelques idées pour comprendre les problèmes, en général d’origine physique, dans lesquels on cherche une ou plusieurs fonctions vérifiant des équations aux dérivées partielles et des conditions supplémentaires, par exemple les valeurs en certains points de la fonction inconnue ou de ses dérivées. Le sujet est évidemment très vaste, puisque les équations aux dérivées partielles modélisent l’ensemble des phénomènes physiques, certains domaines sont encore mal connus et beaucoup de problèmes sont l’objet de conjectures. Nous n’avons donc pas l’ambition dans ce court document de faire une synthèse des connaissances actuelles mais nous essayons d’in- troduire quelques idées simples pour comprendre les problèmes élémentaires.

Prenons l’exemple des équations linéaires ; les solutions d’une équation aux dérivées partielles linéaire forment un espace de dimension infinie, elles dépendent linéairement, par exemple, des co-

(10)

efficients d’une série, ou encore de la donnée d’une ou de plusieurs fonctions arbitraires. “Résoudre ces équations”, c’est, au mieux, obtenir des représentations de la solution sous forme de séries et d’intégrales dépendant de fonctions arbitraires. Mais les représentations ainsi obtenues de la solution générale de l’équation sont peu manipulables, sauf dans quelques cas particuliers, et ne permettent pas de comprendre quelles conditions supplémentaires déterminent la solution. Le plus souvent on ne pourra calculer que des approximations des solutions.

Dans le cas général, on peut essayer de déterminer des solutions d’une équation aux dérivées par- tielles en posant des problèmes de Cauchy, c’est à dire la détermination locale de la solution à partir de certaines de ses valeurs sur une courbe (si on est en dimension 2). Mais d’une part ce problème, quand il a une solution (théorème de Cauchy-Kovalevska), n’est pas toujours bien posé : la solution ne dépend pas toujours de façon stable de ses valeurs sur une courbe et elle dépend d’une infinité de paramètres (les valeurs sur la courbe). D’autre part les conditions supplémentaires sont aussi en nombre infini, la détermination des paramètres est donc un problème non trivial.

C’est pourquoi nous ne présenterons pas, comme cela a été fait pour les équations différentielles,

“une théorie générale” reposant sur les propriétés des solutions d’une équation. Nous étudierons de préférence des problèmes complètement posés ayant en général une solution bien déterminée, pour lesquels on peut s’appuyer sur l’interprétation physique, pour comprendre les propriétés du problème.

Et nous étudierons des principes généraux qui permettent de comprendre pourquoi un problème est bien posé, quelles sont les propriétés de ses solutions et comment on peut construire des approxima- tions des solutions.

(11)

Rappels et prérequis

1.1 Quelques formules utiles

1.1.1 Notations On notehx, yi =P

i xiyi le produit scalaire canonique deRN. Soitu(x)etv(x)des fonctions définies sur un domaineΩ ⊂ RN;Φ(x) est un champ de vecteur sur Ω,~n = (n1,· · ·, nN) est le vecteur normal unitaire extérieur en un point du bordΓdeΩ.

1.1.2 Formule d’intégration par parties en dimensionN

Z

∂u(x)

∂xi v(x)dΩ =− Z

u ∂v(x)

∂xi dΩ + Z

Γ

u v nidΓ (1.1)

On en déduit diverses formules très utiles.

1.1.3 Formule deStokes

Z

hΦ,∇vidΩ = Z

−∇.Φv dΩ + Z

Γ

Φnv dΓ (1.2)

oùΦn=hΦ, ~ni. Avecv= 1on obtient la formule deGreen Z

∇.ΦdΩ = Z

Γ

ΦndΓ (1.3)

En prenantΦ =∇uon obtient Z

h∇u,∇vidΩ = Z

−∆u v dΩ + Z

Γ

∂u

∂n v dΓ (1.4)

∂u∂n =h∇u, ~niest la dérivée deudans la direction~n.

(12)

1.2 Systèmes d’équations

1.2.1 Systèmes linéaires

Introduction

Dans l’approximation des équations aux dérivées partielles nous aurons à considérer des systèmes linéaires de très grande dimension qui auront le plus souvent la propriété d’avoir une matrice “creuse”

(i.e. la plupart des éléments sont nuls) et symétrique. SoitAune matrice(n, n)etb∈Rn. Définition 1 Une matrice symétriqueAestdéfinie positivesix6= 0⇒ hAx, xi>0 Le résultat suivant est à la base de l’étude des systèmes linéaires :

Proposition 1 Le système linéaire

Ax=b (1.5)

admet une solution et une seule si le système homogène associé admet pour seule solutionx= 0, ce qui est équivalent àdetA6= 0

La deuxième partie de la proposition n’est pas d’un grand intérêt pratique pour les systèmes de grande dimension : le déterminant d’une matrice de grande dimension est le plus souvent un nombre sans signification ( numériquement infini ou nul). La première partie de la proposition peut être complétée par une condition suffisante qui nous sera très utile :

Théorème 1 Si la matriceAa sa partie symétrique qui est définie positive alors le système linéaire admet une solution et une seule

En effetAx= 0impliquehAx, xi =hA+A2 tx, xi= 0ce qui impliquex= 0siA+Atest définie positive.

Notion de conditionnement

Dans ce paragraphe nous n’utilisons que la norme euclidienne, qui conduit à des calculs simples, mais il peut être nécessaire de faire la même étude pour d’autres norme, notamment la normekxk. Un système linéaire peut avoir une solution et une seule sans que cette solution soit stable vis à vis des données. Considérons une perturbation δbdu second membre bde (1.5), elle implique une perturbationδx=A−1δbde la solution et donc une erreur relative

kδxk2

kxk2 ≤ kA−1k2kδbk2 kxk2 Orb=Aximpliquekbk2≤ kAk2kxk2et donc

kxk2 ≥ kbk2 kAk2 Il vient

kδxk2

kxk2 ≤ kAk2kA−1k2kδbk2 kbk2

Le coefficient d’amplification de l’erreur relative est donc majoré parC(A) =kAk2kA−1k2. D’où la définition :

(13)

Définition 2 Leconditionnementd’une matriceAest le nombre C(A) =kAk2kA−1k2

Si la matriceAest symétrique définie positive on akAk2n, oùλ1 ≤ ...≤ λnsont les valeurs propres deAetkA−1k2 = λ1

1, donc

Proposition 2 Si la matriceAest symétrique définie positive le conditionnement de la matrice C(A) = λn

λ1

est un majorant du coefficient d’amplification de l’erreur relative sur la solution du système (1.5).

Noter que ce majorant est atteint sibetδbsont les vecteurs propres associés àλnetλ1.

Résolution numérique

Pour résoudre numériquement un système linéaire on utilise deux grandes classes de méthode :

−Les méthodes dites directes qui sont des variantes de la méthode d’élimination de Gauss (dites aussi méthode du pivot) différent essentiellement par l’ordre des éliminations ce qui revient à définir une renumérotation des inconnues et des équations.

− Les méthodes itératives, appliquées surtout aux matrices de grande dimension et creuses, sont, pour les plus efficaces, dérivées de laméthode du gradient conjugué qui est étudiée dans le cours d’optimisation. Ces méthodes sont des méthodes d’optimisation qui utilisent l’équivalence suivante : Proposition 3 Soit Aune matrice symétrique définie positive. SoitF(x) = 12hAx, xi − hb, xi. La fonctionF(x)est strictement convexe, tend vers l’infini quandkxktend vers l’infini, et ∇F(x) = Ax−b.

Un vecteurx¯est solution du système linéaireAx=bsi et seulement six¯réalise le minimum (unique) de la fonctionF(x)surRn.

1.2.2 Systèmes d’équations non linéaires On note

A(x) = 0 (1.6)

un système denéquations non linéaires àninconnues, oùA(x)est une applicationC1 deRndans lui-même. Un tel système peut être très difficile à analyser et à résoudre numériquement. La théorie la plus générale qui couvre l’existence des solutions de (1.6) est la “théorie du degré topologique” qui dépasse le cadre de cette introduction. Nous allons voir quelques conditions suffisantes qui facilitent l’étude de ce système.

(14)

Existence d’un potentiel

Dans ce paragraphe nous supposons qu’il existe une fonction “potentielle”F(x)telle que A(x) =∇F(x)

Les solutions du système sont alors les points stationnaires deF(x). Or l’étude de la fonctionF(x) permet sous certaines conditions d’affirmer l’existence d’au moins un extrémum, son éventuelle uni- cité ou la présence d’un nombre minimal d’extrémums. Pour l’existence on utilisera la proposition Proposition 4 SiF(x) tend vers+∞ quandkxktend vers l’infini alors F(x)admet au moins un minimum et le systèmeA(x) = 0admet donc au moins une solution.

et

Proposition 5 SiF(x)est strictement convexe alorsF(x)admet au plus un minimum et le système A(x) = 0admet donc au plus une solution.

Noter que l’existence locale d’une fonction potentielle équivaut à la symétrie de la matrice jacobienne et qu’il existe des situations plus générales où l’on peut étudier le nombre d’extrémums de la fonction F(x)et leur nature, voir le cours d’optimisation, chapitre 1.

Méthode du point fixe

On réécrit le systèmeA(x) = 0sous la forme

x=x−ρA(x)

et on posef(x) = x−ρA(x). Trouver une solution du système non linéaire équivaut à trouver un point fixe de l’applicationf(x).

Rappelons le théorème du point fixe pour les applications contractantes, sous une forme adaptée : Théorème 2 (Point fixe) Si une fonctionf(x)laisse invariante une partie ferméeCdeRnet si elle est lipschitzienne de constantek <1pour une norme quelconque, i.e.

kf(x)−f(y)k< kkx−yk

alors elle admet un point fixex¯et un seul surC. De plus six0 est un point quelconque deCla suite définie par la récurrence

x0 ∈C quelconque et

xn=f(xn−1) converge versx¯

Ce théorème fournit un résultat d’existence et un algorithme pour déterminer la solution.

Un théorème beaucoup plus général, le théorème de Brouwer, est moins précis

(15)

Théorème 3 (Brouwer) Si une fonction continuef(x)laisse invariant un convexe compactCdeRn elle admet (au moins) un point fixex¯surC.

Le plus souvent le convexeCest une boule deRn. Si le champ de vecteurA(x)est dirigé vers l’ex- térieur de la boule quandxest sur la sphère frontière, on vérifie que l’applicationf(x) =x−λA(x) applique la sphère sur l’intérieur de la boule pour λassez petit. Au prix d’une petite complication technique1on peut appliquer le théorème de Brouwer et on en déduit la proposition :

Proposition 6 (Poincaré) Si il exister∈Rntel que

kxk2 =r ⇒ hA(x), xi>0 le système (1.6) admet au moins une solution.

Applications monotones

Nous allons voir des conditions pratiques d’application du théorème (2)

Définition 3 Une applicationA(x)d’un convexeC⊂RndansRnestmonotonesi hA(x)−A(y), x−yi ≥0

Une applicationA(x)estuniformément monotonesi il existe une constanteα >0telle que hA(x)−A(y), x−yi ≥αhx−y, x−yi

SiA(x) = ∇F(x)la monotonie deA(x)équivaut à la convexité deF(x), voir le cours d’optimisa- tion, chapitre 2. Dans le cas général on a le théorème :

Théorème 4 Si une applicationA(x)de Rn dansRnest uniformément monotone et lipschitzienne, le système

A(x) = 0 admet une solution et une seule.

On peut étendre ce théorème à une boule deRn.

Ce théorème est une conséquence immédiate du lemme :

Lemme 1 Si une applicationA(x) de Rn dansRn est uniformément monotone, de constanteα et lipschitzienne de constanteM, l’application

f(x) =x−(1− α2 M2)A(x) est lipchitzienne de constantek =

q

(1−Mα22) <1; elle vérifie donc les condition du théorème de point fixe (2).

1Considérer l’applicationf(x) = Π(x−λA(x))Π(x)est la projection sur la boule, cette application envoie la boule Cdans elle-même par construction, elle admet donc un point fixe. Or un point fixex¯def(x)est dans la boule ; six¯est strictement à l’intérieur il n’est pas l’image parΠd’un point extérieur, doncx=x−λA(x), si¯xest sur la sphère,x−λA(¯¯ x) est à l’intérieur de la boule par définition deλet doncΠ(¯x−λA(¯x)) = ¯x−λA(¯x); d’où¯x= Π(¯x−λA(¯x)) = ¯x−λA(¯x).

(16)

Les points fixes def(x)sont les solutions deA(x) = 0, ce qui démontre le théorème.

Démonstration du lemme: Rappelons queA(x)est lipschitzienne en norme euclidienne si

∃k >0/kA(x)−A(y)k2 ≤kkx−yk2 (ce qui sera vrai sur tout borné siA(x)est une applicationC1).

Définissonsf(x) =x−λA(x)et montrons quef(x)est une application contractante

hf(x)−f(y), f(x)−f(y)i=h(x−y)−λ(A(x)−A(y)),(x−y)−λ(A(x)−A(y))i et en développant

hf(x)−f(y), f(x)−f(y)i=hx−y, x−yi−2λhA(x)−A(y), x−yi+λ2hA(x)−A(y), A(x)−A(y))i et puisqueA(x)est une application monotone et lipschitzienne

hf(x)−f(y), f(x)−f(y)i ≤(1−2λα+λ2k2)hx−y, x−yi Choisissons

λ= α M2 il vient

hf(x)−f(y), f(x)−f(y)i ≤(1− α2

M2)hx−y, x−yi Méthodes de calcul numérique

−Si le théorème de point fixe (2) s’applique on peut utiliser la méthode d’itération pour calculer la solution du système.

−Si le système est associé à un potentiel on peut calculer les solutions qui sont des extrémums par des méthodes d’optimisation, voir le chapitre 3 du cours d’optimisation.

−Dans le cas général on peut utiliser la méthode de Newton (voir le chapitre 3 du cours d’op- timisation). La méthode de Newton est une méthode itérative générale de résolution d’un système non-linéaire A(x) = 0 : connaissant une approximation xk de la solution, on détermine xk+1 en linéarisant, localement autour dexk; l’équation A(x) = 0. On a, en développantA(x) à l’ordre 1 autour dexk

A(x) =A(xk) +DA(xk).(x−xk) +(x−xk)kx−xkk Si on veut queA(xk+1) = 0, en négligeant les termes du d’ordre 2, il vient

xk+1 =xk−DA(xk)−1.A(xk)

L’application linéaire DA(x) a pour matrice dans la base canonique de Rn la jacobienneJA(x) . L’algorithme peut donc s’écrire, en mettant en évidence la résolution du système linéaire de matrice JA(xk),

(17)

Faire :

Mk=JA(xk) gk=A(xk) Mkδk=−gk xk+1 =xkk Tant quekgkk ≥epskg0k

On montre que, si A(x) est deux fois différentiable et si x0 est assez proche d’une solution, les itérations convergent vers cette solution. On montre de plus que la convergence est quadratique

kxk+1−xk ≤Ckxk−xk2

ce qui fait que, dès que la convergence est amorcée, elle devient très rapide.

En pratique la méthode est souvent instable et le choix d’un point de départx0assurant la convergence peut s’avérer très délicat. La mise oeuvre exige la résolution d’un système linéaire, dont la matrice JA(xk)change à chaque itération, ce qui peut être très coûteux si la matrice est pleine et de grande dimension.

−La méthode de Newton peut être complétée par une stratégie de “déformation par homotopie” : on introduit un paramètreλet un systèmeA(x, λ)tel queA(x) =A(x,1)et que le systèmeA(x,0) = 0soit simple à résoudre (par exemple linéaire). On choisit une suite de valeurλ1 = 0≤λk≤λp = 1.

De proche en proche on détermine la solution deA(x, λk) = 0en initialisant la méthode de Newton par la solution deA(x, λk−1) = 0jusqu’à atteindreλp = 1. Nous développons cette méthode dans le paragraphe suivant.

1.2.3 Résolution d’un système non linéaire par déformation

Nous étudions dans ce paragraphe des méthodes de calcul pour des systèmes non linéaires, dites méthodes incrémentales ou de déformation par homotopie. Ces méthodes de calcul, sont utilisées notamment en mécanique du solide pour les modèles élastoplastiques, de grandes déformations ou de contact. Avec des notations un peu différentes du paragraphe précédent et qui sont usuelles en mécanique, on écrit le système non linéaire sous la forme

K(U) =F (1.7)

où l’inconnueU et la donnéeFsont des vecteurs deRn etK(U)une application deRndansRn. Pour déterminer une solution, on construit un chemin de solutions en faisant varier continûment le vecteurF, qui devientF(t), à partir d’une valeur pour laquelle la solution est connue (0par exemple) et on suit pas à pas la solutionU(t). En mécanique on dit que l’on a défini unchemin de chargement.

Dérivons (1.7), il vient :

K0(U(t))U0(t) =F0(t) (1.8)

oùK0(U(t))est une matrice(n, n). On obtient un système différentiel non linéaire sous forme im- plicite pourU(t).

On peut intégrer numériquement cette équation différentielle par une méthode simple, la méthode d’Euler implicite ou explicite avec un pas de tempsτ :

(18)

– Euler explicite :

K0(Uk)(Uk+1−Uk)

τ =F0(tk) – Euler implicite :

K0(Uk+1)(Uk+1−Uk)

τ =F0(tk+1) que l’on peut réécrire sous la forme :

– Euler explicite :

K0(Uk)Uk+1 =K0(Uk)Uk+τF0(tk) – Euler implicite :

K0(Uk+1)(Uk+1−Uk) =τF0(tk)

Pour le schéma explicite il suffit de résoudre à chaque pas un système linéaire dont la matriceK0(Uk) peut être explicitement calculée. Dans un problème obtenu par une approximation par éléments finis d’un problème continu cette matrice est celle d’un problème “linéarisé”, elle sera calculée par les méthodes étudiées pour les équations linéaires. Pour le schéma implicite (qui est plus stable et permet des pas plus grands) la matrice fait partie des inconnues, on détermine Uk+1 par une méthode de point fixe :

V0 =Uk (1.9)

K0(Vi)Vi+1=K0(Vi)Uk+τF0(tk) (1.10) la suiteVi converge, si le pasτ n’est pas trop grand, versUk+1. On préfère s’assurer à chaque pas queUk+1est solution de :

K(U) =F(tk+1) (1.11) en appliquant localement la méthode de Newton à cette équation :

V0=Uk (1.12)

K0(Vi)Vi+1=K0(Vi)Vi−(K(Vi)−F(tk+1)) (1.13) la suiteViconverge, si le pasτ n’est pas trop grand, versUk+1.

Remarque: La matriceK0(Uk)peut ne pas être inversible, ce sera le cas siUkestpoint de bifurcation (i.e. plusieurs branches de solution passent par ce point). En mécanique, par exemple, cette situation correspond à certaines propriétés du système : passage par une valeur limite du chargement (en cas d’augmentation de celui-ci il n’y a plus d’équilibre possible) ou encore au phénomène de flambement (voir le chapitre 1 du cours d’Optimisation).

1.3 Systèmes différentiels

Voir le cours d’analyse 1 pour plus de détails. Rappelons que tout système différentiel comprenant des dérivées d’ordre p est équivalent à un système du premier ordre en introduisant des variables supplémentaires pour les dérivées jusqu’à l’ordre p−1. Par exemple, en dynamique du point, les équations de Newton, qui sont du second ordre quand l’inconnue est la position, s’écrivent sous la forme d’un système du premier ordre dans “l’espace des phases”, c’est à dire en prenant la position et la vitesse comme inconnues.

(19)

1.3.1 Le problème de Cauchy

Soitf(t, x)une application continue de[0, T]×RndansRnetx(t)∈C1([0, T]→Rn).

Définition 4 On appelleproblème de Cauchyouà valeurs initialesle problème différentiel x0(t) = f(t, x(t))

x(0) = x0 (1.14)

Les hypothèses peuvent être adaptée à des fonctions définies sur un ouvert deRn. Énonçons le théo- rème fondamental d’existence locale d’une solution de (1.14) sous une forme simplifiée

Théorème 5 (Cauchy-Lipschitz) Sif(t, x)est une fonction continue par rapport à(t, x)etC1par rapport àx, alors le problème (1.14) admet au plus une solution et il existeθ≤Ttel qu’il existe une solution sur[0, θ[.

On peut compléter cet énoncé par la proposition :

Proposition 7 () Si la solutionx(t)de (1.14) est bornée sur[0, θ], cette solution peut être prolongée sur[0, θ0[avecθ0 > θ.

(intuitivement, ou bien la solution explose en θ ou bien elle peut être prolongée) on en déduit le théorème :

Théorème 6 () Sif(t, x)est continue par rapport à (t, x),C1 par rapport àx, et à croissance au plus linéaire enx(i.e.∃M, c /kf(t, x)k ≤Mkxk+c), alors le problème (1.14) admet une solution et une seule sur[0, T].

On montre également que la solution de (1.14) dépend continûment dex0ainsi que de tout paramètre par rapport auquel f(t, x) est continu. Autrement dit la solution de(1.14) est stable vis à vis des données du problème.

La solution “générale” d’un système différentiel dansRnexiste donc localement sous des hypothèses très faibles et elle dépend de nparamètres que l’on peut choisir comme les valeurs initiales d’un problème de Cauchy. Le théorème (6) est un outil puissant pour montrer l’existence globale de la solution. Nous n’aurons pas de résultat aussi général pour les équations aux dérivées partielles.

1.3.2 Systèmes différentiels linéaires homogènes

Solution générale

Soit x(t) ∈ C1([0, T] → Rn). Considérons un système différentiel linéaire homogène à coeffi- cients constants

x0(t) = Ax(t)

x(0) = x0 (1.15)

oùAest une matrice(n, n).

La solution de ce système peut s’écrire formellement x(t) = exp (tA)x0

(20)

où nous avons posé

exp (tA) =X

k

tkAk k!

Si la matriceAest diagonalisable sous la formeA =P−1DP oùDest une matrice diagonale dont les coefficients sont les valeurs propresλideA; on en déduit l’écriture plus explicite deexp (tA)

exp (tA) =P−1exp (tD)P

oùexp (tD)est la matrice diagonale dont les coefficients sontexp (tD)i,i = exp (tλi). Le théorème suivant est une conséquence immédiate de cette expression, et il s’étend à des matrices non diagona- lisables :

Théorème 7 Toutes les solutions du système différentiel (1.15) tendent vers0quandt ↔ +∞si et seulement si la partie réelle des valeurs propres de la matriceAest négative.

Analyse qualitative

Définition 5 Soit un produit scalaireh., .isurRn. Un système différentiel estconservatifsi les solu- tions du système homogène conservent le carré scalairehx(t), x(t)i.

Un système différentiel estdissipatifsi le carré scalairehx(t), x(t)itend vers0.

Le carré scalaire abstrait que nous introduisons représente souvent une grandeur physique concrète, une énergie ou une entropie. Nous utiliserons la proposition

Proposition 8 Soit un produit scalaireh., .isurRn. Le système (1.15) est dissipatif si et seulement si la matriceAest définie négative. Le système (1.15) est conservatif si et seulement si la matriceAest antisymétrique.

Preuve

De (1.15) on déduit

hx, x0(t)i=hAx, xi et donc

d dt

1

2hx, xi=hAx, xi

Le résultat en découle carAest définie négative six6= 0⇔ hAx, xi<0etAest antisymétrique2si et seulement si∀xhAx, xi= 0.

2L’antisymétrie de la matriceA,hAx, yi=−hAy, xi, équivaut à

∀xR2NhAx, xi= 0

En effet si∀x, hAx, xi = 0alors∀x, y hA(x+y),(x+y)i = 0 = hAx, xi+hAy, yi+hAx, yi+hAy, xi = hAx, yi+hAy, xi, donchAx, yi=−hAy, xi

(21)

Autres problèmes

Si on cherche une solution d’un système différentiel vérifiant d’autres types de conditions que (1.14) (conditions aux deux extrémités d’un intervalle, condition de périodicité...) , il n’existe pas de résultat aussi simple d’existence d’une solution. Mais on peut ramener, grace au théorème (6), le problème à l’étude d’un système d’équations surRnpar la méthode de “tir” : par exemple si on veut fixerp < ncomposantes dex(0)etn−pcomposantes dex(T), on considère la solution du problème (1.14) avec un point de départx(0) = x0 oùpcomposantes dex0 prennent les valeurs fixées et les n−p autres composantes prennent des valeursλ1, ..., λp libres ; la valeur de la solutionx(t) enT doit vérifiern−pconditions, ce qui faitn−péquations pour lesn−pparamètresλi.

Présentons un exemple d’application de cette méthode : on considère un problème aux limites pour une équation du second ordre

−x00(t) +c(t)x(t) = f(t)pourt∈[0,1]

x(0) =x(1) = 0 (1.16)

où∀t∈[0,1], c(t)>0∈C([0,1]), f(t)∈C([0,1]). On introduit le problème auxiliaire de Cauchy

−x00(t) +c(t)x(t) = f(t)pourt∈[0,1]

x(0) = 0

x00) = λ

(1.17)

Ce problème de Cauchy admet une solution unique sur[0,1]d’après le théorème (6). Pour que (1.16) ait une solution, nous devons montrer qu’il existeλtel que (1.17) a une solutionx(t)telle quex(1) = 0. En notantx1(t)la solution de (1.17) pourλ= 1etf(t) = 0, etx2(t)la solution de (1.17) pour λ= 0, on vérifie immédiatement que la solution généralex(t)de (1.17) s’écrit

x(1) =x1(1)λ+x2(1)

Pour montrer qu’il existeλtel quex(1) = 0, il suffit de montrer quex1(1)6= 0.

Raisonnons par l’absurde : six1(1) = 0le problème

−x00(t) +c(t)x(t) = 0pourt∈[0,1]

x(0) = 0

x(1) = 0

(1.18)

admet comme solutionx1(t)par définition de cette fonction, et cette solution est non nulle puisque x01(0) = 1. Or

Z 1 0

−x001(t)x1(t)dt+ Z 1

0

c(t)x21(t)dt= 0 et, après intégration par parties du premier terme on obtient

Z 1 0

x01(t)2dt+ Z 1

0

c(t)x21(t)dt= 0

ce qui impliquex1(t) = 0puisquec(t)>0par hypothèse. Ce qui contredit le fait quex01(0) = 1.

(22)

Calcul numérique de la solution Voir le cours d’analyse 1.

1.4 Principes de construction d’équations aux dérivées partielles

1.4.1 Les lois de conservation ou d’équilibre

Principe

Les grands principes de la physique sont souvent deslois de conservationou deslois d’équilibre qui se traduisent par des équations aux dérivées partielles. SoitΩ⊂Rnun domaine. SoitΦ(x)∈Rn un champ de vecteur défini surΩ. La nullité du flux deΦà travers un contour quelconqueΓs’écrit

Z

Γ

Φnds= 0

Si on prend pourΓle bord d’un domaine quelconqueω ⊂Ω, on en déduit en utilisant la formule de Green (1.3)

Z

ω

∇.Φ(x)dω= 0 et donc, le domaineωétant quelconque

∇.Φ(x) = 0

Dans un problème d’évolution, si la variation d’une grandeur définie par une densitéρ(x, t)se traduit par un fluxΦ(x, t), le flux de ce champ à travers le bord deωvérifie

Z

Γ

Φnds+ Z

ω

∂ρ

∂t dω= 0

et donc Z

ω

∂ρ

∂t +∇.xΦdω= 0

d’où ∂ρ

∂t +∇.xΦ = 0 Noter que cette équation s’écrit aussi

∇.x,tΦ = 0 Exemples

−Soit un fluide de concentrationc(x) qui diffuse dans un corps poreux. La diffusion est repré- sentée par un flux de matière Φ(x). La loi empirique de la diffusion (Loi de Fick) suppose que le fluxΦest proportionnel au gradient de concentrationΦ = −k∇c. La conservation de la matière en régime permanent implique la nullité du flux total à travers un contour quelconque et s’écrit donc

∇.Φ =∇.(−k∇c) = 0

(23)

−Soit un fluide de masse volumiqueρ(x, t) dont le mouvement est décrit par le champ de vitesse u(x, t) ∈ R3. Le flux de matière est Φ = ρu. La conservation de la masse dans le mouvement se traduit par

∂ρ

∂t +∇. ρu= 0 1.4.2 Les principes d’extrémalité

Problème de statique

Limitons nous à l’étude d’un système mécanique, mais il existe de tels principes dans tous les domaines de la physique. Les problèmes de statique peuvent s’écrire sous la forme d’unprincipe de minimum, en l’absence de frottement et si le champ de force dérive d’un potentiel :

Théorème 8 (Principe du minimum de l’énergie) La position u d’un système est un minimum de l’intégrale

J(u) =E(u)−W(u)

estl’énergie potentielle totale,E(u)est l’énergie interne,W(u)le potentiel des forces appliquées. . Si le système est un solide élastique occupant un domaineΩles grandeurs comme l’énergie interne sont des intégrales de fonctions des dérivées de la positionu. Nous verrons au chapitre 3, en étudiant le calcul des variationsque le minimum de

J(u)

est alors solution d’une équation aux dérivées partielles du second ordre : l’équation d’Euler.

Problème de dynamique

De même limitons nous à l’étude de l’évolution d’un système mécanique. Les problèmes de dy- namique peuvent s’écrire sous forme “lagrangienne”, en l’absence de frottement et si le champ de force dérive d’un potentiel :

Théorème 9 (Lagrange) La trajectoireq(t)d’un système est une extrémale de l’intégrale A(q) =

Z T 0

L(q, q0)dt oùA(q)estl’action lagrangienne,et

L(q, v) =T(q, v)−W(q, v)

lelagrangiendu problème,T(q, v)est l’énergie cinétique,W(q, v)le potentiel dont dérive le champ de force.

Notons qu’ici l’extrémum n’est pas toujours un minimum. Si le système est un milieu continu occu- pant un domaineΩl’énergie cinétique est une intégrale du carré de la vitesse et donc de fonctions des dérivées de l’étatu. Nous verrons (chapitre 3) que cela implique que la trajectoire est une solution d’une équation aux dérivées partielles du second ordre, l’équation d’Euler-Lagrange.

(24)
(25)

Exemples d’équations aux dérivées partielles

Objectifs

Nous présentons dans ce chapitre les “problèmes modèles” pour l’étude des équations aux déri- vées partielles ainsi que les grands problèmes de la physique mathématique.

2.1 Les problèmes linéaires canoniques

2.1.1 Un problème aux limites elliptique linéaire : l’équation de Poisson

L’équation de Poisson On considère :

−un domaine bornéΩ⊂R2de bordΓ“régulier”1.

−une fonctionf(x)∈C1(Ω)et une fonctiong∈C(Γ);

On cherche une fonctionu∈C2(Ω)solution duproblème aux limites −k∆u(x) =f(x) si x∈Ω

u(x) =g six∈Γ (2.1)

−C’est un“problème aux limites” car la solution est déterminée par des conditions en tous les points du bord du domaine.

−C’est un problème linéaire car l’opérateur aux dérivées partielles−∆est linéaire.

−Nous verrons au chapitre 4 la définition d’un opérateur elliptique, elle est liée à la proposition (13) ci-dessous.

Ce problème se retrouve dans tous les domaines de la physique, citons en particulier :

−Sig = 0, (2.1) est l’équation qui détermine la flècheu(x)des membranes tendues, chargées par

1Nous ne préciserons pas cette notion, les domaines formés par l’intérieur d’une courbeC1 et sans point double conviennent...

(26)

une densitéf et fixées au bord (cf. séance 2).

−Sif(x) = ρ(x)

0 , (2.1) est l’équation qui détermine le potentiel électrostatiqueu(x) créé par une densité de chargeρ(x)dans un domaine où le potentiel est connu sur le bord.

−L’équation (2.1) est l’équation de la diffusion de la chaleur dans une plaque mince en régime per- manent,u(x) est la température au pointx,f est la densité de chaleur fournie en chaque point etg étant une température connue sur le bord (cf. séance 4).

−Sif = 0, (2.1) est l’équation des écoulements irrotationnels et incompressibles,u(x)est alors le potentiel des vitesses.

−Le Laplacien∆est le seul opérateur du second ordre invariant par rotation des axes, c’est ce qui explique sa présence dans les équations de milieux isotropes.

Nous verrons au chapitre 4 que la propriété fondamentale du problème (2.1) est le principe du mini- mum de Dirichlet :

soit

U0 ={v ∈C2(Ω)/ v|Γ=g}

définissons la fonctionénergie potentielle: J(v) = Z

k

2k∇vk22−f v dΩ (2.2)

La solutionude (2.1) est aussi solution du problème d’optimisation

∀v∈U0 J(u)≤ J(v) (2.3)

On en déduit (cf. chapitre 4 et 6) la proposition :

Proposition 9 Le problème (2.1) admet une solutionuet une seule.

Les conditions mises surf etgsont beaucoup trop restrictives, mais pour les étendre il nous faudra aussi étendre le sens donné à une solution du problème : sif est simplement continue il n’existe pas toujours de solution dérivable en tout point.

Cas particulier : l’équation de Laplace

Sif = 0, on obtient une équation de Laplace :

−k∆u(x) = 0 six∈Ω

u(x) =g six∈Γ (2.4)

La fonctionu vérifie∆u = 0, c’est une fonctionharmonique, le problème est donc de déterminer une fonction harmonique en connaissant ces valeurs aux bords. La théorie des fonctions harmoniques est très développée, rappelons la propriété essentielle (cf Cours Analyse 1) :

Proposition 10 Une fonction harmonique est localement la partie réelle d’une fonction analytique.

Une fonctionu(x)est harmonique si et seulement si elle vérifie lapropriété de la moyenne u(x) = 1

2π Z

0

u(x+rexpiθ)dθ

(27)

− Noter que l’équation ∆u(x) = 0 qui est du second ordre est formellement équivalente, après élimination dev, au système du premier ordre





∂u

∂x = ∂v

∂y

∂u

∂y =−∂v

∂x

(2.5)

Ces équations forment lesconditions de Cauchyreliant les parties réelles et imaginaires d’une fonc- tion analytique.

−En utilisant les propriétés des fonctions analytiques on construit des solutions particulières de (2.4) dans des domaines simples. Par exemple siΩest le disque{x /kxk ≤1}on a

u(r, θ) = 1 2π

Z

0

g(φ)(1−r2)

(r2−2rcos(θ−φ) + 1) dφ

−On retrouve, en appliquant la formule précédente au centre d’un petit disque quelconque, qu’une fonction harmonique vérifie la propriété de la moyenne (proposition 10).

−Une fonction harmonique surΩestCdans l’intérieur deΩet même localement développable en séries entières puisqu’elle est la partie réelle d’une fonction analytique. On en déduit qu’une solution de (2.4) est régulière.

− Parce qu’elle est localement développable en séries entières, une solution de (2.4) ne peut être localement nulle sans être partout nulle ; on en déduit qu’une perturbation locale de la donnée au bord gentraîne une perturbation de la solution sur tout le domaineΩ: il n’y a pas d’effet à distance finie.

−Une fonction harmonique vérifie leprincipe du maximum :

Proposition 11 Les extrémums d’une fonction harmonique surΩsont atteints sur le bord deΩ.

C’est une conséquence de la formule de la moyenne. Cela implique kuk≤ kgk

et donc la continuité, pour la norme infinie, de la solutionu du problème de Laplace par rapport à la donnéegsur le bord. Une fonction harmonique nulle sur le bord deΩest donc nulle partout. On en déduit l’unicité de la solution de (2.4) car si on a deux solutions leur différence est une fonction harmonique nulle sur le bord et donc nulle partout.

Remarque : pour un domaineΩde forme quelconque, il n’y a pas de solution explicite de (2.4), ex- primée à l’aide d’intégrales ou de séries de fonctions usuelles. La dépendance de la solution d’un problème aux dérivées partielles par rapport à la forme du domaine est non linéaire et elle trop com- plexe pour s’exprimer par une formule : c’est une des difficultés majeure de la théorie des équations aux dérivées partielles.

Résumons les propriétés de l’équation de Laplace Proposition 12 Propriétés de l’équation de Laplace :

−la solution vérifie le principe du maximum (Proposition 11),

−la solution est régulière,

−une perturbation locale est à distance d’influence infinie,

−la solution vérifie le principe du minimum de Dirichlet (2.3).

(28)

Cas particulier : le problème aux limites homogènes Sig= 0le problème (2.1) est ditaux limites homogènes

−k∆u(x) =f six∈Ω

u(x) = 0 six∈Γ (2.6)

Nous verrons en détail au chapitre 4 la proposition Proposition 13 Soit

V0={u∈C2(Ω)/ u|Γ= 0}

L’opérateur−∆, considéré comme un opérateur deL2(Ω)dans lui même de domaineV0, est symé- trique défini positif.

Les propriétés des opérateurs symétrique définis positifs seront essentielles pour analyser ce pro- blème.

– On montre que la solution de (2.6) estCdans tout disque oùfestC(on dit que l’opérateur

∆est hypo-elliptique).

– On montre que, sif ≥ 0on a u ≥ 0 surΩ, et de même, si f ≤ 0on au ≤sur Ω. Ce qui implique que sif1 ≥f2on au1 ≥u2, ou, en d’autre termes, l’opérateur qui à une fonctionf associe la solutionude (2.6) est croissant au sens de l’ordre naturel sur les fonctions.

– SiΩestR2tout entier, sif est à support compact et si on astreintuà être nulle à l’infini alors on a pour la solution une expression explicite bien connue en électrostatique

u= 1 2π

Z

R2

lnkx−ykf(y)dΩ

– SiΩ = [0, π]×[0, π]est un carré on obtient une solution explicite sous la forme d’un dévelop- pement en série de Fourier2

u=X

n,p

fn,p

n2+p2sinnxsinpy (2.7)

fn,p= 4 π2

Z π 0

Z π 0

f(x, y) sinnxsinpy dxdy

2La convergence de cette série dépend de la vitesse de convergence vers0des coefficients de Fourierfn,pde la fonction f, qui est d’autant plus rapide que la fonctionf est plus régulière. Si la fonctionf est très régulière la série converge ponctuellement et peut être dérivée deux fois termes à termes, ce qui permet de justifier son expression et de justifier l’existence d’une solutionC2au problème (2.6). Si la fonctionfest seulement continue, la série ne converge pas toujours ponctuellement : en fait le problème n’admet pas toujours de solution au sens ordinaire, il faut utiliser les formulations faibles ou les distributions pour donner un sens à (2.7), voir le chapitre 6

(29)

2.1.2 Un problème d’évolution, parabolique linéaire : l’équation de la diffusion

L’équation de la diffusion

On cherche une fonctionu(x, t)du point d’abscissex, au tempst,u∈C2([0,1]×[0, T])solution du problème









∂u

∂t =c∂2u

∂x2 x∈]0,1[

u(x,0) =u0(x) u(0, t) =u(1, t) = 0

(2.8)

Ce problème modélise les phénomènes de diffusion unidimensionnel : la diffusion de la chaleur (u(x, t)est la température du pointxau tempst) ou la diffusion d’un fluide dans un milieu poreux (u(x, t) est alors la concentration du fluide au point xet au temps t). Il est proche d’un problème classique de mathématiques financières, l’équation de Black et Scholes ( cf. séance 5 et 6).

C’est un problème de Cauchy, ou à valeur initiale : au tempst= 0, l’état initial est donné, le problème est de déterminer l’évolution ultérieure. La détermination de la solution est complétée par la donnée de conditions aux limites surx. Nous verrons la définition des équations paraboliques au chapitre 5, elle est liée au caractère dissipatif de l’évolution que nous montrerons ci-dessous.

Expression de la solution

Développement en séries de Fourier

On peut obtenir une expression de la solution de (2.8) sous la forme d’un développement en série de Fourier

u(x, t) =X

k

ak(t) sin (kπx) (2.9)

Les conditions aux limites sont automatiquement vérifiées. En reportant dans l’équation (2.8), il vient a0k(t) =−k2π2cak(t)

d’où l’on déduit, en introduisant un coefficientak,

ak(t) =akexp (−k2π2ct) et donc

u(x, t) =X

k

akexp (−k2π2ct) sin (kπx) (2.10) où la constanteakest définie par la condition initiale comme un coefficient de Fourier deu0(x)

ak = 2 Z 1

0

u0(x) sin (kπx)dx

Noter que la série converge très vite, elle est dérivable terme à terme autant de fois que l’on veut, cela implique que la solution estCquelle que soit la régularité de la donnée initiale.

(30)

Forme intégrale

Si on remplace dans (2.8) l’intervalle ]0,1[ par R on peut trouver une expression intégrale de la solution de (2.8)

u(x, t) = Z +∞

−∞

u0(x−y) 1

p(4πct)exp(−y2 4ct))dy

Au paragraphe (3.1.6) du chapitre 3 nous verrons comment on peut utiliser la transformation de Fourier pour trouver cette expression. Nous allons en donner une justification intuitive. Posons

G(x, t) = 1

p(4πct)exp(−x2 4ct)

Il est immédiat de vérifier queG(x, t)est une solution de (2.8). Cette solution est d’intégrale constante3 Z

R

G(x, t)dx= 1

Et quandt → 0la fonctionG(x, t)se concentre autour du point0, elle s’interprète donc physique- ment comme la diffusion d’une densité concentrée au point0, elle correspond à une condition initiale de typeDiracen0(cf. chapitre 6).

On en déduit intuitivement que la solution générale de (2.8), toujours dans le cas où on a remplacé l’intervalle[0,1]parR, est obtenue par superposition des solutions associées à des densités concen- tréesu0(y)placées en un pointyquelconque

u(x, t) = Z +∞

−∞

u0(y)G(x−y, t)dy (2.11)

On vérifie directement par dérivation sous l’intégrale queu(x, t)est bien solution de (2.8). De plus quandt→0, l’intégrale définie par (2.11) tend4versu0.

Propriétés de la solution

−L’expression (2.11) montre qu’une perturbation localisée au tempst = 0est non nulle pour toutt >0, autrement dit la vitesse de propagation d’une perturbation est infinie (mais on peut noter que l’effet est négligeable si 4ctx2 est grand).

−Les expressions (2.10) et (2.11), montrent que la solution estCpour tout tempst >0quelle que soit la régularité de la valeur initiale : l’équation est régularisante. On notera que la solution a un

3Rappelons la formule :R+∞

−∞exp(−t22)dt= 2π.

4Intuitivement, pour étudier la limite quandt 0deR+∞

−∞G(x, t)φ(x)dxφ D(R)est=φ(0); on découpe l’intégrale en trois partie :

Z +∞

−∞

G(x, t)φ(x)dx= Z

−∞

G(x, t)φ(x)dx+ Z +

G(x, t)φ(x)dx+ Z +∞

G(x, t)φ(x)dx

La première et la troisième intégrales tendent vers0tandis que la deuxième vaut à peu prèsφ(0)R+

G(x, t)dx=φ(0) pourtpetit, par continuité deφ(x)en0et parce queG(x, t)est concentré autour de0pourtpetit.

(31)

sens même pour des données initialesu0(x)très irrégulières.

−La présence d’une exponentielle décroissante montre que la solution, ainsi que toute perturba- tion de la solution, tend rapidement vers 0.

−Ces mêmes expressions montrent que la solution n’a pas de sens si on inverse le temps : pour t <0les expressions “explosent”, ce qui traduit l’instabilité fondamentale du “problème inverse” de la diffusion : trouver l’état initial connaissant l’état à un tempst >0.

−On a

d dt

Z 1 0

u2dx= Z 1

0

2u∂u

∂t dx=c Z 1

0

2u∂2u

∂t2 dx (2.12)

d’où en intégrant par parties la dernière intégrale et en notant que le “crochet” est nul d

dt Z 1

0

u2dx=−c Z 1

0

2∂u

∂t

2

dx <0

On en déduit la décroissance dekuk22 : nous dirons que l’équation est dissipative.

−La solution de (2.8) vérifie leprincipe du maximum: le maximum deu, àtfixé, est décroissant par rapport àt, le minimum est croissant.

Intuitivement en un point oùu est maximum, ∂x2u2 est négatif, doncudécroissant (cet argument est formellement insuffisant, car ∂x2u2 peut être nul). Noter que cette propriété n’apparaît pas du tout sur la forme (2.10) de la solution par développement en série de Fourier : ce qui montre qu’avoir une

“expression analytique” de la solution n’est pas une panacée !

Ces deux dernières propriétés montrent la grande stabilité du problème de la diffusion. Résumons les propriétés de la solution :

Proposition 14 L’équation de la diffusion est :

−dissipative,

−irréversible,

−à vitesse de propagation infinie,

−régularisante.

2.1.3 Une équation linéaire du premier ordre : l’équation d’advection

L’équation d’advection

C’est le plus simple de tous les problèmes aux dérivées partielles et un des rares problèmes dont la solution est explicite. On cherche une fonction u(x, t) du point d’abscisse x, au temps t, u ∈ C1([0,1]×[0, T])solution du problème









∂u

∂t +a∂u

∂x = 0 u(x,0) =u0(x) u(0, t) =g(t)

(2.13)

(32)

aest un réel positif,u0etgsont des fonctionC1quelconques, mais compatible à l’origine :u0(0) = g(0), u00(0) =g0(0).

Ce problème modélise, comme nous le mettrons en évidence par l’expression de la solution, des phénomènes de transport. C’est un problème de Cauchy, ou à valeur initiale : au tempst = 0l’état initialu0est donné, le problème est de déterminer l’évolution ultérieure. Notons que la détermination de la solution est complétée par la donnée d’une seule condition aux limites surx. Nous verrons que les conditions aux limites nécessaires à la détermination de la solution dépendent ici des valeurs des coefficients de l’équation.

Solution du problème

Définissons lesdroites caractéristiques:

Définition 6 Lesdroites caractéristiquesdans le plan(x, t)de l’équation (2.13) sont les droitesx− at=Cte

Les droites caractéristiques forment donc une famille de droites parallèles.

Proposition 15 Une fonctionu(x, t)∈C1est solution de (2.13) si et seulement siuest une fonction constante sur les droites caractéristiques.

En effet , sur une droite caractéristique on ax(t) =Cte+at, donc siuest solution de (2.13) du(x(t), t)

dt = ∂u

∂xx0(t) +∂u

∂t =a∂u

∂x +∂u

∂t = 0

On en déduit que la solution est déterminée en un point(x, t)dès qu’elle est connue en un point de la droite caractéristique passant par ce point. Si on considère toutes les droites caractéristiques passant par les points(x,0)avecx ∈ [0,1]ou par les points(0, t)la solution est déterminée en tous points de ces droites. Remarquons que siaest négatif, une droite caractéristique passant par un point(x,0) recouperait l’axe(0, t), on ne pourrait pas définir indépendamment des conditions sur l’axe(x,0)et sur l’axe(0, t): la possibilité de fixer des conditions aux limites dépend ici du signe dea.

On en déduit l’expression de la solution

Proposition 16 La solutionu(x, t)de (2.13) est définie par :

u(x, t) =u0(x−at) six≥at (2.14) u(x, t) =g(t− x

a) six≤at (2.15)

Interprétation physique : L’équation d’advection modélise un simple phénomène de transport : u(x, t) représente une grandeur transportée par un fluide de vitesse adans un tube de longueur 1, u0(x)est l’état initial du tube, tandis queg(t)est l’état en entrée du tube, “entrée” devant être pris au sens de l’écoulement, sia >0l’entrée est le point0, sia <0l’entrée est le point1. Selon la vitesse il faut donc fixer une condition à gauche ou à droite.

Remarque 1 : Si x = atil y a deux définitions pouru(x, t) rendue compatible par les conditions

Références

Documents relatifs

Lorsqu’on vous présente des applications des mathématiques, la très grande majorité du temps, les équations qui régissent le système vous..

et on pourra profiter de l’indétermination de l , m, n pour rendre trois des coefficiens égaux à trois nombres donnés ; d’où il suit que, dans les deux séries

Si nous ’admettions deux termes de plus à la valeur hypothétique de y, , en opérant d’une manière semblable, nous trouverions, pour troisième

— Afin de préciser les possibilités d?emploi d'une méthode intégrale récemment décrite pour la résolution de certaines équations différentielles ou aux dérivées partielles du 2

6 Cette faute provient la plupart du temps du fait que l’on tente d’expliciter une notion dont l’enseignement explicite ne peut venir que plus tard ou beaucoup plus tard dans la

De proche en proche on peut déterminer le nombre de noyaux restant N en fonction du temps puis tracer la courbe de décroissance radioactive N(t).. Ce mode de calcul s’appelle la

Objectif : appliquer la méthode d'EULER pour résoudre l'équation différentielle d'un mouvement de chute et confronter aux résultats expérimentaux pour modéliser les frottements.

Ensuite, nombre de formations et de programmes d’enseignement singapouriens se réclament d’une approche par « discovery learning » (approche à l’opposée d’une approche