• Aucun résultat trouvé

Application de la linéarité de l’opérateur

La linéarité d’un opérateur u → L(u)justifie le classiqueprincipe de superpositionqui permet de décomposer un problème linéaire en problèmes plus simples

L(u1) =f1 etL(u2) =f2 ⇒ L(u1+u2) =f1+f2 Nous allons en voir quelques exemples d’application.

3.2.1 Découplage des données

Nous présentons un exemple caractéristique de découplage d’un problème utilisant la linéarité. Pour faire la théorie mathématique des équations aux dérivées partielles linéaires avec des conditions aux limites non homogènes, on se ramène souvent à un problème à conditions aux limites nulles (“homogènes”). Prenons un exemple simple, l’équation de Poisson (cf. 2.1)

−k∆u=f six∈Ω

u=g six∈Γ (3.9)

On peut chercher d’abordu1(g) solution d’une équation de Laplace avecf = 0puis u2(f) d’un problème homogène avecg= 0, on obtient la solution du problème général sous la formeu(f, g) = u1(g) +u2(f).

En fait il n’est pas nécessaire de résoudre une équation de Laplace ; soit¯gune fonctionC2 qui pro-longegau domaineΩ, on poseu¯=u−g¯etf¯=f−∆¯g;u¯est solution du problème homogène

−k∆u= ¯f six∈Ω

La principale difficulté théorique est de caractériser les fonctionsgqui se prolongent en une fonction régulière surΩ. Cette idée est utilisée pour la recherche de solutions faibles dans le cadre des espaces de Sobolev (cf. chapitre 6), où le traitement des conditions non homogènes est un problème délicat. 3.2.2 Décomposition à l’aide de fonctions spéciales

Pour résoudre un problème pour une équation aux dérivées partielles linéaires on peut chercher des solutions particulières, vérifiant tout ou une partie des conditions supplémentaires puis chercher la solution générale sous la forme d’une série de ces fonctions. Nous présentons dans ce paragraphe quelques exemples.

Développement en séries de Fourier

Nous avons vu au chapitre 2 (voir (2.7) et (2.10)) des développements en série de Fourier de l’équation de Poisson et de la diffusion. Plus généralement compte tenu de la proposition (27) il est naturel de chercher des solutions d’une équation à coefficients constants sous la forme d’un dévelop-pement en séries de produits de fonctions trigonométriques. La difficulté est de vérifier les conditions supplémentaires, notamment les conditions aux limites. Dans des domaines simples, par exemple un carré, il est possible de faire en sorte que ces conditions soient vérifiées directement par les produits de fonctions trigonométriques. Ainsi l’expression (2.7) de la solution de l’équation de Poisson avec condition aux limites homogène est obtenue en considérant des fonctions sinπk1x1sinπk2x2 qui sont nulles sur le bord du carré[0,1]×[0,1]. En utilisant des fonctions sinπk1x1cosπk2x2on ob-tiendrait de même une base convenable pour construire des solutions du problème de Poisson avec des conditions aux limitesu(0, x2) =u(1, x2) = 0et∂x∂u

2(x1,0) = ∂x∂u

2(x1,1) = 0.

Utilisation d’une décomposition spectrale

Une idée plus générale que les précédentes est de chercher des solutions particulières d’une équa-tion linéaire aux dérivées partielles à l’aide des foncéqua-tions propres de l’opérateur aux dérivées partielles ou d’un opérateur associé à l’équation. Il y a de nombreuses applications théoriques ou numériques de cette idée, notamment la “synthèse spectrale” pour l’étude des phénomènes vibratoires. Prenons comme exemple l’équation des ondes pour une membrane (cf.(2.41) avec une position initiale connue et une vitesse initiale nulle

                 ρ 2u ∂t2 =σ∆u(x) six∈Ω u(x,0) = 0 six∈Γ u(x,0) =u0(x) six∈Ω ∂u ∂t(x,0) = 0 six (3.11)

Cherchons des solutions particulières de la forme de vibrationsharmoniques5, c’est à dire d’un pro-duit à variables séparées

u(x, t) =g(t)v(x)

5

d’amplitudev(x). Il vient

σ∆v(x) ρv(x) =

g00(t) g(t)

En prenant une valeur particulière pourxpuis pourton en déduit que les fonctions des deux membres sont constantes, et donc d’une part

−σ∆v(x) =µρv(x) et d’autre part

g00(t) =µg(t)

L’amplitudevest donc une fonction propre de l’opérateur Laplacien. Soit l’espace V0 ={v∈C2(Ω), / v|Γ= 0}

On impose à la solution particulière de vérifier les conditions aux limites, ce qui revient à poser que v ∈ V0. L’amplitude v doit être un vecteur propre du Laplacien −∆opérant sur V0. L’opérateur −∆admet dans cet espace une base de fonctions propresvk, k ∈N, orthonormales pour le produit scalaire deL2(Ω), associées à des valeurs propres positivesλk. On peut donc chercher une solution particulière sous la forme

u(x, t) =gk(t)vk(x) avecgk00(t) +µkgk(t) = 0etµk= σλk ρ >0. D’où en posant ωk= rσµk ρ il vient gk(t) =gk(0) cosωkt+g 0 k(0) ωk sinωkt

Toute superposition de ces vibrations harmoniques est une solution de l’équation des ondes qui vérifie les conditions aux limites. On cherche donc la solution généraleu(x, t)sous la forme

u(x, t) =X k

gk(t)vk(x)

Il reste à vérifier les conditions initiales, vitesse initiale nulle ∂u

∂t(x,0) = 0 qui est vérifiée sigk0(0) = 0et position initiale connue

u(x,0) =u0(x) ce qui implique

u0(x) =X k

et donc, puisque la basevkest orthonormale pour le produit scalaire deL2(Ω) gk(0) =

Z

u0(x)vk(x)dΩ

Finalement, la solution s’écrit comme une superposition d’harmoniques sinusoïdales u(x, t) =X

k

gk(0) cos(ωkt)vk(x)

Remarque:

La détermination des fonctions propres du Laplacien ne peut se faire en général que numériquement de manière approchée, mais pour des domaines de forme simple (carré, disque...) on peut déterminer les fonctions propres par la méthode des solutions à variables séparées.

Cette méthode est très utilisée pour étudier les phénomènes vibratoires tant d’un point de vue théo-rique pour démontrer l’existence de la solution de (3.11), que d’un point de vue numéthéo-rique ( on se limite alors à un nombre fini de termes dans le développement en série). Étendue à une équation avec une excitation au second membre cette méthode permet d’étudier les phénomènes derésonance.

Utilisation des solutions à “variables séparées”

Quand le domaine estRn, un carré, un disque ou une boule, on peut chercher des solutions parti-culières d’une équation linéaire, sous la forme d’un produit de fonctions d’une variable vérifiant des conditions supplémentaires pour chaque variable. Ces fonctions sont alors solutions d’équations dif-férentielles plus ou moins découplées. Ensuite si on a trouvé suffisamment de solutions particulières on peut chercher une solution sous la forme d’une combinaison de ce fonctions.

Pour un domaine carré[0,1]×[0,1]et des conditions aux limitesu= 0au bord, on peut chercher des solutions sous la formeu(x, y) = f(x)g(y),f(x)etg(y)vérifiant des conditions aux limites nulles en 0et 1. On trouve des équations différentielles surf etg. L’utilisation des fonctions trigonomé-triques dans les paragraphes précédents entre dans ce cadre.

Pour un domaine qui est un disque de rayon 1on cherchera en coordonnées polaires des fonctions particulières de la formef(r)g(θ)avecg(θ)une fonction2π périodique etf(r)une fonction bornée en0et nulle en1. Cette technique s’applique bien aux équations invariantes par rotation.

Cette méthode se couple avec la méthode de décomposition spectrale quand il s’agit de déterminer les fonctions propres d’un opérateur aux dérivées partielles. Considérons l’exemple de la recherche des fonctions propres du laplacien opérant sur les fonction nulles sur le bord d’un disque. Il faut donc trouver les solutions non nulles de l’équation

−∆u==−1 r ∂ ∂r(r ∂u ∂r) 1 r22u ∂θ2 =λu, u(1, θ) = 0

Cherchons ces fonctions propres sous la forme u(r, θ) = f(r)g(θ). On impose f(1) = 0, pour la condition aux limites, etg(θ)périodique pour la cohérence de la définition. Il vient

1 r(rf

0(r))0g(θ)− 1

ou −r(rf 0(r))0 f(r) λr 2 = g 00(θ) g(θ) ce qui implique l’existence d’une constanteCtelle que

r(rf 0(r))0 f(r) λr 2 =C g00(θ) g(θ) =C ou encore −r(rf0(r))0−λr2f(r) =Cf(r) g00(θ) =Cg(θ)

La périodicité degimpliqueC <0. PosonsC =−n2n∈N, il vient g(θ) =acosnθ+bsinnθ

f est solution de l’équation différentielle du second ordre écrite sous la forme canonique r2f00(r) +rf0(r) + (λr2−n2)f(r) = 0

En posantx=λrelle se réécrit

x2f00(x) +xf0(x) + (x2−n2)f(x) = 0

C’est l’“équation de Bessel”, qui n’a, à facteur près, qu’une solution bornée, notée Jn(x), qui ne s’exprime pas à l’aide des fonctions usuelles mais dont les propriétés sont bien connues (cf. par exemple [13] ou tout ouvrage sur les “fonctions spéciales”). On montre queJn(x)a une infinité de zérosµkn > 0, k = 1, ...,∞. La condition f(1) = 0impose Jn(λ) = 0, donc λne peut être quelconque si on veut des solutions non nulles6 :λ= (µk

n)2. Finalement on trouve pourλ= (µk n)2

des solutions de la forme

u(r, θ) =Jnknr)(acosnθ+bsinnθ) On peut montrer que l’on a obtenu ainsi toutes les fonctions propres.

Utilisation des solutions fondamentales

Nous utilisons dans ce paragraphe la théorie des distributions, voir le chapitre 6. Principe

Pour résoudre un système linéaire en dimension finieA u = f on peut calculer la matrice inverse

6On montre que siλ6= (µkn)2il n’y a pas de solution non nulle. Les valeurs propres forment un ensemble discret décrit ici sous la forme une suite double.

A1 colonne par colonne en résolvant les systèmeAui =ei oùei est un vecteur d’une base ,ui est alors laième colonne deA1. Et on a

u=X i

uifi

L’équivalent pour une équation linéaire aux dérivées partiellesL(u(x)) =f est de résoudre, au sens des distributions, les équations

L(uy(x)) =δ(y)

oùδ(y) est la distribution de Dirac eny(c’est la“réponse” à une charge concentrée), la solution de L(u(x)) =f est donnée par le principe de superposition sous la forme

u(x) =

Z

uy(x)f(y)dy

(en considérant intuitivement qu’une charge quelconque de densité f est la somme des charges concentrée :f(x) =R uy(x)δ(y)dy).

Cas des équations à coefficients constants

Si le domaine d’étudeΩestRnet si l’opérateurL(u) =P(D)(u)est à coefficients constants, l’in-variance du problème par translation implique queuy(x) =u0(x−y), les fonctionsu0(x), solution de l’équationP(D)(u) =δ0sont lessolutions fondamentalesde l’opérateur souvent calculables ex-plicitement. Si le domaine est quelconque mais que les fonctions doivent vérifier certaines conditions aux limites, les fonctionuysont desfonctions de Greenqui ne sont en général pas calculables expli-citement.

Calcul des solutions fondamentales

Les solutions fondamentales peuvent être calculée par transformation de Fourier avec les difficultés que nous avons signalées au paragraphe (3.1.6) : les calculs doivent être fait au sens des distribu-tions et les soludistribu-tions fondamentales ne sont pas toujours des foncdistribu-tions. Un calcul direct des soludistribu-tions fondamentales est souvent possible en tenant compte des groupes d’invariants du problème : si l’opé-rateur est invariant par rotation on pourra chercheru0(x)sous la formeu0(r)avecr =kxk2qui sera solution d’une équation différentielle (voir ci-dessous le cas de l’équation de Laplace). Les propriétés des solutions fondamentales sont évidemment fondamentales ( !) pour déterminer les propriétés des solutions d’une équation. Par exemple si ce sont des fonctions C cela implique des résultats de régularité sur la solution de l’équation.

Exemple

L’application de la méthode des solutions fondamentales à l’équation de Poisson dansR3

−∆u= ρ

0 pourxR

3 (3.12)

est classique si on interprète ce problème comme la détermination du potentiel électrostatiqueu(x) associée à une densité de charge ρ(x). La solution fondamentale du Laplacien dans R3, i.e. une solution de l’équation aux dérivées partielles

−∆u0 = 1

prise au sens des distributions deD0(R3), est donnée par l’expression bien connue du potentiel asso-ciée à une charge1

u0(x) = 10

1 kxk2 Siρ(x)est fonction continue à support compact, la fonction

u(x) = Z R3 u0(x−y)ρ(y)dy est solution de (3.12). Applications

Les solutions fondamentales sont à la base des méthodes dites intégrales ou d’éléments frontières pour l’approximation numérique des équations linéaires à coefficients constants ; l’exemple de l’élec-trostatique est bien connu : pour trouver le potentiel dans un domaine sans charge répartie mais avec un potentiel connuV0(s)sur le bord, on cherche une répartition de “charges”q0(s)sur le bord qui crée ce potentiel connuV0(s) sur le bord. Le potentiel à l’intérieur s’obtient alors par une intégrale sur le bord V(x) = Z s 1 4π0 q0(s) kx−x(s)k ds

Le potentielq0(s)sur le bord est solution d’une équation intégrale à noyau singulier

Z s 1 4π0 q0(s) kx(t)−x(s)kds=V0(t)

qu’il faut résoudre numériquement après approximation par une méthode d’éléments finis. En pra-tique on procède de façon un peu différente. La méthode est spécialement intéressante pour les pro-blèmes “extérieurs”, c’est à dire dont le domaine est le complémentaire d’un domaine borné. Elle peut s’appliquer chaque fois que la solution fondamentale est connue.