• Aucun résultat trouvé

Modélisation non paramétrique des incertitudes dans les modèles numériques de calcul linéaires et causaux

N/A
N/A
Protected

Academic year: 2021

Partager "Modélisation non paramétrique des incertitudes dans les modèles numériques de calcul linéaires et causaux"

Copied!
119
0
0

Texte intégral

(1)

HAL Id: tel-03256101

https://tel.archives-ouvertes.fr/tel-03256101

Submitted on 10 Jun 2021

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Modélisation non paramétrique des incertitudes dans les

modèles numériques de calcul linéaires et causaux

Remi Capillon

To cite this version:

(2)

Mod´

elisation non param´

etrique

des incertitudes dans les mod`

eles

num´

eriques de calcul lin´

eaires et

causaux

Th`

ese de doctorat

pr´esent´ee et soutenue publiquement le 10 d´ecembre 2019

pour l’obtention du grade de

Docteur de l’Universit´

e Paris-Est

par

R´emi Capillon

JURY

Dider Clouteau, Professeur, CentraleSup´

elec, pr´

esident

eatrice Faverjon, Maˆıtre de Conf´

erences, INSA Lyon, rapporteur

Roger Ghanem, Professeur, USC, rapporteur

Jean-Fran¸cois De¨

u, Professeur, CNAM, examinateur

(3)
(4)

Remerciements

Je remercie B´eatrice Faverjon et Roger Ghanem de m’avoir fait l’honneur de rapporter ma th`ese. Leurs rapports avant la soutenance ´etaient extrˆemement bienveillants `a l’´egard de mon travail et m’ont permis d’orienter ma pr´esentation de soutenance dans un souci de clart´e. Je remercie ´egalement Didier Clouteau d’avoir pr´esid´e le jury et Jean-Fran¸cois De¨u d’avoir examin´e ma th`ese. J’ai particuli`erement appr´eci´e les ´echanges lors de la soutenance, tous pertinents, qui m’ont fait revisiter avec un regard critique les 6 ann´ees de cette th`ese.

En effet, cette th`ese fut longue, pour de nombreuses raisons. C’est pourquoi je tiens `a remercier chaleureusement Christophe Desceliers et Christian Soize, pas seulement pour avoir dirig´e et encadr´e ce travail, mais pour m’avoir accompagn´e dans mes difficult´es, scientifiques ou autres, et m’avoir compris et ´ecout´e quand j’en avais besoin. Je ne pouvais pas esp´erer meilleur encadrement, et c’est avant tout grˆace `a eux que cette th`ese est arriv´ee `a son terme. Evidemment, ils ont largement contribu´e `a mon apprentissage des sciences, de la rigueur et de l’autonomie dans l’apprentissage. Christophe Desceliers m’a form´e depuis 2011, alors que je venais lui demander des conseils pour comprendre la m´ethode des ´el´ements finis et que je lui ai demand´e ce stage de licence au laboratoire MSME qui va m’orienter d´efinitivement vers le monde de la recherche. Christian Soize m’a ´egalement donn´e de pr´ecieux cours et conseils tout au long de ma formation, et ses connaissances ont ´et´e la cl´e pour r´esoudre de nombreux probl`emes scientifiques que nous avons rencontr´es durant mon doctorat. Je tiens encore une fois `a les remercier pour tout ce qu’ils ont fait pour moi.

Je remercie ´egalement les membres du laboratoire MSME pour leur bienveillance et leurs conseils, un bon nombre d’entre eux ayant ´et´e mon professeur `a un point dans mon cur-sus. Evidemment mes remerciements vont aussi aux doctorants du laboratoire, notamment Olivier et Karim qui ont commenc´e leur doctorat en mˆeme temps que moi (mais fini bien avant !), pour la bonne ambiance et les ´echanges fructueux sur nos diverses probl´ematiques qui furent tr`es enrichissants.

(5)
(6)

esum´

e

(7)
(8)

Table des mati`

eres

1 Introduction 13 1.1 Contexte de la recherche . . . 13 1.2 Positionnement de la recherche . . . 14 1.3 Objectifs . . . 15 1.4 Strat´egie . . . 16 1.5 Plan du manuscrit . . . 17

2 Mod´elisation probabiliste des incertitudes pour les mod`eles num´eriques causaux 19 2.1 M´ethodologie pour la mod´elisation probabiliste des incertitudes dans les mod`eles num´eriques de calcul . . . 19

2.1.1 Sources d’incertitude . . . 19

2.1.2 Mod´elisation probabiliste des incertitudes . . . 19

2.1.3 Mod´elisation des incertitudes de param`etres . . . 19

2.1.4 Mod´elisation des incertitudes de mod`ele . . . 20

2.2 Principe du Maximum d’Entropie . . . 20

2.3 Strat´egie pour la construction des mod`eles probabilistes des matrices al´eatoires pour la mod´elisation stochastique non param´etrique . . . 22

2.4 Ensemble GOE . . . 23 2.5 Ensemble SG+0 . . . 24 2.6 Ensemble SG+ε . . . 25 2.7 Ensemble SE+ε . . . 26 2.8 Ensemble SE+0 . . . 27 2.9 Ensemble SEHT +ε . . . 27 2.10 Ensemble SEHT +0 . . . 28

3 Calcul des relations de Kramers-Kronig par int´egration directe des trans-form´ees de Hilbert 29 3.1 Causalit´e et relations de Kramers-Kronig . . . 29

3.2 Discr´etisation de la transform´ee de Hilbert . . . 31

3.3 Int´egration autour de la singularit´e . . . 32

3.4 Int´egration loin de la singularit´e par quadrature de Gauss . . . 33

(9)

4 Calcul des relations de Kramers-Kronig sans int´egration directe des

trans-form´ees de Hilbert 39

4.1 Pr´esentation des objectifs . . . 39

4.2 Introduction de l’espace H . . . . 39

4.3 Base Hilbertienne de H . . . . 40

4.4 Calcul des coefficients de la repr´esentation des transform´ees de Fourier des fonctions “causales” . . . 41

4.5 R´e´ecriture des relations de Kramers-Kronig sur la base Hilbertienne de H . . 43

4.6 Utilisation de l’information sur le comportement asymptotique . . . 44

4.7 Extension aux fonctions `a valeurs dans l’ensemble des matrices positives . . . 45

4.8 Extension au calcul de r´ealisations ind´ependantes des matrices al´eatoires de SEHT +0 . . . 45

5 Application `a la visco´elasticit´e lin´eaire 47 5.1 Mise en ´equations . . . 47

5.1.1 Equations d’´equilibre et conditions aux limites . . . 47

5.1.2 Loi de comportement ´elastique lin´eaire . . . 48

5.1.3 Loi de comportement visco´elastique lin´eaire . . . 49

5.2 Formulation faible . . . 51

5.3 Discr´etisation par la m´ethode des ´el´ements finis . . . 52

5.4 R´eduction de mod`ele . . . 52

5.5 Application `a une structure composite visco´elastique . . . 52

5.6 Incertitudes de mod`ele en visco´elasticit´e lin´eaire . . . 55

5.7 Construction des mod`eles probabilistes pour les incertitudes de mod`ele en visco´elasticit´e . . . 56

5.7.1 Mod`ele causal . . . 56

5.7.2 Mod`ele na¨ıf . . . 57

5.8 R´esultats et analyse de la propagation des incertitudes . . . 57

5.8.1 Validation de la m´ethode dans le cas d´eterministe . . . 57

5.8.2 Quantification des incertitudes . . . 57

5.9 Commentaires sur l’approche propos´ee . . . 63

6 Application `a l’acoustique externe 65 6.1 Mise en ´equation . . . 65

6.1.1 Equations de l’acoustique externe dans le domaine temporel . . . 66

6.1.2 Equations de l’acoustique externe dans le domaine fr´equentiel . . . . 66

6.1.3 Irrotationalit´e et potentiel de vitesse . . . 67

6.1.4 Probl`eme de Neumann ext´erieur . . . 67

6.1.5 Op´erateur de rayonnement et op´erateur d’imp´edance acoustique . . . 68

6.1.6 Op´erateur d’imp´edance acoustique de bord . . . 68

6.2 Formulation faible . . . 69

6.3 Discr´etisation par une m´ethode des ´el´ements finis de fronti`ere . . . 70

6.3.1 Discr´etisation de l’op´erateur d’imp´edance acoustique de bord . . . 70

6.3.2 Discr´etisation de l’op´erateur d’imp´edance acoustique . . . 71

(10)

6.5 Application `a un objet de g´eom´etrie ellipso¨ıdale . . . 74

6.6 Incertitudes de mod`ele en acoustique externe . . . 78

6.7 Construction des mod`eles probabilistes pour les incertitudes en acoustique externe . . . 78

6.7.1 Mod`ele causal . . . 78

6.7.2 Mod`ele na¨ıf . . . 79

6.8 R´esultats et analyse de la propagation des incertitudes . . . 79

6.8.1 Validation de la m´ethode dans le cas d´eterministe . . . 79

6.8.2 Quantification des incertitudes . . . 85

7 Application `a la vibroacoustique lin´eaire externe 97 7.1 Mise en ´equations . . . 98

7.1.1 Equations d’´equilibre et conditions aux limites . . . 98

7.1.2 Loi de comportement ´elastique pour le domaine Ωs . . . 98

7.1.3 Formulation faible . . . 98

7.2 Discr´etisation . . . 99

7.3 Mod`ele num´erique r´eduit vibroacoustique d´eterministe . . . 100

7.4 Mod`ele num´erique . . . 101

7.5 Incertitudes de mod`ele en vibroacoustique externe . . . 102

7.6 Application `a la mod´elisation stochastique en vibroacoustique lin´eaire . . . . 103

7.6.1 Mod`eles stochastiques . . . 103

7.6.2 Identification stochastique inverse des hyperparam`etres . . . 104

7.6.3 R´esultats et analyse de la propagation des incertitudes . . . 106

8 Conclusions et perspectives 111

Annexe A Relations de Kramers-Kronig pour la matrice d’imp´edance

(11)
(12)

Notations

Dans ce manuscrit :

Une variable r´eelle d´eterministe est d´enot´ee par une lettre minuscule telle que y. Un vecteur r´eel d´eterministe est d´enot´e par une lettre minuscule grasse telle que y. Une variable al´eatoire r´eelle est d´enot´ee par une lettre majuscule telle que Y . Un vecteur al´eatoire r´eel est d´enot´e par une lettre majuscule grasse telle que Y.

Une matrice r´eelle d´eterministe est d´enot´ee par une lettre majuscule (ou minuscule) entre crochets telle que [A] (ou [a]).

Une matrice al´eatoire r´eelle ou complexe est d´enot´ee par une lettre majuscule grasse entre crochets telle que [A].

||y|| : norme Euclidienne du vecteur y.

||[G]||F : norme de Frobenius de la matrice [G].

E : esp´erance math´ematique.

R : ensemble des nombres r´eels.

C : ensemble des nombres complexes. RN : espace Euclidien des vecteurs y = (y

1, . . . , yN). CN : espace Hermitien des vecteurs by = (yb1, . . . ,ybN).

Mm,n : ensemble des matrices r´eelles m × n. Mn : ensemble des matrices r´eelles carr´ees n × n. MSn : ensemble des matrices r´eelles sym´etriques n × n.

M+

n : ensemble des matrices r´eelles sym´etriques n × n d´efinies positives.

M+0

n : ensemble des matrices r´eelles sym´etriques n × n positives.

[A]T : transpos´ee de la matrice [A]. [In] : matrice identit´ee dans Mn.

δjk : symbole de Kronecker tel que δjk = 0 si j 6= k et δjk = 1 si j = k.

i : nombre complexe imaginaire pur satisfaisant i2 = −1. idR : fonction identit´e de R dans R, telle que idR(ω) = ω.

1S : fonction support de S ⊂ R telle que 1S(x) = 1 si x ∈ S et sinon 1S(x) = 0.

Acronymes

K-K : Kramers-Kronig.

(13)

Transform´

ees de Fourier

Tout le long de ce manuscrit, on notera bf (ω) la transform´ee de Fourier de la fonction f (t), telle que b f (ω) = Z R f (t)e−iωtdt .

Lorsqu’il n’y aura aucune ambigu¨ıt´e, par exemple s’il n’est pas n´ecessaire de faire la distinc-tion entre t 7→ f (t) et ω 7→ bf (ω), alors nous pourrons omettre le symbole “chapeau” et nous noterons simplement ω 7→ f (ω) la fonction ω 7→ bf (ω).

Int´

egrales en valeur principale de Cauchy

On d´enotera par p.v. la valeur principale de Cauchy de l’int´egrale d’une fonction singuli`ere. Soit g(x) une fonction `a valeurs r´eelles singuli`ere en x0, on a

p.v. Z +∞ −∞ g(x)dx = lim ε→0+  Z x0−ε −∞ g(x)dx + Z +∞ x0+ε g(x)dx .

Produits de convolution

On notera le produit de convolution d’une fonction x 7→ h(x) avec une fonction x 7→ k(x) par h ? k(x) tel que

h ? k(x) = Z +∞

−∞

h(y)k(x − y)dy .

Transform´

ees de Hilbert

Tout au long de ce manuscrit, on notera H{f, ω} la transform´ee de Hilbert de ω0 7→ f (ω0)

d´efinie pour tout ω par

H{f, ω} = 1 πp.v. Z +∞ −∞ f (ω0) ω − ω0dω 0 .

Deux propri´et´es fondamentales de la transform´ee de Hilbert sont les suivantes :

H2{f, ω} = HH{f, ·}, ω = −f (ω) , H{f, ·} = h ? f ,

avec la distribution h(ω) = p.v. 1

π ω. Il est possible de montrer que pour toute fonction f

int´egrable sur R, on a la propri´et´e suivante, pour tout ω ∈ R,

(14)

Chapitre 1

Introduction

1.1

Contexte de la recherche

Ce travail concerne la mod´elisation des incertitudes dans les syst`emes num´eriques lin´eaires pour lesquels s’applique le principe de causalit´e, en particulier avec prise en compte des incertitudes de mod`ele `a travers l’approche probabiliste non param´etrique, et pr´esente les m´ethodes num´eriques d´evelopp´ees afin de mettre en oeuvre une telle mod´elisation. Il est de nos jours bien compris que les incertitudes jouent un rˆole pr´epond´erant dans la pr´ecision, l’interpr´etation et l’utilisation des r´esultats de simulations de syst`emes physiques. En particulier, la mod´elisation des incertitudes de mod`ele est d’une grande importance, permettant de prendre en compte le manque de connaissances dans la physique ´

etudi´ee ou encore les impr´ecisions sur la g´eom´etrie exacte de l’objet dues au processus de discr´etisation. Il s’agit d’une variabilit´e dont l’approche probabiliste param´etrique de la mod´elisation des incertitudes ne peut pas rendre compte, contrairement `a l’approche probabiliste non param´etrique dont la prise en compte des incertitudes de mod`ele est l’objet. R´ecemment, des travaux th´eoriques en mod´elisation des incertitudes de mod`ele par l’approche probabiliste non param´etrique pour les probl`emes num´eriques faisant intervenir le principe de causalit´e ont ´et´e publi´es. Cependant, aucune application num´erique mettant en oeuvre une m´ethodologie pratique pour effectuer des simulations num´eriques n’a ´et´e pro-pos´ee. Il apparaˆıt donc comme n´ecessaire de d´evelopper des m´ethodes num´eriques efficaces afin d’´etendre le champ d’application pratique de l’approche probabiliste non param´etrique, dans un premier temps aux probl`emes de physique num´erique lin´eaire dans le domaine fr´equentiel et c’est ce que propose ce travail de th`ese, dans les cas de la visco´elasticit´e ([61], [13], [53]), de l’acoustique externe ([38], [14], [12], [31], [37]) et de la vibroacoustique externe ([42], [29], [33], [19], [43]) lin´eaires.

(15)

introduit dans le syst`eme mod´elis´e `a l’aide de matrices al´eatoires. En l’absence d’information sur leur corr´elation, la th´eorie de l’information dicte que ces diff´erentes matrices doivent ˆ

etre consid´er´ees comme ind´ependantes statistiquement. C’est `a ce niveau l`a qu’intervient l’information apport´ee par le principe de causalit´e. En effet, dans le domaine temporel, ce principe nous dit que la r´eponse du syst`eme n’anticipe pas sur les ´etats futurs du syst`eme, ce qui correspond `a une information sur la corr´elation dans le temps des diff´erentes matrices al´eatoires. Dans le domaine fr´equentiel, cette corr´elation est d’autant plus simple `

a voir que la condition impos´ee par le principe de causalit´e s’´ecrit comme un jeu de deux relations int´egrales, dites de Kramers-Kronig (K-K), directement entre les parties r´eelles et imaginaires des matrices d´ependantes de la fr´equence et sujettes `a ce principe ([35], [34], [44]). On obtient donc des ´equations traduisant exactement la corr´elation entre les diff´erentes matrices d´ependantes de la fr´equence intervenant dans le syst`eme num´erique al´eatoire. Une autre difficult´e arrive alors lors de la r´esolution de ces ´equations. En effet, les relations K-K font intervenir des int´egrales impropres dont l’int´egrande poss`ede une singularit´e. De plus, ces ´equations doivent ˆetre r´esolues pour chaque valeur de la fr´equence `a laquelle on souhaite calculer la r´eponse du syst`eme. Enfin, dans un contexte num´erique, la bande de fr´equence sur laquelle il est possible d’´etudier le syst`eme sans commettre de grandes erreurs est dict´ee par la finesse de la discr´etisation de la g´eom´etrie ´etudi´ee. Les m´ethodes num´eriques `a d´evelopper pour prendre en compte de mani`ere efficace le principe de causalit´e doivent donc respecter ces diff´erentes contraintes.

1.2

Positionnement de la recherche

(16)

r´esolution de probl`emes dans le domaine temporel ou fr´equentiel en dynamique lin´eaire ou non lin´eaire ([6], [39], [41], [40], [8]).

Tous les syst`emes physiques doivent v´erifier le principe de causalit´e, c’est-`a-dire que l’´etat du syst`eme `a un temps donn´e n’anticipe pas sur les actions ext´erieures impos´ees aux ins-tants ult´erieurs. Par exemple, en dynamique lin´eaire, l’´etat du syst`eme est d´ecrit par une ´

equation aux d´eriv´ees partielles du second ordre dont les solutions, dans le domaine tempo-rel, peuvent ˆetre ´ecrites comme le produit de convolution temporelle des forces ext´erieures avec une fonction que l’on appelle r´eponse impulsionnelle : il s’agit de l’int´egrale de Duhamel. Autre exemple : en visco´elasticit´e, les contraintes s’´ecrivent comme le produit de convolution temporel d’une fonction de relaxation avec les d´eformations. Dans ces cas, le principe de cau-salit´e est satisfait si et seulement si les valeurs de la r´eponse impulsionnelle ou de la fonction de relaxation sont nulles pour tout instant n´egatif. Si le principe de causalit´e semble s’´enoncer facilement dans le domaine temporel, il n’en est pas de mˆeme dans le domaine fr´equentiel, dans lequel les produits de convolution deviennent de simples produits des transform´ees de Fourier de la r´eponse impulsionnelle (fonction de r´eponse en fr´equence) ou de la fonction de relaxation avec celles des quantit´es duales (d´eplacements ou d´eformations). En effet, il est montr´e que le principe de causalit´e dans le domaine fr´equentiel est v´erifi´e si et seulement si les parties r´eelle et imaginaire de la transform´ee de Fourier de la r´eponse impulsionnelle ou de la fonction de relaxation satisfont les relations de Kramers-Kronig (K-K) qui relient l’une `

a l’autre. La causalit´e de l’´etat du syst`eme est donc une information `a prendre en compte lors de la construction du mod`ele probabiliste des matrices al´eatoires par le Principe du Maximum d’Entropie. On obtient alors les ensembles de matrices al´eatoires not´es SEHT +ε et SEHT +0, selon les propri´et´es alg´ebriques des parties r´eelle et imaginaire de la transform´ee de Fourier de la r´eponse impulsionnelle ou de la fonction de relaxation. Un aspect non trivial de ces mod`eles stochastiques causaux est l’obtention num´erique de r´ealisations des matrices al´eatoires satisfaisant le principe de causalit´e.

1.3

Objectifs

S’inscrivant dans la continuit´e des travaux effectu´es ces derni`eres ann´ees sur la mod´elisation non param´etrique des incertitudes appliqu´ee `a la dynamique des structures, l’acoustique et leur couplage, la pr´esente recherche vise `a ´etendre le champ d’application de l’approche probabiliste non param´etrique aux syst`emes num´eriques lin´eaires soumis au prin-cipe de causalit´e. Des travaux th´eoriques ont r´ecemment ´et´e publi´es, concernant les syst`emes visco´elastiques lin´eaires causaux [53], [56]. L’un des objectifs de la th`ese est d’´etendre ces r´esultats th´eoriques aux domaines de l’acoustique externe et de la vibroacoustique externe. Par ailleurs, les difficult´es relatives `a la mise en oeuvre num´erique de ces approches n’ont jus-qu’alors pas ´et´e abord´ees dans la litt´erature. Un autre objectif de la th`ese est donc de proposer des m´ethodes num´eriques permettant de construire des mod`eles num´eriques stochastiques en accord avec le principe de causalit´e dans le domaine fr´equentiel.

(17)

loin-tain en acoustique externe, o`u le mod`ele probabiliste de l’op´erateur al´eatoire d’imp´edance acoustique de bord r´egit par la causalit´e du syst`eme, sera construit, ce qui n’a jamais ´et´e trait´e dans le cadre de l’approche non param´etrique des incertitudes. La mod´elisation sto-chastique de l’op´erateur de rayonnement ne sera pas trait´ee au del`a de la d´ependance de celui-ci `a l’op´erateur d’imp´edance acoustique de bord. Les incertitudes venant des fluctua-tions statistiques des op´erateurs de rayonnement ne seront pas prises en compte car on ne souhaite quantifier que la propagation des incertitudes venant de l’op´erateur d’imp´edance acoustique de bord. L’´etape suivante, en perspective de ce travail de th`ese, serait de compl´eter la mod´elisation probabiliste avec les mod`eles probabilistes non param´etriques des op´erateurs de rayonnement, lesquels doivent permettre au principe de causalit´e d’ˆetre v´erifi´e. Enfin sera pr´esent´e le cas de l’´etude vibroacoustique d’une structure ´elastique coupl´ee `a un fluide acous-tique externe o`u la mod´elisation des incertitudes sera focalis´ee encore une fois sur l’op´erateur d’imp´edance acoustique de bord, n´egligeant les fluctuations statistiques des op´erateurs re-latifs `a la structure ´elastique lin´eaire. Au del`a des applications pr´ecises pr´esent´ees ici, les m´ethodes num´eriques utilis´ees pour les mettre en oeuvre seront d´evelopp´ees avec le souci de rester le plus g´en´eral possible, permettant ´eventuellement `a ce travail de recherche d’ap-puyer de futurs travaux traitant d’autres syst`emes physiques lin´eaires soumis au principe de causalit´e tels que l’´electromagn´etisme, la pi´ezo´electricit´e, ou encore l’optique. Enfin, les m´ethodes d´evelopp´ees pour ce travail seront construites dans le but de permettre une grande pr´ecision dans les calculs complexifi´es par la prise en compte de la causalit´e, et cela mˆeme en pr´esence d’information fr´equentielle limit´ee par la taille du mod`ele num´erique et la finesse de sa discr´etisation. Cela n´ecessitera le d´eveloppement de codes num´eriques sp´ecifiquement r´ealis´es pour permettre le contrˆole de la pr´ecision et la compr´ehension de bout en bout du processus de r´esolution, donnant les cl´es n´ecessaires `a une analyse pouss´ee de la propagation des incertitudes dans les syst`emes ´etudi´es. Le pr´esent travail pr´etend montrer `a travers les applications pr´esent´ees l’importance, si ce n’est la n´ecessit´e, d’employer une mod´elisation sto-chastique coh´erente avec le principe de causalit´e sous peine de commettre de graves erreurs d’interpr´etation des r´esultats.

1.4

Strat´

egie

La mod´elisation probabiliste des incertitudes de mod`ele dans les mod`eles de cal-cul num´erique est ramen´e `a l’introduction d’ensembles de matrices al´eatoires sp´ecifiques construits par le Principe du Maximum d’Entropie [56]. Concernant la prise en compte de la causalit´e presque sˆurement dans les mod`eles num´eriques de calcul, les matrices al´eatoires concern´ees sont telles que les parties r´eelle et imaginaire v´erifient les relations K-K. Ces rela-tions K-K font intervenir des transform´ees de Hilbert [27]. Les ensembles SEHT +ε et SEHT +0 sont des ensembles de matrices al´eatoires qui v´erifient presque sˆurement ces relations entre parties r´eelles et parties imaginaires et par cons´equent, les parties r´eelles et imaginaires se d´eduisent l’une de l’autre par une transform´ee de Hilbert. En outre, les matrices al´eatoires de ces ensembles v´erifient d’autres informations qui seront pr´esent´ees dans le chapitre 2. Dans le cadre de ce travail, la m´ethode num´erique de Monte Carlo est utilis´ee pour r´esoudre les ´

(18)

suivante : une r´ealisation de la partie r´eelle (ou de la partie imaginaire) sera construite, puis en calculant sa transform´ee de Hilbert, la r´ealisation de la partie imaginaire (ou la partie r´eelle) sera d´eduite. Une grande difficult´e num´erique concerne le calcul efficace de la trans-form´ee de Hilbert. Une premi`ere difficult´e num´erique est qu’il s’agit du calcul de la valeur principale de Cauchy d’une int´egrale impropre. Une seconde difficult´e est que cette int´egrale doit ˆetre effectu´ee sur tout l’axe r´eel et qu’une troncature du domaine d’int´egration induit g´en´eralement de grandes erreurs dans l’estimation de la transform´ee de Hilbert. Comme rap-pel´e dans le premier paragraphe, il s’agit d’un probl`eme ouvert pour lequel des r´esultats r´ecents sont publi´es. L’un des objectifs de la th`ese est d’aborder ce probl`eme en pr´esentant deux approches. Une premi`ere approche pour le calcul de r´ealisations ind´ependantes de ma-trices al´eatoires dans SEHT +ε sera pr´esent´ee, bas´ee sur la r´esolution num´erique directe des relations K-K dans le cadre d’information fr´equentielle limit´ee qui induit `a priori une tron-cature du domaine d’int´egration si l’on veut obtenir un temps de calcul raisonnable. Afin de palier `a cette troncature qui provoque des erreurs, il est possible d’extrapoler sur le compor-tement hors bande de l’int´egrande en un faible nombre de points et d’utiliser une quadrature de Gauss sp´ecifique qui sera d´etaill´ee. Cette premi`ere approche sera mise en oeuvre dans le cadre de la mod´elisation stochastique en visco´elasticit´e lin´eaire pour la dynamique des structures composites. Afin de mettre en ´evidence la sp´ecificit´e avec laquelle se propagent les incertitudes dans le cadre d’un syst`eme causal, les r´esultats seront compar´es avec ceux d’un mod`ele, dit na¨ıf, o`u les parties r´eelle et imaginaire des matrices al´eatoires seront consid´er´ees comme ind´ependantes statistiquement, contrairement `a ce qu’impliquent les relations K-K. Les difficult´es d’ordre num´erique rencontr´ees ainsi que les limitations de cette approche se-ront expos´ees, ce qui m`enera naturellement au d´eveloppement d’une seconde approche, plus g´en´erale, permettant ais´ement l’exploitation de tout le domaine fr´equentiel admissible du mod`ele num´erique et s’affranchissant du calcul direct des relations K-K tout en respectant le principe de causalit´e. Cette seconde approche du calcul de r´ealisations ind´ependantes sera d´etaill´ee sur le plan th´eorique pour les matrices al´eatoires de l’ensemble SEHT +0 et deux applications num´eriques seront pr´esent´ees, l’une concernant la mod´elisation stochastique en acoustique externe et l’autre concernant l’identification stochastique inverse en vibroacous-tique lin´eaire externe. Dans les deux cas, le mod`ele stochastique causal sera `a nouveau com-par´e `a un mod`ele probabiliste na¨ıf. Dans la derni`ere application traitant la vibroacoustique, les hyperparam`etres des mod`eles stochastiques causal et na¨ıf seront cette fois-ci identifi´es en r´esolvant un probl`eme statistique inverse pour lequel une r´eponse cible est donn´e. Les deux mod`eles seront compar´es en terme de performance vis-`a-vis de la pr´ediction robuste de la r´eponse du mod`ele num´erique de calcul al´eatoire.

1.5

Plan du manuscrit

(19)

`

(20)

Chapitre 2

Mod´

elisation probabiliste des

incertitudes pour les mod`

eles

num´

eriques causaux

2.1

ethodologie pour la mod´

elisation probabiliste des

incertitudes dans les mod`

eles num´

eriques de calcul

2.1.1

Sources d’incertitude

L’incertitude apparaˆıt `a plusieurs niveaux dans les mod`eles num´eriques de calcul. On distingue :

— l’incertitude sur un certains nombres de param`etres ; — l’incertitude li´ee `a la g´eom´etrie ´etudi´ee ;

— l’incertitude li´ee aux hypoth`eses de mod´elisation.

2.1.2

Mod´

elisation probabiliste des incertitudes

L’approche probabiliste permet de prendre en compte non seulement les incertitudes sur les param`etres du mod`ele, mais aussi les incertitudes de mod`ele, comprenant les fluctuations statistiques de la g´eom´etrie ou encore les incertitudes induites par le choix d’une mod´elisation num´erique. Le syst`eme num´erique stochastique obtenu `a l’issue de cette mod´elisation est constitu´e de variables al´eatoires `a valeurs scalaires, vectorielles ou matricielles. Les incerti-tudes se propagent `a travers un tel mod`ele num´erique de calcul stochastique sur les obser-vables du mod`ele. Ce probl`eme de propagation et de quantification des incertitudes est r´esolu en utilisant un solveur stochastique tel que la m´ethode num´erique de Monte Carlo ([47], [32], [46]).

2.1.3

Mod´

elisation des incertitudes de param`

etres

(21)

w des matrices du mod`ele num´erique de calcul peut ˆetre repr´esent´ee par une application F d´efinie sur l’ensemble des valeurs possibles pour ces param`etres et `a valeurs matricielles. La mod´elisation param´etrique des incertitudes consiste alors `a mod´eliser ces param`etres par des variables al´eatoires W et par cons´equent, les matrices du mod`ele num´erique sont rem-plac´ees par des variables al´eatoires `a valeurs matricielles qui sont d´efinies comme l’image de ces param`etres al´eatoires par l’application F . Ainsi, si l’application F est construite de sorte que le principe de causalit´e soit v´erifi´e pour tous param`etres w, alors les matrices al´eatoires construites par l’approche probabiliste v´erifieront presque sˆurement le principe de causalit´e elles aussi. Il n’y a donc aucune difficult´e en ce qui concerne l’approche probabiliste param´etrique des incertitudes vis-`a-vis du principe de causalit´e. Il est `a noter que la distri-bution de probabilit´e de ces matrices al´eatoires est donc construite indirectement `a partir de la distribution de probabilit´e des param`etres al´eatoires.

2.1.4

Mod´

elisation des incertitudes de mod`

ele

Afin de prendre en compte les incertitudes de mod`ele, l’approche probabiliste non pa-ram´etrique a ´et´e d´evelopp´ee ([56],[51],[52],[54]). Cette approche consiste `a, cette fois, rem-placer les matrices du mod`ele num´erique de calcul par des variables al´eatoires `a valeurs dans un ensemble de matrices ad hoc et dont la distribution de probabilit´e est directement construite contrairement `a l’approche probabiliste param´etrique des incertitudes. Il existe diff´erentes m´ethodes afin de construire le mod`ele probabiliste de ces matrices al´eatoires. Dans la suite de ce document, nous n’envisagerons que le Principe du Maximum d’Entropie (MaxEnt) tel que propos´e par [51]. Par ailleurs, l’utilisation du MaxEnt consiste `a maximi-ser une fonctionnelle de la densit´e de probabilit´e de la matrice al´eatoire sous la contrainte d’´equations correspondant `a l’´ecriture math´ematique d’information disponible sur le mod`ele de calcul. Cette approche a fait l’objet de nombreux travaux durant les vingt derni`eres ann´ees ([15],[1],[6],[18],[39],[16],[3],[7],[41],[25],[40],[4],[8]) en dynamique lin´eaire et en dynamique non lin´eaire. Cependant, le principe de causalit´e n’a jamais ´et´e pris comme une information `a consid´erer. Les mod`eles des matrices al´eatoires construites sont alors g´en´eralement dans un ensemble de matrices al´eatoires appel´e SE+. Ainsi, en ´elastodynamique lin´eaire, on en vient `

a construire les mod`eles probabilistes des matrices de masse, de raideur et d’amortissement g´en´eralis´ees de sorte que ces matrices al´eatoires soient ind´ependantes statistiquement. On peut alors se poser la question si un tel mod`ele probabiliste est toujours compatible avec le principe de causalit´e. En fait, la r´eponse est non, et c’est d’ailleurs l’objet de la suite de ce chapitre, o`u l’on d´ecrit la construction d’ensembles de matrices al´eatoires permettant une mod´elisation probabiliste non param´etrique des incertitudes pour mod´eliser les incertitudes de mod`ele qui soit presque sˆurement compatible avec le principe de causalit´e.

2.2

Principe du Maximum d’Entropie

(22)

densit´e de la distribution de probabilit´e des variables al´eatoires. Une autre approche directe consisterait `a utiliser des donn´ees issues de simulations num´eriques ainsi que les statistiques non param´etriques ([5],[28],[30],[49],[25],[50],[56]) pour construire les mod`eles probabilistes. Notons que de nouvelles approches ´emergentes entrent dans cette cat´egorie, notamment la mod´elisation probabiliste guid´ee par les donn´ees et l’apprentissage probabiliste ([55],[57],[58]). Enfin, il est aussi possible d’utiliser les approches indirectes pour la construction des mod`eles probabilistes lorsque les repr´esentations alg´ebriques des grandeurs stochastiques sont dispo-nibles ([24],[23]). Afin de construire les mod`eles probabilistes pour les mod`eles num´eriques de calcul, l’ensemble de l’information disponible peut ˆetre pris en compte. Parmi tous les mod`eles probabilistes compatibles avec cette information disponible, il est raisonnable de choisir celui qui n´ecessite le minimum de param`etres pour ˆetre compatible avec la totalit´e de l’information disponible. En effet, chaque param`etre du mod`ele probabiliste peut ˆetre associ´e `a une infor-mation statistique sur la variable al´eatoire. Le minimum de param`etres correspond donc `a un minimum d’information `a connaˆıtre. Cette mesure de l’information associ´ee `a une distribu-tion de probabilit´e peut ˆetre quantifi´ee par l’entropie au sens de Shannon. Choisir un mod`ele probabiliste qui maximise l’entropie de Shannon, sous la contrainte d’information disponible correspond au Principe du Maximum d’Entropie. Par exemple, c’est ce principe qui permet de r´epondre `a la question de la d´ependance statistique de deux matrices al´eatoires : en l’absence d’information sur leur d´ependance, le mod`ele probabiliste a priori qui minimise le nombre de param`etres `a d´efinir est celui pour lesquels elles sont ind´ependantes statistiquement. Le Principe du Maximum d’Entropie revient `a poser formellement un probl`eme d’optimisation sous contraintes, dont la solution est une distribution de probabilit´e qui maximise l’entropie au sens de Shannon.

Afin d’illustrer la construction d’un mod`ele probabiliste par le Principe du Maximum d’Entropie, nous pr´esentons ci-dessous le cas d’une variable al´eatoire `a valeurs vectorielles. Par ailleurs, le cas de variables al´eatoires `a valeurs matricielles est d´etaill´e dans [56] dont les r´esultats n´ecessaires au travail de cette th`ese sont donn´es dans les paragraphes suivants. Soit a n’importe quel vecteur dans Rn et da la mesure de Lebesgue associ´ee. On consid`ere la variable al´eatoire A `a valeurs dans Rn pour laquelle la distribution de probabilit´e PA(da)

est inconnue mais repr´esent´ee par une fonction de densit´e de probabilit´e a 7→ pA(a) d´efinie

sur Rn et `a valeurs dans R+ et dont le support est Sn ⊂ Rn. Cette densit´e de probabilit´e doit

satisfaire la condition de normalisation suivante Z

Sn

pA(a)da = 1 . (2.1)

On suppose qu’il existe une fonction a 7→ g(a) de Rn dans Rµ et un vecteur f de Rµ telle que

l’information disponible sur A s’´ecrive

E{g(A)} = f , ou encore

Z

Rn

g(a)pA(a)da = f . (2.2)

(23)

valeurs dans R+ qui sont telles que les Eqs. (2.1) et (2.2) soient v´erifi´ees. Alors le Principe du Maximum d’Entropie consiste `a construire pA∈ C telle que

pA= argmax p∈C

S(p) , (2.3)

o`u S(p) est l’entropie au sens de Shannon de la densit´e de probabilit´e p, d´efinie par S(p) = −

Z

Rn

pAlog(pA)da .

Il est possible de montrer ( voir [56]) que les solutions de l’Eq. (2.3) s’´ecrivent sous la forme pAλ(a) = 1Sn(a)c0(λ)exp(− < λ, g(a) >µ) , ∀a ∈ R

n,

avec < ·, · >µ repr´esentant le produit scalaire euclidien dans Rµ, et

c0(λ) =

Z

Sn

exp(− < λ, g(a) >µ)da

−1 .

Soit la variable al´eatoire Aλ dont la mesure de probabilit´e a pour fonction de densit´e de

probabilit´e pAλ. Le calcul du vecteur λ est fait en utilisant un sch´ema it´eratif pr´esent´e

ci-dessous. On introduit la variable al´eatoire Gλ = g(Aλ) dont la matrice de covariance est

not´ee [CGλ]. On note λ

sol le vecteur de Rµ tel que λsol= lim

i→+∞λi o`u

λi+1= λi− α[CGλ](f − E{Gλi}) .

On a alors

pA(a) = pAλsol(a) , ∀a ∈ Rn.

2.3

Strat´

egie pour la construction des mod`

eles

proba-bilistes des matrices al´

eatoires pour la mod´

elisation

stochastique non param´

etrique

Dans ce travail, trois ensembles fondamentaux de matrices al´eatoires, construits par le Principe du Maximum d’Entropie seront utilis´es. Ils ont tous fait l’objet de d´eveloppements durant les vingt derni`eres ann´ees avec des applications pour la mod´elisation non param´etrique des incertitudes en m´ecanique multi-´echelle des mat´eriaux et pour les mod`eles de calcul dynamiques lin´eaires et non lin´eaires (voir [25],[15],[1],[6],[18],[39],[16],[3],[7],[41],[40],[4],[8]). Ces ensembles sont les suivants :

(24)

— Ensemble SE+0 : cet ensemble contient les matrices al´eatoires presque sˆurement po-sitives dont les valeurs moyennes sont n’importe quelle matrice positive donn´ee. Cet ensemble de matrices al´eatoires sera utilis´e pour la mod´elisation probabiliste non pa-ram´etrique des incertitudes de mod`ele sur les matrices [DΓ] et [Df] (voir paragraphes

6-7 et 7-5) ;

— Ensemble SEHT +ε : cet ensemble contient les matrices al´eatoires `a valeurs complexes dont la partie r´eelle est la transform´ee de Hilbert de la partie imaginaire, cette derni`ere ´etant prise dans SE+ε. Cet ensemble de matrices al´eatoires sera utilis´e pour la mod´ elisa-tion probabiliste non param´etrique des incertitudes de mod`ele sur les matrices [K0(ω)]

et [D(ω)] (voir 5-7) ;

— Ensemble SEHT +0 : cet ensemble contient les matrices al´eatoires `a valeurs complexes dont la partie r´eelle est la transform´ee de Hilbert de la partie imaginaire, cette derni`ere ´etant prise dans SE+0. Cet ensemble de matrices al´eatoires sera utilis´e pour la mo-d´elisation probabiliste non param´etrique des incertitudes de mod`ele sur les matrices [BΓ(ω)] et [Af(ω)] (voir 6-7 et 7-5).

La construction de ces ensembles est d´etaill´ee dans [56] et des rappels sont donn´es dans les paragraphes suivants, notamment en ce qui concerne l’aspect num´erique pour la construction de r´ealisations statistiquement ind´ependantes de ces matrices.

2.4

Ensemble GOE

Dans ce paragraphe, nous donnons des rappels sur le Gaussian Orthogonal Ensemble (GOE), bien que cet ensemble ne sera pas utilis´e dans ce travail. Cependant, il est tr`es largement utilis´e en mod´elidation probabiliste et permet de situer l’originalig´e des autres ensembles cit´es dans le paragraphe 2-3. Une matrice al´eatoire appartenant `a cet ensemble, not´ee [GGOE], est `a valeurs dans l’ensemble des matrices carr´ees r´eelles et sym´etriques MSn. La valeur moyenne de [GGOE] est

E{[GGOE]} = [In] ,

et elle s’´ecrit

[GGOE] = [In] + [GδGOE] ,

avec [GδGOE] une matrice al´eatoire centr´ee telle que

— La distribution de probabilit´e de [GδGOE] est invariante par rapport `a n’importe quelle

transformation r´eelle orthogonale. — Les variables al´eatoires r´eelles {[GδGOE]

ij , 1 ≤ i ≤ j ≤ n} sont toutes statistiquement

ind´ependantes les unes des autres.

— Le param`etre de dispersion δGOE de la matrice al´eatoire [GδGOE] est d´efini par

δGOE =

 E{||[GδGOE] − E{[GδGOE]}||2

F}

||E{[GδGOE]}||2

F

(25)

— Chacune des variables al´eatoires [GδGOE]

ij est une variable al´eatoire du second ordre,

de loi normale centr´ee et de variance var([GδGOE]

ij) = (1 + δij)

δGOE2

n + 1 , avec δij le symbole de Kronecker.

Le param`etre de dispersion δ[GGOE] quantifiant l’amplitude des fluctuations statistiques de la

matrice al´eatoire [GGOE] est d´efini par

δ[GGOE]=

 E{||[GGOE] − E{[GGOE]}||2 F}

||E{[GGOE]}||2 F

12 . On montre que δ[GGOE]= δGOE

Remarques sur l’utilisation du GOE pour la mod´elisation non param´etrique des incertitudes dans les syst`emes physiques Les matrices al´eatoires [GGOE] ∈ GOE ne

sont pas d´efinies positives ou n´egatives presque sˆurement. De plus, on a E{||[GGOE]−1||2

F} = +∞ ,

ce qui signifie que [GGOE]−1 n’est pas une matrice al´eatoire du second ordre. Par cons´equent,

cet ensemble ne peut pas ˆetre utilis´e en mod´elisation stochastique lorsque la d´efinie-positivit´e de la matrice ou l’int´egrabilit´e de son inverse sont requises. Bien que s´eduisant par la rela-tive simplicit´e de sa construction, les propri´et´es alg´ebriques que cet ensemble conf`ere aux matrices al´eatoires ne sont donc pas suffisantes pour qu’il puisse ˆetre employ´e dans de nom-breuses applications, incluant les probl`emes physiques qui seront pr´esent´es dans la suite de ce manuscrit.

2.5

Ensemble SG

+0

Cet ensemble est le plus fondamental, puisqu’il est utilis´e dans les ensembles suivants comme germe stochastique. Une matrice al´eatoire [G0] dans SG+0 est `a valeurs dans M+n(R)

et est construit par le Principe du Maximum d’Entropie en utilisant l’information statistique suivante

E{[G0]} = [In] , E{log(det([G0]))} = νG0 , |νG0| < +∞.

La condition E{log(det([G0]))} = νG0 sert `a assurer l’inversibilit´e de [G0] et l’int´egrabilit´e

de son inverse, ce qui manque aux matrices al´eatoires du GOE. La densit´e de probabilit´e obtenue pour la matrice [G0] est `a support Sn= M+n(R) et s’´ecrit

p[G0]([G]) = 1Sn([G]) κ (det[G])

(n+1)1−δ2

2δ2 e−

n+1

2δ2tr[G]. (2.4)

(26)

o`u, pour tout z > 0, Γ(z) =R0+∞tz−1e−tdt. Ainsi, [G0] d´epend d’un unique param`etre global

de dispersion statistique δ qui est `a valeurs dans [ 0 ,qn+1n+5 ] et est d´efini comme

δ = E{||[G0] − E{[G0]}|| 2 F} ||E{[G0]}||2F 12 .

Puisque la matrice [G0] est presque sˆurement d´efinie positive, il existe alors une matrice

al´eatoire triangulaire sup´erieure, not´ee [L], telle que la factorisation de Cholesky de la matrice al´eatoire [G0] s’´ecrive

[G0] = [L]T[L] , presque sˆurement . (2.5)

Afin que la densit´e de probabilit´e de la matrice al´eatoire [G0] s’´ecrive telle que donn´e par

l’Eq. (2.4), on montre que les composantes [L]jj0 de la matrice al´eatoire triangulaire sup´erieure

[L] sont telles que

[L]j0j = ξVj0j , pour j0 < j ≤ n , (2.6)

[L]jj = ξ

q

2h(ηj, Vjj) pour j ≤ n , (2.7)

o`u {Vj0j, 1 ≤ j0 ≤ j ≤ n} est un ensemble de variables al´eatoires Gaussiennes

norma-lis´ees, ind´ependantes et `a valeurs r´eelles. Les param`etres r´eels ξ et ηj sont d´efinis comme

ξ = δ(n + 1)−12 et ηj = n+1 2δ2 + 1−j 2 . La fonction h s’´ecrit h(η, V ) = F −1 Γη (FV(v)) o`u FV est la

fonction de r´epartition d’une variable al´eatoire Gaussienne normalis´ee V et FΓη est la fonction

de r´epartition d’une variable al´eatoire Gamma Γη de param`etre η. Des r´ealisations

statisti-quement ind´ependantes [G(1)0 ], . . . , [G(Nr)

0 ] de la matrice al´eatoire [G0] sont alors facilement

calculables en utilisant les relations (2.5), (2.6) et (2.7) `a partir des r´ealisations v(1)j0j, . . . , v

(Nr)

j0j

de la variable al´eatoire Vj0j. On a donc, pour tout 1 ≤ r ≤ Nr et pour tout j0 < j ≤ n,

[G(r)0 ] = [L(r)]T[L(r)] , [L(r)]j0j = ξv(r)

j0j , [L(r)]jj = ξ

q

2h(ηj, v(r)jj ) .

2.6

Ensemble SG

+ε

Comme indiqu´e pr´ec´edemment, pour tout ε > 0, il s’agit d’un sous-ensemble de SG+0 avec une borne inf´erieure donn´ee par la matrice d´efinie positive [G`] qui s’´ecrit

[G`] =

ε

1 + ε[In] .

L’ensemble SG+ε est construit comme ´etant l’ensemble des matrices al´eatoires [G] `a valeurs dans M+

n(R) telles qu’il existe une matrice al´eatoire [G0] ∈ SG+0 dont le coefficient de

disper-sion δ est donn´e et telles que

[G] = 1

1 + ε([G0] + ε[In]) . (2.8)

On a donc 0 < [G`] < [G] presque sˆurement. On introduit le param`etre de dispersion δG de

(27)

On a alors la relation suivante entre δGet δ, le coefficient de dispersion de la matrice al´eatoire

[G0], pour tout ε > 0

δG=

δ 1 + ε .

Des r´ealisations statistiquement ind´ependantes [G(1)], . . . , [G(Nr)] de la matrice al´eatoire [G] ∈

SG+0 peuvent ˆetre calcul´ees `a partir des r´ealisations statistiquement ind´ependantes [G(1)0 ] , . . . , [G(Nr)

0 ] de la matrice [G0] en utilisant l’Eq. (2.8),

[G(r)] = 1 1 + ε([G

(r)

0 ] + ε[In]) .

2.7

Ensemble SE

+ε

Cet ensemble est constitu´e de matrices al´eatoires [A] `a valeurs dans M+

n(R) et dont la

valeur moyenne [A] = E{[A]} est une matrice donn´ee dans M+n(R). Pour tout ε > 0, l’ensemble SE+ε est donc construit comme l’ensemble des matrices al´eatoires [A] telles qu’il existe une matrice al´eatoire [G] ∈ SG+ε dont le coefficient de dispersion δG est donn´e et telle que

[A] = [LA]T[G][LA] (2.9)

o`u [LA] est la matrice triangulaire sup´erieure issue de la factorisation de Cholesky de la

matrice moyenne [A] = [LA]T[LA]. Il est alors possible de montrer que cet ensemble SE+ε

admet une borne inf´erieure not´ee [Al] ∈ M+n(R) et d´efinie par

[Al] =

ε 1 + ε[A] . Le param`etre de dispersion δA de [A] s’´ecrit

δA=  E{||[A] − [A]||2 F} ||[A]||2 F 12 . On montre que δA= δG √ n + 1  1 + (tr[A]) 2 ||[A]||2 F 12 ,

o`u δG est le param`etre de dispersion de la matrice al´eatoire [G] ∈ SG+ε. Des r´ealisations

statistiquement ind´ependantes [A(1)], . . . , [A(Nr)] de la matrice al´eatoire [A] sont calcul´ees `a

partir de r´ealisations statistiquement ind´ependantes [G(1)], . . . , [G(Nr)] de la matrice al´eatoire

[G] ∈ SG+ε en utilisant l’Eq. (2.9),

(28)

2.8

Ensemble SE

+0

Cet ensemble est constitu´e de matrices al´eatoires [A] `a valeurs dans M+0

m (R). La valeur

moyenne [A] = E{[A]} est une matrice donn´ee dans M+0

m (R). La dimension du noyau null([A])

est µnull telle que 1 ≤ µnull≤ m. Il existe une matrice [RA] dans Mnm(R) avec n = m − µnull

telle que

[A] = [RA]T[RA] . (2.10)

L’ensemble SE+0 est alors construit comme l’ensemble des matrices al´eatoires [A] pour les-quelles il existe une matrice [G] ∈ SG+ε, de coefficient de dispersion δG et `a valeurs dans

M+

n(R) avec n = m − µnull, telle que

[A] = [RA]T[G][RA] .

Le param`etre de dispersion de [A] s’´ecrit δA=  E{||[A] − [A]||2 F} ||[A]||2 F 12 .

Des r´ealisations statistiquement ind´ependantes [A(1)], . . . , [A(Nr)] de la matrice al´eatoire [A]

sont calcul´ees `a partir de r´ealisations statistiquement ind´ependantes [G(1)], . . . , [G(Nr)] de la

matrice al´eatoire [G] ∈ SG+ε en utilisant l’Eq. (2.10),

[A(r)] = [RA]T[G(r)][RA] , 1 ≤ r ≤ Nr .

2.9

Ensemble SE

HT +ε

Cet ensemble SEHT +ε est celui des fonctions matricielles al´eatoires index´ees par R et `a valeurs dans un sous-ensemble de Mn(C). Une matrice al´eatoire d´ependante de la fr´equence

[A(ω)] appartenant `a SEHT +ε s’´ecrit, pour tout ω ∈ R,

[A(ω)] = [C(ω)] + i[B(ω)] . (2.11)

telle que [A] soit la transform´ee de Fourier d’un processus al´eatoire causal, int´egrable et index´e sur R et `a valeurs dans un sous-ensemble de Mn(C). Ainsi, ses parties imaginaire B(ω)

et r´eelle C(ω) sont reli´ees `a travers les relations de Kramers-Kronig (K-K) faisant intervenir des transform´ees de Hilbert

[C(ω)] = 1 π p.v. Z +∞ −∞ [B(ω0)] ω − ω0 dω 0 (2.12) [B(ω)]} = −1 π p.v. Z +∞ −∞ [C(ω0)] ω − ω0 dω 0 .

Dans l’ensemble de ce manuscrit, SEHT +ε est construit en prenant [B(ω)] dans l’en-semble des matrices al´eatoires SE+ε d´ecrit dans ce chapitre. Des r´ealisations statisti-quement ind´ependantes [A(1)(ω)], . . . , [A(Nr)(ω)] de la matrice al´eatoire [A(ω)] sont

(29)

[C(1)(ω)], . . . , [C(Nr)(ω)] des matrices al´eatoires [B(ω)], [C(ω)] en utilisant l’Eq. (2.11) et (2.12), [A(r)(ω)] = [C(r)(ω)] + i[B(r)(ω)] , avec [C(r)(ω)] = 1 π p.v. Z +∞ −∞ [B(r)(ω0)] ω − ω0 dω 0 .

2.10

Ensemble SE

HT +0

Cet ensemble est tr`es similaire `a SEHT +ε `a la diff´erence que la matrice al´eatoire [B(ω)] est dans l’ensemble SE+0 et non pas SE+ε. C’est un ensemble de fonctions matricielles al´eatoires index´ees par R et `a valeurs dans un sous-ensemble de Mn(C). Une matrice al´eatoire d´ependante

de la fr´equence [A(ω)] appartenant `a SEHT +0 s’´ecrit, pour tout ω ∈ R,

[A(ω)] = [C(ω)] + i[B(ω)] , (2.13)

o`u la matrice al´eatoire [B(ω)] est dans l’ensemble SEHT +ε et [C(ω)] = 1 π p.v. Z +∞ −∞ [B(ω0)] ω − ω0 dω 0 (2.14)

Des r´ealisations statistiquement ind´ependantes [A(1)(ω)], . . . , [A(Nr)(ω)] de la matrice

al´eatoire [A(ω)] sont calcul´ees `a partir de r´ealisations statistiquement ind´ependantes [B(1)(ω)], . . . , [B(Nr)(ω)] et [C(1)(ω)], . . . , [C(Nr)(ω)] des matrices al´eatoires [B(ω)], [C(ω)] en

(30)

Chapitre 3

Calcul des relations de

Kramers-Kronig par int´

egration

directe des transform´

ees de Hilbert

3.1

Causalit´

e et relations de Kramers-Kronig

Dans l’ensemble de ce travail, nous utilisons la terminologie “causale” et “principe de causalit´e” lorsque nous d´ecrivons les mod`eles num´eriques de calculs et lorsque nous construi-sons les mod`eles probabilistes non param´etriques de leurs op´erateurs. Ces terminologies sont pr´ecis´ees dans ce paragraphe. Dans le cadre des mod`eles num´eriques de calculs en visco-´

elasticit´e linaire et en vibro-acoustique externe, lorsque les mod`eles sont fomrul´es dans le domaine fr´equenciel, les ´equations exhibent des produits du type [A(ω)] q(ω) o`u ω 7→ q(ω) est la fonction d’´etat du syst`eme dynamique ´etudi´e que l’on construit comme ´etant la solution du mod`ele num´erique de calcul. La matrice [A(ω)] est une matrice `a valeurs dans l’ensemble des matrices de dimension N ×N et `a valeurs complexe. Le vecteur q(ω) est `a valeur dans CN.

Ecrits dans le domaine temporel, les produits du type [A(ω)] q(ω) deviennent des produits de convolution [A] ? q(t) que l’on peut ´ecrire

[A] ? q(t) = Z +∞

−∞

[A(t − u)] q(u) du .

Ainsi, a priori, l’´equation formul´ee dans le domaine temporel comporte un terme [A] ? q(t) qui est d´efini `a l’instant pr´esent t par les valeurs de q aux instants u ≥ t. Ce r´esultat est contraire au principe de causalit´e pour lequel, les ´equations qui d´ecrivent l’´etat du syst`eme dynamique `a un instant pr´esent t ne doivent d´ependre que des valeurs de la variable d’´etat q aux instants pass´es u ≤ t. Ainsi, ce principe de causalit´e induit que le support de t 7→ [A(t)] est R+. Dans ce cas nous avons,

[A] ? q(t) = Z t

−∞

[A(t − u)] q(u) du ,

(31)

num´erique est causal, si les composantes t 7→ [A(t)]ij sont des fonctions de support R+, `a

valeurs dans R et de carr´e int´egrable pour la mesure de Lebesgue ([A]ij ∈ L2(R+, R)). Ainsi,

par la suite, nous applerons “fonction causale” toute fonction f ∈ L2(R, R) `a support R+. Il

est ais´e de d´eterminer si une fonction donn´ee est “causale” ou non lorsque son graphe est connu dans le domaine temporel. Il suffit de v´erifier que

1. f (t) = 0, pour tout t < 0. 2.

Z +∞

0

|f (t)|2dt < +∞.

Par contre, ce n’est plus aussi ais´e lorsque l’on se place dans le domaine fr´equentiel et que seul le graphe de ω 7→ bf (ω), la transform´ee de Fourier de t 7→ f (t), est connu, sans bien entendu, avoir `a calculer sa transform´ee de Fourier inverse. Par d´efinition, une fonction “causale” t 7→ f (t) est donc telle que, pour tout t ∈ R

f (t) = 1R+(t) f (t) , (3.1)

o`u 1R+ est la fonction indicatrice de R+. La transform´ee de Fourier ω 7→ bf (ω) est bien

d´efinie puisque f appartient `a l’ensemble L2(R, R). La transform´ee de Fourier de la fonction indicatrice 1R+ n’est, quant `a elle, d´efinie qu’au sens des fonctions g´en´eralis´ees et nous avons

d

1R+(ω) = π δ0(ω) +

1 i ω ,

o`u δ0 d´esigne la distribution de Dirac en 0. En appliquant la transform´ee de Fourier aux deux

membres de l’Eq. (3.1), nous obtenons b f (ω) = 1 2πd1R+ ? bf (ω) , = 1 2π Z R d 1R+(Ω) bf (ω − Ω) dΩ , = 1 2 Z R δ0(Ω) bf (ω − Ω) dΩ + 1 2πp.v Z R b f (ω − Ω) i Ω dΩ , = 1 2f (ω) −b i 2πp.v Z R b f (Ω) ω − ΩdΩ ,

et o`u p.v signifie que la valeur principale de l’int´egrale est calcul´ee. Finalement, nous obtenons b f (ω) = −i π p.v Z R b f (Ω) ω − ΩdΩ . (3.2)

Cette relation n’est valable que pour une fonction ω 7→ bf (ω), d´efinie sur R et `a valeurs dans

C et de carr´e int´egrable au sens de Lebesgue, c’est `a dire bf ∈ L2(R, C), et dont la transform´ee

de Fourier inverse t 7→ f (t) est “causale”. Nous introduisons maintenant les parties r´eelle fR(ω) et imaginaire fI(ω) de bf (ω) et nous en d´eduisons alors

(32)

Ces deux relations sont les “relations de Kramers-Kronig” et permettent de d´eterminier si une fonction t 7→ f (t) est “causale” uniquement en se donnant la donn´ee du graphe de sa transform´ee de Fourier ω 7→ bf (ω) et sans avoir `a calculer sa transform´ee de Fourier inverse, donc en restant uniquement dans le domaine fr´equentiel. Elles nous indiquent que les parties r´eelle et imaginaire de ω 7→ bf (ω) sont les transform´ees d’Hilbert l’une de l’autre `a un signe pr`es. Par la suite, dans tout ce manuscrit, nous utilisons la notation H{f, ω} pour d´esigner la transform´ee de Hilbert d’une fonction ω 7→ f (ω) et que nous d´efinissons par

H{f, ω} = 1 πp.v. Z R f (Ω) ω − ΩdΩ . (3.3)

3.2

Discr´

etisation de la transform´

ee de Hilbert

L’objet de ce chapitre est de pr´esenter une premi`ere m´ethode pour calculer num´eriquement la transform´ee d’Hilbert d’une fonction ω 7→ f (ω) donn´ee. Nous ometterons volontairement le symbole “chapeau” pour distinguer la transform´ee de Fourier par soucis d’all´eger les ex-pressions math´ematiques. Cette m´ethode sera ensuite ´etendue aux matrices al´eatoires pour la construction des r´ealisations des matrices al´eatoires (voir le chapitre 2) dans l’ensemble SEHT +ε qui v´erifient les relations de Kramers-Kronig dans le cadre de mod`eles num´eriques causaux (voir le chapitre 5 pour une application `a la visco´elasticit´e linaire). L’objectif est donc de pr´esenter une m´ethode num´erique efficace permettant de calculer H{f, ω} o`u la fonc-tion ω 7→ f (ω) sera calcul´ee par un mod`ele num´erique causal, d´eterministe ou stochastique, pour ω appartenant `a une bande de fr´equence B. Ainsi, on admet que le mod`ele num´erique de calcul est potentiellement erron´e pour tout calcul de f (ω) lorsque ω est en dehors de cette bande fr´equentielle B. En pratique, le calcul de H{f, ω} est d´elicat. Il requiert la connais-sance de la fonction ω 7→ f (ω) pour tout ω ≥ 0 et pas seulement pour la bande de fr´equence d’analyse B. Il est donc n´ecessaire que l’´echantillonnage fr´equentiel de la fonction ω 7→ f (ω) soit restreint `a des fr´equences appartenant `a B. Une approche na¨ıve consisterait `a tronquer l’intervalle d’int´egration sur R pour int´egrer uniquement sur B. Faire une telle approxima-tion n´ecessiterait, pour ˆetre justifi´ee, que ω 7→ f (ω) d´ecroisse suffisamment rapidement sur B lorsque ω augmente. Or, cela n’est pas le cas et il est prouv´e qu’une d´ecroissance rapide est par ailleurs antinomique avec les fonctions r´eelles “causales”, c’est `a dire v´erifiant les relations de Kramers-Kronig, lesquelles sont les fonctions qui nous int´eressent sp´ecifiquement dans ce travail de th`ese. Dans un premier temps, la strat´egie consiste `a s´eparer l’intervalle d’int´egration [0, +∞[ en deux, un premier ´etant [0, ug] et le second [ug, +∞[, o`u le param`etre

ug doit ˆetre plus grand que 1, ce qui scinde l’int´egrale de l’Eq. (3.3) en deux parties, une

premi`ere o`u se situe la singularit´e de l’int´egrale en valeur principale de Cauchy et une se-conde sur le reste de l’intervalle d’int´egration, s´eparant ainsi les deux probl`emes li´es au calcul num´erique de cette int´egrale, `a savoir le traitement de la singularit´e et l’int´egration sur un intervalle infini. On ´ecrit ceci

H{f, ω} =

(33)

o`u les int´egrales I1(ω) et I2(ω) s’´ecrivent I1(ω) = p.v Z ug 0 1 1 − u2f (ωu)du , I2(ω) = Z +∞ ug 1 1 − u2f (ωu)du .

Dans la suite, pour le calcul de I1(ω), qui on le rappelle fait intervenir une singularit´e en

u = 1, l’int´egrande est ´evalu´ee pour un grand nombre de valeurs de u ´echantillonn´ees finement et de fa¸con sym´etrique autour de la singularit´e, et une technique d’int´egration num´erique classique est utilis´ee, ici une m´ethode des trap`ezes utilisant Nupoints d’int´egration. La raison

pour laquelle cette m´ethode ne peut pas ˆetre transpos´ee au calcul de I2(ω), o`u l’intervalle

d’int´egration serait tronqu´e en un intervalle fini [ug, umax] o`u la borne sup´erieure d’int´egration

umax ∈ B serait fix´ee `a une valeur suffisamment grande telle que le reste de l’int´egrale

soit n´egligeable, est que cela n´ecessiterait de garder un ´echantillonage en u tr`es fin sur un intervalle bien plus large que [0, ug], ce qui serait d’un coˆut num´erique prohibitif, ou d’utiliser

un pas d’int´egration plus large, ce qui cr´ee alors un probl`eme de sur- ou sous-estimation syst´ematique de la valeur de l’int´egrale, dans une mesure qui ne peut pas ˆetre estim´ee dans le cas g´en´eral. L’objectif ´etant de contrˆoler la pr´ecision du calcul dans sa globalit´e, il est n´ecessaire d’adopter une autre approche. A ces fins, l’int´egration sur [ug, +∞[ est r´e´ecrite en

int´egration sur l’intervalle [−1, 1] en utilisant un changement de variable, intervalle sur lequel une quadrature de Gauss est appliqu´ee en utilisant uniquement un ´echantillonage fr´equentiel dans la bande B pour laquelle le mod`ele num´erique est valide. L’avantage de cette approche est de permettre une int´egration exacte d’un type de fonctions choisies pour correspondre au probl`eme trait´e, et ce en n’utilisant qu’un faible nombre Nq de points de quadrature.

3.3

Int´

egration autour de la singularit´

e

La m´ethode d´ecrite pr´ec´edemment pour le calcul de I1(ω), qu’on ´ecrit

I1(ω) = lim η→0+{ Z 1−η 0 1 1 − u2f (ωu) du + Z ug 1+η 1 1 − u2f (ωu) du} ,

avec un param`etre ug > 1 fix´e arbitrairement, consiste `a prendre en compte la limite η → 0+

par ´echantillonnage des valeurs de l’int´egrande aux points {ui, i = 1, . . . , Nu, ui 6= 1} avec

un pas constant ui+1− ui  1. Garder un ´echantillonnage sym´etrique au voisinage de la

singularit´e, tel que c’est le cas ici, est en accord avec le principe de l’int´egration en va-leur principale de Cauchy qui est que pour les deux parties de l’int´egrale, les intervalles d’int´egration tendent vers leur valeur limite `a la mˆeme vitesse. La position u = 1 ne pouvant ˆ

etre ´evalu´ee num´eriquement, un ´echantillonnage tr`es fin autour de la singularit´e permet de raisonnablement faire l’approximation r´ealis´ee ici, `a savoir que le point u = 1 est simplement supprim´e lors de l’int´egration num´erique. Une fois l’´echantillonnage pos´e, une technique clas-sique d’int´egration num´erique peut ˆetre choisie, par exemple parmi la famille des techniques dites de Newton-Cotes. Ici, on choisit l’usage de la m´ethode des trap`ezes qui permet d’´ecrire

(34)

3.4

Int´

egration loin de la singularit´

e par quadrature de

Gauss

On s’int´eresse maintenant au calcul pratique de I2(ω) d´efinie par

I2(ω) =

Z +∞

ug

1

1 − u2 f (ωu)du , (3.4)

pour ug > 1. Comme d´ecrit pr´ec´edemment, un changement de variable et une r`egle de

quadrature ad hoc sont introduits. Ainsi, on d´efinit le changement de variable η 7→ u = U (η) de [−1, 1[ vers [ug, +∞[,

U (η) = 2 ug

1 − η , ug > 1 . (3.5)

L’Eq. (3.4) peut ˆetre r´e´ecrite comme I2(ω) = µ

Z 1

−1

f (ω U (η)) pH(η) dη ,

o`u la constante n´egative µ est d´efinie par µ = 1

2log

(ug− 1)

(ug + 1)

< 0 , ug > 1 ,

et o`u pH est une fonction d´efinie sur [−1, 1 ], `a valeurs dans R+, telle que

pH(η) =

2ug

µ(η2− 2η + 1 − 4u2 g)

, η ∈ [−1, 1 ] , ug > 1 .

Cette fonction `a valeurs positives, poss´edant la propri´et´e Z 1

−1

pH(η) dη = 1 ,

peut ainsi ˆetre vu comme la densit´e de probabilit´e d’une variable al´eatoire H `a valeurs dans [−1, 1 ] d´efinie sur un espace probabilis´e (Ξ, T , P), ce qui sera utilis´e par la suite. Cette interpr´etation probabiliste de l’int´egrale I2(ω) donne alors

I2(ω) = µE{f ( ω U (H))} .

Cette esp´erance math´ematique peut ˆetre calcul´ee par la m´ethode num´erique de Monte-Carlo et l’on obtient alors l’approximation

I2(ω) ' µ ns ns X q=1 f ( ω U (h(q))) , o`u h(1), . . . , h(ns) sont n

s r´ealisations statistiquement ind´ependantes de la variable al´eatoire

(35)

Une autre interpr´etation probabiliste est pr´esent´ee par la suite. Pour cela, on construit le sch´ema de quadrature `a Nq points d’int´egration par rapport `a la mesure pH(η) dη sur [−1, 1 ]

de mani`ere `a ce que I2(ω) soit calcul´ee par

I2(ω) ' Nq

X

q=1

wqf (ω U (hq)) ,

o`u hq est le q-i`eme point de Gauss et wq est son poids de Gauss associ´e.

Polynˆomes orthogonaux par rapport `a la mesure pH(η) dη La proc´edure pour

construire la r`egle de quadrature associ´ee `a n’importe quelle mesure a ´et´e d´etaill´e par exemple par W. Gautschi dans [20], [21] et [22]. Cette construction est bas´ee sur la relation de r´ecurrence `a trois termes qui peut ˆetre exprim´ee entre les polynˆomes moniques (polynˆomes d’une seule variable o`u le coefficient de plus haut degr´e est ´egal `a 1) qui sont orthogonaux par rapport `a la mesure pH(η) dη sur [−1, 1 ]. Soit H = L2([−1, 1 ], pH(η)dη) l’espace

Hilber-tien des fonctions r´eelles de carr´e int´egrable d´efinies sur [−1, 1 ] par rapport `a la mesure de probabilit´e pH(η) dη, muni du produit scalaire suivant et de la norme associ´ee

< g , g0 >= Z 1

−1

g(η) g0(η) pH(η) dη , kgk =< g , g >1/2 .

Pour k = 0, . . . , Nq, soit πk(η) le polynˆome monique orthogonal d’ordre k dans H et de degr´e

k. On a, cons´equemment, pour k et k0 dans {0, 1, . . . , Nq},

< πk, πk0 >= 0 for k 6= k0.

La relation de r´ecurrence `a trois termes v´erifi´ee par cette famille de polynˆomes orthogonaux s’´ecrit

πk+1(η) = (η − αk) πk(η) − βkπk−1(η) , k = 0, 1, ..., Nq− 1 ,

π0(η) = 1 , π−1(η) = 0 .

o`u les coefficients αk et βk s’´ecrivent

αk=< η πk kπkk , πk kπkk > , k = 0, ..., Nq− 1 , (3.6) βk= (kπkk kπk−1k−1)2 , k = 1, ..., Nq− 1 . (3.7)

o`u kπkk kπk−1k−1 peut ˆetre calcul´e par l’´equation

kπkk kπk−1k−1 =< η πk−1 kπk−1k , πk kπkk > , k = 1, ..., Nq− 1 .

La valeur du coefficient β0 est arbitraire et d´efinie par convention par

β0 = kπ0k2 =

Z 1

−1

(36)

Une fois les coefficients connus, on construit la matrice de Jacobi suivante : [JNq] =        α0 √ β1 √ β1 α1 √ β2 √ β2 α2 √ β3 . .. . .. . .. pβNq−1 αNq−1       

La r`egle de quadrature est ensuite d´eduite par calcul des valeurs propres h1, . . . , hNq et des

vecteurs propres normalis´es v1, . . . , vNq de cette matrice de Jacobi,

[JNq] vq = hqvq , q = 1, . . . , Nq.

Les abscisses recherch´ees sont h1, . . . , hNq et les poids associ´ees w1, . . . , wNq sont tels que

wq = β0{vq}21 = {vq}21 , q = 1, . . . , Nq,

o`u {vq}1 est la premi`ere composante du q-i`eme vecteur propre normalis´e vq. Il est

impor-tant de souligner que, puisque la quadrature ainsi construite sur [−1, 1] est exacte pour les polynˆomes de degr´e 2Nq− 1 et de par l’Eq. (3.5), les int´egrandes de la forme P (u)1 , o`u P (u)

est un polynˆome de degr´e 2Nq− 1 au plus, seront calcul´ees correctement.

Algorithme pour la construction des polynˆomes orthogonaux Nous avons donc pr´esent´e la construction de la famille de polynˆomes moniques orthogonaux dans H. L’al-gorithme de Gram-Schmidt est une technique courante pour g´en´erer un jeu de polynˆomes orthogonaux `a partir d’un ensemble de d´epart de polynˆomes (en g´en´eral pris comme des monˆomes d’ordre croissant). Cependant, ce processus est num´eriquement instable, notam-ment face `a l’augmentation du nombre de polynˆomes `a orthogonaliser. Afin d’´eviter de tels soucis de stabilit´e, on se propose d’utiliser une m´ethode alternative, d´etaill´ee dans [45], qui a ´et´e appliqu´ee avec succ`es `a la construction de chaos polynomiaux en grande dimension par rapport `a une mesure arbitraire. La m´ethode est num´eriquement stable et est bas´ee sur la th´eorie des probabilit´es. Introduisons les polynˆomes orthonormaux {Ψ0, Ψ1, . . . , ΨNq}

associ´ees aux polynˆomes orthogonaux {π0, π1, . . . , πNq},

Ψk(η) = πk(η)kπkk−1 , k = 0, 1, . . . , Nq− 1 ,

On a alors, pour tout k et k0 dans {0, 1, . . . , Nq− 1},

E{Ψk(H) Ψk0(H)} =

Z 1

−1

Ψk(η) Ψk0(η) pH(η) dη = δkk0,

o`u E d´enote l’esp´erance math´ematique et o`u δkk0 est le symbole de Kronecker. Soient ns

r´ealisations statistiquement ind´ependantes h(1), . . . , h(ns) de la variable al´eatoire H de densit´e

de probabilit´e pH(η). Pour ns suffisamment grand, on a

(37)

Soit [P] la matrice r´eele de taille (Nq× ns) telle que

[P]κ`= Ψκ−1(h(`)) , κ = 1, . . . , Nq , ` = 1, . . . , ns.

On peut alors d´eduire que

lim

ns→+∞

1 ns− 1

[P][P]T = [INq] .

Soit alors [M] la matrice r´eelle de taille (Nq× ns) contenant les r´ealisations des monˆomes telle

que

[M]κ` = (h(`))κ−1 , κ = 1, . . . , Nq , ` = 1, . . . , ns. (3.8)

L’algorithme `a suivre est alors le suivant :

1. Calculer la matrice [M] d´efinie par Eq. (3.8), puis calculer la matrice r´eelle, de taille (Nq× Nq), [F] = ns1−1[M] [M]

T. On suppose que n

s > Nq afin que la matrice [F] soit

d´efinie positive.

2. Calculer la matrice r´eelle, de taille (Nq× Nq), triangulaire inf´erieure [L] provenant de

la d´ecomposition de Cholesky [L] [L]T de la matrice sym´etrique d´efinie positive [F]. 3. Calculer la matrice r´eelle [P] de taille (Nq × ns) comme la solution de l’´equation

matricielle lin´eaire [L] [P] = [M].

Les coefficients αk et βk sont alors calcul´es en utilisant les Eqs. (3.6) et (3.7) dans lesquelles

on a < η πk kπkk , πk kπkk >= E{H Ψk(H)2} , k = 0, ..., Nq− 1 , kπkk kπk−1k−1 = E{H Ψk−1(H) Ψk(H)} , k = 1, ..., Nq− 1 .

o`u, pour k = 0, ..., Nq− 1, les approximations suivantes sont utilis´ees

E{H Ψk(H)2} ≈ 1 ns ns X `=1 h(`)Ψk(h(`))2, E{H Ψk−1(H) Ψk(H)} ≈ 1 ns ns X `=1 h(`)Ψk−1(h(`)) Ψk(h(`)) ,

ce qui conclut la description de la construction des polynˆomes orthogonaux n´ecessaires `a la r`egle de quadrature de Gauss qu’on souhaite introduire.

3.5

Extension aux fonctions `

a valeurs dans l’ensemble

des matrices d´

efinies positives

L’extension au cas des fonctions ω 7→ [B(ω)] `a valeurs dans l’ensemble des matrices r´eelles, d´efinies positives est trivial. Pour tout ω fix´e dans R, on note [C(ω)] = H{[B], ω}, la matrice dont l’´el´ement (i, j) est [C(ω)]ij = H{[B]ij, ω} d´efini par

[C(ω)]ij = H{[B]ij, ω} =

Références

Documents relatifs

La loi hydraulique permettant de calculer le d´ ebit s’´ enonce Q = α∆P , o` u Q est le d´ ebit du tuyau, ∆P la diff´ erence des pressions en entr´ ee et sortie et α est

Matrice de Van Der Monde et polynˆ omes d’in- terpollation de Lagrange.. Soient a

L’id´ ee est que le rang d’un syst` eme homog` ene est le nombre d’´ equations ”qui comptent” dans ce syst` eme, celles qui restent quand on enl` eve (une par une) les

Pour tout second membre b, le syst` eme (S b ) poss` ede une unique solution.. Pour tout second membre b, le syst` eme (S b ) poss` ede au moins

[r]

[r]

[r]

Au moyen d’op´erations ´el´ementaires sur les ´equations, nous pouvons nous ramener `a un syst`eme dont la matrice est triangulaire sup´erieure.. Le coˆ ut de cette transformation