• Aucun résultat trouvé

2.2 R´ eduction des probl` emes lin´ eaires

2.2.1 M´ ethodes de r´ eduction a posteriori

2.2.1.1 Proper Orthogonal Decomposition

La Proper Orthogonal Decomposition est certainement la m´ethode de r´eduction la plus connue. On peut sans doute l’expliquer du fait de sa simplicit´e d’utilisation, sa robustesse, sa compatibilit´e avec des probl`emes non lin´eaires. Elle a ´et´e introduite en 1967 par Lumley [1] dans le but d’´etudier les structures coh´erentes form´ees par les ´ecoulements turbulents, puis reprise en 1987 par Sirovich pour

R´eduction des probl`emes lin´eaires 61

la r´eduction de mod`eles, grˆace `a la m´ethode des snapshots [2]. Depuis, le nombre d’applications de cette m´ethode n’a cess´e d’augmenter comme le montre la figure 2.2 repr´esentant le nombre d’articles portant sur la POD depuis 1980 r´epertori´es dans Google Scholar4.

1980 1985 1990 1995 2000 2005 2010 2015 0 500 1000 1500 2000 2500

Figure 2.2 – Nombre d’articles utilisant la POD publi´es chaque ann´ee depuis 1980.

Historiquement, la POD a ´et´e appliqu´ee dans un premier temps aux probl`emes de m´ecanique fluide et du solide, pour ensuite toucher d’autres domaines de la physique. Elle est ainsi pr´esent´ee de mani`ere plus formelle, et avec les am´eliorations qui ont ´et´e apport´ees jusqu’aux ann´ees 2000 dans [41] ou [42]. Dans le domaine de l’´electromagn´etisme basse fr´equence, elle a d’abord ´et´e appliqu´ee `a des dispositifs acad´emiques en mouvement [43] puis plus tard aux machines ´electriques dans le cadre de la th`ese de l’auteur [44]. Elle a ´et´e appliqu´ee ensuite sur de nombreux probl`emes depuis 2012 : sur un exemple compos´e d’une plaque conductrice excit´ee par un inducteur bobin´e [45], un exemple de parafoudre [46], des probl`emes de magn´etodynamique non lin´eaire [47] [48]. Depuis, elle est admise par la communaut´e comme une m´ethode de r´ef´erence et est souvent utilis´ee comme ”base” dans les approches par r´eduction.

2.2.1.1.A Calcul de la base r´eduite par la m´ethode POD

La POD a ´et´e historiquement introduite comme une repr´esentation de la solution dans une base r´eduite maximisant l’´energie d’un syst`eme [1]. Cependant, Sirovich [2] l’a r´einterpr´et´ee de la fa¸con suivante : la POD permet de rechercher une approximation ˜X de la solution X comme une combinaison lin´eaire des snapshots. En premi`ere instance, on peut donc choisir comme base r´eduite S ∈ RN ×s avec Xr∈ Rs tel que :

˜

X = SXr (2.65)

Cependant, cette m´ethode n’est pas satisfaisante en l’´etat. En effet, si le nombre de snapshots devient important, alors la taille de la base r´eduite augmente ´egalement. De plus, si la matrice de snapshots contient des informations redondantes (par exemple si S n’est pas de rang plein), les vecteurs de S ne forment plus une base et le syst`eme r´eduit r´esultant (2.36) sera mal conditionn´e. Ainsi, l’id´ee apport´ee par Sirovich [2] est de trouver une base de rang m < s permettant le mieux d’approcher au sens ´energ´etique l’espace g´en´er´e par les snapshots. En d’autres termes, il s’agit de trouver m vecteurs de RN, Ψ1, . . . ,Ψm tels que

Vect (Ψ1, . . . ,Ψm) ≈ Vect (S1, . . . ,Ss) . (2.66)

Afin de r´esoudre ce probl`eme, on peut le reformuler de la fa¸con suivante :

Trouver ˜S ∈ RN ×s tel que ˜

S = arg min rg(Z)=m

kS − Zk2F, m ≤ s (2.67)

En effet, chercher la meilleure approximation de rang m est coh´erent avec notre d´emarche car par d´efinition, une matrice de rang m g´en`ere un espace vectoriel compos´e de m vecteurs. En connaissant une telle matrice ˜S, il suffirait de trouver m colonnes ind´ependantes, Ψ1, . . . ,Ψm parmi celles de ˜S pour les concat´ener en une base r´eduite Ψ.

Le lecteur aura remarqu´e que la solution au probl`eme de minimisation 2.67 est exactement l’ap- proximation de faible rang Sm obtenue avec la SVD tronqu´ee `a l’ordre m (2.12). On a alors

˜

S = Sm = U:mΣ:m:mV:mt , (2.68)

o`u (U:m,Σ:m:m,V:m) repr´esente les trois matrices issues de la SVD de S, tronqu´ee `a l’ordre m. Fina- lement, les m colonnes de U:m ´etant par d´efinition orthonorm´ees (et par cons´equent lin´eairement ind´ependantes), la base r´eduite de la POD s’exprime directement comme

Ψ = U:m∈ RN ×m (2.69)

Pour r´esumer, la base POD Ψ ∈ RN ×r s’obtient en d´eterminant la SVD (U,Σ,V) de la matrice de snapshots S ∈ RN ×s, et en ne conservant que les m premiers vecteurs de la matrice U, m ´etant choisi arbitrairement par l’utilisateur sur la base de consid´erations (pr´ecision, temps de calcul...). On a alors Ψ = U:m. Enfin, le syst`eme r´eduit (2.64) s’obtient en appliquant la projection de Ritz-Galerkin sur le syst`eme (2.63). En particulier, la base r´eduite `a gauche Φ est choisie ´egale `a Ψ.

2.2.1.1.B POD-´energetique et POD-SVD

La POD permet donc de rechercher la solution dans une base r´eduite compos´ee des m vecteurs per- mettant d’approcher au mieux l’espace g´en´er´e par les s snapshots, avec m ≤ s. Le terme au mieux a ´

et´e jusqu’ici laiss´e volontairement ambigu. En effet, la recherche d’une meilleure quantit´e est r´ealis´ee en math´ematiques au sens d’une certaine norme. Par exemple, le probl`eme de minimisation de la POD (2.67) a ´et´e pos´e ici au sens de la norme de Frobenius. On peut alors se poser la question du choix de cette norme.

Ainsi, la quantit´e minimis´ee dans le probl`eme (2.67) se r´e´ecrit d’apr`es la d´efinition de la norme de Frobenius : kS − Zk2F = s X k=1 (Sk− Zk)t(Sk− Zk) , (2.70)

avec, on le rappelle, Sk la k`eme colonne de S. En introduisant la matrice D = S − Z, la pr´ec´edente quantit´e se r´e´ecrit finalement

kS − Zk2F = s X k=1 DtkDk (2.71) = s X k=1 kDkk2 (2.72)

On voit alors que la minimisation avec la norme de Frobenius fait intervenir la norme canonique k·k de l’espace Euclidien RN sur les diff´erents snapshots. `A l’exception des courants s’il y a un couplage circuit, les snapshots repr´esentent des solutions dans la base EF. Or, appliquer la norme canonique sur une solution EF n’est pas forc´ement la meilleure d´emarche d’un point de vue physique, comme

R´eduction des probl`emes lin´eaires 63

on l’a vu dans la sous-section 2.1.3. Il pourrait par exemple ˆetre int´eressant d’utiliser la norme k·kEF d´efinie dans (2.53) notamment grˆace `a la matrice Mk·k dont l’expression est donn´ee par (2.51). Par abus de notation, on d´efinit alors la norme matricielle k·kEF pour une matrice C ∈ RN ×s :

kCk2EF = s X k=1 CtkMk·kCk (2.73) = s X k=1 kCkk2EF. (2.74)

Ainsi, on d´efinit le probl`eme POD-´energ´etique qui consiste `a

Trouver ˜S ∈ RN ×s tel que ˜

S = arg min rg(Z)=m

kS − Zk2EF, m ≤ s (2.75)

La solution `a ce probl`eme n’est g´en´eralement pas directement donn´ee par les biblioth`eques de SVD classiques. Cependant, elle s’obtient facilement par l’approche utilisant la matrice de corr´elation Mcor (voir section 2.1.1.3), lorsque celle-ci est calcul´ee grˆace au produit scalaire induit par la matrice Mk·k. De fa¸con explicite, il s’agit de calculer la d´ecomposition aux valeurs propres (Λ,V:s) de la matrice de corr´elation Mk·kcor = StMk·kS5 :

Mk·kcor = StMk·kS (2.76)

= V:sΛVt:s. (2.77)

Ensuite, on calcule la base POD ´energ´etique U:m par la formule (2.22) (avec toujours Λ = (Σ:m:m)2)

U:m= SV:m(Σ:m:m)−1. (2.78)

Bien que la base POD ´energ´etique ait d´ej`a ´et´e trouv´ee, la solution au probl`eme de minimisation (2.75) est donn´ee par l’approximation de faible rang au sens de la norme k·kEF :

˜

S = U:mΣ:m:mV:m (2.79)

Pour r´esumer, on parle de POD-´energ´etique lorsque le probl`eme de minimisation est r´esolu au sens de la norme k·kEF et de POD-SVD quand la r´esolution est au sens de la norme canonique de RN. De fa¸con pratique, la seule diff´erence est que la POD-´energ´etique n´ecessite de calculer une d´ecomposition aux valeurs propres sur la matrice Mk·kcor = StMk·kS tandis qu’avec la POD-SVD, ce calcul est r´ealis´e sur Mcor = StS.

Remarque 2.5. On peut ´egalement r´ealiser une POD ´energ´etique au sens de la semi-norme induite par la matrice M|·| introduite dans la section 2.1.3.4. En effet, les snapshots peuvent ˆetre issus de r´esolutions num´eriques it´eratives pour lesquelles les potentiels n’ont pas ´et´e jaug´es.

2.2.1.1.C Troncature de la base r´eduite

Nous avons vu comment calculer une base r´eduite de taille m avec la m´ethode POD, `a partir de s snapshots, avec m < s. On peut alors se poser la question du nombre m. En effet, si celui-ci est trop faible, il se peut que l’information issue des snapshots ait ´et´e trop compress´ee (`a l’image des approximations de faible rang pr´esent´ees dans la figure 2.1). Dans ce cas, ceci peut mener `a une

approximation trop grossi`ere de la solution EF. Au contraire, si m est trop important, le temps de calcul peut cesser d’ˆetre avantageux par rapport au mod`ele EF.

L’avantage de la m´ethode POD est d’offrir un crit`ere naturel afin de choisir m. En effet, la formule (2.23) permet de d´efinir une erreur due `a la troncature `a l’ordre m de l’approximation de faible rang Sm. On a alors l’erreur relative suivante svd(m) d´efinie par

svd(m) = kS − Smk F kSkF (2.80) et d’apr`es (2.23), on a svd(m) = s Ps k=m+1σk2 Ps k=1σ2k . (2.81)

C’est donc ce crit`ere qui va permettre de choisir m. En effet, les s valeurs singuli`eres σk,k = 1, . . . ,s sont connues. Ainsi, on va choisir m telle que svd ≤ η, o`u η est un param`etre d´efini par l’utilisateur (par exemple η = 10−4) :

Trouver m ∈ {1, . . . ,s} tel que

svd(m) ≤ η , (2.82)

Remarque 2.6. Il est `a noter que svd diff`ere de l’erreur due `a la r´eduction de mod`eles. En effet, svd(m) ne refl`ete que la compression de la matrice de snapshots et non pas l’erreur qui va ˆetre commise par le mod`ele r´eduit. Celle-ci est en effet tr`es dure `a estimer a priori, notamment pour les probl`emes non lin´eaires coupl´es, comme on le verra par la suite.

2.2.1.1.D POD en pratique

Bien que la th´eorie sur laquelle s’appuie la POD ne soit pas triviale, elle est en pratique tr`es facile `a impl´ementer. De plus, le lecteur pourra retenir qu’en pratique, la POD permet de s´electionner les m vecteurs orthonorm´es les plus repr´esentatifs (au sens d’une certaine norme) parmi s snapshots (avec s > m). Finalement, l’algorithme 4 r´esume l’approche permettant de trouver la base r´eduite `a partir d’une matrice de snapshots S, et ainsi, d’obtenir le syst`eme r´eduit (2.64).

Algorithme 4 : Obtention du syst`eme r´eduit par la m´ethode POD Donn´ees : i) Une matrice de snapshots S ∈ RN ×s.

ii) Un param`etre de pr´ecision utilisateur η. ; R´esultat : Syst`eme r´eduit (2.64) de taille m

Calcul du triplet (U:s,Σ:s:s,V:s) par la POD-SVD (2.68) ou la POD-´energ´etique (2.79); Calcul de m tel que svd(m) < η (2.82) Calcul de la base r´eduite Ψ de taille m : Ψ = U:m ; Approximation de X(t) par ˜X(t) = ΨXr(t), avec Xr∈ Rm ;

Projection de Ritz-Galerkin sur le syst`eme (2.63) avec Φ = Ψ, menant au syst`eme r´eduit (2.64) ;