• Aucun résultat trouvé

Interprétation algébrique des reconstructions consistantes

Étude de la reconstruction locale en maillage non structuré

7.8. Interprétation algébrique des reconstructions consistantes

7.8. Interprétation algébrique des reconstructions consistantes

L’objectif de cette section est d’exprimer les solutions de l’équation matricielle de consistance (7.6.3) sous deux formes spécifiques qui serviront dans la suite à analyser le comportement des schémas numériques.

On rappelle la définition (7.2.1) du voisinage de reconstruction

Wα, {β| Tβ contribue à la reconstruction dans Tα, β 6= α} et la définition (7.2.2)

mα , |Wα|

du nombre des cellules qui contribuent à la reconstruction dans la cellule Tα, à l’exclusion de la cellule Tα elle-même.

Comme la forme générale de l’équation (7.6.3) est indépendante du degré k des polynômes reconstruits, on peut, pour les besoins de cette section, supposer que k = 1, ce qui entraîne

 k + d

d 

− 1 = d .

La matrice géométrique Hαa mα lignes qui sont, dans le cas k = 1, les mαvecteurs géométriques htαβ, pour β ∈ Wα= {β1, . . . , β} Hα =    htαβ1 ... htαβ    ∈ Mmα,d(R) . (7.8.1)

Dans le cas k = 1, la forme générale des fonctions reconstruites (7.5.5) est wα[u] (x) = uα+ w(1)αβ[u] • (x − xα)

w(1)α [u] =X

β

w(1)αβuβ

est un gradient consistant au sens de la définition 7.4.1 et u = (u1, . . . , uN) est le vecteur des moyennes de cellule. Pour les besoins de la reconstruction du gradient, le gradient w(1)α [u] est désormais noté σα[u] et les coefficients w(1)αβ s’appellent σαβ , w(1)αβ

σα[u] =X

β

σαβuβ. (7.8.2)

Rappelons que σαβ , 0 par définition dans (7.8.2) si la cellule Tβ n’est pas dans le voisinage de reconstruction de la cellule Tα. La matrice Sαa d lignes et mα colonnes qui sont les mαvecteurs σαβ, pour β ∈ Wα= {β1, . . . , βmα}

Sα=

σαβ1, . . . , σαβ

∈ Md,mα(R) . (7.8.3)

Avec ces définitions, l’équation (7.6.3) est donnée par

SαHα= Id (7.8.4)

On peut alors énoncer le

Théorème 7.8.1 (Caractérisation des reconstructions consistantes comme espace affine de matrices). Si la matrice Hα dans (7.8.4) est injective, la solution générale de l’équation (7.8.4) pour l’inconnue Sα est de la forme

Sα = eSα+ ΛαBα. (7.8.5)

Dans l’équation (7.8.5), eSα ∈ Md,mα(R) est une solution particulière de (7.8.4). La matrice Bα∈ Mmα−d,mα(R) est une solution de l’équation homogène associée à (7.8.4), donnée par

où 0mα−d,d ∈ Mmα−d,d(R) est la matrice nulle. Le rang de Bα est égal à mα − d et Λα ∈ Md,mα−d(R) est une matrice réelle arbitraire.

Démonstration. Si la matrice Hα ∈ Mmα,d(R) est injective, la proposition 7.2.2 montre que l’équation (7.8.4) admet au moins une solution particulière eSα. De plus, on a nécessairement mα ≥ d. Dans le cas mα = d, l’injectivité de Hα entraîne la bijectivité de Hα et la solution de (7.8.4) admet l’unique solution eSα = H−1

α .

Si mα> d, la solution de (7.8.4) n’est pas unique car dans ce cas la matrice Hαt ∈ Md,mα(R) a un noyau de dimension mα− d > 0. Il existe donc des vecteurs b ∈ R tels que

Hαtbt= 0 ou de façon équivalente

bHα = 0 . (7.8.7)

Puisque la dimension du noyau de Ht

α est mα − d, il existe une famille de mα − d vecteurs libres {b1, . . . , bmα−d} qui satisfont (7.8.7). Ces vecteurs forment les lignes d’une matrice Bα ∈ Mmα−d,mα(R) qui satisfait l’équation homogène (7.8.6). Comme les mα− d vecteurs lignes de Bα sont libres, la matrice Bα a un rang égal à mα− d. Cela est le rang maximal qu’elle peut avoir car le nombre mα de ses colonnes est plus grand que le nombre de ses lignes, c’est-à-dire mα> mα− d. Si eSαest une solution particulière de (7.8.4) et Λα ∈ Md,mα−d(R) est une matrice arbitraire, la matrice

Sα= eSα+ ΛαBα est également solution de (7.8.4) car

SαHα= e

Sα+ ΛαBα

Hα = eSαHα = Id.

Réciproquement, si eSα et Sα sont deux solutions de (7.8.4), leur différence est une solution de

l’équation 

Sα− eSα

Hα = 0d,d

où 0d,d∈ Md,d(R) est la matrice nulle. Les lignes de la matrice Sα− eSαsont donc des éléments du noyau de Ht

α, ce qui signifie qu’elles peuvent être écrites sous la forme de combinaisons linéaires des vecteurs {b1, . . . , bmα−d} . Par conséquent, la matrice Sα− eSα peut être représentée comme

Sα− eSα = ΛαBα.

Cela prouve que l’ensemble des solutions de l’équation (7.8.4) forme un sous-espace affine de

l’espace des d × mα matrices. 

L’espace des solutions de (7.8.4) possède une autre interprétation mathématique basée sur une analyse algébrique de (7.8.4). Dans cette section, l’indice α est omis afin de faciliter la notation. Les matrices (7.8.1) et (7.8.3) s’interprètent comme des applications linéaires

H : Rd → Rm S : Rm → Rd. Cette notation permet de formuler le

Théorème7.8.2 (Caractérisation des reconstructions consistantes par des projecteurs). Soit H ∈ Mm,d(R) avec d ≤ m. Supposons que H soit de rang d et considérons l’équation (7.8.4)

SH = Id

pour l’inconnue matricielle S ∈ Md,m(R).

(i) L’équation (7.8.4) a des solutions si et seulement si rang (H) = d.

(ii) Le choix d’une solution S de (7.8.4) est équivalent au choix d’un sous-espace W =

Ker (S) supplémentaire de Im (H) dans Rm.

(iii) L’application HS : Rm −→ Rm est un projecteur qui projette les vecteurs de Rm sur Im (H) parallèlement à W = Ker (S).

7.8. INTERPRÉTATION ALGÉBRIQUE DES RECONSTRUCTIONS CONSISTANTES 93

(iv) La forme générale de la solution est

SW= WtH−1

Wt (7.8.8)

où W ∈ Mm,d(R) est une matrice dont les lignes forment une base du complément

orthogonal Wde W. La solution SW ne dépend que de la matrice H et du sous-espace

W et non pas de la matrice particulière W .

Démonstration. Si le rang de H est inférieur à d, il existe un vecteur σ ∈ Rd, σ 6= 0, tel que Hσ = 0. Par conséquent, (7.8.4) ne peut avoir de solutions. Si le rang de H est égal à d, H est injective et la proposition 7.2.2 prouve l’existence de solutions S de (7.8.4). Cela prouve le point (i).

Dans la suite de la démonstration, on suppose que des solutions S de (7.8.4) existent, c’est-à-dire que H est injective, ce qui entraîne que le sous-espace Im (H) ⊆ Rm est de dimension d. Si une matrice S est solution de l’équation (7.8.4), S est nécessairement surjective. Le noyau Ker (S) ⊆ Rm de l’application S est par conséquent de dimension m − d. De plus, l’équation (7.8.4) implique que l’intersection de Ker (S) et Im (H) est {0}. La somme de Im (H) et de Ker (S) est par conséquent une somme directe, c’est-à-dire que tout vecteur dans cette somme se décompose de façon unique sous la forme

u= uH + uS, uH ∈ Im (H) , uS ∈ Ker (S) . (7.8.9) La prochaine étape est de prouver que la somme de Im (H) et de Ker (S) est égale à Rm. On rappelle le théorème suivant, cf. [35, section 4.4, p.79]. Soient U et U′′ deux sous-espaces arbitraires d’un espace vectoriel de dimension finie, alors la dimension de leur somme est donnée par

dim U+ U′′= dim U+ dim U′′− dim U∩ U′′ . L’application de cette relation aux sous-espaces Im (H) et Ker (S) donne

dim (Im (H) + Ker (S)) = dim (Im (H)) + dim (Ker (S)) − dim (Im (H) ∩ Ker (S))

= d + (m − d) + 0 = m . Les sous-espaces Im (H) et Ker (S) sont donc en somme directe et

Rm

= Im (H) ⊕ Ker (S) . (7.8.10)

Cette relation signifie que tout vecteur u ∈ Rm possède une décomposition unique de la forme (7.8.9).

Ce résultat permet maintenant de voir les solutions de (7.8.4) sous un autre angle. La re-lation (7.8.10) montre en effet que le choix de S est équivalent au choix d’un sous-espace W supplémentaire de Im (H) dans Rm.

(1) D’une part, le choix d’une matrice S satisfaisant (7.8.4) détermine un sous-espace W = Ker (S) qui est un supplémentaire de Im (H) d’après la discussion ci-dessus.

(2) D’autre part, si W est un sous-espace de Rm tel que Rm = Im (H) ⊕ W, alors tout vecteur u ∈ Rm possède une décomposition unique de la forme u = uH + uW , uH ∈ Im (H) , uW ∈ W. D’ailleurs, uH ∈ Im (H) signifie qu’il existe un σ ∈ Rd tel que uH = Hσ et ce σ est unique en raison du rang de H. Il suffit maintenant de poser SuW = 0 pour tout uW ∈ W pour déterminer complètement les valeurs de S. En effet, il vient d’abord

Su = SuH + SuW = SuH = SHσ = σ . (7.8.11)

Ceci montre que le choix de W = Ker (S) détermine complètement les valeurs de S et démontre le point (ii).

La multiplication de (7.8.11) par H à gauche

montre que HS est un projecteur sur le sous-espace Im (H). La matrice HS est effectivement idempotente en vertu de (7.8.4)

(HS) (HS) = H (SH) S = HS .

On peut donc interpréter HS comme un projecteur qui projette les vecteurs de Rm sur Im (H) parallèlement à W = Ker (S).

Quelle est la forme générale de S dans cette approche ? Il suffit de déterminer d vecteurs libres qui forment une base du complément orthogonal W de W. Le sous-espace W est déterminé de façon unique par W. Ces d vecteurs forment les lignes d’une d × m matrice W et les colonnes de sa transposée Wt. La transposée Wt a des propriétés importantes. On a par définition W ⊆ Ker Wt. Le rang de Wt est égal à d, donc la dimension de Ker Wt est m − d, ce qui est la même dimension que celle de W. Ceci prouve que Ker Wt

= W. Ensuite, Im (H) ∩ W = (0) signifie que Im (H) ∩ Ker Wt

= (0). Cela entraîne que la matrice WtH est inversible car pour tout vecteur σ ∈ Rd, σ 6= 0 il vient WtHσ 6= 0. Ceci permet de former la matrice (7.8.8)

SW= WtH−1 Wt

qui est visiblement une solution de (7.8.4) et dont le noyau est par définition égal à W. Même si la matrice Wt n’est pas unique car le sous-espace W a une infinité de bases, la matrice SW est unique car uniquement déterminée par le sous-espace W et la matrice H dans la relation

(7.8.11). 

La forme générale (7.8.8) suggère plusieurs remarques. D’un côté, cette formule donne une méthode générale pour fabriquer des reconstructions consistantes de gradients. De l’autre côté, elle montre un problème potentiel de la reconstruction qui se manifeste parfois dans les calculs. Le sous-espace W peut être tel que la matrice WtH soit presque singulière. Dans ce cas, la norme de son inverse WtH−1

peut devenir très grande. Ceci signifie que pour de “petits” vecteurs u l’image WtH−1

Wtu peut devenir très grande. La conséquence est que de petites fluctuations

autour d’une cellule peuvent provoquer des gradients forts, ce qui n’est pas souhaitable dans une simulation numérique.

Finalement, le fait que la reconstruction consistante du gradient soit identifiable à une pro-jection sur un sous-espace pose une question supplémentaire. Quelle est la méthode associée à la projection orthogonale, c’est-à-dire à la projection parallèle à (Im (H))? Dans ce cas, W = (Im (H)), donc W = Im (H) et le choix W = H est possible car les colonnes de H forment une base de W= Im (H). La matrice d’interpolation devient la matrice

S = HtH−1 Ht

dans laquelle on peut reconnaître la pseudo-inverse ou inverse de Moore-Penrose de H. La section 7.9.1 apporte pour k = 1 la preuve que cette solution particulière de (7.8.4) coïncide avec la reconstruction classique des moindres carrés.

7.9. Analyse de deux méthodes particulières pour la reconstruction linéaire par