• Aucun résultat trouvé

2.6 Résolution de l’équation d’équilibre

2.6.2 Méthodes itératives

La résolution itérative de (2.27) consiste à générer une suite d’approximations (uk)k de la

solution u, à partir d’une approximation initiale de la solution, tout en faisant tendre le résidu rk du système linéaire vers zéro :

rk= f − Kuk

Le principal avantage des méthodes itératives est qu’aucune factorisation de la matrice K n’est considérée. Ainsi, l’opération la plus coûteuse d’une méthode itérative correspond à la multiplication de la matrice de rigidité matrice K par un vecteur x. Généralement, pour réaliser cette opération, la matrice K est assemblée puis multipliée au vecteur x. Toutefois, la construc- tion de K pouvant s’avérer coûteuse en terme de mémoire, Hughes et al. (1983) proposa la méthode de multiplication puis d’assemblage suivante :

Kx = N X i=1 h Kixi i (2.29)

où N est le nombre d’éléments du maillage, Kiest la matrice de rigidité élémentaire de l’élément i, xi représente les degrés de liberté nodaux de l’élément i et [ ] est le procédé d’assemblage par

blocs des vecteurs Kixi dans le vecteur Kx.

Bien que cette technique présente l’avantage de ne jamais assembler la matrice de rigidité K, l’accès mémoire à la construction de chaque matrice de rigidité élémentaire peut s’avérer important. En effet, chaque matrice étant associée à un élément du maillage, introduire différents types d’éléments (Figure 2.2a) conduit à définir des matrices de rigidité élémentaires différentes l’une de l’autre. Une approche pour réduire les temps de calcul consiste alors à utiliser un seul type d’élément pour définir le maillage de la structure (Figure 2.2b). Ainsi, une seule matrice

de rigidité est nécessaire pour évaluer le produit Kx, et la quantité de mémoire utilisée pour la résolution du système linéaire est drastiquement réduite (Yadav & Suresh (2014)).

(a) Discrétisation générant plusieurs matrices de rigidité élémentaire

(b) Discrétisation amenant à une seule matrice de rigidité élémentaire

Figure 2.2 – Différentes discrétisation d’une structure avec des éléments quadrangles De nombreuses méthodes itératives classiques ont été développées : méthodes de Jacobi et Gausse-Seidel (Saad (1992)), méthode de sur-relaxation successive (Young & Eidson (1970)) ou encore le schéma semi-itératif de Chebyshev (Golub & Varga (1961)). Cependant, l’une des techniques itératives les plus connues pour résoudre le système linéaire (2.27) est la méthode du gradient conjugué (Reid (1971)), dont la procédure est illustrée dans l’Algorithme 1.

Algorithm 1 Algorithme du gradient conjugué - Reid (1971) input: K, f, une approximation initiale u0 et une tolérance τ

1: Initialisation de k = 0 2: Calcul de r0 = f − Ku0 ; p0 = r0 3: while ||f − Kuk||2 ||f ||2 > τ do 4: αk= r>krk p>kKpk 5: uk+1= uk+ αkpk 6: rk+1= rk− αkKpk 7: βk= rk+1> rk+1 r>krk 8: pk+1= rk+1+ βkpk 9: k = k + 1 10: end while output: uk

Le critère principal d’évaluation d’une méthode itérative concerne la vitesse de convergence vers la solution du système. Celle-ci dépend directement du conditionnement de la matrice K, noté κ(K). Cette matrice étant symétrique définie positive, son conditionnement correspond au rapport entre sa plus grande et sa plus petite valeur propre. Le théorème de convergence du gradient conjugué nous assure que (Golub & Van Loan (2012)) :

||u − uk||K ≤ 2 p κ(K) − 1 p κ(K) + 1 !k ||u − u0||K

où ||u||K :=√u>Ku. Ainsi, plus le conditionnement de la matrice K est petit (correspondant

à un spectre de valeurs propres rapproché), plus l’algorithme du gradient conjugué converge rapidement. Diverses techniques, telles que le précondionnement ou la réduction de modèle, ont été développées dans le but de réduire la dispersion du spectre des valeurs propres de la matrice associée au système linéaire considéré.

Méthode de précondionnement

Le processus de préconditionnement consiste à transformer le spectre des valeurs propres de la matrice K sans modifier la taille du système afin d’obtenir un système avec un meilleur conditionnement. En définissant une matrice de préconditionnement M ∈ Rn×n symétrique définie positive telle que M = CC>, avec C ∈ Rn×n symétrique définie positive, alors le système (2.27) devient :

f

K ˜u = ˜f (2.30)

K = Cf −1KC−1, ˜u = Cu et ˜f = C−1f .

Une des stratégies de préconditionnement les plus utilisées repose sur une factorisation in- complète de Cholesky de la matrice K (Manteuffel (1980)). L’objectif est d’obtenir une matrice triangulaire creuse approximant la factorisation exacte de Cholesky (2.28). D’autres techniques de préconditionnement existent. Pour de plus amples informations sur celles-ci, le lecteur est renvoyé vers les travaux de Saad (1992) et Golub & Van Loan (2012). Il est important de noter que pour des systèmes de grandes tailles, le coût en mémoire des méthodes de préconditionne- ment reste élevé. Une autre approche repose sur le concept de réduction de modèle.

Méthodes de réduction de modèle

Les méthodes de réduction de modèle ont pour but de réduire le nombre de variables du système linéaire (2.27). Ce type d’approche permet notamment de faire décroître grandement le coût en mémoire de la méthode de résolution utilisée.

La première étape consiste à définir une matrice rectangulaire W de taille n × m où m << n. Ensuite, le problème initial est projeté sur l’espace réduit :

où ¯u ∈ Rmreprésente l’inconnue du système réduit qui peut être résolu par des méthodes directes puisque sa dimension est de m × m et m << n. Les coefficients de la solution initiale u peuvent être obtenus par une opération dite de prolongation :

u = W ¯u (2.32)

On définit aussi l’opération de restriction telle que : ¯

u = W>u (2.33)

La précision de la solution approchée est estimée à l’aide du résidu suivant : r = ||KW ¯u − f ||2

||f ||2 (2.34)

Saad et al. (2000) proposèrent d’intégrer le concept de réduction de modèle au sein de l’algorithme du gradient conjugué. Cette procédure, illustrée dans l’Algorithme 2, porte le nom de deflated conjugate gradient method et sera appelée méthode du gradient conjugué en base réduite par la suite.

Algorithm 2 Algorithme du gradient conjugué en base réduite - Saad et al. (2000) input: K, f, une approximation initiale u0 et une tolérance τ

1: Construction de l’espace réduit W

2: Calcul de r0 = f − Ku0 3: Calcul de u1 = u0+ W (W>KW )−1W>r0 4: Calcul de r1 = f − Ku1 5: Résolution de W>KW µ1 = W>Kr1 6: Calcul de p1= r1− W µ1; k = 1 7: while ||f − Kuk||2 ||f ||2 > τ do 8: αk= r>krk p>kKpk 9: uk+1= uk+ αkpk 10: rk+1= rk− αkKpk 11: βk= rk+1> rk+1 r>krk 12: Résolution de W>KW µk+1 = W>Krk+1 13: pk+1= βkpk+ rk+1− W µk+1 14: k = k + 1 15: end while output: uk

Dans la littérature (Bulgakov & Kuhn (1995); Wang et al. (2007); Gogu (2015)), diverses techniques ont été proposées pour construire l’espace réduit W . Wang et al. (2007) proposèrent d’utiliser les sous espaces de Krylov pour construire l’espace réduit. Gogu (2015) proposa de

construire la matrice de réduction de modèle dynamiquement au cours d’une optimisation to- pologique. L’espace réduit est construit successivement en fonction des solutions des équations d’équilibre précédentes et de la convergence de l’optimisation topologique.

Les méthodes multi-grid (McCormick (1987); Briggs et al. (2000)) sont basées sur l’idée de construire la matrice du système réduit à partir d’une discrétisation plus grossière que celle considérée. L’opération de restriction (2.33) permet de passer du maillage fin au maillage grossier. Puis la solution issue de la discrétisation d’origine est obtenue par l’opération de prolongation (2.32). Bulgakov & Kuhn (1995) proposèrent de substituer le concept de maillage grossier avec une technique d’agglomération où les noeuds issus de la discrétisation en éléments finis sont répartis dans un faible nombre de groupes (Figure 2.3).

(a) Structure Ω (b) Agglomération en 4 groupes des noeuds de Ω

Figure 2.3 – Exemple de la technique d’agglomération pour construire une matrice de réduction de modèle

Ensuite, l’espace réduit W peut être construit en traitant chaque groupe comme un corps rigide (Yadav & Suresh (2014)). On associe à chaque centre de groupe 6 degrés de liberté : trois translations (ug, vg, wg) selon les trois axes de l’espace, et trois rotations (θg, ψg, φg) autour

de ces axes. Ensuite, les trois degrés de liberté (un, vn, wn) associés à chaque noeud de chaque

groupe peuvent être exprimés comme :

   un vn wn   =    1 0 0 0 zg− zn −(yg− yn) 0 1 0 −(zg− zn) 0 xg− xn 0 0 1 yg− yn −(xg− xn) 0   dg (2.35)

où (xg, yg, zg) et (xn, yn, zn) sont les coordonnées respectives du centre du groupe et du noeud