• Aucun résultat trouvé

1 Solutions périodiques et méthodes temporelles

2.1 Principe théorique

La HBM est une application directe de la méthode de Galerkine, que nous avons déjà pu mentionner au chapitre précédent. Elle consiste à rechercher la solution du système (II.1) dans l’espace engendré par la famille libre de fonctions trigonométriques de pulsation fondamentale Ê = 2fi/T , tronquée à l’ordre nh. La solution est donc recherchée sous la forme d’une série de Fourier à coefficients réels, donnée par l’expression (II.12).

x(t) ¥ a0+ÿnh k=1

(akcos(kÊt) + bksin(kÊt)) (II.12) Cette hypothèse permet de garantir la périodicité de la solution, imposée ici a priori. Nous verrons plus loin comment traiter par une approche similaire le cas des systèmes autonomes dont la période est inconnue.

2.1.1 Mise en équations

L’espace de réduction de la méthode de Galerkine étant donné, le résidu r(t) résultant de la substitution de (II.12) dans (II.1) doit être orthogonalisé par rapport à ce même sous-espace. On peut utiliser pour cela le produit scalaire (II.13) défini sur l’ensemble des fonctions continues à valeurs dans R sur l’intervalle [0, T],

’(f, g) œ C([0, T ])2, Èf|gÍ = 2 T

T

0 f(t)g(t)dt (II.13) En utilisant les notations c0= 1, ck = cos(kÊt), sk= sin(kÊt), la condition d’orthogonalité du résidu par rapport à une fonction Ï de la base du sous-espace donne l’expression (II.14).

Èr|ÏÍ = M nh ÿ k=1≠(kÊ)2(akÈck|ÏÍ + bkÈsk|ÏÍ) +Cÿnh k=1≠(kÊ) (akÈsk|ÏÍ ≠ bkÈck|ÏÍ) +Kÿnh k=1 (akÈck|ÏÍ + bkÈsk|ÏÍ) +Ka0Èc0|ÏÍ + Èf|ÏÍ ≠ Èg|ÏÍ (II.14)

42 Chapitre II. Approche fréquentielle non-linéaire

En tenant compte de l’orthogonalité des fonctions de base pour le produit scalaire choisi, le système d’équations peut se simplifier, pour aboutir au système (II.15).

Èr|c0Í = 2Ka0+ Èf|c0Í ≠ Èg|c0Í = 0 (II.15a) Èr|ckÍ = (K ≠ (kÊ)2M)ak+ (kÊ)Cbk+ Èf|ckÍ ≠ Èg|ckÍ = 0 (II.15b) Èr|skÍ = (K ≠ (kÊ)2M)bk≠ (kÊ)Cak+ Èf|skÍ ≠ Èg|skÍ = 0 (II.15c) En matière de programmation, il est souvent plus pratique d’écrire le système d’équations (II.15) sous une forme matricielle plus compacte

Z (Ê) xh+ fh(xh, Ê) ≠ gh= 0 (II.16) où, en raison du produit scalaire utilisé pour l’étape d’orthogonalisation de la méthode de Galerkine, les différents termes des vecteurs xh, fh, et gh, ne sont autres que les co-efficients des développements en série de Fourier des vecteurs x(t), f(x, ˙x), et g(t). La matrice de rigidité dynamique multi-harmonique Z est une matrice tridiagonale par blocs, se présentant sous la forme suivante

Z = Q c c c c c c c c c c a 2K Z1 ... Zk ... Znh R d d d d d d d d d d b (II.17)

et où chacun des blocs Zk a pour expression, Zk= A K ≠ (kÊ)2M kÊC ≠kÊC K ≠ (kÊ)2M B , ’k œ [[1, nh]] (II.18) La méthode de l’équilibrage harmonique permet ainsi de transformer le système d’équa-tions différentielles initial (II.1) en un système d’équations algébriques, dont la résolution est discutée dans la section suivante.

2.1.2 Éléments de résolution

La résolution du système (II.16) peut ensuite être abordée numériquement, à l’aide d’un solveur itératif se basant par exemple sur la méthode de Newton-Raphson. Cette mé-thode est au cœur de nombreux algorithmes utilisés pour trouver les racines d’un système d’équations algébriques non-linéaires tel que (II.16), pouvant s’écrire sous la forme

r(q) = 0 (II.19)

avec q le vecteur renfermant l’ensemble des variables du problème. Le principe de la méthode est de déterminer la solution q0satisfaisant l’équation (II.19) de manière itérative, en partant d’un vecteur initial q(0), et en évaluant à l’itération k l’incrément q à ajouter au vecteur q(k)pour se rapprocher de la solution. Cette approche est commune à l’ensemble des algorithmes à directions de descente. Dans le cas de la méthode de Newton-Raphson,

2. Méthode de l’équilibrage harmonique 43 le calcul de l’incrément est basé sur le développement de Taylor au premier ordre de l’équation (II.19), ce qui conduit à résoudre le système algébrique linéaire

ˆr ˆq 1 q(k)2 · q = ≠r1q(k)2 (II.20) dans lequel apparaît la matrice jacobienne du système algébrique, évaluée en q(k). Le nouvel itéré est alors simplement obtenu par

q(k+1) = q(k)+ q (II.21)

et le processus est répété jusqu’à obtention d’un vecteur q0 vérifiant l’équation (II.19) de façon satisfaisante, selon un critère d’arrêt arbitraire défini en amont, généralement basé sur la norme du résidu, de type ||r(q0)|| < ‘, et sur la stabilisation des valeurs de q.

Dans ce travail, la résolution des systèmes d’équations algébriques rencontrés a dans la majeure partie des cas été réalisée avec un algorithme à région de confiance [25], im-plémenté dans la fonction fsolve de MATLAB. Mentionnons simplement que ce type d’algorithmes, plus robustes mais plus complexes à mettre en œuvre que les algorithmes à directions de descente, requièrent également la connaissance de la matrice jacobienne du système à résoudre à chaque itération, d’où l’importance de connaître une expression analytique de cette matrice. Nous reviendrons sur ce point en sectionII.2.4.

La résolution itérative du système d’équations algébriques (II.16) obtenu par équi-librage harmonique revient à rechercher une solution périodique de (II.1) directement dans le domaine fréquentiel. Néanmoins, pour certaines applications particulières telles que l’on peut en retrouver en mécanique des fluides, il est parfois préférable de résoudre ce système dans le domaine temporel à l’aide d’intégrateurs. Pour ce faire, le système (II.16) est prémultiplié par une matrice de transformée de Fourier discrète inverse, et les variables fréquentielles sont exprimées en fonction des signaux temporels correspondant échantillon-nés, à l’aide d’une matrice de transformée de Fourier discrète. Le système mathématique obtenu est alors l’image du système (II.16) dans le domaine temporel, dont les inconnues ne sont autres que les échantillons du signal périodique x(t). La résolution de ce nouveau système est alors abordé par intégration temporelle en introduisant un pseudo-temps per-mettant de converger vers le régime stationnaire de la solution. Cette méthode combinant approche par équilibrage harmonique et résolution temporelle est généralement désignée par TSM, pour Time Spectral Method. On pourra se référer aux travaux de Hall et al. [56], Gopinath et Jameson [48], et Weide et al. [168] à ce sujet, ou bien au travail de thèse de Sicot [150]. Dans nos travaux, nous nous contenterons d’une résolution dans le domaine fréquentiel.

Nous allons voir dans la suite de cette section comment améliorer à la fois la ro-bustesse et les performances de la HBM en vue de son implémentation dans un code de calcul. Dans un premier temps, nous explicitons la procédure de calcul des coefficients de Fourier du terme non-linéaire, dont la complexité a été volontairement omise jusqu’à présent. Nous présentons également une méthode de continuation très classique, dont le but est de pallier l’incapacité des techniques séquentielles standards face à certains com-portements pathologiques de la réponse, résultant de phénomènes de bifurcations propres

44 Chapitre II. Approche fréquentielle non-linéaire

aux systèmes non-linéaires. Nous explicitons ensuite l’expression analytique de la matrice jacobienne du système, dont l’importance vient d’être soulignée, ce qui permet d’exploiter pleinement le potentiel de la HBM en réduisant considérablement les temps de calcul du solveur. Nous concluons enfin en présentant une transformation du système algébrique permettant de condenser le problème sur les degrés de liberté non-linéaires, ce qui s’avère très intéressant en cas de non-linéarités localisées telles que le frottement.