• Aucun résultat trouvé

4.6 Performances des méthodes en simulation

4.6.4 Blocages de l’algorithme de Gauss-Newton

Une deuxième limitation observée avec la formulation du problème d’iden- tification proposée dans ce chapitre concerne la convergence de l’algorithme de Gauss-Newton. Nous avons vu que la méthode de Gauss-Newton per- met d’obtenir l’identification la plus précise lorsqu’un niveau important de bruit coloré affecte les mesures. Cependant, dans certains cas, on peut ob- server des blocages numériques de sa convergence. Ceux-ci, lorsqu’ils ont lieu, dégradent fortement les performances de cette méthode et sont donc très pénalisant. Comme nous le détaillerons au Chapitre 6, ces blocages de convergence sont provoqués par les contraintes induites par l’utilisation d’un

0 5 10 15 20 25 −0.01 0 0.01 y 1(t) 0 5 10 15 20 25 −4 0 4x 10 −3 y2(t) 0 5 10 15 20 25 −0.05 0 0.05 t (s) y 3(t)

4.7 Bilan 83

paramétrage pseudo-canonique. Afin d’éviter de telles situations de blocage, nous proposons au Chapitre 5 l’utilisation de nouveaux paramétrages des fractions matricielles. Au Chapitre 6, nous détaillerons ensuite deux nou- veaux schémas de convergence fondés sur ces paramétrages.

4.7

Bilan

Dans ce chapitre, nous avons généralisé au cas des fonctions de transfert MIMO la formulation de la méthode de Sanathanan-Koerner, de la méthode de Gauss-Newton et d’une méthode, présente dans la littérature, qui utilise une variable instrumentale (VI). Fondée sur l’utilisation d’un paramétrage pseudo-canonique, la généralisation proposée pour chacun des algorithmes permet d’identifier des systèmes de tout ordre possible. Une comparaison analytique de leur schéma de convergence a permis de montrer le lien exis- tant entre ces trois algorithmes d’identification. Les performances de ces méthodes, lorsque différents niveaux de bruit coloré affectent les mesures, ont ensuite été discutées à travers l’étude d’un cas de simulation. Ainsi, pour des niveaux de bruit faibles, les trois méthodes donnent des résultats très proches. En revanche, lorsque les niveaux de bruit augmentent, la mé- thode de Sanathanan-Koerner donne les moins bons résultats. L’algorithme de Gauss-Newton est, au contraire, la méthode qui procure la meilleure pré- cision. Toutefois, par rapport à l’algorithme VI, il requiert un nombre plus important d’itérations. Afin de combiner rapidité de convergence et précision des résultats, une utilisation combinée de ces deux méthodes semble donc être une bonne solution. Cette combinaison, où VI jouera le rôle d’initiali- sation de l’algorithme de Gauss-Newton, sera étudiée au Chapitre 8 sur un cas représentatif d’analyse modale durant les essais en vol de flottement d’un avion civil. Enfin, l’étude réalisée dans ce chapitre nous a permis d’introduire les deux principales limitations observées pour les méthodes itératives, à sa- voir, l’impact négatif des effets transitoires dus à la formulation du problème d’identification adoptée, et les blocages de la convergence de la méthode de Gauss-Newton dus au choix d’un paramétrage pseudo-canonique. Les Cha- pitres 5 et 6 sont dédiés à l’étude de solutions permettant d’éviter ces deux problèmes.

Chapitre 5

Nouveaux paramétrages des fractions

matricielles

L’objectif de ce chapitre est de définir de nouveaux paramétrages des frac- tions matricielles afin d’améliorer la convergence des méthodes d’optimisa- tion telles que la méthode de Gauss-Newton. Pour cela, nous définissons la forme dénommée forme pleine. Il s’agit de la forme sur-paramétrée des frac- tions matricielles qui possède le nombre maximal de paramètres permettant d’assurer la propreté du transfert ainsi qu’un ordre fixé. De plus, dans ce chapitre nous définissons la classe des fractions matricielles pleines équiva- lentes et étudions la structure d’équivalence afin d’introduire le paramétrage local des fractions matricielles fondé sur l’utilisation d’un système de coor- données locales guidées par les données. Enfin, nous présentons et discutons le cas particulier des formes pleines quasi-uniformes ainsi que le cas d’un sur-paramétrage intermédiaire.

Sommaire

5.1 Fractions Matricielles à Gauche Pleines (FMG-P) 86 5.1.1 Définition de l’ensemble des FMG-P . . . 87 5.1.2 Respect des conditions essentielles pour l’identifi-

cation . . . 89 5.1.3 Choix de l’arrangement des indices de structure . . 91 5.1.4 Structure de la classe d’équivalence des FMG-P . . 92 5.2 Systèmes de coordonnées locales guidées par les

données . . . 100 5.2.1 Définition . . . 100 5.2.2 Interprétation géométrique . . . 101 5.3 Cas particuliers des FMG-P et des sur-paramé-

trages diagonaux quasi-uniformes . . . 104 5.3.1 Paramétrage par DDLC des FMG-P quasi-uniformes105 5.3.2 Sur-paramétrage diagonal des FMG pseudo-cano-

niques . . . 108 5.4 Bilan . . . 109

5.1

Fractions Matricielles à Gauche Pleines (FMG-

P)

Comme nous l’avons montré dans le Chapitre 4, l’utilisation de mé- thodes d’optimisation fondées sur les paramétrages canoniques ou pseudo- canoniques peut conduire à des situations de blocage de la convergence. Ces blocages, comme nous le détaillerons au Chapitre 6, sont provoqués par l’uti- lisation d’un paramétrage minimal, c.-à-d., un paramétrage qui définit une fonction de transfert par un nombre de paramètres inférieur ou égal à

Nmin = nx(nu+ ny) + nuny. (5.1)

Afin d’éviter ces situations problématiques, l’étude de paramétrages fondés sur des fractions matricielles sur-paramétrées est nécessaire. Une première forme sur-paramétrée particulière appelée forme sur-paramétrée diagonale a été proposée dans (Vayssettes et al., 2012a). Comme nous allons le voir dans ce chapitre, l’utilisation des formes sur-paramétrées diagonales permet de résoudre le problème des blocages numériques de la convergence.

A la connaissance de l’auteur, l’influence du sur-paramétrage sur la conver- gence des méthodes d’optimisation a uniquement été étudiée dans le cas des représentations d’état (McKelvey, 1995; Ribarits, 2002). Dans ce cas, McKelvey et Helmersson (1997) ont notamment montré que l’utilisation d’un nombre maximal de coefficients laissés libres, combinée à une réduction des dimensions de minimisation, améliorent les propriétés de convergence des méthodes d’optimisation.

Afin de poursuivre le même objectif pour l’utilisation des fractions matri- cielles, nous proposons, dans ce chapitre, de généraliser l’approche proposée dans (Vayssettes et al., 2012a). Cette généralisation implique l’introduction de nouvelles formes des fractions matricielles que nous appelons formes sur- paramétrées pleines. Outre l’évitement des situations de blocage, l’objectif recherché est donc d’améliorer la convergence des algorithmes d’optimisation en considérant un nombre maximal de coefficients non-contraints durant la minimisation. Ces nouvelles formes sont étudiées dans cette section. La Sec- tion 5.2 est dédiée à la définition des paramétrages dynamiques des fractions matricielles pleines. Comme nous le verrons au Chapitre 6, un tel para- métrage est très important pour tirer pleinement profit des formes pleines lors d’une optimisation. Enfin, la Section 5.3 présente un cas particulier des formes pleines qui nous sera utile pour l’identification. De plus, les formes sur-paramétrées diagonales sont également présentées dans cette dernière section. Nous verrons qu’elles forment un autre cas particulier des formes pleines.

De même qu’au Chapitre 3, les résultats concernant les FMD s’obtenant par transposition de ceux valables pour les FMG, nous développons dans ce chapitre uniquement le cas des FMG.

5.1 Fractions Matricielles à Gauche Pleines (FMG-P) 87