• Aucun résultat trouvé

5.3 Cas particuliers des FMG-P et des sur-paramétrages diago-

6.1.2 Explication des blocages numériques de la convergence

Une première façon de résoudre l’équation (6.3) consiste à fixer au moins Nsupparamètres pour ne considérer que la partie non-singulière de la matrice Mgn. Comme illustré par l’Exemple 6.1, en fixant les Nsup paramètres qui correspondent aux coefficients contraints à 0 ou à 1 lorsqu’un paramétrage pseudo-canonique est adopté, on obtient la structure générale des formes pseudo-canoniques.

Exemple 6.1. Prenons l’exemple d’un système d’ordre nx = 3, de dimen-

sions ny = 2 et nu = 1, et d’indices de Kronecker Υ = �1 2�. Les FMG-P représentant ce système sont de la forme

D(s, θ) = � θ14s θ2+ θ5s θ7+ϑ10s +ϑ13s2 θ8+ θ11s +ϑ14s2 � , N(s, θ) = � θ3+ θ6s θ9+ θ12s + θ15s2 � . (6.4)

Le vecteur de paramètres θ contient tous les coefficients θi et ϑi. Si on fixe

les paramètres ϑ10 et ϑ13 à zéro ainsi que les paramètres ϑ4 et ϑ14 alors

on obtient le paramétrage pseudo-canonique décrit au Chapitre 3. Le vecteur de paramètres θ de la forme canonique est alors constitué uniquement des coefficients θi.

En appliquant de telles contraintes, il est donc possible de retrouver, d’après l’équation (6.3), la solution réelle donnée au Chapitre 4 par l’équa- tion (4.32) (p. 69). En adoptant les notations Matlab pour la sélection des colonnes de matrices, et en notant S et F l’indice des coefficients de θ qui sont respectivement mis en recherche et fixés, cette solution correspond donc à la solution d’un problème des moindres carrés contraint de la forme

Jgn(∆θ(S)) = � ¯Mgn( : , S) ∆θ(S) + ¯Mgn( : , F ) ∆θ(F ) + ¯Zgn�2

sujet à ∆θ(F ) = 0 , (6.5)

dont la solution est donnée par

∆θ(S) = ( ( ¯Mgn( : , S))�M¯gn( : , S) )−1( ¯Mgn( : , S))�Z¯gn. (6.6) Dans ce cas, il est crucial que la matrice ¯Mgn( : , S) associée aux paramètres recherchés soit non-singulière. Bien que cette condition puisse paraître géné- rique, il arrive assez fréquemment qu’au cours de l’optimisation ¯Mgn( : , S) approche d’une singularité numérique. L’optimisation se bloque alors sur les valeurs des paramètres estimés à cet instant de l’optimisation comme illustré à la Figure 6.1 Dans une telle situation, le calcul de la solution des moindres carrés s’apparente à l’algorithme de l’itération inverse (Mathews et Fink,

2004). Cette méthode numérique, aussi appelée méthode de la puissance in- verse, est un algorithme très efficace de calcul des vecteurs propres ou des vecteurs singuliers d’une matrice (Golub et Van Loan, 1996; Demmel, 1997). Comme c’est le cas pour l’itération inverse, lorsque ¯Mgn( : , S) s’approche d’une singularité, la solution donnée par l’équation (4.32) est un vecteur qui, à chaque itération, se rapproche un peu plus du noyau de cette matrice. Comme on le verra dans la Section 6.1.5, ce noyau est formé de combinaisons linéaires des paramètres des fractions matricielles équivalentes à (ˇD(s), ˇN(s)). Dans une telle situation, θ tend alors vers une combinaison des paramètres précédents ˇθ qui correspond aux paramètres d’une fonction de transfert équi- valente. L’algorithme est alors incapable d’identifier un transfert différent, ce qui explique pourquoi la convergence est bloquée.

Axe

imaginaire

Axe r´eel

Figure 6.1 – Illustration du phénomène de blocage sur un mo-

dèle de structure flexible utilisé au Chapitre 8 : les pôles iden- tifiés (représentés par les ronds) restent bloqués sur des valeurs

différentes des pôles du système (représentés par les croix).

Afin d’éviter qu’une telle situation se produise, il est donc nécessaire de relâcher les contraintes lors de la résolution des moindres carrés. Nous présentons ci-après deux approches possibles fondées sur l’utilisation des formes sur-paramétrées définies au Chapitre 5. Uniquement le cas des FMG est développé dans les Sections 6.1.3 et 6.1.4, les résultats analogues pour le cas des FMD s’obtenant toujours par transposition. De plus, nous détaillons dans ce chapitre uniquement le cas des fractions matricielles quasi-uniformes qui, pour les raisons expliquées au Chapitre 5, seront généralement utilisées. Remarque 6.1. Dans la suite de ce chapitre, nous proposons un nouveau schéma de convergence de l’algorithme de Gauss-Newton afin d’éviter les blocages numériques de sa convergence. Toutefois, la matrice ¯Mgn( : , S) qui, comme nous venons de le montrer, est responsable de ces blocages, intervient également dans l’expression du schéma de convergence de la méthode de la

6.1 Nouveaux schémas de convergence de l’algorithme de Gauss-Newton115

Variable Instrumentale (VI) présentée au Chapitre 4. Il est donc possible que des problèmes de blocage similaires se produisent pour la méthode VI. Cependant, l’analyse de ces situations et l’expression d’un nouveau schéma de convergence pour la méthode VI n’ont pas été traités dans cette étude et sont remis à des recherches futures.

6.1.3 Sur-paramétrage et solution par pseudo-inverse

Afin d’éviter les blocages de la convergence, une première possibilité consiste à considérer le paramétrage plein des fractions matricielles et à rechercher l’ensemble des coefficients du vecteur θ ∈ RNmin+Nsup. La ma-

trice ¯Mgn ∈ R2nynf×(Nmin+Nsup) étant alors singulière, le problème est résolu

en faisant usage d’une pseudo-inverse de la matrice ¯Mgn. Dans le cas de fractions matricielles sur-paramétrées, ¯Mgn possède Nsup singularités. Se- lon le paramétrage adopté, d’après les développements du Chapitre 5, on a respectivement Nsup = n2y , Nsup = nu2, Nsup = ny ou Nsup = nu pour des fractions matricielles quasi-uniformes pleines à gauches, pleines à droite, sur-paramétrées diagonales à gauche ou sur-paramétrées diagonales à droite. De ce fait, quelle que soit la forme sur-paramétrée adoptée, la décomposition en valeurs singulières (SVD) de ¯Mgn est de la forme (Golub et Van Loan, 1996) ¯ Mgn=�U1 U2� � S1 0 0 0 � � V1� V2� � = U1S1V1�, (6.7)

où U1 ∈ R2nynf×Nmin, S1 ∈ RNmin×Nmin et V1 ∈ RNmin×(Nmin+Nu). De plus, S1 est une matrice diagonale qui contient les Nmin valeurs singulières non nulles de ¯Mgn. Avec cette approche, la mise à jour des paramètres à chaque itération est donnée par

θ= ˇθ+ ∆θ avec ∆θ = ¯M#gngn, (6.8)

où ¯M#gn = V1S1−1U1�note la pseudo-inverse de Moore-Penrose de ¯Mgn. La va- leur ∆θ ainsi calculée est orthogonale au noyau de ¯Mgn (Golub et Van Loan, 1996). De plus, cette méthode de base donnée par l’équation (6.8) peut être améliorée. Tout d’abord, comme dans le cas des FMG pseudo-canoniques présenté au Chapitre 4, une recherche unidimensionnelle selon la direction ∆θ peut être réalisée afin d’assurer que la nouvelle valeur du critère soit inférieure à la valeur précédente, soit

θ= ˇθ+ α ∆θ , (6.9)

où la valeur scalaire α est trouvée en appliquant une des méthodes de re- cherche unidimensionnelle disponibles dans la littérature (cf. par exemple Minoux, 1983).

Outre l’avantage d’éviter les situations de blocage de la convergence, les formes sur-paramétrées sont, d’une manière générale, connues pour amélio- rer la convergence des méthodes d’optimisation (McKelvey, 1995). De plus, la réduction du nombre de directions de recherche procuré par la SVD per- met d’assurer une progression de la minimisation du critère. Cet aspect est également le principal avantage associé à l’utilisation de formes identifiables telles que les formes pseudo-canoniques (McKelvey, 1995). Cette approche permet donc d’associer les avantages provenant de l’utilisation des formes sur-paramétrées pleines à ceux provenant de l’utilisation de formes paramé- trées identifiables.