• Aucun résultat trouvé

Paramétrisation des contraintes quadratiques intégrales

2.2 Caractérisation des systèmes par la norme L

2.2.2 Paramétrisation des contraintes quadratiques intégrales

Comme précédemment, nous nous intéressons au cas où p vaut 2. Pour déterminer qu'un système est incrémentalement stable, nous procéderons donc en deux étapes: (i) démonstration de laL

2 gain stabilité du système (ii) démonstration de laL

2 gain stabilité de toutes ses linéarisations non stationnaires. De ce fait, la vérication de la stabilité incrémentale peut se ramener à la vérication de la stabilité (tout court) d'un système et de ses linéarisations.

2.2.2 Paramétrisation des contraintes quadratiques intégrales

Nous venons de voir qu'il est possible de caractériser les signaux d'entrée et de sortie d'un système par une contrainte quadratique intégrale. Si nous considérons qu'un sys-tème est modélisé par une famille de modèles alors la contrainte quadratique intégrale précédemment introduite génère une surfamille de modèles (dénie dans le chapitre 1). La paramétrisation des surfamilles proposée dans ce chapitre peut ainsi se ramener à une paramétrisation des contraintes quadratiques intégrales que vérient les signaux aux bornes du système, chaque contrainte quadratique générant une surfamille. Par suite, la question considérée est:

Pour un (sous) système donné, quelles sont les contraintes quadratiques que vérient les signaux qui le connectent à l'environnement (l'interconnexion)?

Multiplieurs: pour traiter cette question, nous proposons la technique des multi-plieurs. C'est une technique assez ancienne puisqu'elle apparaît (implicitement) au cours des années soixante pour la résolution du problème de Lur'e avec le critère de Popov [AG64, Pop73], puis est développée dans l'article fondateur de Zames [Zam66b], avant d'être formalisée dans [ZF68, Wil69, DV75]. Cette technique est, à cette époque, à l'ori-gine d'un grand nombre de critères de stabilité entrée/sortie pour un système rebouclé avec une non linéarité [Zam66b, O'S66, TS67, TS67, ZF68, Wil69] ou un paramètre incer-tain (constant [BW65]11 ou variant dans le temps [Wil69, ST72]). Aux critères obtenus, étaient associés des critères graphiques pour leur mise en ÷uvre pratique [NT73].

Les techniques de multiplieurs sont réapparues sous une forme diérente au début des années 80 pour l'analyse des systèmes linéaires stationnaires et incertains. Dans ce cadre-là, ils portent le nom de scalings12 [Doy82, FTD91]. Fondamentalement, le prin-cipe reste le même. Une des diérences majeures est constituée par l'émergence dans les années 80 de nouvelles techniques d'optimisation conjointement avec une augmentation importante de la puissance des ordinateurs. Cela bénécie à la résolution des critères dé-veloppés pour l'analyse de la robustesse. Le fait de s'aranchir de l'outil graphique permet de traiter le cas de plusieurs paramètres incertains. Des rapprochements clairs et précis entre les techniques de scalings et de multiplieurs ne sont apparus dans la littérature que très récemment [HHHB92, SL93, LSC94, Bal95, Cho96].

11. La condition obtenue est alors nécessaireet susante [BW65].

12. L'équivalent français serait facteur d'échelle. Comme il n'a jamais été employé dans ce contexte et que le terme de scaling est un terme technique précis, nous prendrons la liberté de conserver cet anglicisme.

Interconnexion, dissipativité et optimisation 45 La conséquence directe des progrès accomplis pour l'analyse des systèmes stationnaires et incertains est qu'il est possible de généraliser les outils développés dans les années 60 et de lescombiner pour étudier la stabilité de systèmes hétérogènes, c'est-à-dire avec à la fois des non linéarités, des paramètres incertains, invariants ou non.

D'autre part, la notion de famille de modèles développée dans les années 80/90 permet de mieux apprécier la portée et l'intérêt des techniques de multiplieurs. C'est cette notion qui reète la diérence de perspectives entre ces deux décennies. Même si dans les années 60, Zames avait noté que l'utilisation de l'approche entrée/sortie (et des multiplieurs) permettait de traiter des systèmes pauvrement modélisés [Zam66a], l'objectif de Popov restait de démontrer, par exemple,la stabilité d'un transfert linéaire avec une non linéarité bien dénie. La position centrale prise dans les années 80 par le problème de la robustesse nous amène à considérer une famille de non linéarités au lieu d'une. Les techniques de multiplieurs apparaîssaient peu adaptées à l'étude de la stabilité d'une non linéarité bien dénie car elles permettent de garantir la stabilité pour toute une famillede non linéarités. Par contre, elles trouvent toutes leurs potentialités dès que la stabilité doit être démontrée pour des familles de non linéarités. Même si les conditions de stabilité sont identiques, elles sont moins conservatives pour remplir le second objectif que pour remplir le premier. Les multiplieurs apparaîssent ainsi comme un outil pertinent aux objectifs que nous nous xons aujourd'hui, malgré leur âge vénérable.

Dénition 2.2.7 Soit  un opérateur causal à l'intérieur d'un secteur F, c'est-à-dire que pour tous q et p tels que p=(q), pour tout T >0,

Z T 0 (F 1 q+F 2 p) T (F 3 q+F 4 p) dt0:

Soit W un opérateur stable et inversible tel qu'avec p=q:

" ~ q ~ p # =W " q p #! :

W est un multiplieur pour  si q~et p~vérient aussi la contrainte de secteur associée à

F, c'est-à-dire que, pour tout T >0,

Z T 0 (F 1 ~ q+F 2 ~ p ) T (F 3 ~ q+F 4 ~ p )dt0:

Remarque : Cette dénition s'étend aisément à un ensembled'opérateurs.

L'ensemble des multiplieurs admissibles pour un opérateur  dépend de la nature et de la structure de. A chaque multiplieur correspond une contrainte quadratique sur les signaux d'entrée et de sortie de . De ce fait, paramétriser les contraintes quadratiques se ramène à rechercher un ensemble de multiplieursW. Par là même, ils vont permettre de quantier les échanges entre  et son environnement. L'intérêt des multiplieurs apparaît ainsi dans l'étude des connexions d'opérateurs.

Illustration: leur mise en ÷uvre et leur principe de base sont illustrés à l'aide d'un exemple simple. Il s'agit de l'étude du systèmex_ =Ax. Celui-ci peut se modéliser comme la connexion d'intégrateurs avec une matrice de gains A. Nous désirons caractériser le comportement entrée/sortie des intégrateurs pour étudier leur interaction avec la matrice

46 Chapitre 2 Approche unifiée de l'analyse et de la commande   - w z Z A P    6 - -w z Z A P ?1 , _ x x x_ x Fig. 2.6  Multiplieurs

A. Les intégrateurs vérient une propriété de secteur particulière: ils sont passifs, c'est-à-dire que pour p=

R

q, avec une condition initiale nulle:

8T >0; Z T 0 p(t) T q(t)dt= 1 2 p(T) T p(T)0:

Si une matrice symétrique dénie positive P est introduite alors nous obtenons:

Z T 0 p(t) T Pq(t)dt0: (2.8)

Par suite, les signaux aux bornes des intégrateurs vérient une famille de contraintes quadratiques paramétrisées par la matrice dénie positive P. D'après la dénition 2.2.7,

la matrice: "

I 0 0 P

#

est un multiplieur. Par abus de langage, le sous bloc P sera aussi désigné par le terme multiplieur13 Il a été choisi de façon à conserver la propriété de passivité du système sur lequel il est appliqué, c'est-à-dire queR

P

?1 est passif quelque soit P, matrice dénie positive. Si les intégrateurs sont connectés à la matrice constante A alors l'introduction de la matrice P peut être interprétée comme une modication du schéma du système interconnecté (les intégrateurs avecA) laissant invariante les propriétés de stabilité et de performance (voir la gure 2.6). En clair, le système initial est stable et vérie un certain niveau de performance entre l'entréew et la sortie z si et seulement si le système trans-formé est aussi stable et a le même niveau de performance. De plus, cette paramétrisation des contraintes quadratiques vériées par le (sous) système peut être interprétée comme la paramétrisation des surfamilles de signaux comme cela a été vu dans le chapitre 1. En eet, les signaux qui vérient l'inégalité quadratique (2.8) comprennent, entre autres, les signaux aux bornes des intégrateurs. Par suite, l'inégalité (2.8) dénit une surfamille de signaux.

En résumé, l'introduction de multiplieurs répond à deux impératifs:

 Ils ne modient pas la propriété de dissipativité du sous système auquel ils s'ap-pliquent;

13. En fait, cet abus de langage correspond à l'acception classique d'un multiplieur[Wil69]. La dénition 2.2.7 que nous proposons l'étend tout en respectant l'idée sous jacente à la notion de multiplieur.

Interconnexion, dissipativité et optimisation 47  Ils ne modient pas les propriétés de stabilité et de performance du schéma général. L'introduction de multiplieurs dans le schéma résulte de la possibilité de décomposer un système interconnecté en deux parties de diverses manières, même si la structure de l'interconnexion est xée. C'est le tearing dont parle Willems dans [Wil73].

   - -w z A() P( ) ?1 Z P( )

Fig. 2.7  Multiplieurs dépendants,  constant

Ce type de multiplieurs (des matrices constantes) est qualié de

multiplieurs

cons-tants

. Les multiplieurs constants permettent de paramétriser les contraintes inégalités par

des variables réelles. Ils seront mis en ÷uvre dans le chapitre 3 pour traiter de problèmes d'analyse et de synthèse.

La paramétrisation peut être anée en considérant des multiplieurs dépendant de paramètres variants dans le temps voire d'opérateurs. Un exemple très simple peut être donné par l'étude de la stabilité du système:

_

x=A( )x; x= Z

_

x; x(0)=0;

 est un vecteur de paramètres constants. Il est alors naturel de décomposer le sys-tème en l'interconnexion de la matrice de gains A( )et de l'ensemble des intégrateurs. La technique des multiplieurs peut être appliquée comme précédemment. Comme l'intercon-nexion dépend des paramètres, il est intéressant d'introduire un multiplieurP( ) déni positif et fonction bornée de. Le schéma représenté gure 2.7 est alors obtenu.

Dans le cas où les paramètres sont des fonctions continues et dérivables du temps, un multiplieur déni positif P( ) est introduit: c'est une fonction bornée, continue et dérivable de  et dont la dérivée est elle-même une fonction bornée. Une fonction de ce type est une transformation de Lyapunov [Bro70]. Le schéma représenté dans la gure 2.8 est ainsi obtenu. Si la boucle de rétroaction est bien posée, l'opérateur qui à x associe

=P( )x_+ 1 2

_

P( )x est comme l'intégrateur, passif. En eet,

Z T (t) T x(t) dt= Z T  P( )x_+ 1 _ P( )x  T x(t)dt = 1 x(T) T P( )x(T)0:

48 Chapitre 2 Approche unifiée de l'analyse et de la commande             -  6   6 -w x z A() P( ) ?1 Z P( ) + +  ? + 1 2 _ P( ) 1 2 _ P( )

Fig.2.8  Multiplieurs dépendants,  variant

Les multiplieurs peuvent être aussi choisis dépendant de la fréquence. Il s'agit alors de fonctions de transfert écrites dans le domaine de Fourier, associée à des systèmes linéaires stationnaires stables mais pas forcément causaux. L'exemple précédent peut être alors réécrit pour  constant et positif, après transformation de Fourier:

" q(j!) z(j!) # =M(j!) " p(j!) w (j!) # ; p(j!)= Iq(j!):

Le scalaire  étant positif, les signaux à ses bornes vérient:

p(j!) 

q(j!)0:

Comme nous avons précédemment introduit P, nous pouvons introduire une fonction de transfertW(j!)qui n'a pas de pôles et qui est inversible sur l'axe imaginaire. Le schéma est alors modié sans que ses propriétés soient altérées. Si de plus W(j!)+W(j!)

 >0

alors  W(j!)

?1 est positif. Par suite, nous obtenons la paramétrisation suivante pour les signaux p(j!) etq(j!)aux bornes de  I:

p(j!) 

W(j!)q(j!)0:

En résumé, nous venons d'introduire deux types de multiplieurs, les premiers dépen-dant de paramètres, les seconds de la fréquence. Les

multiplieurs dépendants

seront abordés dans le chapitre 5 de la thèse.

2.3 Analyse des systèmes, contraintes quadratiques et