• Aucun résultat trouvé

Optimisation non lisse pour la commande des systèmes de l'aéronautique

N/A
N/A
Protected

Academic year: 2021

Partager "Optimisation non lisse pour la commande des systèmes de l'aéronautique"

Copied!
166
0
0

Texte intégral

(1)

Universit´e Paul Sabatier – Toulouse III

U.F.R. Ecole Doctorale´

Math´ematiques, Informatique Math´ematiques, Informatique

et Gestion et T´el´ecommunications de Toulouse

Optimisation non lisse pour la

commande

des syst`

emes de l’A´

eronautique

TH`

ESE

pr´esent´ee et soutenue publiquement le 23 novembre 2007 pour l’obtention du

Doctorat de l’Universit´

e Paul Sabatier – Toulouse III

(sp´ecialit´e Math´ematiques appliqu´ees et Automatique) par

Vincent BOMPART

Composition du jury

Rapporteurs : M. Samir ADLY Universit´e de Limoges

M. Pierre-Alexandre BLIMAN INRIA Rocquencourt

Examinateurs : M. Paul ARMAND Universit´e de Limoges M. Jean-Philippe HARCAUT MBDA France

M. Jean-Baptiste HIRIART-URRUTY Universit´e Paul Sabatier Toulouse III

Directeurs : M. Pierre APKARIAN ONERA Centre de Toulouse M. Dominikus NOLL Universit´e Paul Sabatier

Toulouse III

Institut de Math´ematiques de Toulouse — UMR CNRS 5219 Equipe Math´ematiques pour l’Industrie et la Physique

(2)
(3)

i

Remerciements

Mes premiers remerciements s’adressent à Pierre Apkarian et à Dominikus Noll, tous deux à l’origine de cette thèse et qui l’ont dirigée conjointement durant ces trois années ; j’ai pu bénéficier de leur expertise scientifique et de leurs éclairages complémentaires, mais également de leur écoute et de leur gentillesse.

Je remercie les rapporteurs, Samir Adly et Pierre-Alexandre Bliman : ils ont accepté de prendre connaissance de mon travail de façon approfondie, malgré les délais réduits dont ils disposaient, et leurs remarques précises ont permis d’améliorer la qualité de ce document. Merci également aux autres membres du jury, Paul Armand, Jean-Philippe Harcaut et Jean-Baptiste Hiriart-Urruty, qui ont bien voulu se rendre disponibles pour juger mon travail.

J’ai pu bénéficier pendant toute la thèse de l’environnement scientifique et humain de l’ONERA, ainsi que de son soutien financier. J’ai été accueilli au département de com-mande des systèmes et dynamique du vol (DCSD), à Toulouse, dont je souhaite remercier tout particulièrement le directeur, Patrick Fabiani, qui a su me donner les moyens de mener à bien cette thèse, ainsi que Philippe Mouyon, responsable de l’unité de recherche commande et intégration (UR CDIN). Merci également aux ingénieurs de recherche du département (et en particulier à Pierre Vacher, Michel Corrège, et . . .Catherine Tessier pour ses éclats de rire communicatifs). Je n’oublie pas les membres du groupe de travail Optimisation et Interactions, au sein de l’équipe MIP de l’Institut de Mathématiques de Toulouse.

Merci aux doctorants du DCSD : Jean-Baptiste, dont j’ai partagé le bureau pen-dant la première année, et qui m’a “passé le relais” et encouragé. Bureau que j’ai à mon tour partagé avec Patrice qui, j’en suis sûr, trouvera vite un remplaçant pour échanger ses réflexions scientifiques ou philosophiques toujours passionnantes. Merci aussi, dans le désordre, à Sophie, Damien, Greg et Greg, Manu, Nico, Florian, Andreas, Alex, Julien, Sylvain B., Clément, Alberto, et aux “anciens” thésards, Charles, Olivier, Cédric, Florent, Sylvain D., Sebastian, Fabien et Elodie. Encore des remerciements pour Olivier et Aude de l’équipe MIP.

La thèse est un investissement personnel de chaque instant, qui passe par des doutes et des remises en question parfois trop lourds à porter seul ; mes parents ont su m’écou-ter, me parler et me soutenir dans ces moments délicats, et je désire ici leur témoigner ma profonde reconnaissance. Merci également à David pour ses encouragements constants.

Un dernier petit mot et une pensée, enfin, pour ma grand-mère, Marie-Louise, qui s’en est allée alors que je rédigeais ma thèse.

(4)
(5)

Table des matières

Introduction 3

I

Notions fondamentales et cadre de travail

9

1 Introduction à la commande des systèmes 11

1.1 Terminologie et définitions . . . 11

1.1.1 Systèmes dynamiques . . . 11

1.1.2 Normes de signaux . . . 16

1.1.3 Stabilité des systèmes linéaires . . . 16

1.1.4 Normes de systèmes . . . 18

1.2 Problèmes de synthèse pour la commande . . . 19

1.2.1 Forme standard pour la commande . . . 20

1.2.2 Stabilisation . . . 23

1.2.3 Synthèse H∞ . . . 27

2 Optimisation non lisse 33 2.1 Terminologie et définitions . . . 33

2.1.1 Ingrédients pour l’analyse non lisse . . . 33

2.1.2 Analyse non lisse : le cas convexe . . . 36

2.1.3 Analyse non lisse : le cas lipschitizien . . . 38

2.2 Conditions d’optimalité . . . 42

2.3 Algorithmes pour l’optimisation non lisse . . . 43

2.3.1 Direction de descente . . . 43

2.3.2 Méthodes de faisceaux . . . 45

2.3.3 Méthodes pour les problèmes minimax . . . 47

(6)

II

Algorithmes développés et applications

55

3 Techniques non lisses pour la stabilisation des systèmes linéaires 57

3.1 Introduction and notations . . . 59

3.2 Minimizing the spectral abscissa . . . 61

3.3 Subgradients of the spectral abscissa . . . 62

3.3.1 Subgradients in state-space . . . 62

3.3.2 Subgradients and dynamic controllers . . . 64

3.3.3 Subgradients with structured controllers . . . 64

3.4 Descent step and optimality function . . . 65

3.5 Nonsmooth descent algorithms . . . 66

3.5.1 Variant I (first-order type) . . . 66

3.5.2 Variant II (second-order type) . . . 68

3.6 Numerical examples . . . 69 3.6.1 Academic test . . . 71 3.6.2 Transport airplane . . . 74 3.6.3 VTOL helicopter . . . 77 3.6.4 B-767 airplane . . . 78 3.6.5 PID controllers . . . 79 3.7 Conclusion . . . 80

4 Optimisation non lisse pour la commande structurée 81 4.1 Introduction . . . 84

4.2 Nonsmooth H∞ design technique . . . 85

4.2.1 Subdifferential of the H∞ map . . . 86

4.2.2 Structured controllers . . . 87

4.2.3 PID controllers . . . 88

4.2.4 Setpoint filter design . . . 90

4.2.5 Nonsmooth descent method . . . 91

4.3 Nonsmooth loop-shaping design . . . 94

4.3.1 Loop-shaping design . . . 94

4.3.2 PID Loop-shaping design . . . 95

4.4 Application to a separating tower . . . 96

(7)

v

5 Commande temporelle et fréquentielle par techniques non lisses 103

5.1 Introduction . . . 105

5.2 Time- and frequency domain designs . . . 107

5.3 Nonsmooth descent method . . . 109

5.3.1 Nonsmooth properties . . . 111

5.4 Applications . . . 115

5.4.1 Application to observer-based controller design . . . 115

5.4.2 Application to reliable control . . . 116

5.4.3 Application to PID time response shaping . . . 121

5.5 Conclusion . . . 124

6 Optimisation non lisse du second ordre pour la synthèse H 125 6.1 Introduction . . . 127

6.2 Problem setting . . . 128

6.3 Approach via semi-infinite programming . . . 129

6.4 Solving with SQP . . . 132

6.4.1 Quadratic tangent subproblem . . . 132

6.4.2 First and second derivative formulas . . . 134

6.4.3 Multiple eigenvalues . . . 136

6.4.4 Globalisation via trust-region . . . 138

6.5 Technical aspects . . . 140

6.5.1 Identifying peak frequencies . . . 140

6.5.2 Stopping criteria . . . 141

6.6 Numerical results . . . 142

6.7 Conclusion . . . 145

Conclusion 147

(8)
(9)

1

Notations et symboles

Notation Signification

, Egal à, par définition

Ensemble vide

R, C Corps des nombres réels, des nombres complexes Re z, Im z Partie réelle, partie imaginaire de z ∈ C

|x|, |z| Valeur absolue de x ∈ R, module de z ∈ C

R+ Ensemble des nombre réels positifs ou nuls

x+ Partie positive de x ∈ C

x+ , max {x, 0}

C−, C+ Demi-plan ouvert gauche, droit

Rn, Cn Espace des vecteurs réels, complexes à n composantes

Rp×m Espace vectoriel des matrices réelles de taille p × m,

soit à p lignes et m colonnes

GLn(R) Groupe linéaire des matrices carrées inversibles de taille n × n Sn(R) Sous-espace vectoriel des matrices symétriques réelles de taille

n × n

In, I Matrice identité (de taille n, de taille fonction du contexte)

X  0, X ≺ 0 X ∈ Sn(R) est définie positive, définie négative

X  0, X  0 X ∈ Sn(R) est semi-définie positive, semi-définie négative

Tr X Trace de la matrice X ∈ Cn×n

vec X Vectorisé (par colonnes) de X ∈ Rp×m

XT Matrice transposée de X ∈ Rp×m

XH Matrice adjointe de X ∈ Cp×m

X−1 Matrice inverse de X ∈ Cn×n

X+ Pseudo-inverse (ou inverse de Moore-Penrose) de X ∈ Cp×m X12 Racine carrée de la matrice X  0

hx, yi Produit scalaire euclidien (hermitien) sur Rn (Cn)

hx, yi , xHy

hhX, Y ii Produit scalaire euclidien (hermitien) sur Rp×m (Cp×m)

hhX, Y ii , Tr (XHY )

kxk∞ Norme infini du vecteur x ∈ Rn (x ∈ Cn) kxk∞, max1≤i≤n|xi|

kxk2 ou kxk Norme euclidienne (hermitienne) du vecteur x ∈ Rn (x ∈ Cn)

kxk2 ,

xHx

B(x, r) Boule de centre x ∈ Rn et de rayon r ∈ R

+ pour la norme

euclidienne

(10)

Notation Signification

kXkF ou kXk Norme hermitienne (ou de Fröbenius) de la matrice X ∈ Cp×m

kXkF ,

q

Tr (XHX)

kXk2 Norme 2 de la matrice X ∈ Cp×m

kXk2 , ¯σ(X)

u(t) ou u Signal causal réel à temps continu u : t ∈ R+ 7→ u(t) ∈ Rm

U(s) ou U Transformée de Laplace du signal u

U(s) ,R0+∞u(t)e−stdt pour tout s ∈ C tel que Re s ≥ x

0 kuk∞ Norme infini (valeur de crête) du signal u

kuk2 Norme L2 (énergie) du signal u ∈ L2(R+) kUk2 Norme L2 ou, suivant le contexte, norme H2

kUk∞ Norme H∞

Λ(X), Λε(X) Spectre, pseudo-spectre de la matrice X ∈ Cn×n λi(X), 1 ≤ i ≤ n Valeurs propres de la matrice X ∈ Cn×n

µi(X), 1 ≤ i ≤ q Valeurs propres (sans répétitions) de la matrice X ∈ Cn×n

α(X), αε(X) Abscisse spectrale, pseudo-spectrale de la matrice X ∈ Cn×n

β(X) Distance à l’instabilité de la matrice X ∈ Cn×n ρ(X) Rayon spectral de la matrice X ∈ Cn×n

ρ(X) , maxi|λi(M)|

σi(X), 1 ≤ i ≤ min(m, p) Valeurs singulières (en ordre décroissant) de la matrice X ∈

Cp×m

¯

σ(X) ou σ1(X) Plus grande valeur singulière de la matrice X ∈ Cp×m

f : Rn → R Fonction f définie sur Rn, à valeurs réelles

[a, b] Segment d’extrémités a, b ∈ Rn

[a, b] , {x ∈ Rn : il existe t, 0 ≤ t ≤ 1 et x = ta + (1 − t)b}

co S Enveloppe convexe de S ⊂ Rn

min S, max S Minimum (plus petit élément), maximum (plus grand élé-ment) d’un ensemble non vide S ⊂ R (s’ils existent)

minx∈Ef (x), maxx∈Ef (x) Valeur minimum, maximum de f sur E (si elle en admet), ou,

suivant le contexte, problème de minimisation, de maximisa-tion (locale ou globale) de f sur E

arg minx∈Ef (x), Un minimum, un maximum x ∈ E de f (s’il en existe)

arg maxx∈Ef (x)

f0(x) Différentielle de f en x ∈ Rn f0

x(x, t) Différentielle partielle de f par rapport à x

f0(x, d) Dérivée directionnelle de f en x ∈ Rn, dans la direction d ∈ Rn f◦(x, d) Dérivée directionnelle généralisée de f en x ∈ Rn, dans la

direction d ∈ Rn

∂cf (x) Sous-différentiel de f en x ∈ Rn, en analyse convexe

(11)

Introduction

Les processus industriels présentent une complexité grandissante, qu’il s’agisse d’unités de production (réacteurs chimiques, centrales électriques), de moyens de transport (avions civils ou militaires, hélicoptères), ou autres. Ils résultent fréquemment de l’interconnexion de plusieurs sous-systèmes mis en réseau. Ils intègrent des fonctionnalités en plus grand nombre qu’auparavant, et doivent satisfaire des cahiers des charges plus contraignants : satisfaction de contraintes de qualité ou de sécurité, respect de normes environnementales (bruit, pollution)... Le respect de ces spécifications passe par la conception d’un système de commande, dont l’action sur le processus lui confère les propriétés souhaitées.

Ces processus sont par ailleurs de mieux en mieux modélisés : les techniques d’iden-tification sont plus performantes et peuvent intégrer de plus grands volumes de données expérimentales. Les moyens de simulation de ces modèles suivent l’accroissement de leur complexité.

Ainsi, les méthodes de conception de commande dites classiques, basées sur des tech-niques fréquentielles, essentiellement graphiques, parfois empiriques, ne sont plus adap-tées. La formulation des objectifs de commande sous la forme d’un problème d’optimisa-tion (commande LQ, LQG, H2, H∞), à la base de l’Automatique moderne, a permis de

mieux appréhender la commande des systèmes complexes. Les lois de commande optimales s’expriment alors comme des solutions d’équations algébriques (équations de Lyapunov, de Riccati), ou de problèmes de minimisation sous des contraintes matricielles de positi-vité. Les inégalités linéaires matricielles (ou LMI, de l’anglais linear matrix inequalities) ont acquis une grande popularité dans le domaine de la commande des systèmes ; elles per-mettent de formuler un grand nombre de problèmes d’analyse des systèmes dynamiques, et de synthèse de lois de commande. C’est avec la théorie de Lyapunov sur la stabilité des états d’équilibre, plus que centenaire (fin du xixe), qu’apparaît la première LMI. Elle

caractérise la stabilité interne du système dynamique défini par le système différentiel ˙x(t) = Ax(t) (A étant une matrice carrée réelle) par l’existence d’une matrice symétrique définie positive telle que ATP + P A est définie négative, ce que l’on note

ATP + P A ≺ 0 . (1)

P , de même taille que A, est appelée matrice de Lyapunov. De nombreux autres problèmes

de commande conduisent à la résolution d’une ou plusieurs LMI, ou à la minimisation d’un critère linéaire sous contraintes de type LMI (que l’on dénomme programmation semi-définie, ou SDP). La conception d’algorithmes efficaces, adaptés à de tel problèmes a largement popularisé les techniques LMI parmi les automaticiens : en effet, si la LMI (1) peut facilement être résolue de façon explicite (il suffit d’inverser le système linéaire

(12)

ATP + P A = −I), ce n’est pas le cas d’une LMI quelconque, sous la forme générique (ou standard) F0+ m X i=1 xiFi ≺ 0 , (2)

où les matrices Fi (0 ≤ i ≤ n) sont symétriques réelles. Ce n’est qu’avec l’apparition de

méthodes itératives, telles celles dites des points intérieurs, issues de la programmation linéaire il y a une vingtaine d’années, que le domaine de recherche a dépassé le cadre de l’Automatique théorique, pour connaître un essor certain.

Tous les problèmes de commande ne sont cependant pas réductibles à des LMI/SDP ! Bien souvent, en pratique, et même pour le critère aussi essentiel qu’est la stabilité interne, les expressions matricielles ne sont pas linéaires ou affines. Plus exactement, elles ne sont pas convexes, et les problèmes d’optimisation sous ce type de contraintes sont bien plus difficiles à résoudre. Quand bien même la synthèse d’un correcteur peut se ramener, après d’éventuelles manipulations algébriques, à un problème SDP, la loi de commande obtenue est bien souvent du même ordre1 que le système à commander. Or,

dans les applications embarquées, par exemple, les ressources en puissance de calcul et en mémoire sont limitées ; l’architecture du processeur cible peut être particulière, et contraint la complexité de la loi de commande à implémenter.

De plus, la mise en œuvre de la commande sur le système réel s’accompagne d’une étape de validation, ayant éventuellement pour conséquence la retouche du correcteur, rendue difficile par son niveau de complexité. La synthèse d’un correcteur plus simple que le système à commander (on parle de correcteur d’ordre réduit) figure donc parmi les thèmes de recherche actuels de l’Automatique, pour lesquels les applications attendues sont nombreuses.

D’autre part, les savoir-faire spécifiques à l’application considérée et la connaissance du système réel impliquent généralement des contraintes sur la structure de la loi de commande : dans le cas de systèmes répartis, ou pour limiter la complexité des commandes, par exemple, il peut être imposé de ne pas lier la commande d’un actionneur à une mesure donnée (commande dite décentralisée). Bien souvent, l’action du correcteur à synthétiser a une forme prédéterminée (cas des correcteurs PID par exemple, très répandus, qui combinent une action proportionnelle, intégrale, et dérivée), et seuls quelques paramètres restent à ajuster. Ces exemples plaident pour la prise en compte de la structure de la loi de commande en amont, dès sa conception. Malheureusement, l’ajout a priori de telles contraintes n’est pas aisé avec les méthodes actuelles à base de LMI, car les variables du correcteur n’apparaissent pas toujours explicitement dans les inégalités matricielles effectivement résolues.

Enfin, la présence de variables de Lyapunov dans ces inégalités vient les compliquer artificiellement : d’une part, la taille de ces variables ne correspond pas à la dimension des variables du correcteur, mais croît avec le carré de l’ordre du système à comman-der. Ainsi, la synthèse de lois de commande pour les systèmes dynamiques comportant

1l’ordre d’une loi de commande, en tant que système dynamique supposé linéaire, est, intuitivement,

la dimension minimale de la variable qui permet de décrire complètement son évolution, comme solution d’un système différentiel linéaire. Nous en donnerons une définition précise au chapitre 1.

(13)

5

quelques dizaines d’états est difficile : un Boeing 767, modélisé autour d’un point de vol par un système linéaire d’ordre 55, nécessite 1540 variables scalaires pour la matrice de Lyapunov. Les systèmes linéaires modélisant des équations aux dérivées partielles (EDP), obtenus par éléments finis, sont encore plus gros (souvent plusieurs milliers d’états) et sont totalement hors de portée d’une synthèse par LMI/SDP. D’autre part, l’ordre de grandeur des variables de Lyapunov n’a aucune raison d’être le même que celui des variables du correcteur, ce qui peut poser de sérieux problèmes d’ordre numérique lors de la résolution ou de l’optimisation.

Ces trois points fondamentaux constituent les principales limitations actuelles des mé-thodes de synthèse de lois de commande. L’abondance et la richesse des publications dans le domaine des LMI ces quinze dernières années n’a pas apporté de méthode numé-rique satisfaisante pour les problèmes de synthèse structurée ou d’ordre réduit. Celles qui sont proposées sont souvent heuristiques, sans preuve de convergence, ou ne s’appliquent qu’à des classes très particulières de systèmes. Même les approches les plus récentes, qui proposent de résoudre les problèmes d’optimisation avec contraintes matricielles non convexes, restent limitées par la taille des variables de Lyapunov. Pourquoi alors ne pas laisser de côté ces variables auxiliaires pour se concentrer sur les véritables variables de décision qui définissent le correcteur ? Ces variables sont généralement en petit nombre, car les lois de commande recherchées sont les plus simples possibles (correcteurs d’ordre réduit, voire statiques), et les mesures et commandes restent en nombre très raisonnable (typiquement, de une à quatre sorties mesurées, autant d’entrées commandées). Les formu-lations directes des problèmes de synthèse amènent cependant à minimiser des fonctions qui se présentent comme un maximum de fonctions, de la forme

f∞(κ) , max

x∈X f (κ, x) . (3)

La variable κ regroupe tous les paramètres du correcteur, et x permet d’ ”indexer” les fonctions sur un ensemble X , qui peut être discret ou continu. Ce dernier peut être un intervalle de fréquences dans le cas d’un critère portant sur les transferts (norme H∞ par

exemple), un intervalle de dates pour un critère temporel, ou encore un ensemble fini d’in-dices s’il s’agit d’un critère spectral. On voit ici que cette formulation est suffisamment générale pour permettre d’exprimer, voire de combiner entre eux de nombreux critères de synthèse. Elle laisse au concepteur le soin de définir la forme de loi de commande qu’il recherche, à partir des paramètres scalaires contenus dans κ. Dans le cas d’un correcteur statique, par exemple, κ contient tous les gains scalaires, canal par canal. Pour un correc-teur PID, κ regroupe les gains des actions proportionnelle, intégrale et dérivée. Le prix à payer cependant d’une telle approche est le caractère non lisse, c’est-à-dire non partout différentiable, du critère à minimiser. Qui plus est, les points où coïncident les valeurs de plusieurs fonctions partielles f (·, x) sont généralement de bons candidats pour constituer des minima locaux (voir figure 1). Les algorithmes d’optimisation différentiable (descente de gradient, Newton ou quasi-Newton, programmation quadratique successive pour les problèmes sous contraintes, etc.) sont alors mis en défaut.

Le cadre théorique adapté est celui proposé par l’analyse non lisse, qui généralise les no-tions de différentielle et de gradient à certaines classes de foncno-tions (essentiellement les

(14)

f2(κ) f∞(κ) = max {f1(κ), f2(κ)}

f1(κ)

κ κ∗

Fig. 1 – Fonction max sur R (en trait gras) : f∞ n’est pas dérivable en κ∗.

fonction convexes d’une part, et les fonctions localement lipschitziennes d’autre part). C’est un cadre riche d’un point de vue de l’Optimisation numérique, car il permet de construire des algorithmes de descente et de prouver leur convergence vers des minima locaux. Ces algorithmes d’optimisation non lisse doivent être bien distingués des mé-thodes d’optimisation sans dérivée (parfois dites de recherche directe, ou d’ordre zéro), qui n’exploitent que les valeurs de la fonction critère pour progresser.

Ainsi le point de vue scientifique adopté dans cette thèse se situe à la croisée de l’Automatique (puisque nous nous intéressons à des problèmes de commande des systèmes linéaires), de l’Optimisation non lisse, et du développement logiciel. Sur ce dernier point, l’objectif concret est, en effet, de proposer un outil numérique cohérent, documenté, et évolutif, directement accessible à l’automaticien, et utilisable à la façon d’une “boîte à outils” pour la synthèse de lois de commande. Cet outil permet de formuler et de résoudre des problèmes difficiles, notamment en terme de taille (système à commander d’ordre élevé), de contraintes sur le compensateur à synthétiser (ordre ou structure fixés), ou de nature du problème (synthèse multimodèle, commande tolérante aux pannes). Il repose sur le socle théorique et algorithmique mis en place dans la thèse. C’est là que réside l’objectif central de nos travaux : démontrer le bien-fondé et la faisabilité de l’approche non lisse pour la résolution de problèmes de synthèse de lois de commande. Pour ce faire, nous nous sommes attachés à présenter des applications variées, issues pour partie d’une bibliothèque de problèmes de commande (bibliothèque COMPleib de F. Leibfritz), mais

aussi d’exemples isolés, difficiles, traités jusqu’alors par des méthodes heuristiques. Le document est organisé en deux grandes parties : la première partie regroupe en deux chapitres (chapitres 1 et 2) l’ensemble des notions qui nous ont semblé être fondamen-tales. Ces deux chapitres sont complémentaires dans leur thématique : le lecteur familier des systèmes dynamiques linéaires et de leur commande en boucle fermée pourra survoler

(15)

7

le premier chapitre, dans lequel nous formulons les problèmes étudiés (stabilisation et synthèse H∞) et donnons un aperçu des méthodes de résolution existantes. Il pourra en

revanche s’attarder sur la lecture du deuxième chapitre, qui expose les bases de l’Optimi-sation non différentiable, hors du contexte de l’Automatique, pour les fonctions convexes, puis pour les fonctions localement lipschitziennes. Plusieurs algorithmes d’optimisation y sont présentés (méthodes de faisceaux, méthodes pour des problèmes minimax).

La contribution scientifique de la thèse fait l’objet de la seconde partie, elle-même divisée en quatre chapitres (chapitres 3 à 6). Chacun de ces chapitres reprend dans son contenu une partie des travaux de thèse sous la forme d’une publication ou d’une commu-nication. Le choix de l’ordre de présentation des travaux ne respecte pas nécessairement la chronologie de ceux-ci, mais a été pensé de façon à proposer une progression logique au lecteur. Nous partons du problème de la stabilisation en boucle fermée (chapitre 3), qui s’est révélé fondamental pour la minimisation ultérieure d’un critère de performance tel que la norme H∞ (dont traitent les chapitres 4 à 6). Nous avons donc comparé différentes

techniques d’optimisation permettant de rechercher un correcteur stabilisant, dont une approche non lisse originale que nous présentons. L’accent est ensuite mis sur la synthèse

H∞, à travers un exemple de loop-shaping par un correcteur structuré (chapitre 4).

L’al-gorithme de minimisation de la norme H∞ y est décrit. Il exploite le sous-différentiel de

Clarke, que l’on peut ici déterminer de façon complète par des calculs dans le domaine fré-quentiel. Ce même algorithme a été généralisé afin de l’appliquer de façon analogue à des critères formulés dans le domaine temporel ; le chapitre 5 présente ce point de vue unifié, et propose une série d’applications en synthèse structurée. L’exposé se termine (chapitre 6) par une ouverture sur une toute autre approche pour la minimisation du critère H∞ :

elle consiste à reformuler localement la synthèse comme un problème différentiable, puis à résoudre une suite de problèmes quadratiques dits “tangents”. Une convergence plus rapide en est attendue, et sera effectivement montrée.

Les notations utilisées dans la première partie du document sont standard, et un tableau les récapitule dans les pages précédentes. Elles sont généralement suivies dans les quatre chapitres de la deuxième partie, sauf lorsque le contexte nous a conduits à préférer une notation spécifique (en cas d’ambiguïté, par exemple) ; la nouvelle notation choisie est alors explicitée en début de chapitre. Enfin, nous proposons au lecteur, en fin de document, les références synthétiques des sources bibliographiques citées dans la thèse.

(16)
(17)

Première partie

Notions fondamentales et cadre de

travail

(18)
(19)

Chapitre 1

Introduction à la commande des

systèmes

Ce premier chapitre présente les problèmes de commande qui sont abordés dans le cadre de nos travaux, présentés dans la deuxième partie de ce document. Nous nous intéressons plus particulièrement aux problèmes de stabilisation et de synthèse H∞.

1.1

Terminologie et définitions

Nous rappelons ici les concepts fondamentaux de l’Automatique indispensables à l’ana-lyse et à la commande des systèmes dynamiques, et notamment des systèmes linéaires. Nous invitons le lecteur à se reporter aux ouvrages [2, 143] s’il souhaite en approfondir certains aspects.

1.1.1

Systèmes dynamiques

Nous considérons un système linéaire et invariant dans le temps, en anglais linear and

time-invariant (LTI). C’est un processus liant des signaux d’entrée et de sortie, décrit par

un système d’équations différentielles linéaires à coefficients constants. Cette hypothèse conduit généralement à manipuler une approximation du système réel considéré ; les sys-tèmes rencontrés dans les applications industrielles comportent en effet des non-linéarités, ne serait-ce qu’en raison de contraintes physiques ou de sécurité portant sur les action-neurs ou sur les capteurs, qui se traduisent par des saturations en position ou en vitesse. Il faut donc garder en mémoire que le domaine de validité d’un système linéaire invariant dans le temps est limité, par exemple, au voisinage d’un point de fonctionnement1, à une

bande de fréquence, ou à un intervalle de temps.

D’autre part, les algorithmes qui ont été développés dans le cadre de la thèse ne concernent que les systèmes LTI à temps continu. Il n’y a cependant aucun obstacle théorique à leur transposition aux systèmes discrets.

1On parle de point de vol en aéronautique, défini par l’altitude et la vitesse relative.

(20)

Représentation des systèmes LTI

Matrice de transfert Un système LTI à entrée et sortie scalaires (SISO, single-input

/ single-output) est complètement décrit par sa réponse impulsionnelle g(t), c’est-à-dire

la réponse de ce système à une impulsion de Dirac. En effet, puisque la réponse y(t) du système est solution d’une équation différentielle linéaire à coefficients constants, le principe de superposition permet d’exprimer y(t) pour tout signal d’entrée u(t) comme le produit de convolution

y(t) =

Z +∞

−∞ g(t − τ )u(τ ) dτ . (1.1)

Dans le domaine de Laplace, on obtient le produit simple

Y (s) = G(s).U(s) , (1.2)

où G est une fraction rationnelle, appelée fonction de transfert du système (s désignant la variable de Laplace).

Plus généralement, dans le cas d’un système LTI à entrée ou sortie vectorielle (MIMO,

multi-input / multi-output), G devient une matrice de fractions rationnelles, appelée ma-trice de transfert. On dira que la mama-trice de transfert G est propre si

lim

|s|→∞kG(s)k < ∞ , (1.3)

et qu’elle est strictement propre si lim

|s|→∞kG(s)k = 0 . (1.4)

Cette représentation des systèmes par des matrices de transfert facilite leur inter-connexion puisqu’une association en série se traduit par un produit de matrices, une association en parallèle par une somme. Par ailleurs, elle permet l’étude harmonique des systèmes, notamment SISO ; en effet, si le signal d’entrée est de type sinusoïdal

u(t) = U0sin(ω0t), alors la sortie est également sinusoïdale, de même fréquence, mais

déphasée de φ = arg [G (jω0)] et amplifiée de |G (jω0)|. Des outils graphiques issus de

la commande classique (diagramme de Bode, lieu de Black/Nichols, lieu de Nyquist) permettent d’analyser les propriétés de tels systèmes, notamment en présence d’un asser-vissement. Cependant, la représentation d’un système LTI par sa matrice de transfert ne rend pas compte de la dynamique interne du système.

Représentation d’état L’étude physique de nombreux systèmes dynamiques à temps

continu permet de décrire leur comportement par un système d’équations de la forme (

˙x(t) = f (x(t), u(t), t)

y(t) = g (x(t), u(t), t) . (1.5)

Ici encore, le vecteur u(t) ∈ Rm désigne l’entrée (ou commande) du système, et y(t) ∈ Rp

la sortie, issue de la seconde équation de (1.5) (dite équation d’observation). Le vecteur

x(t) ∈ Rn, solution de la première équation (équation différentielle ordinaire, dite

(21)

1.1. Terminologie et définitions 13

configuration interne du système. Sous les hypothèses précitées de linéarité et d’invariance dans le temps, f et g sont linéaires et indépendantes de t, et les équations deviennent

(

˙x(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t) . (1.6)

A ∈ Rn×n est appelée matrice d’état du système, B ∈ Rn×m matrice de commande,

C ∈ Rp×n matrice d’observation et D ∈ Rp×m matrice de transmission directe. Etant

donnés la commande u(t) et l’état initial x(0) = x0, la sortie y(t) est donnée par

y(t) = CeAtx0+

Z t

0 Ce

A(t−τ )Bu(τ ) dτ + Du(t) . (1.7)

Une simple transformation de Laplace des équations de (1.6), avec l’état initial x(0) = 0, permet d’éliminer X(s) et de formuler la matrice de transfert du système

G(s) = C(sI − A)−1B + D . (1.8)

Le quadruplet (A, B, C, D) est appelé réalisation de ce système LTI. Cette réalisation dépend du choix du vecteur d’état x(t), et tout changement de variable ˜x(t) = T−1x(t)

(avec la matrice de passage T ∈ GLn(R)) dans (1.6) introduit une nouvelle réalisation

(T−1AT, T−1B, CT, D) de ce même système. La matrice de transfert reste cependant

in-changée, et définit de façon unique le système, du point de vue entrée-sortie. Notons que la matrice de transfert G est strictement propre si et seulement si D = 0.

Cette multiplicité des représentations en espace d’état amène à en privilégier certaines. Les raisons peuvent être d’ordre numérique (représentation d’état équilibrée par exemple, voir [143]), ou encore parce que certaines formes de réalisations facilitent le passage de la matrice de transfert à une représentation d’état. C’est le cas notamment des formes canoniques (forme diagonale ou de Jordan, et pour les systèmes SISO, forme compagne de commande ou d’observation). La dimension du vecteur d’état x(t) (appelée ordre de la réalisation (A, B, C, D)) n’est pas non plus définie de manière unique ; ainsi, parmi toutes les réalisations (A, B, C, D) d’une matrice de transfert G(s), celles pour lesquelles A a la plus petite taille possible sont qualifiées de minimales. L’ordre n associé est appelé le

degré de McMillan de G(s).

Commandabilité, observabilité Etant donnée une réalisation (A, B, C, D) d’un

système LTI, le couple (A, B) est dit commandable si, par définition, pour tout t1 > 0, x0, x1 ∈ Rn, il existe une commande u : [0, t1] → Rm, intégrable sur [0, t1], qui amène la

variable d’état x(t) de x(0) = x0 à x(t1) = x1, autrement dit, telle que

x1 = eAtx0+

Z t1

0 e

A(t1−τ )Bu(τ ) dτ . (1.9)

Le couple (C, A) est dit observable si, par définition, pour tout t1 > 0, l’état initial

x(0) peut être déterminé de manière unique à partir de toute commande u : [0, t1] → Rm

(22)

Comme il est d’usage, on dira dans la suite que la réalisation (A, B, C, D) d’un système est commandable (resp. observable) si (A, B) est commandable (resp. si (C, A) est obser-vable).

Remarques:

On peut, sans amoindrir l’énoncé, remplacer x0 par 0 dans la définition de la

com-mandabilité.

– De même, l’observabilité peut être définie de façon équivalente en ne considérant que la sortie y : [0, t1] → Rp résultant de la commande nulle (y est alors la réponse libre du système).

Une fois déterminé l’unique x(0) d’une réalisation observable (A, B, C, D), toute valeur prise par le vecteur d’état x(t) sur [0, ¯t] peut être calculée avec

x(t) = eAtx(0) +Z t 0 e

A(t−τ )Bu(τ ) dτ . (1.10)

Il existe de nombreuses caractérisations algébriques de ces deux notions : (A, B) est commandable si et seulement si la matrice de commandabilité

C ,hB AB A2B . . . An−1Bi (1.11)

est de plein rang (n, en ligne).

(C, A) est observable si et seulement si la matrice d’observabilité

O ,          C CA CA2 ... CAn−1          (1.12)

est de plein rang (n, en colonne).

On dispose aussi des caractérisations modales suivantes : (A, B) est commandable (resp. (C, A) est observable) si et seulement si tout vecteur propre à gauche v de A est tel que

v∗B 6= 0 (resp. tout vecteur propre à droite v de A est tel que Cv 6= 0).

Cela conduit à définir la commandabilité et l’observabilité par mode du système, c’est-à-dire par valeur propre de A, vis-à-vis de B et C : un mode λ ∈ Λ(A) est commandable si, par définition, pour tout vecteur propre à gauche (resp. à droite) v associé à la valeur propre λ, on a v∗B 6= 0 (resp. Cv 6= 0). Ainsi (A, B) est commandable (resp. (C, A)

est observable) si et seulement si tous les modes du système sont commandables (resp. observables).

Le critère de Popov-Belevitch-Hautus (ou PBH) traduit cette interprétation modale par une condition de rang : (A, B) est commandable si et seulement si, pour toute valeur propre λ ∈ Λ(A) la matrice

h

A − λIn B

i

(23)

1.1. Terminologie et définitions 15

est de plein rang (n, en ligne). De même, (C, A) est observable si et seulement si, pour toute valeur propre λ ∈ Λ(A) la matrice

"

A − λIn

C

#

(1.14)

est de plein rang (n, en colonne).

Nous donnons une dernière caractérisation, qui permet de lier la commandabilité à la notion de placement de valeurs propres. En effet, (A, B) est commandable (resp. (C, A) est observable) si et seulement si les valeurs propres de A + BF (resp. de A + LC) peuvent être placées arbitrairement2 dans C par un choix convenable de F ∈ Rm×n (resp. de L ∈ Rn×p).

Stabilisabilité, détectabilité Les notions de stabilisabilité et de détectabilité sont

voisines, mais moins fortes que les précédentes : (A, B) est stabilisable si les modes instables de A sont commandables, c’est-à-dire, avec le critère PBH, si pour toute valeur propre

λ ∈ Λ(A) ∩ C+ la matrice (1.13) est de rang n. De façon duale, (C, A) est détectable si

les modes instables de A sont observables : pour toute valeur propre λ ∈ Λ(A) ∩ C+ la

matrice (1.14) est de rang n.

On a enfin des caractérisations par propriétés de placement de valeurs propres : (A, B) est stabilisable (resp. (C, A) détectable) s’il existe F ∈ Rm×n (resp. L ∈ Rn×p) tel que A + BF (resp. A + LC) est Hurwitz, c’est-à-dire que ses valeurs propres sont toutes dans

le demi-plan gauche C.

La commandabilité et l’observabilité, tout comme la stabilisabilité et la détectabilité, sont des notions d’espace d’état. Si elles sont invariantes par changement de variable, elles dépendent cependant du choix de la dimension de la variable d’état. Ainsi, parmi toutes les réalisations (A, B, C, D) d’une matrice de transfert G(s), les réalisations à la fois commandables et observables sont exactement celles qui sont minimales.

Pôles et zéros d’un système LTI

Les pôles (resp. les zéros) d’un système SISO sont les racines du numérateur (resp. du dénominateur) de sa fonction de transfert G(s), supposée irréductible. Pour un système MIMO, les pôles sont les racines du polynôme det(sI − A), c’est-à-dire les valeurs propres de A, où (A, B, C, D) est une réalisation minimale de G(s). Plus généralement, les pôles d’une réalisation quelconque (A, B, C, D) de G(s) sont les valeurs propres de A. La défi-nition de zéros dans le cas MIMO est plus délicate que dans le cas SISO, et nécessite d’en distinguer plusieurs types :

les valeurs s ∈ C telles que le rang de la matrice "

A − sI B

C D

#

(1.15)

est déficient sont les zéros invariants (ou simplement les zéros),

(24)

les valeurs s ∈ C qui annulent complètement la matrice de transfert G(s) sont les

zéros de blocage.

En particulier, les modes non observables ou non commandables sont des zéros invariants.

1.1.2

Normes de signaux

On considère un signal vectoriel complexe à temps continu u : R+→ Cm. On définit

la norme infini ou norme sup de u par

kuk∞ , sup

t≥0 ku(t)k∞. (1.16)

Si u est de carré sommable sur R+ (c’est-à-dire si u ∈ L2(R+), espace de Hilbert), on

définit la norme kuk2 , Z 0 ku(t)k 2 2 dt 1 2 , (1.17)

dénommée norme L2. C’est la norme induite par le produit scalaire sur L2(R+) hu, vi ,

Z

0 u(t)

Hv(t) dt . (1.18)

Elle s’interprète comme l’énergie du signal, et s’exprime de façon équivalente dans le domaine fréquentiel kuk2 =  1 Z −∞kU(jω)k 2 2 1 2 , (1.19)

grâce au théorème de Parseval. L’expression à droite de l’égalité définit une norme (encore notée k · k2) sur l’espace de Hardy H2, constitué des fonctions de la variable complexe U,

analytiques dans le demi-plan droit C+, et telles que

sup σ>0  1 Z −∞kU(σ + jω)k 2 2 1 2 < ∞ . (1.20)

C’est, là encore, la norme induite par le produits scalaire sur H2 (encore noté h·, ·i)

hU, V i , 1

Z

−∞U(jω)

HV (jω) dω . (1.21)

L’espace H2 est l’image de L2(R+) par la transformée de Fourier, qui réalise ainsi un

isomorphisme d’espaces de Hilbert.

1.1.3

Stabilité des systèmes linéaires

La notion de stabilité est fondamentale pour les systèmes dynamiques, qu’il s’agisse de commande en boucle ouverte ou en boucle fermée. Définir la stabilité pour un système LTI dépend du point de vue adopté pour le représenter : dans le cas d’une approche entrée-sortie, par matrice de transfert, on parle de stabilité BIBO (bounded input / bounded

output) ; si l’état x(t) du système est connu, au moyen d’une réalisation

(

˙x(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t) . (1.22)

(25)

1.1. Terminologie et définitions 17

Stabilité BIBO

Un système (LTI ou autre) est BIBO-stable si, par définition, pour toute entrée u(t) telle que kuk∞ < ∞, la sortie y(t) vérifie kyk∞ < ∞. Dans le cas des systèmes LTI,

la stabilité BIBO est caractérisée par la localisation de tous les pôles dans le demi-plan gauche C. D’un point de vue numérique, des critères algébriques (Routh-Hurwitz

no-tamment) permettent de vérifier la stabilité BIBO d’un système à partir des coefficients du dénominateur de sa fonction de transfert, sans avoir à expliciter ses pôles.

Ainsi la stabilité BIBO garantit que, sous l’action d’une commande bornée pour la norme infini, la réponse forcée du système reste finie. Elle ne dit rien de l’évolution du système lui-même, dont la dynamique interne peut faire croître considérablement certaines grandeurs d’état, et engendrer par la même l’altération voire la destruction du système. La notion de stabilité interne permet de combler cette carence.

Stabilité interne

Le système LTI (1.22), défini par la réalisation (A, B, C, D), est stable de façon interne si, par définition, pour tout état initial x(0) = x0, et en l’absence de signal de commande

(u(t) = 0, ∀t ≥ 0), on a

lim

t→∞kx (t)k = 0 . (1.23)

L’état d’équilibre xe= 0 est dit dans ce cas asymptotiquement stable. On montre aisément

que la stabilité interne est équivalente à la propriété de Hurwitz de la matrice d’état A (toutes ses valeurs propres sont dans le demi-plan gauche C).

La stabilité interne implique la stabilité BIBO de la matrice de transfert associée

G(s) = C(sI − A)−1B + D, puisque les pôles du système sont des valeurs propres de

A. La réciproque est fausse en général, sauf si les modes instables de A sont

comman-dables et observables (c’est-à-dire si (A, B) est stabilisable et (C, A) est détectable). On a alors équivalence des deux notions de stabilité. C’est le cas en particulier si la réalisation (A, B, C, D) est minimale, les pôles de G étant alors exactement les valeurs propres de A. Afin de caractériser la stabilité interne de façon analytique, on définit, pour toute matrice M ∈ Rn×n, l’abscisse spectrale de M, notée α(M), comme la plus grande partie

réelle des valeurs propres de M :

α(M) , max

λ∈Λ(M )Re (λ) . (1.24)

La stabilité interne du système (1.22) est donc équivalente à l’inégalité α(A) < 0. Si la matrice d’état dépend de paramètres (A = A(κ)), la recherche de valeurs de paramètres rendant le système stable peut ainsi être ramenée à un problème de minimisation de l’abscisse spectrale.

Une autre approche consiste à caractériser la stabilité interne par la condition de Lyapunov, exprimée en terme d’inégalité linéaire matricielle (ou LMI, Linear Matrix

In-equality) :

Théorème 1.1.1 Le système linéaire (1.22) est stable de façon interne si et seulement

si il existe une matrice P ∈ Sn(R), P  0, telle que

(26)

Nous dresserons un inventaire des techniques de stabilisation en boucle fermée dans la section 1.2.2 ci-après, ainsi qu’au chapitre 3.

1.1.4

Normes de systèmes

La conception d’une loi de commande doit généralement répondre, au delà de l’exigence de stabilité, à des spécifications relatives à la “taille” des signaux ou des matrices de transfert : on cherchera par exemple à réduire l’impact sur le comportement du système des perturbations pouvant affecter la commande ou la sortie, ou encore à minimiser l’effet du bruit apparaissant sur les mesures. On pourra aussi exiger de maintenir la puissance délivrée par les actionneurs en deçà d’une certaine limite. Ces objectifs ou contraintes de performance sont exprimées au moyen de normes de systèmes.

Norme H

Soit G la matrice de transfert d’un système LTI, supposé stable. C’est une fonction rationnelle réelle de la variable complexe s, comme fraction de polynômes à coefficients réels. Elle est propre, analytique et bornée dans le demi-plan droit C+. On définit sa

norme H∞ par kGk∞, sup Re s>0¯σ [G(s)] (1.26) = sup ω∈R ¯ σ [G(jω)] = sup ω∈R+ ¯ σ [G(jω)] .

où ¯σ [G(s)] désigne la plus grande valeur singulière de G(s).

On montre que l’espace H2 (défini en 1.1.2) est invariant par l’opérateur linéaire MG:

U 7→ GU, et que la norme H∞ de G coïncide avec la norme de MG en tant qu’opérateur

linéaire H2 → H2. kGk∞ est donc la norme induite par la norme L2

kGk∞ = sup kU k2<∞ U 6=0 kGUk2 kUk2 (1.27)

et mesure le gain maximal en énergie du système.

La norme H∞ n’est pas définie dans le cas d’un système LTI instable (appliquer la

définition (1.26) aboutirait à une valeur infinie). Cependant, pour un système LTI sans pôles sur l’axe imaginaire, de matrice de transfert G, la quantité sup {¯σ [G(jω)] / ω ∈ R}

est finie. C’est la norme L∞ de G, qui coïncide avec la norme H∞ dès que G est stable.

On introduit enfin la norme H∞ dite a-shiftée (a-shifted H∞ norm en anglais). Pour a ∈ R fixé, elle est définie par

kGk∞,a , sup

Re s>−aσ [G(s)] = kG¯ ak∞, (1.28)

où G est la matrice de transfert d’un système LTI, et Ga(s) = G(s − a), ce qui a pour effet

(27)

1.2. Problèmes de synthèse pour la commande 19

finie si et seulement les pôles de G sont à partie réelle strictement inférieure à −a. Ainsi en choisissant a < 0 suffisamment grand en valeur absolue, la norme shiftée permet de mesurer le gain d’un système instable.

Norme H2

La norme H2 est définie pour toute matrice de transfert stable strictement propre G.

Elle vaut kGk2 ,  1 Z −∞Tr  G(jω)HG(jω) 1 2 (1.29) = sup kU k∞<∞ U 6=0 kGUk2 kUk∞ . (1.30)

avec kUk∞= supRe s>0kU(s)k = supω∈RkU(jω)k.

La norme H2 mesure l’énergie en sortie du système, lorsqu’un bruit blanc normalisé

(c’est-à-dire de densité spectrale uniforme Suu(jω) = U(jω)UH(jω) = I) est appliqué en

entrée.

1.2

Problèmes de synthèse pour la commande

La commande3 des systèmes dynamiques ne recouvre pas tout à fait les mêmes notions

suivant que l’on se place du point de vue du mathématicien ou de celui de l’automaticien, comme le souligne Bergounioux dans [21]. Le but poursuivi est le même : trouver une expression du signal de commande u(t) à appliquer en entrée du système afin que ce dernier vérifie un ensemble de spécifications. Cela peut être par exemple un critère à minimiser (comme la norme H2d’un transfert par exemple), on parle alors de commande optimale. Il

peut s’agir simplement de trouver une commande qui stabilise le système, ou, dans le cas d’un système linéaire, qui permet de placer les pôles dans le plan complexe (commande modale). Le mathématicien va rechercher une telle commande dans un espace fonctionnel donné, dont les éléments ne dépendent pas a priori de la variable d’état x du système, ou de la sortie y. C’est ce que l’automaticien nomme commande en boucle ouverte, car le système est “piloté” en aveugle par un signal précalculé. La commande en boucle fermée est, au contraire, construite en temps-réel, à partir des signaux disponibles en sortie du système et mesurés par des capteurs. Les signaux de commande sont alors appliqués en entrée via des actionneurs. Le processus de fabrication du signal de commande définit un système dynamique en tant que tel, que l’on appelle correcteur, compensateur, ou encore loi de commande. Nous nous limiterons dans le cadre de notre étude aux correcteurs de même type que les systèmes considérés, c’est-à-dire linéaires et invariants dans le temps (LTI).

3on trouve parfois le terme contrôle, ou contrôle actif, par opposition au contrôle passif qui implique

(28)

1.2.1

Forme standard pour la commande

Nous introduisons tout d’abord une formulation générique dite standard, représenta-tion qui donne un cadre très général pour la synthèse de lois de commande. Elle facilite l’explicitation du cahier des charges en isolant, parmi les entrées et sorties du système, celles qui interviennent dans les spécifications.

Parmi les entrées du système commandé (noté P (s) sur la figure 1.1), on distingue celles produites par le correcteur K(s) de celles dites exogènes. Ces dernières sont regroupées dans le vecteur w ∈ Rm1 et comprennent les perturbations (rafales de vent pour un

aéronef), les bruits, ou encore les signaux de consigne. Finalement, l’entrée u ∈ Rm2

ne contient que les signaux des actionneurs générés par le correcteur, c’est-à-dire les commandes. De même, parmi toutes les sorties du système, celles qui sont accessibles au correcteur pour l’élaboration des ces commandes sont désignées par le vecteur y ∈ Rp2 (ce

sont les mesures), tandis que z ∈ Rp1 contient les sorties régulées, sur lesquelles portent

les spécifications. sorties mesurées commandes sorties régulées entrées exogènes y z w u

K(s)

P (s)

Fig. 1.1 – La forme standard.

La forme standard permet donc une description de différentes configurations de boucles fermées (boucle de suivi, boucle de régulation, asservissement à un ou plusieurs degrés de liberté) à l’aide d’une représentation unique.

Transformation linéaire fractionnaire

La matrice de transfert P (s), des signaux d’entrée w et u vers les signaux de sortie z et y, est partitionnée en quatre blocs, associés à chacun des quatre canaux du système, de la façon suivante : " Z(s) Y (s) # = " P11(s) P12(s) P21(s) P22(s) # " W (s) U(s) # . (1.31)

L’interconnexion en boucle fermée du système et du correcteur, représentés par leurs matrices de transfert respectives P et K (supposées propres), constitue un nouveau sys-tème LTI, d’entrée w et de sortie z. La matrice de transfert en boucle fermée Tw→z est

(29)

1.2. Problèmes de synthèse pour la commande 21

appelée transformation linéaire fractionnaire (LFT ) ou produit de Redheffer de P et K. Le système bouclé est dit bien posé si, par définition, cette matrice de transfert existe et est propre, ou, de façon équivalente, dès que I − P22(∞)K(∞) est inversible. Cette

hypothèse de travail, qui revient à s’assurer que la boucle fermée possède bien un sens physique, sera toujours supposée vraie par la suite.

Représentation d´état

La formulation LFT et l’approche par variable d’état offrent un cadre méthodologique riche pour la résolution de problèmes de commande, notamment dans le cas de la synthèse

H∞. Nous reprenons donc ici les notations usuelles pour la forme standard exprimée en

espace d’état. Supposons que les sorties z et y sont liées aux entrées w et u par la réalisation        ˙x(t) = Ax(t) + B1w(t) + B2u(t) z(t) = C1x(t) + D11w(t) + D12u(t) y(t) = C2x(t) + D12w(t) + D22u(t) , (1.33)

avec x ∈ Rn, et la condition initiale x(0) = 0, de sorte que

P (s) = " P11(s) P12(s) P21(s) P22(s) # = " C1 C2 # (sI − A)−1hB 1 B2 i + " D11 D12 D21 D22 # . (1.34) De même, soit ( ˙ xK(t) = AKxK(t) + BKy(t) u(t) = CKxK(t) + DKy(t) (1.35)

une réalisation du correcteur, de variable d’état xK ∈ RnK (avec xK(0) = 0), telle que

K(s) = CK(sI − AK)−1BK+ DK. (1.36)

Afin d’alléger la formulation en espace d’état de la forme standard (figure 1.1), nous faisons l’hypothèse que le bloc P22 de la matrice de transfert P est strictement propre, ce

qui revient à poser D22 = 0 (pas de transmission directe de u vers y). Cette condition est

très souvent vérifiée dans les applications, et peut se poser sans perte de généralité dans les problèmes de synthèse de correcteur. En effet, si D226= 0, il suffit de déporter le bloc

de transmission directe dans le correcteur, en posant

˜

y(t) , C2x(t) + D21w(t) (1.37)

à la place de la dernière égalité dans (1.33) et, par suite, de remplacer (1.35) par    ˙ xK(t) = h AK + BKD22(I − DKD22)−1CK i xK(t) + BK(I − D22DK)−1y(t)˜ u(t) = (I − DKD22)−1CKxK(t) + (I − DKD22)−1DKy(t) .˜ (1.38)

I − DKD22 et I − D22DK sont inversibles puisque la boucle fermée est bien posée, par

(30)

se ramener au cas D22 = 0, sans conséquence sur le transfert Tw→z. On obtient alors, en

éliminant u et ˜y, une réalisation de la boucle fermée

       ˙x(t) = (A + B2DKC2)x(t) + B2CKxK(t) + (B1+ B2DKD21)w(t) ˙ xK(t) = BKC2x(t) + AKxK(t) + BKD21w(t) z(t) = (C1+ D12DKC2)x(t) + D12CKxK(t) + (D11+ D12DKD21)w(t) , (1.39) de sorte que Tw→z(s) = Cc(K) [sI − Ac(K)]−1Bc(K) + Dc(K) , (1.40) avec Ac(K) = " A + B2DKC2 B2CK BKC2 AK # , Bc(K) = " B1+ B2DKD21 BKD21 # , Cc(K) = h C1+ D12DKC2 D12CK i , Dc(K) = h D11+ D12DKD21 i . (1.41)

Nous ferons donc toujours l’hypothèse D22= 0 dans notre travail.

Retour statique, retour dynamique

Les contraintes d’implémentation des correcteurs, en termes de puissance de calcul disponible, de mémoire, mais aussi de coût ou de fiabilité, font que les lois de commande simples sont privilégiées lors de la conception.

La commande par retour statique de sortie (SOF en anglais, pour static output

feed-back) apparaît comme un cas particulier de la commande définie par (1.35), avec nK = 0.

Le correcteur qui la réalise est réduit à un simple gain matriciel y(t) = DKu(t) = Ku(t).

La synthèse d’un correcteur dynamique, d’ordre fixé nK ≥ 1, permet d’accéder à des lois

de commande plus élaborées. Lorsque nK < n, on parle d’ordre réduit, et pour nK = n

d’ordre plein. Notons que la commande par retour dynamique de sortie (DOF en anglais), d’ordre fixé, se ramène formellement à l’action d’un correcteur statique ˆK, constitué des

blocs AK, BK, CK et DK, par augmentation de x, u et y (voir par exemple [95]). Plus

précisément, en posant ˆ x = " x xK # , y =ˆ " xK y # , u =ˆ " ˙xK u # , (1.42)

nous obtenons la réalisation

ˆ A = " A 0 0 0nK # , Bˆ1 = " B1 0 # , Bˆ2 = " 0 B2 InK 0 # , ˆ C1 = h C1 0 i , Dˆ11= D11, Dˆ12= h 0 D12 i , ˆ C2 = " 0 InK C2 0 # , Dˆ21= " 0 D21 # , Dˆ22= 0 . (1.43)

(31)

1.2. Problèmes de synthèse pour la commande 23

Le système ainsi augmenté, commandé par

ˆ u = " AK BK CK DK # | {z } ˆ K ˆ y (1.44)

coïncide avec la boucle fermée obtenue par retour dynamique. Dans le cas de la commande par un correcteur d’ordre fixé, nous pourrons donc supposer sans perte de généralité et après augmentation du système à commander que ce correcteur est statique.

1.2.2

Stabilisation

La stabilisation d’un système LTI par retour statique de sortie consiste à rechercher, s’il en existe, un correcteur K ∈ Rm2×p2 tel que la boucle fermée soit stable de manière

interne, c’est-à-dire tel que

Λ(A + B2KC2) ⊂ C−. (1.45)

En utilisant l’abscisse spectrale α définie par (1.24), cela revient à chercher K tel que

α(A + B2KC2) < 0.

Lorsque le correcteur recherché est dynamique, il s’agit de déterminer, toujours sous condition d’existence, des matrices AK, BK, CK et DK telles que

Λ(Ac(K)) ⊂ C− avec Ac(K) = " A + B2DKC2 B2CK BKC2 AK # . (1.46)

La stabilisation par retour de sortie demeure un problème ouvert de la commande [22]. Il apparaît comme le plus souvent cité dans l’enquête [23] compilant les points de vue d’automaticiens sur les enjeux de leur discipline. Il a été, et est toujours, l’objet de pu-blications très abondantes, dont le lecteur trouvera une sélection de références dans [100]. La plupart des approches existant pour trouver un correcteur K stabilisant sont présen-tées dans [131]. Dans certains cas particuliers, l’existence d’un correcteur K stabilisant (la stabilisabilité) peut être vérifiée par des critères algébriques bien connus [143] :

Si nK = 0 et C = I (retour d’état statique), il faut et il suffit que le couple

(A, B2) soit stabilisable (par définition même), ce qui revient à vérifier que les modes

instables de A sont commandables, soit encore [A − λIn B2] de plein rang (en ligne)

pour toute valeur propre λ ∈ Λ(A) ∩ C+ (critère PBH).

Si nK = n (retour de sortie d’ordre plein), une condition nécessaire et suffisante est

(A, B2) stabilisable et (C2, A) détectable, c’est-à-dire que les modes instables de A

sont commandables et observables. Elle peut être vérifiée par le critère PBH.

Si nK < n (retour de sortie d’ordre réduit), cette dernière condition n’est que

né-cessaire.

Si nK = 0 (retour de sortie statique), la condition suivante dite PIP paire (pour

parity interlacing property) portant sur les pôles et les zéros de G(s) = C2(sI −

A)−1B

2 est une condition nécessaire de stabilisabilité [131] :

le nombre de pôles réels de G (comptés avec leur multiplicité) entre deux zéros de blocage réels de G positifs ou nuls est pair, et

(32)

le nombre de zéros de blocage réels de G entre deux pôles réels de G est pair. Ces conditions d’existence sont d’un faible intérêt pratique car elles ne s’appliquent qu’à un nombre limité de problèmes de stabilisabilité, et surtout parce qu’elles ne sont pas constructives. D’autre part, la complexité du problème de stabilisabilité par retour de sortie statique n’est pas établie, mais des problèmes très voisins (stabilisabilité par retour d’état avec correcteur borné, stabilisation simultanée par retour de sortie, . . .) sont clairement NP-difficiles [24].

Des méthodes constructives sont cependant bien connues dans le cas des systèmes SISO, pour lesquels K est un scalaire : l’étude graphique du lieu des pôles de la fonction de transfert en boucle fermée (dit lieu d’Evans) permet de répondre à la question d’existence d’un correcteur statique stabilisant, et donne le cas échéant une valeur numérique pour

K. Il en est de même pour le critère algébrique de Routh-Hurwitz.

Dans le cas des systèmes MIMO, la tâche de construction d’un correcteur stabilisant est plus complexe, et différentes méthodes ont été proposées, faisant appel à des domaines des mathématiques très divers. Nous en donnons ci-après un aperçu.

Méthodes de décision

Il est toujours possible de ramener le problème de stabilité de la boucle fermée à un ensemble d’inéquations scalaires polynômiales, dont les inconnues sont les éléments de

K. Cela peut être réalisé au moyen des déterminants de Hurwitz associés à det(sI −

A − B2KC2), qui sont tous strictement positifs dès que les pôles sont dans le demi-plan

gauche C (critère de Routh-Hurwitz), ou encore par le test de Liénard-Chipart, qui

nécessite environ moitié moins d’inégalités avec déterminants que Routh-Hurwitz. L’idée maîtresse présentée dans [3] consiste à considérer cet ensemble d’inégalités, munies de quantificateurs, comme une proposition logique, puis à utiliser une méthode de décision (algorithmes de Tarski et de Seidenberg) afin de réduire le nombre de quantificateurs et décider, au bout d’un nombre fini d’étapes, si la proposition est vraie ou fausse, c’est-à-dire si le système est stabilisable ou non. Si c’est effectivement le cas, alors la méthode permet aussi de construire un correcteur stabilisant. Un exemple avec n = 3, m2 = 1 et p2 = 2 est

détaillé et commenté dans [3]. Même avec ces dimensions réduites (le critère de stabilité ne comporte que trois inégalités), le nombre d’étapes et de manipulations nécessaires à la mise en œuvre de l’algorithme de Tarski est important. Ainsi, si cette approche des problèmes de stabilité par la décidabilité est séduisante, elle se heurte cependant à la complexité exponentielle des algorithmes d’élimination de quantificateurs existants [20].

Inégalités linéaires matricielles

La théorie de Lyapunov permet de ramener le problème de stabilisation par retour de sortie statique à la résolution d’une inégalité matricielle de la forme de (1.25). Ainsi, le système en boucle fermée est stable de manière interne si et seulement si il existe une matrice K ∈ Rm2×p2 et une matrice P ∈ S

n(R), P  0, telles que

(A + B2KC2)TP + P (A + B2KC2) ≺ 0 . (1.47)

Une telle inéquation matricielle est difficile à résoudre, parce que les inconnues (P, K) n’interviennent pas de façon linéaire dans (1.47) ; notons cependant que dans le cas du

(33)

1.2. Problèmes de synthèse pour la commande 25

retour d’état (C2 = In), le changement de variables Q = P−1 et Y = KQ permet de

ramener (1.47) à la LMI suivante, linéaire en (Q, Y )

QAT + AQ + YTBT

2 + B2Y ≺ 0 (1.48)

avec Q  0. Le correcteur est ensuite reconstruit avec K = Y Q−1 . La complexité des

problèmes LMI est polynômiale en le nombre de variables et il existe des méthodes nu-mériques performantes pour les résoudre (méthodes de points intérieurs, algorithme de l’ellipsoïde, optimisation non lisse, . . .).

Revenons au cas général du retour de sortie (1.47) ; il s’agit d’une inégalité bilinéaire matricielle (ou BMI, Bilinear Matrix Inequality), dont la résolution est un problème NP-difficile [135]. Les méthodes numériques de stabilisation basées sur la théorie de Lyapunov s’appuient donc plutôt sur le théorème suivant [75].

Théorème 1.2.1 Le système (1.33) admet un correcteur statique stabilisant (par retour

de sortie) si et seulement si il existe des matrices X, Y ∈ Sn(R), X  0, Y  0, telles

que WT BT 2(AX + XA T)W BT 2 ≺ 0, (1.49) WT C2(A TY + Y A)W C2 ≺ 0, (1.50) XY = In, (1.51) où WBT

2 et WC2 sont des matrices dont les colonnes forment respectivement des bases des

noyaux de BT

2 et de C2.

L’ensemble des correcteurs statiques stabilisants K associés à la matrice de Lyapunov

P = Y , c’est-à-dire qui vérifient (A + B2KC2)TY + Y (A + B2KC2) ≺ 0, est alors décrit

par les matrices de la forme

K = −R−1BT 2Y Q−1C2T(C2Q−1C2T)−1+ S 1 2L(C2Q−1CT 2) 1 2, (1.52)

où S ∈ Sm2(R), S  0, est définie par

S , R−1− R−1B2TY Q−1  Q − C2T C2Q−1C2T −1 C2 −1 Q−1Y B2R−1, (1.53)

et R ∈ Sm2(R), R  0, est choisie telle que

R−1  B+ 2  Φ − ΦWBT 2  WT BT 2ΦWB2T −1 WT BT 2Φ  (B+ 2 )T, (1.54) Φ = XAT + AX. (1.55)

Enfin, L ∈ Rm2×p2 doit vérifier kLk

2 < 1, et Q ∈ Sn(R), Q  0, est déterminée par

Figure

Fig. 1 – Fonction max sur R (en trait gras) : f ∞ n’est pas dérivable en κ ∗ .
Fig. 1.2 – Paramétrisation des correcteurs sous-optimaux K ∞ .
Fig. 2.1 – Interprétation géométrique du sous-différentiel dans le cas convexe.
Fig. 2.2 – Interprétation géométrique du sous-différentiel de Clarke.
+7

Références

Documents relatifs

Il s’agit de déterminer par une approche géométrique, une fonction de Lyapunov quadratique commune aux deux modes de fonctionnement du système, qui permette d’obtenir un cycle

Finalement, ce premier chapitre est organis´e de la mani`ere suivante : apr`es avoir rap- pel´e la motivation de ce th`eme de recherche, nous allons pr´esenter un r´esultat portant

Figure 42 : Etude du suivi de la synthèse des protéines chez Bacillus cereus sur milieu de culture Seed en présence –■– et en absence –●– des huiles essentielles de

La mise en avant de « valeurs de l’organisation » est cruciale : elle rend possible l’accomplissement d’une performance qui ne semble pouvoir se suffire de l’établissement

Globalement, en excluant les méthodes exactes qui sont capables de fournir un alignement optimal mais elles sont appropriées que pour un nombre très réduit de

les cardiopathies conotroncales vers la délétion du chromosome 22q11 et les cardiopathies obstructives gauches vers le syndrome de Turner Chez l‘enfant, la dysmorphie est un

Cette question s’inscrit dans le champ clinique de notre profession, car nous y retrouvons les quatre concepts centraux du méta-paradigme infirmier : l’environnement correspond

Plusieurs probl`emes associ´es ` a la conception des lois de commande MPC (Model Predictive Control) seront abord´es dans ce projet, incluant : (i) La description des probl`emes