Dans cette section, nous pr´esentons des aspects importants des probl`emes
d’optimisa-tion et particuli`erement des probl`emes d’optimisad’optimisa-tion sous contrainte in´egalit´e matricielle
affine (ou LMI de l’anglais Linear Matrix Inequality) ind´ependant de param`etre. En effet,
ces derniers sont (quasi) convexes et forment l’un des ensemble de probl`emes
d’optimi-sation les plus larges qui poss`edent des algorithmes de r´esolution efficaces. Enfin nous
d´efinissons trois probl`emes d’optimisation sous contrainte LMI g´en´eralement consid´er´es
dans la litt´erature.
2.2.1 Probl`eme d’optimisation ind´ependant de param`etre
Un probl`eme d’optimisation ind´ependant de param`etre de dimension finie est d´efinie
de la mani`ere suivante.
D´efinition 2.1 (Probl`eme d’optimisation). Soientn
ξun entier naturel non nul, D⊆R
nξun ensemble non vide et
f : R
nξ→ R
ξ 7→ f(ξ) .
Alors un probl`eme d’optimisation s’´ecrit :
min
ξ∈D
f(ξ)
o`u
– D est appel´e l’ensemble des contraintes ;
– ξ=£
ξ
1· · · ξ
nξ¤
Test appel´e le vecteur des variables de d´ecision ;
– f est appel´ee la fonction de coˆut.
On dit que :
– ξ
opt∈D est un optimum local s’il existe un voisinage ouvert U de ξ
opttel que, pour
tout ξ ∈U∩D, on a f(ξ
opt)≤f(ξ);
– ξ
opt∈D est un optimum global si, pour tout ξ∈D, on a f(ξ
opt)≤f(ξ).
On distingue des classes de probl`emes d’optimisation en fonction des propri´et´es de f
et deD. Deux classes de probl`emes importantes sont celle des probl`emes d’optimisation
convexes et celle des probl`emes d’optimisation quasi–convexes.
D´efinition 2.2. Un probl`eme d’optimisation est dit convexe si
– Dest un ensemble convexe : pour tout ξ
1∈D, pour tout ξ
2∈D, pour tout λ∈[0,1],
on a ¡
λξ
1+ (1−λ)ξ
2¢
∈D;
– f est une fonction convexe : pour tout ξ
1∈D, pour tout ξ
2∈D, pour tout λ∈[0,1],
on a f¡
λξ
1+ (1−λ)ξ
2¢
≤λf(ξ
1) + (1−λ)f(ξ
2).
Un probl`eme d’optimisation est dit quasi–convexe si
– Dest un ensemble convexe : pour tout ξ
1∈D, pour tout ξ
2∈D, pour tout λ∈[0,1],
on a ¡
λξ
1+ (1−λ)ξ
2¢
∈D;
– f est une fonction quasi–convexe : pour tout ξ
1∈ D, pour tout ξ
2∈ D, pour tout
λ∈[0,1], on a f¡
λξ
1+ (1−λ)ξ
2¢
≤max{f(ξ
1), f(ξ
2)}.
Pour ces deux classes de probl`emes d’optimisation, la fonction de coˆut a la propri´et´e que
tout minimum local est un minimum global sur l’ensemble de d´efinition de la fonction. Ceci
implique que tout optimum local est un optimum global. Cette propri´et´e est importante
car, pour r´esoudre les probl`emes d’optimisation, des algorithmes de r´esolution num´erique
sont g´en´eralement utilis´es. Ces algorithmes n´ecessitent un point d’initialisation dansDet
permettent, `a partir de ce point d’initialisation, de trouver un optimum local. Pour les
probl`emes d’optimisation convexes et quasi–convexes, ces algorithmes permettent donc
de trouver un optimum global et donc de les r´esoudre.
Un autre point important des probl`emes d’optimisation convexes et quasi–convexes
est qu’ils sont «faciles » `a r´esoudre num´eriquement [BTN01], i.e. il existe au moins
un algorithme de r´esolution, dit «efficace», dont le temps de r´esolution (temps de
cal-cul n´ecessaire `a cet algorithme pour se terminer) est «raisonnable». Un algorithme de
r´esolution permet effectivement de r´esoudre un probl`eme d’optimisation particulier, mais
surtout il permet de r´esoudre tous les probl`emes d’optimisation de la mˆeme classe. Dans
ce cadre, une mesure usuelle du temps de r´esolution d’un algorithme est l’´evolution de ce
temps de r´esolution en fonction de la «taille» du probl`eme d’optimisation qu’il r´esoud.
Un algorithme est dit efficace si l’´evolution de son temps de r´esolution est born´ee par
une fonction polynˆomiale de la taille du probl`eme d’optimisation. Nous ne d´evelopperons
pas plus cet aspect. Les lecteurs int´eress´es pourront se r´ef´erer au livre [GJ79] pour une
introduction `a la complexit´e algorithmique.
2.2.2 Probl`emes d’optimisation LMI ind´ependant de param`etre
Du fait qu’ils peuvent ˆetre r´esolus efficacement, les probl`emes d’optimisation convexes
et quasi–convexes sont donc int´eressants. Des sous–probl`emes importants sont les
probl`e-mes d’optimisation sous contraintes LMI. D’une part, ces probl`eprobl`e-mes apparaissent
actuel-lement comme des probl`emes importants pour lesquels des algorithmes de r´esolution
effi-caces ont ´et´e programm´es dans les logiciels de calcul scientifique g´en´eraux commeMatlab
[GNLC95] ouScilab. D’autre part, les probl`emes d’optimisation sous contrainte LMI ont
d’importantes applications en Sciences de l’Ing´enieur (en Automatique [BEFB94] ou dans
d’autres domaines [BTN01]).
D´efinition 2.3 (Contrainte LMI ind´ependant de param`etre). Soientn
ξun entier naturel
Une contrainte LMI ind´ependant de param`etre est d´efinie comme l’ensemble de vecteurs
suivant
{ξ∈R
nξ|F(ξ)>0} (2.1)
avec
F(ξ)=
∆F
0+
nξX
i=1ξ
iF
i. (2.2)
Les matrices F
i, i = 0,· · · , n
ξ, sont appel´ees les donn´ees et le vecteur ξ est appel´e le
vecteur des variables de d´ecision de la contrainte LMI ind´ependant de param`etre.
Dans l’expression (2.1),F(ξ)>0 signifie queF(ξ) est d´efinie positive (de la mˆeme fa¸con,
F(ξ) < 0 signifie que F(ξ) est d´efinie n´egative). Une contrainte est une contrainte LMI
lorsque ξ apparaˆıt de fa¸con affine dans F(ξ). Dans la suite de ce document, l’expression
F(ξ)>0 sera aussi appel´ee contrainte LMI ind´ependant de param`etre.
Si dans la D´efinition 2.1, l’ensemble des contraintesD est d´efini par l’expression (2.1),
le probl`eme d’optimisation est alors appel´e un probl`eme d’optimisation sous contrainte
LMI. Ces probl`emes seront ´ecrits plus simplement de la mani`ere suivante :
min
ξ∈Rnξ
f(ξ)
tel que F(ξ)>0. (2.3)
Il est ainsi possible de d´efinir plusieurs probl`emes selon le choix de f. Deux choix sont
g´en´eralement consid´er´es : f est lin´eaire ou f est la valeur propre g´en´eralis´ee de deux
matrices. Un autre probl`eme important est le probl`eme de faisabilit´e qui consiste `a trouver
ξ∈R
nξtel que F(ξ)>0. En r´esum´e, on a les trois probl`emes suivants.
Probl`eme de faisabilit´e Tester s’il existe ξ ∈ R
nξtel que F(ξ) > 0, et si oui,
d´eterminer un telξ ∈R
nξ:
1trouver ξ∈R
nξtel que F(ξ)>0. (2.4)
Probl`eme de minimisation d’une fonction de coˆut lin´eaire Tester s’il existe ξ∈
R
nξtel que F(ξ)>0, et si oui, d´eterminer ξ ∈R
nξtel que F(ξ)>0 et qui minimise c
Tξ
o`uc∈R
nξest un vecteur donn´e :
min
ξ∈Rnξ
c
Tξ
tel que F(ξ)>0. (2.5)
Probl`eme de minimisation de la valeur propre g´en´eralis´ee maximale Tester
s’il existe ξ ∈ R
nξtel que F(ξ) > 0 et H(ξ) > 0 o`u H(ξ) est de la forme (2.2), et si
oui, d´eterminer ξ ∈ R
nξtel que F(ξ) > 0 et H(ξ) > 0 et qui minimise la valeur propre
g´en´eralis´ee maximale λ
max(G(ξ), F(ξ)) de F(ξ) et G(ξ) o`u G(ξ) est de la forme (2.2) et
1
Ce probl`eme peut se formuler comme un probl`eme d’optimisation au sens de la D´efinition 2.1. Il
revient au probl`eme d’optimisation suivant : min
(ξ,t)∈Dt avec D = {(ξ, t)|F(ξ) +tI > 0}. Si la valeur
minimale de t est strictement positive, alors le Probl`eme de faisabilit´e (2.4) n’a pas de solution ; si elle
n´egative ou nulle, alors le Probl`eme de faisabilit´e (2.4) a une solution donn´ee par la valeur deξ
optpour
laquelle (ξ
opt, t) est un optimum global.
o`u λ
max(G(ξ), F(ξ)) est la valeur minimale de λ pour laquelle λF(ξ)−G(ξ) est d´efinie
positive
2:
min
ξ∈Rnξ
λ
max(G(ξ), F(ξ))
tel que F(ξ)>0 et H(ξ)>0. (2.6)
Remarque 2.1. Lorsqu’il y a plusieurs contraintes LMIF
i(ξ)>0, i= 1,· · · , n
F(comme
dans le Probl`eme (2.6)), il est toujours possible de les r´e´ecrire sous une seule contrainte :
F(ξ)=
∆
F
1(ξ) 0 · · · 0
0 . .. ... ...
... . .. ... 0
0 · · · 0 F
nF(ξ)
>0.
Il n’y a donc pas de perte de g´en´eralit´e `a d´efinir les probl`emes d’optimisation sous contrainte
LMI avec une seule contrainte LMI.
Remarque 2.2. Il est aussi possible de rencontrer des contraintes de type ´egalit´e :E(ξ) =
0 o`u E(ξ) est de la forme (2.2). Ce sont des contraintes ´egalit´es matricielles affines (ou
LME de l’anglais Linear Matrix Equality). De la mˆeme mani`ere que pour les LMIs, il est
possible de r´e´ecrire plusieurs LMEs en une seule. Il n’y a donc pas de perte de g´en´eralit´e
en d´efinissant l’ensemble des contraintes suivante avec une seule LME :
{ξ ∈R
nξ|E(ξ) = 0 et F(ξ)>0}. (2.7)
La contrainte E(ξ) = 0 correspond `a un syst`eme de m(m+ 1)/2 ´equations lin´eaires `a n
ξinconnues. Il existe trois cas de figure :
1. E(ξ) = 0 n’a pas de solution : l’ensemble des contraintes d´efini par (2.7) est alors
vide ;
2. E(ξ) = 0 a une solution unique ξ
nul: si F(ξ
nul) est d´efinie positive alors l’ensemble
des contraintes d´efini par (2.7) se r´eduit `a un singleton, sinon il est vide ;
3. E(ξ) = 0 a une infinit´e de solution : l’ensemble A = {ξ|E(ξ) = 0} est alors un
espace affine de dimension finie, de dimension n
ξnew≤ n
ξ. En choisissant n
ξnewvecteurs e
iformant une base de l’espace vectoriel associ´e `a A et en choisissant ξ
0n’importe quel ´el´ement de A, on a : pour tout ξ∈A, il existen
ξnewuniques scalaires
ξ
newitels que ξ =ξ
0+P
nξnewi=1
ξ
newie
i. Par suite,
F(ξ) =F(ξ
0) +nξnew
X
i=1ξ
newi(F(e
i)−F
0)=
∆F
new(ξ
new).
L’ensemble des contraintes (2.7) peut donc ˆetre g´en´er´e grˆace `a l’ensemble suivant :
{ξ
new∈R
nξnew|F
new(ξ
new)>0}.
Il est donc toujours possible d’´eliminer une contrainte LME dans un probl`eme
d’optimisa-tion sous contrainte LMI. Par la suite, on parlera aussi de probl`emes d’optimisad’optimisa-tion sous
contrainte LMI en r´ef´erence `a ces probl`emes.
2
λ
max(A, B) est aussi d´efinie comme la plus grande valeur propre deB
−1/2AB
−1/2et n’est d´efinie que
dans le cas o`uB est d´efinie positive. Dans le probl`eme d’optimisation (2.6),F(ξ)>0 est une contrainte
du probl`eme ; ce probl`eme est donc bien pos´e.
2.2.3 Variables de d´ecision matricielles
Jusqu’`a pr´esent, nous avons consid´er´e une contrainte LMI avec un vecteur de variables
de d´ecision scalaires. En Automatique, il est plus courant et naturel d’utiliser des variables
de d´ecision matricielles. L’expression (2.2) peut se r´ecrire (et inversement) sous la forme :
F(ξ)=
∆F
c+
nRX
i=1F
igR
i(ξ)F
d i+
Ã
F
c+
nRX
i=1F
igR
i(ξ)F
d i!
T(2.8)
o`u F
c∈ R
m×m, F
ig∈ R
m×aiet F
di
∈ R
bi×msont donn´ees et o`u les R
i(ξ) ∈ R
ai×bi,
i = 1,· · · , n
R, lin´eaires et possiblement structur´ees en ξ, sont les variables de d´ecision
matricielles. Par exemple, l’expression (2.8) peut ˆetre trouv´ee `a partir de l’expression (2.2)
en choisissantF
c= 12F
0,F
igetF
di
telles que F
igF
di