• Aucun résultat trouvé

Dans cette section, nous pr´esentons des aspects importants des probl`emes

d’optimisa-tion et particuli`erement des probl`emes d’optimisad’optimisa-tion sous contrainte in´egalit´e matricielle

affine (ou LMI de l’anglais Linear Matrix Inequality) ind´ependant de param`etre. En effet,

ces derniers sont (quasi) convexes et forment l’un des ensemble de probl`emes

d’optimi-sation les plus larges qui poss`edent des algorithmes de r´esolution efficaces. Enfin nous

d´efinissons trois probl`emes d’optimisation sous contrainte LMI g´en´eralement consid´er´es

dans la litt´erature.

2.2.1 Probl`eme d’optimisation ind´ependant de param`etre

Un probl`eme d’optimisation ind´ependant de param`etre de dimension finie est d´efinie

de la mani`ere suivante.

D´efinition 2.1 (Probl`eme d’optimisation). Soientn

ξ

un entier naturel non nul, D⊆R

nξ

un ensemble non vide et

f : R

nξ

→ R

ξ 7→ f(ξ) .

Alors un probl`eme d’optimisation s’´ecrit :

min

ξ∈D

f(ξ)

o`u

– D est appel´e l’ensemble des contraintes ;

– ξ=£

ξ

1

· · · ξ

nξ

¤

T

est appel´e le vecteur des variables de d´ecision ;

– f est appel´ee la fonction de coˆut.

On dit que :

– ξ

opt

∈D est un optimum local s’il existe un voisinage ouvert U de ξ

opt

tel que, pour

tout ξ ∈U∩D, on a f(ξ

opt

)≤f(ξ);

– ξ

opt

∈D est un optimum global si, pour tout ξ∈D, on a f(ξ

opt

)≤f(ξ).

On distingue des classes de probl`emes d’optimisation en fonction des propri´et´es de f

et deD. Deux classes de probl`emes importantes sont celle des probl`emes d’optimisation

convexes et celle des probl`emes d’optimisation quasi–convexes.

D´efinition 2.2. Un probl`eme d’optimisation est dit convexe si

– Dest un ensemble convexe : pour tout ξ

1

∈D, pour tout ξ

2

∈D, pour tout λ∈[0,1],

on a ¡

λξ

1

+ (1−λ)ξ

2

¢

∈D;

– f est une fonction convexe : pour tout ξ

1

∈D, pour tout ξ

2

∈D, pour tout λ∈[0,1],

on a f¡

λξ

1

+ (1−λ)ξ

2

¢

≤λf(ξ

1

) + (1−λ)f(ξ

2

).

Un probl`eme d’optimisation est dit quasi–convexe si

– Dest un ensemble convexe : pour tout ξ

1

∈D, pour tout ξ

2

∈D, pour tout λ∈[0,1],

on a ¡

λξ

1

+ (1−λ)ξ

2

¢

∈D;

– f est une fonction quasi–convexe : pour tout ξ

1

∈ D, pour tout ξ

2

∈ D, pour tout

λ∈[0,1], on a f¡

λξ

1

+ (1−λ)ξ

2

¢

≤max{f(ξ

1

), f(ξ

2)

}.

Pour ces deux classes de probl`emes d’optimisation, la fonction de coˆut a la propri´et´e que

tout minimum local est un minimum global sur l’ensemble de d´efinition de la fonction. Ceci

implique que tout optimum local est un optimum global. Cette propri´et´e est importante

car, pour r´esoudre les probl`emes d’optimisation, des algorithmes de r´esolution num´erique

sont g´en´eralement utilis´es. Ces algorithmes n´ecessitent un point d’initialisation dansDet

permettent, `a partir de ce point d’initialisation, de trouver un optimum local. Pour les

probl`emes d’optimisation convexes et quasi–convexes, ces algorithmes permettent donc

de trouver un optimum global et donc de les r´esoudre.

Un autre point important des probl`emes d’optimisation convexes et quasi–convexes

est qu’ils sont «faciles » `a r´esoudre num´eriquement [BTN01], i.e. il existe au moins

un algorithme de r´esolution, dit «efficace», dont le temps de r´esolution (temps de

cal-cul n´ecessaire `a cet algorithme pour se terminer) est «raisonnable». Un algorithme de

r´esolution permet effectivement de r´esoudre un probl`eme d’optimisation particulier, mais

surtout il permet de r´esoudre tous les probl`emes d’optimisation de la mˆeme classe. Dans

ce cadre, une mesure usuelle du temps de r´esolution d’un algorithme est l’´evolution de ce

temps de r´esolution en fonction de la «taille» du probl`eme d’optimisation qu’il r´esoud.

Un algorithme est dit efficace si l’´evolution de son temps de r´esolution est born´ee par

une fonction polynˆomiale de la taille du probl`eme d’optimisation. Nous ne d´evelopperons

pas plus cet aspect. Les lecteurs int´eress´es pourront se r´ef´erer au livre [GJ79] pour une

introduction `a la complexit´e algorithmique.

2.2.2 Probl`emes d’optimisation LMI ind´ependant de param`etre

Du fait qu’ils peuvent ˆetre r´esolus efficacement, les probl`emes d’optimisation convexes

et quasi–convexes sont donc int´eressants. Des sous–probl`emes importants sont les

probl`e-mes d’optimisation sous contraintes LMI. D’une part, ces probl`eprobl`e-mes apparaissent

actuel-lement comme des probl`emes importants pour lesquels des algorithmes de r´esolution

effi-caces ont ´et´e programm´es dans les logiciels de calcul scientifique g´en´eraux commeMatlab

[GNLC95] ouScilab. D’autre part, les probl`emes d’optimisation sous contrainte LMI ont

d’importantes applications en Sciences de l’Ing´enieur (en Automatique [BEFB94] ou dans

d’autres domaines [BTN01]).

D´efinition 2.3 (Contrainte LMI ind´ependant de param`etre). Soientn

ξ

un entier naturel

Une contrainte LMI ind´ependant de param`etre est d´efinie comme l’ensemble de vecteurs

suivant

{ξ∈R

nξ

|F(ξ)>0} (2.1)

avec

F(ξ)=

F

0

+

nξ

X

i=1

ξ

i

F

i

. (2.2)

Les matrices F

i

, i = 0,· · · , n

ξ

, sont appel´ees les donn´ees et le vecteur ξ est appel´e le

vecteur des variables de d´ecision de la contrainte LMI ind´ependant de param`etre.

Dans l’expression (2.1),F(ξ)>0 signifie queF(ξ) est d´efinie positive (de la mˆeme fa¸con,

F(ξ) < 0 signifie que F(ξ) est d´efinie n´egative). Une contrainte est une contrainte LMI

lorsque ξ apparaˆıt de fa¸con affine dans F(ξ). Dans la suite de ce document, l’expression

F(ξ)>0 sera aussi appel´ee contrainte LMI ind´ependant de param`etre.

Si dans la D´efinition 2.1, l’ensemble des contraintesD est d´efini par l’expression (2.1),

le probl`eme d’optimisation est alors appel´e un probl`eme d’optimisation sous contrainte

LMI. Ces probl`emes seront ´ecrits plus simplement de la mani`ere suivante :

min

ξ∈R

f(ξ)

tel que F(ξ)>0. (2.3)

Il est ainsi possible de d´efinir plusieurs probl`emes selon le choix de f. Deux choix sont

g´en´eralement consid´er´es : f est lin´eaire ou f est la valeur propre g´en´eralis´ee de deux

matrices. Un autre probl`eme important est le probl`eme de faisabilit´e qui consiste `a trouver

ξ∈R

nξ

tel que F(ξ)>0. En r´esum´e, on a les trois probl`emes suivants.

Probl`eme de faisabilit´e Tester s’il existe ξ ∈ R

nξ

tel que F(ξ) > 0, et si oui,

d´eterminer un telξ ∈R

nξ

:

1

trouver ξ∈R

nξ

tel que F(ξ)>0. (2.4)

Probl`eme de minimisation d’une fonction de coˆut lin´eaire Tester s’il existe ξ∈

R

nξ

tel que F(ξ)>0, et si oui, d´eterminer ξ ∈R

nξ

tel que F(ξ)>0 et qui minimise c

T

ξ

o`uc∈R

nξ

est un vecteur donn´e :

min

ξ∈R

c

T

ξ

tel que F(ξ)>0. (2.5)

Probl`eme de minimisation de la valeur propre g´en´eralis´ee maximale Tester

s’il existe ξ ∈ R

nξ

tel que F(ξ) > 0 et H(ξ) > 0 o`u H(ξ) est de la forme (2.2), et si

oui, d´eterminer ξ ∈ R

nξ

tel que F(ξ) > 0 et H(ξ) > 0 et qui minimise la valeur propre

g´en´eralis´ee maximale λ

max

(G(ξ), F(ξ)) de F(ξ) et G(ξ) o`u G(ξ) est de la forme (2.2) et

1

Ce probl`eme peut se formuler comme un probl`eme d’optimisation au sens de la D´efinition 2.1. Il

revient au probl`eme d’optimisation suivant : min

(ξ,t)∈D

t avec D = {(ξ, t)|F(ξ) +tI > 0}. Si la valeur

minimale de t est strictement positive, alors le Probl`eme de faisabilit´e (2.4) n’a pas de solution ; si elle

n´egative ou nulle, alors le Probl`eme de faisabilit´e (2.4) a une solution donn´ee par la valeur deξ

opt

pour

laquelle (ξ

opt

, t) est un optimum global.

o`u λ

max

(G(ξ), F(ξ)) est la valeur minimale de λ pour laquelle λF(ξ)−G(ξ) est d´efinie

positive

2

:

min

ξ∈R

λ

max

(G(ξ), F(ξ))

tel que F(ξ)>0 et H(ξ)>0. (2.6)

Remarque 2.1. Lorsqu’il y a plusieurs contraintes LMIF

i

(ξ)>0, i= 1,· · · , n

F

(comme

dans le Probl`eme (2.6)), il est toujours possible de les r´e´ecrire sous une seule contrainte :

F(ξ)=

F

1(

ξ) 0 · · · 0

0 . .. ... ...

... . .. ... 0

0 · · · 0 F

nF

(ξ)

>0.

Il n’y a donc pas de perte de g´en´eralit´e `a d´efinir les probl`emes d’optimisation sous contrainte

LMI avec une seule contrainte LMI.

Remarque 2.2. Il est aussi possible de rencontrer des contraintes de type ´egalit´e :E(ξ) =

0 o`u E(ξ) est de la forme (2.2). Ce sont des contraintes ´egalit´es matricielles affines (ou

LME de l’anglais Linear Matrix Equality). De la mˆeme mani`ere que pour les LMIs, il est

possible de r´e´ecrire plusieurs LMEs en une seule. Il n’y a donc pas de perte de g´en´eralit´e

en d´efinissant l’ensemble des contraintes suivante avec une seule LME :

{ξ ∈R

nξ

|E(ξ) = 0 et F(ξ)>0}. (2.7)

La contrainte E(ξ) = 0 correspond `a un syst`eme de m(m+ 1)/2 ´equations lin´eaires `a n

ξ

inconnues. Il existe trois cas de figure :

1. E(ξ) = 0 n’a pas de solution : l’ensemble des contraintes d´efini par (2.7) est alors

vide ;

2. E(ξ) = 0 a une solution unique ξ

nul

: si F(ξ

nul

) est d´efinie positive alors l’ensemble

des contraintes d´efini par (2.7) se r´eduit `a un singleton, sinon il est vide ;

3. E(ξ) = 0 a une infinit´e de solution : l’ensemble A = {ξ|E(ξ) = 0} est alors un

espace affine de dimension finie, de dimension n

ξnew

≤ n

ξ

. En choisissant n

ξnew

vecteurs e

i

formant une base de l’espace vectoriel associ´e `a A et en choisissant ξ

0

n’importe quel ´el´ement de A, on a : pour tout ξ∈A, il existen

ξnew

uniques scalaires

ξ

newi

tels que ξ =ξ

0

+P

nξnew

i=1

ξ

newi

e

i

. Par suite,

F(ξ) =F(ξ

0) +

nξnew

X

i=1

ξ

newi

(F(e

i

)−F

0)

=

F

new

new

).

L’ensemble des contraintes (2.7) peut donc ˆetre g´en´er´e grˆace `a l’ensemble suivant :

new

∈R

nξnew

|F

new

new

)>0}.

Il est donc toujours possible d’´eliminer une contrainte LME dans un probl`eme

d’optimisa-tion sous contrainte LMI. Par la suite, on parlera aussi de probl`emes d’optimisad’optimisa-tion sous

contrainte LMI en r´ef´erence `a ces probl`emes.

2

λ

max

(A, B) est aussi d´efinie comme la plus grande valeur propre deB

−1/2

AB

−1/2

et n’est d´efinie que

dans le cas o`uB est d´efinie positive. Dans le probl`eme d’optimisation (2.6),F(ξ)>0 est une contrainte

du probl`eme ; ce probl`eme est donc bien pos´e.

2.2.3 Variables de d´ecision matricielles

Jusqu’`a pr´esent, nous avons consid´er´e une contrainte LMI avec un vecteur de variables

de d´ecision scalaires. En Automatique, il est plus courant et naturel d’utiliser des variables

de d´ecision matricielles. L’expression (2.2) peut se r´ecrire (et inversement) sous la forme :

F(ξ)=

F

c

+

nR

X

i=1

F

ig

R

i

(ξ)F

d i

+

Ã

F

c

+

nR

X

i=1

F

ig

R

i

(ξ)F

d i

!

T

(2.8)

o`u F

c

∈ R

m×m

, F

ig

∈ R

m×ai

et F

d

i

∈ R

bi×m

sont donn´ees et o`u les R

i

(ξ) ∈ R

ai×bi

,

i = 1,· · · , n

R

, lin´eaires et possiblement structur´ees en ξ, sont les variables de d´ecision

matricielles. Par exemple, l’expression (2.8) peut ˆetre trouv´ee `a partir de l’expression (2.2)

en choisissantF

c

= 12F

0,

F

ig

etF

d

i

telles que F

ig

F

d

i

= 12F

i

et R

i

(ξ) =ξ

i

I.