• Aucun résultat trouvé

Satisfaction en probabilité d’une contrainte d’inégalité

Cela donne le problème équivalent max x,z z − n X j=1 cjxj+ z ≤ 0 n X j=1 aijxj ≤ bi, i = 1, . . . , m1 n X j=1 gijxj = hi, i = m1+ 1, . . . , m2.

3.3

Satisfaction en probabilité d’une contrainte d’inégalité

Dans sa définition et dans sa mise en œuvre, l’optimisation robuste ne fait pas appel au calcul des probabilités. Pourtant nous choisissons de motiver le concept d’optimisation robuste par une approche particulière de la programmation stochastique due à Charnes, Cooper et Symonds [22, 21], dénommée par ces auteurs Chance-Constrained Programming, ce qui peut se traduire en français par programmation par satisfaction des contraintes en probabilité. Cette approche de la programmation stochastique fait l’objet d’une abondante littérature (voir par exemple [36]). Notre objectif n’est pas d’en faire un exposé, mais seulement d’utiliser le concept intuitif d’une probabilité de satisfaction d’une contrainte pour introduire l’optimisation robuste et mettre l’accent sur les similitudes et les différences entre les deux approches.

Dans l’approche par programmation par satisfaction des contraintes en probabilité, chaque contrainte du problème d’optimisation est traitée séparément. Sans perte de généralité, nous considérons une contrainte du type

n

X

j=1

aj( ˜ξ)xj ≤ b

où l’incertitude ne porte que sur le membre de gauche. (Nous pouvons nous ramener à ce cas lorsque b est aussi incertain, en introduisant une variable auxiliaire xn+1≡ 1 et en écrivant b(ξ) =

−an+1. Nous obtenons alors la contrainte Pn

j=1aj( ˜ξ)xj + an+1( ˜ξ)xn+1 ≤ 0.) Dans l’expression

de la contrainte, ˜ξ est une variable aléatoire avec une distribution connue et x est la variable de décision. Pour la simplicité de l’exposé, nous nous contentons de dire que les réalisations ξ de ˜ξ prennent leurs valeurs dans un espace Ω ∈ Rp et que cet espace est probabilisé.

Nous dirons que la contrainte est satisfaite en probabilité, avec une probabilité 1 − α, si x vérifie la condition Prob( ˜ξ | n X j=1 aj( ˜ξ)xj ≤ b) ≥ 1 − α. (3.2)

La simplicité de la formule cache de grandes difficultés. Le domaine des solutions x réalisables pour (3.2) n’est en général pas convexe, voire non connexe. De plus, sa définition est implicite

3.3. SATISFACTION EN PROBABILITÉ D’UNE CONTRAINTE D’INÉGALITÉ

et sa représentation par des fonctions non-linéaires directement gérables par programmation mathématique n’est pas évidente.

Pour illustrer le propos, considérons l’inégalité simple a1x1+ a2x2 ≤ b

où les paramètres a1 et a2 sont incertains. Nous supposons connue la distribution de probabilité

de ces paramètres. Nous nous proposons de traiter deux cas simples, celui d’une distribution normale et celui d’une distribution uniforme, avant de discuter le cas général.

3.3.1 Distribution normale

Commençons par le cas d’une loi normale en écrivant ai( ˜ξ) = µi+ σiξ˜i, i = 1, 2

où ˜ξ1 et ˜ξ2 représentent deux variables aléatoires indépendantes suivant chacune une loi normale

centrée réduite. Les paramètres µi et σi sont les deux premiers moments de la distribution des

ai( ˜ξ). Or, la loi normale est une loi stable : ainsi, la combinaison linéaire a1( ˜ξ1)x1+ a2( ˜ξ2)x2

suit une loi normale de moyenne µ = µ1x1+ µ2x2 et d’écart-type σ =pσ12x21+ σ22x22. Soit kα =

Φ−1(1 − α), où Φ est la loi de distribution de la loi normale centrée réduite. La condition

µ1x1+ µ2x2+ kα

q σ2

1x21+ σ22x22≤ b (3.3)

est l’équivalent algébrique de (3.2). Dans ce cas, nous avons obtenu, contrairement à ce que nous pouvions craindre, une expression explicite de la contrainte en probabilité ; de plus, le membre de gauche de (3.3) est une fonction convexe. En terme de complexité, le prix à payer lorsque nous passons de la contrainte déterministe à la contrainte en probabilité n’est pas nul, puisque nous substituons à une contrainte linéaire une contrainte non-linéaire, mais il est faible. En effet, la contrainte peut se récrire :

µ1x1+ µ2x2+ kαt ≤ b

avec

q

σ12x21+ σ22x22 ≤ t.

Cette dernière contrainte décrit un cône quadratique convexe. Les problèmes d’optimisation comportant des contraintes linéaires et des contraintes coniques quadratiques sont « traitables », c’est-à-dire qu’ils peuvent être résolus avec une complexité polynomiale par des méthodes de points intérieurs [33].

3.3.2 Distribution uniforme

Considérons maintenant le cas apparemment plus simple où les paramètres suivent chacun une loi uniforme sur l’intervalle [ani − av

i, ani + avi], i = 1, 2. Les paramètres ani sont les valeurs nominales

3.3. SATISFACTION EN PROBABILITÉ D’UNE CONTRAINTE D’INÉGALITÉ

choisissons b = 1, ani = 1 et avi = 1.5, i = 1, 2. Si ˜ξ1 et ˜ξ2 sont deux variables aléatoires

indépendantes de loi uniforme U sur [−1, 1], nous pouvons écrire la variable aléatoire a( ˜ξ) sous la forme

ai( ˜ξ) = ani + aviξ˜i, i = 1, 2.

Nous obtenons la contrainte en probabilité

Prob ξ |˜ 2 X i=1 (avixi) ˜ξi≤ b − 2 X i=1 anixi ! ≥ 1 − α.

La probabilité peut se calculer par une intégrale double sur un carré. C’est chose facile pour un x donné, mais il faut distinguer plusieurs cas, ce qui ne permet pas de caractériser le domaine défini par la contrainte en probabilité comme une contrainte fonctionnelle classique g(x) ≤ 0, où g(x) serait une fonction donnée sous forme explicite.

Il existe tout de même deux valeurs de probabilité pour lesquelles la réponse est immédiate. Le premier cas est celui où le point x sature la contrainte déterministe : an1x1+ an2x2 = b. Dans ce

cas la probabilité cherchée est donnée par

Prob( ˜ξ | (av1x1) ˜ξ1+ (av2x2) ˜ξ2 ≤ 0) ≥ 1 − α.

Quels que soient x1 et x2 (pour autant que av1x1 et av2x2 ne soient pas simultanément nuls), l’en-

semble des ξ réalisant l’événement est l’intersection d’un demi-espace passant par l’origine et du carré [−1, 1] × [−1, 1]. La surface ainsi construite est exactement la moitié de la surface du carré. La probabilité est donc 1/2. Nous pouvons facilement montrer que les seuls points x réalisant une probabilité 1/2 sont tous sur la droite correspondant à la contrainte déterministe.

L’autre cas particulier est celui où nous excluons toute violation de la contrainte, soit une probabilité 1 de satisfaction de la contrainte. Les x recherchés doivent demeurer réalisables contre le pire des cas. Pour une inégalité linéaire, le pire cas s’obtiendra quand les variables ξi

prennent une des deux valeurs extrêmes −1 ou 1 suivant le signe de leur coefficient avixi. Nous

pouvons donc définir l’ensemble recherché par la condition

2

X

i=1

(anixi+ |avixi|) ≤ b.

Il est facile de voir que cet ensemble est un polyèdre simple, délimité par 4 droites selon le signe de x1 et x2. La figure 3.1(a) illustre les deux ensembles mis en évidence. La figure 3.1(b) donne les contours des ensembles admissibles définis par la contrainte en probabilité pour des valeurs intermédiaires de α.

Nous voyons que malgré la simplicité de l’exemple, l’ensemble réalisable défini par la contrainte en probabilité est complexe. Les courbes de niveau passent par déformation progressive d’un polyèdre, à un ensemble à frontière lisse borné, puis non borné. Pour α > 0.5, l’ensemble n’est plus convexe. Dans tous les cas, l’ensemble des points réalisables peut être difficile à appréhender numériquement.

3.3. SATISFACTION EN PROBABILITÉ D’UNE CONTRAINTE D’INÉGALITÉ

(a) α = 0 et α = 0.5 (b) contours

Fig. 3.1 – Points admissibles pour la contrainte en probabilité avec 1 − α

3.3.3 Distribution générale

Les difficultés que nous avons rencontrées dans le cas de la distribution uniforme (difficulté à vérifier si la contrainte en probabilité est satisfaite en un x donné et non-convexité de l’ensemble des solutions admissibles) se retrouvent aggravées dans le cas général d’une distribution quel- conque. Nous avons vu une exception, celle associée à une loi normale multivariée. La deuxième concerne le cas où la condition (x, ξ) ∈ Q, où Q est un ensemble convexe fermé et où la dis- tribution du vecteur aléatoire ξ ∈ Rp est logarithmiquement quasi-concave (cf. [24]). Ce sont d’après [37] les deux seuls cas génériques donnant lieu à des expressions explicites et traitables de l’ensemble de réalisabilité pour la contrainte en probabilité. Henrion dans [28] a toutefois étendu ce résultat au cas des distributions elliptiques symétriques (qui incluent notamment la loi exponentielle, la loi de Student,...).

Dans ces conditions, il est naturel de chercher une approximation de la contrainte en probabilité qui soit traitable par un algorithme de programmation convexe. Parmi les propositions faites dans ce sens, citons en une récente [16] que nous pouvons brièvement illustrer sur notre exemple de contrainte linéaire. Nous supposons comme précédemment que

ai( ˜ξi) = µi+ σiξ˜i, i = 1, 2,

et que les ˜ξi sont des variables aléatoires indépendantes, centrées et réduites. Les deux premiers

moments de la variable z(x) = a1( ˜ξ1)x1+ a2( ˜ξ2)x2 sont, comme dans l’inégalité (3.3), µ(x) =

µ1x1+ µ2x2 et σ2(x) = σ12x21+ σ22x22. Soit

Zx =

[a1( ˜ξ1)x1+ a2( ˜ξ2)x2] − [µ1x1+ µ2x2]

σ12x21+ σ22x22 . C’est une variable centrée réduite dont la distribution

Fx(t) = Prob(Zx ≤ t)

dépend de x. Supposons Fx continue et définissons tα(x) = Fx−1(1 − α). La contrainte (3.3) peut

maintenant s’écrire comme

µ1x1+ µ2x2+ tα(x)

q