• Aucun résultat trouvé

TRAITEMENT DES CONTRAINTES EGALITES

Dans le document Disponible à / Available at permalink : (Page 119-146)

J* Le calcul de la valeur de l’expression de cette contrainte grâce à la solution pseudo-optimale relative à

CHAPITRE 7 : SUBOPTJHJSATIOH ET PSEUVÛ-OPTIMISATION

1.4 TRAITEMENT DES CONTRAINTES EGALITES

Le problème discrétisé caractérisé par les équations (1.3.13) à (1.3.17) se présente sous la forme statique d’une fonction de coût quadratique à minimiser en respectant le système ainsi que les contraintes inégalités.

Utilisons la propriété d’équival ence^introduite à la remarque du paragraphe 2.2 de la première partie, pour pouvoir, par la suite, justifier le choix de l’algorithme de programmation quadratique retenu dans ce travail.

Grâce à cette équivalence, discutons directement le problème initial formé des expressions (1.3.1) à (1.3.4) discrétisées et non pas les équations extrémi s an te s (1.3.13) à (1.3.17)j le problème Initial discret s'écrit :

htx'tj.,) -C(t . )x(t . ) + 2 2 h P"'' j=o V. x(t.)} = A(t.)x(t.) + B(t.) u(t.) j J j JJ D(t.)u(t.) + e(t.) ^ □ JJ J {x’(t.)P(t.)x(t.)+u’(t.)Q(t)u(t.)} J J J J j J (1.4.1) (1.4.2) (T)S (t)x(T (1.4.3)

L’état initial (1.3.2) est conservé.

Sous sa forme équivalente, le problème est constitué d’une fonction de coût quadratique (1.4.3) a minimiser, soumise à des contraintes de type égalités (1.4.1) et inégalités (1.4.2).

Remarq ues : Contraintes égalités proprement dites

Lorsque le problème est soumis dès le départ à des contraintes linéaires égalités, elles s’ajoutent simplement aux égalités (1.4.1).

Notons d'une manière générale que, dans un problème

d’optimisation, les difficultés sont occasionnées par la présence des contraintes inégalités et non pas par les contraintes éga1ités.Néanmoins pour compléter la

présentation, exposons les deux méthodes utilisées pour traiter ces dernieres.

1.4.1 Variables adjointes

La méthode des variables adjointes est une technique découlant tout naturellement de la discrétisation des équations extrémi s an tes ; les contraintes égalités,

constituées par le système (1.4.1), sont introduites sous

forme lagrangienne. Les variables adjointes 4* ( t j ) , j =0 , 1 , . . . , p^ correspondent en fait aux multiplicateurs de Lagrange

de l'optimisation statique. Nous avons utilisé implicitement cette méthode dans la partie générale. L'avantage de

connaître les valeurs des variables adjointes est qu’elles * //

indiquent l’énergie à fournir au système pour maintenir la trajectoire le long de ces contraintes égalités.

Cette indication est parfois nécessaire dans certaines applications particulières. 1.4.2 Méthode directe Lorsque^ dans termes, dans X . ( t ) 1 J U C t . ) . J

les équations (1.4.1) ou, les contraintes égalités, les

i = 1 , . . . , n k 1 j = 0,1,. m en d’autres variables ; / ..,p (1.4.4)

sont séparées, par exemple sous forme linéaire, on peut, moyennant une inversion de matrice , exprimer les (nxp) variables d’état x(tj) en fonction des (mxp) variables de commande u(tj). Sans entrer dans les détails pour le

moment, représentons cette relation linéaire par la relation (1.4.5) :

x(t)=X{u(t)} (1.4.5)

J

En portant les expressions (1.4.5] dans l'expression de la

fonction de coût discrétisée (1.4.3], nous obtenons un problème d’optimisation statique dépendant uniquement des splines

discrètes de commande et ne comportant plus de contraintes égalités.

Cette technique fournit donc directement les splines discrètes de commande aux noeuds t. , j = 0,1, .. .p- 1,u(t . ] .

J J

Remarquons que cette procedure directe ne réduit pas la dimensionalité globale du problème discrétisé mais la

divise en deux étapes : d’abord l’inversion matricielle du système (1.4.1] écrit sous forme adéquate, et ensuite

l’optimisation statique proprement dite, ne portant plus que sur les variables de commande discrètes.

L’étude détaillée de la relation (1.4.5] est reportée dans l’annexe 4.

,1.5 PRDGRAnriATION qUADRATIQUE {4l} {42> <43}

Ayant ou non éliminé les contraintes égalités, il nous faut maintenant choisir un algorithme d’optimisation statique approprié au problème discrétisé.

Nous ne rappelerons pas ici les avantages des algorithmes convergeant d’abord vers l’optimum libre et de là vers l’optimum contraint, ceci ayant déjà été exposé au chap. 3 de la première partie.

Nous avons choisi une méthode appartenant à cette catégorie et plus particulièrement l’algorithme de programmation

quadratique de Theil et Van de Panne dont le principe est brièvement exposé plus loin.

La programmation quadratique fait partie des techniques de programmation mathématique que nous définissons pour éviter les confusions.

1.5.1 Programmation mathématique {21} {44} {45} {4B}

Par définition, appelons problème de programmation mathémati­ que l’extrémalisation, par étapes successives, d’une fonction mu 11ivariable généralement non linéaire soumise à des

contraintes égalités et inégalités généralement non linéaires également.

La programmation mathématique résout donc des problèmes d'optimisation statique ou des problèmes d'optimisation dynamique discrétisés décrit dans ce travail.

Remarquons que théoriquement, l'optimisation dynamique peut être considérée comme une programmation mathématique de dimension infinie puisque, lorsque le pas h de la discrétisation tend vers zéro, le problème dynamique

est remplacé par un problème statique infini-dimensionne1.

limP^=P M.5.1)

h+O "

Deux cas particuliers bien connus de la programmation mathématique sont ; d'une part la programmation linéaire lorsque la fonction de coût et les contraintes sont

linéaires et d'autres part la programmation quadratique lorsque la fonction de coût est quadratique et les

contraintes linéaires.

Vu que la classe de problèmes particuliers étudiés, ici répond aux conditions d'application de la programmation q uadratiq ue_, un algorithme de ce type va nous permettre d'obtenir la solution statique sous forme de splines discrètes.

Remarquons qu'il existe un certain nombre d'algorithmes basés sur d'autres concepts résolvant ce problème de programmation quadratique mais la méthode choisie ici, et exposée dans la suite, est d'une part bien adaptée au cas particulier traité dans ce travail et d'autre

part elle obéit, dans le domaine statique, a la même idée que la pseudo-optimi s ation en dynamique. En effet, cet algorithme débute par la recherche de l'optimum libre et ensuite introduit les différentes contraintes actives grâce à la technique séquentielle exposée ci-dessous.

1.5.2 Algorithmes de programmation quadratique {21}{43}{45)

Nous sommes donc en présence d'un problème de programmation quadratique.

Rappelons brièvement que la plupart des méthodes, fournis­ sant l'optimum statique, débutent en général par une

par la suite, de .nouvelles solutions convergeant vers le mini­ mum de la fonction de coût tout en continuant a respecter les contraintes inégalités. L.'algorithme de Theil et Van de Panne, utilisé ici, se place dans l'optique inverse à savoir minimiser librement le coût, c'est-à-dire en faisant abstraction des

contraintes, et, par la suite, ramener l'optimum libre actuel à la frontière des contraintes violées.

L'idée des auteurs est qu'il est beaucoup plus facile de chercher le minimum de la fonction de coût sous des

contraintes linéaires égalités (les contraintes actives] que de minimiser le coût sous des contraintes linéaires inégalités.

Remarquons que la méthode pseudo-optimale est basée

exactement sur le même raisonnement mais dans le domaine dynamique.

Rappelons brièvement le problème statique actuel ; Il s’agit de minimiser la fonction de coût :

h P"'' 1

Jh = ô ^ {x’ ( t JP (t . ) x(t . ] + u ’ ( t . ]Q (t J u( t . }}+4x’ Cns (T] x(T)

2 J J J J J J 2

sous les contraintes égalités :

(1.5.2)

-^{x(t )-x(tj} = A(tJx(tJ + B(tJu(tJ

h J J J J J

et sous les contraintes inégalités :

j = 0,1, . .. ,p-1

(1.5.3)

C(t.)x(tJ + D(tJu(tJ + e(tJ ^ 0 j = 0,1, ...,p (1.5.4)

U il J 3 J

Ce sont les contraintes inégalités (1.5.4) qui constituent la source de difficulté des problèm.es d’optimisation.

Les contraintes égalités (1.5.3) ne posent pas de difficultés particulières dans la mesure où on les traite par l’utili­ sation des multiplicateurs de Lagrange (cfr § 1.4, 2e partie).

Rema rq ue

Comme les matrices P(t), Q(t) et S(t) sont définies positives partout, elles le sont également en pratique à tout instant

matrices apparaissant dans la fonction de coût discrétisée (1.5.2) sont aussi définies positives.

Rappel ! Contraintes inégalités, inactives, violées

D'une manière analogue a la classification des contraintes inégalités introduites dans la partie théorique, rappelons la signification des termes suivants î

f

- une contrainte est dite inactive si

C.(t)x(t)+D.(t)u(t)+e.(t) > 0 M.5.5)

111

- une contrainte est dite active si

C.(t)xCt)+D.(t)u(t)+B.(t) = 0 (1.5.6)

111

- une contrainte est dite violée si

^ C^(t)x(t)+D^(t)u(t)+e^(t) < 0 (1.5.7)

où i£ 1,...,r et te (0,T)

1.5.3 Techniques de Theil et Van de Panne {7} { 4 8}

Appelons A l'ensemble des contraintes actives à l'optimum

A = |i£ 1 , . . . . C.(tJx*(t.)+D.(tJu*(t.)+e(tJ=0,j=0,1

1 j J 1 j J j

, . . . , P

I

(1.5.8) L'algorithme de Tbeil et Van de Panne commence par

calculer l'optimum non contraint noté :

y ° = { U* ( O ) , u!^ ( O ) , . . . , U* ( O ) , u^ ( 1 ) , . . . , U* ( 1 )

12 ml m x^ ( O ) . . . , x^ ( P ) }1 n

(1.5.9)

c'est-à-dire minimisant la fonction de coût (1.5.2) et

abstraction des contraintes inégalités (1.5.43. Si cet optimum libre ne viole aucune contrainte, il coïncide avec le minimum contraint et la solution est donc directement obtenue. Notons que dans ce cas l'ensemble A est vide. Généralement, l'optimum libre y° viole une ou plusieurs contraintes.

Le problème, à ce stade, consiste à trouver l'ensemble A inconnu.

Appelons B l'ensemble des contraintes violées par le

minimum libre y°; contrairement à l'ensemble A, B est connu.

B = |i £ 1 , C. (t.)x(t.) + D. (t.3uCt,3u(t.3 + e. ït.3<

iJ JiJ j JiJ 0

j 0

,

1

. .

• P

}

(1.5.103

Enonçons brièvement les trois règles décrivant la séquence des opérations de l'algorithme telles qu'elles ont été introduites dans la littérature.

le règle

Si le vecteur optimal libre y° viole une ou plusieurs contraintes, l'une au moins d'entre elles est active à l'optimum contraint. En d'autres termes, si l’optimum contraint se trouve à la frontière d’une ou de plusieurs contraintes inégalités, ces mêmes contraintes sont violées par l’optimum libre y°.

Par conséquent, activons à tour de rôle chacune des contraintes appartenant à l'ensemble B et calculons les différents

-1

minimums correspondant, notés y. , avec i appartenant à B. Si l’un de ces optimums intermédiaires y^ ne viole plus aucune contrainte, il coïncide avec l'optimum réel et

l'ensemble A comprend un seul élément. S’il existe plusieurs 1

y^ de ce type, la troisième règle permettra d’isoler

Par contre, si tous les violent au moins une contrainte, on en déduit que l'ensemble A comprend au moins deux

éléments.

La recherche de deux contraintes actives à l'optimum se fait grâce à la deuxième règle, prolongement à deux dimensions de la première règle.

2e règle

Supposons que deux ou plus de deux contraintes soient A

actives à l'optimum contraint y et séparent l’ensemble des contraintes actives A en deux sous - en semble s non vi de S et S ’ .

S

Alors le vecteur y , minimisant la fonction de coût sous les contraintes actives de l'ensemble S, viole au moins une

contrainte appartenant à S'.

Cela signifie qu'à partir des contraintes violées par les minimums intermédiaires y^, nous allons, pour chacun d'eux, activer à tour de rôle une deuxième contrainte et déterminer si nous obtenons l'ensemble A grâce aux minimums

intermé-2 diaires de deuxieme ordre y. . .

ij

Si ce n’est pas le cas, nous considérons trois contraintes actives et les minimums intermédiaires de troisème ordre y?., et ainsi de suite.

1 jK

En général, on obtient plusieurs sous-ensemb1es S de contraintes actives fournissant des minimums ne violant plus de contraintes.

La troisème règle permet de Igs départager.

3e règle

S

Supposons que, pour un certain sous - ensemble S, y existe et ne viole aucune contrainte; alors

s

y = y

h .

S n

si et seulement si tout y viole la contrainte h ou s représente l’ensemble de toutes les contraintes actives

S

en y excepté la contrainte h.

s de manière à déterminer l'ensemble A et par conséquent l’optimum contraint y .

Grâce à cet algorithme de Theil et Van de Panne, résumé par les trois règles énoncées ci-dessus, nous disposons de la solution sous forme de splines discrètes de commande et d'état.

Remarque 1 ; Contraintes égalités

Les équations linéaires du système (1.5.3] peuvent être con­ sidérées comme des contraintes inégalités toujours actives à l’optimum et, de cette manière, s’introduisent de façon plus homogène dans la résolution.

Par conséquent, même du point de vue des contraintes égalités l’algorithme de Theil et Van de Panne est bien approprié

pour résoudre cette programmation quadratique.

Notons qu’en optimisation statique, ce type de problème s’appelle optimisation avec modèle.

Remarque 2 : Connaissance des splines discrètes adjointes

Si, dans l’algorithme, nous avons introduit les contraintes égalités sous forme de contraintes inégalités toujours

actives à l’optimum (cfr remarque 1], nous ne disposons pas explicitement des splines discrètes des variables adjointes. Gr, il est parfois intéressant de connaître ces valeurs

pour avoir un ordre de grandeur de l’"énergie” nécessaire pour maintenir la trajectoire le long de ces contraintes égalités.

Calculons les splines discrètes adjointes (1.5.11):

^(t.) j=0,1,...,p (1.5.11)

J

Grâce aux équations (1.3.14) que nous recopions ci-dessous :

)-i^(t, ,)} = -H' P (t . )x(t . )-A’f t, )'f( t, )-C’ (t . )y ( t, )

hjj-1 ojj jj Jj

(1.5.12) Le calcul des 'f(tj) peut se faire soit par récurrence :

^(t, J = {l + h A’ (t ) }'f(t . )+ h P(t.) x(t )

où I représente la matrice unitaire Cnxn],

Cette récurrence est rétrospective puisque les variables adjointes évoluent, en fonction du temps, en sens contraire par rapport aux variables d’état et que l'on connaît leurs valeurs au temps final par la condition de transversa­ lité (1.5.14) :

'i'(T) 'i' S(T) x(T)

o (1.5.14]

Le calcul de 4'(tj] peut également se faire d’une manière analogue à la technique introduite au paragraphe 1.4.2 de

cette seconde partie, ce qui signifie que nous pouvons obtenir les'l'(t.] directement par une inversion de matrice similaire

J

à celle de l’expression (1.4.11].

Cette opération est exposée en détail à l’annexe 4. :

Remarque 3 Splines discrètes de Kuhn-Tucker

Par un raisonnement analogue à la remarque 2, si on souhaite disposer des splines discrètes du vecteur des multiplicateurs de Kuhn-Tucker :

y(tj] j = 0,1, ...,p (1.5.15]

on utilisera les expressions (1.3.15] de cette seconde partie. Tout comme les variables adjointes, la connaissance des

multiplicateurs de Kuhn-Tucker permet de déterminer l’”énergie nécessaire pour que la trajectoire suive la frontière des contraintes actives.

Le calcul des splines discrètes de Kuhn-Tucker se fera soit par récurrence, soit directement, par des opérations analogues à celles présentées à l’annexe 4.pour les splines discrètes adjointes. Nous ne les exposerons pas ici étant donné cette similitude.

1.6 CONVERGENCE ET TEST DE COnnUTATION

Grâce à l’application de l'algorithme de Theil et Van de Panne pour résoudre le problème discrétisé, nous avons obtenu

la solution sous forme de splines disorètes pour les composantes du vecteur de commande (1.6.1], d'état (1.6.2] et éventuel­ lement des variables adjointes et des multiplioateurs de Kuhn-Tuoker;

(t. ]

J j = 0,1...p-1 (1.6.1]

(tj) j = 0 , 1 , . . . , P CI.6.2]

Notations

A partir de cet endroit et comme nous l’avons fait dans la partie théorique, notons par un indice h, les quantités discrètes, ceci pour éviter les confusions avec les quantités correspondantes continues.

Supposons que les splines disorètes (1.6.1] et (1.6.2]

sont obtenues par l’utilisation d’un pas h^ choisi arbitrai­ rement au départ. Comme nous l’avons indiqué au paragraphe 3.3 de la première partie, nous supposons que ce pas h^ est admissible ce qui signifie que la solution sous forme de splines discrètes existe.

Portons les valeurs discrètes (1.6.1] et CI.6.2] dans l'expression du critère (1.5.2] pour obtenir la valeur numérique du coOt notée J(h^].

En utilisant maintenant un pas de disorétisation h^ plus petit, vérifions si la dérivée du coDt par rapport au pas et approchée par la différence divisée (1.6.3] est bien inférieure, en valeur absolue, à la quantité de commutation

0, choisie au départ.

J(h^] - J(h^] hi -h2

Si c’est le cas, nous passons à la recherche de la

solution continue pseudo-optimale, sinon nous utilisons un nouveau pas plus petit h^ et ainsi de suite.

Si les différences divisées successives C1.6.3) ne diminuent pas de manière significative, nous passons à la seconde

partie du test de commutation basée sur les zones d’activité de chaque contrainte inégalité (cfr § 3.3, 1ère partie].

Supposons que les splines discrètes [1.B.1] et [1.6.2] soient admissibles et passons maintenant à la recherche de la solution pseudo-optimale.

1.7 SOLUTION PSEUDO-OPTinALE

Du point de vue coût, une solution pseudo-optimale approche la solution optimale par défaut mais peut violer localement certaines contraintes inégalités.

Rappelons l’hypothèse pseudo-optimale par défaut (cf § 5.3

1ère partie] qui nous a permis d’introduire ce nouveau concept.

1.7.1 Hypothèse pseudo-optimale par défaut

Si une contrainte [1.7.1] ;

C.[t] x[t] + D.[t] u[t] + e.[t] ^ 0 ié1,...,r [1.7.1] 111

est [in]active en deux noeuds consécutifs t. et t. . J J + 1 Cj = 0,1,...,p-1] dans la résolution discrète, alors on suppose que cette contrainte est [in]active sur tout

l’intervalle [tj,tj^^] pour la recherche pseudo-optima 1e. Grâce à cette hypothèse, l’intervalle total [G,T] est partitionné en un certain nombre de zones. Chaque zone comprend un ou plusieurs intervalles élémentaires consécu­ tifs [t.,t. ^], 1 = 0,1,...,p-1, sur lesquels les

j J + 1

identiques.

A chaque zone correspond un sous-système d’équations

e X t rémi s an t e s ne contenant plus' de co n t r ai n te s i n é ga 1 i t é s . Seules sont présentes les contraintes actives c'est-à-dire des équations.

L'hypothèse pseudo-optimale par défaut a donc remplacé

le prob1ème initia 1 avec contraintes inégalités, en plusieurs s O us - Prob1èmes distincts ne contenant plus que des contrain­ tes égalités.

Nous allons fixer les différents sous-systèmes correspondant à la présence d’une ou de plusieurs contraintes actives

à partir du sous-système d’équations extrémisantes libre, correspondant aux zones sans aucune contrainte active.

Notations

Pour alléger les expressions longues à écrire dans la suite, abandonnons dorénavant, sauf lorsqu’il y a risque de confusion, les parenthèses indiquant la dépendance par rapport au temps t.

1.7.2 Sous-systome libre

Le sous-système libre est issu du système général CIV] Ccfr S 1.3.1, 2è partie] dans lequel les contraintes inégalités sont supprimées.

Il se présente sous la forme suivante !

X = A X + B U ^ = P X - A’'i' (^) -Qu + B’']' = 0 CI .7.2] Cl .7.3] Cl.7.4]

Ce système peut se décomposer Comme la matrice Q est carrée donne :

-1

de la manière suivante : Cm X m], l’équation Cl.7.4]

et en portant C1.7.5] dans C1.7.2), nous obtenons la forme différentielle matricielle homogène (1.7.6) :

0

X A B q“'’bX

P - A’

Le système homogène (1.7.B) fournit les expressions pseudo-Z optimales descomposantes des vecteurs d’état x et adjoint f qui seront fixées grâce aux conditions aux bornes données par les relations de continuité de ces variables aux bornes de cette zone d’inactivité des contraintes inégalités.

Ces conditions de continuité ne sont pas évidentes à satisfaire et c’est pourquoi nous leur avons consacré un paragraphe spécial dans la suite ( S 1.7.4).

Remarq ue

Dans le système CV) noua avons posé = -1

1.7.3 Sous-système contraint

Considérons maintenant le cas d’une zone sur laquelle une ou plusieurs contraintes inégalités sont actives; appelons K l’ensemble d’indices caractérisant ces contraintes

actives : K = |i é 1, . .. , r avec dira lC=k.etlv^r

Cl.7.

8) ne portent (1.7.9) Cl .7.10) CI .7.1 1 ) Simplifi cation

Supposons pour simplifier, que les contraintes que sur les variables de commandes u :

D. U + e. 1 i > 0 i = 1. , r et l’ensemble K. devient : K avec ”^if 1, ..., D. U + e 1. X1 ■ “} k ^ r X + D^ > U + = 0 Cl .7.7)

Cette simplification ne restreint en rien la généralité

du problème mais facilite grandement l'exposé. Nous verrons au paragraphe 1.9 de cette seconde partie, les

modifications mineures à apporter lorsqu'on conserve contraintes inégalités sous leur forme générale (1.7.71.

Ecrivons les équations caractérisant uniquement les contraintes actives sous la forme ma tri cie11e (1.7.121

U . e^ = 0

pù D K

(

1

.

7.121 comprend les contraintes actives de l'ensemble K et est de dimension (Kxml.Oj^ symbolise le vecteur correspon­ dant ( kxl1 ; ■K i = 1, f(Dl . . iJ si if K k J j = 1, . . . , m -K>if

ix i

sinon (1.7.131 ((el . si if K 1

1

sinon (1.7.141

En d'autres termes, l'expression (1.7.121 représente donc un système de k équations à m inconnues u^ ; i = 1,...,m.

En décomposant la matrice en deux matrices et respectivement de dimension (k x kl et (k x m-kl, nous pouvons exprimer k variables de commande en fonction des

(m - kl restantes.

Dans le vecteur u, supposons en tête les k commandes à exprimer en fonction des (m-k1 autres :

U ' ■["i ••• ^k ^k+1 ... Um

]

( 1 . 7 . 1 5 1 e t posons a ' U • • ^k

1

de dimension ( Ixkl en b ' U ’ 'K., . . . U mj

1

de dimen si on (1 X m- k 1 (1.7.171

et les matrices Oj^ et sont définies comme suit : =

1

(D^ 3 . . ;i = 1 , . . . , k;j = 1 1J J • • • . ^ U ' k ij SI j < k ‘“.'U ■'

X

si j

> J

b f ^ M.7.18D ^ ^ t. si j <m- k K. 1J + k

X

sinon M . 7.19) En termes plus clairs, comprend les k premières colonnes

b ^

de la matrice et □ les (m-k) colonnes restantes.

K. K.

Dans ces conditions, l'équation matricielle [1.7.12] se transforme en [1.7.20].

a r^b b

°IC “ * \ ■ “ [.1 .7.20]

ce qui nous permet d'exprimer u comme suit :

a b ■,

U = -D|^ {D|^ U + e|^} [1.7.21]

Par conséquent, toute l'information concernant les

contraintes actives [1.7.12] est contenue dans la forme [1.7.21] et le vecteur de commande pseudo-optima1 s'écrit :

ai U = avec les -1 , - 1 i-^a r^b a b °K U — I 0 m-k

dimensions résumées ci-dessous :

[k X k] [1.7.22] : [ k X m-k] K I , : matrice unitaire [m-k x m-k] m- k 0 : matrice nulle [m-k x k]

sont donc respectivement de dimension (m x m-k) et (m x k].

Remarque : Décomposition du vecteur de commande u

arbitrairement, soit en fonction des désirs de l'utilisateur s’il est intéressant de disposer de certaines variables

de commande,P 1 utôt que d’autres^directement.

Reprenons l'expression matricielle minimisant l’Hamiltonien sans contraintes inégalités :

□r, comme la relation (1.7.21] a exprimé, grâce aux contraintes actives, k commandes en fonction des Cm-k] restantes, la

minimisation libre exprimée par CI.7.23] n'a aucun sens puisqu'elle porte sur toutes les variables de commande.

Par conséquent, vu que l'annulation desdérivées de l'Hamilto­ nien par rapport aux k premières variables de commande n’a

plus de sens, la relation CI.7.23] devient : '

g b

La décomposition de u en u et u peut se faire, soit

g U + B ’ T = 0 M . 7.23]

Q u + B’H'-D e^ = 0

r r K C 1 . 7.24]

r

où les matrices Q , B et D sont définies comme suit :

r r r

0

r si i = je K si i/^ j , if K sinon ) (1.7.25] B r , . . . , , . . • , n 0 01.7.25]

I

si

±6

K

D —\(D D

r r ij ( D ] . . =

^ "J [o sinon

.7.27]

Dès lors, en inversant la matrice Q , nous obtenons le r

vecteur de commande :

U = ’l'- D e^} (1 . 7.28]

r r r K.

Portons (1.7.23] dans l'équation (1.7.2] du système (V] :

x = Ax+BQ-^{B*'i'-D e^} (1.7.29]

r r r K

ou encore :

X = A X + B q"^ b*']' - B D e^ (1.7.30]

r r r r K

Le système différentiel portant sur les variables adjointes reste identique au système libre puisque nous avons supposé,e

(1.7.9] que les contraintes inégalités ne comprenaient que des variables de commande et que, par conséquent, la contribution reste nulle :

P X - A’ f (1.7.31]

En conclusion, la présence d'une ou de plusieurs contraintes actives dans le problème se traduit simplement, par

rapport au problème non contraint, par l'intégration d'un système non homogène du type suivant :

C D

-_ _ _ _ _ _ _ _ _ _ 1 X r r Pv 4' Q (1.7.32]

Les expressions pseudo-optimales des variables d'état

nj 'V

X et adjointes 4' , satisfaisant le système (1.7.32] seront calculées complètement grâce aux conditions de

Dans le document Disponible à / Available at permalink : (Page 119-146)