• Aucun résultat trouvé

2.2 Contrˆ ole pr´edictif pour les syst`emes de grande taille

2.2.3 Commande distribu´ee

2.2.3.3 Techniques de distribution

Concernant les aspects algorithmiques, l’´etat de l’art de R. Scattolini, [166], sugg`ere trois crit`eres pour classer les structures MPC distribu´ees.

1. Premi`erement, en fonction de la topologie du r´eseau de communication, les deux cas suivants peuvent ˆetre consid´er´es :

– algorithmes compl`etement connect´es, dans lesquels l’information est envoy´ee (et re¸cue) de tous les contrˆoleurs locaux vers tous les autres

– algorithmes partiellement connect´es, dans lesquels l’information est envoy´ee (et re¸cue) de tous les contrˆoleurs locaux seulement vers un sous-ensemble des autres agents.

Sans doute les structures topologiques partiellement connect´ees sont plus s´eduisantes du point de vue de l’implantation, tout sp´ecialement dans le cas des syst`emes de grande taille. N´eanmoins, la topologique de communication entre les agents suit, naturellement, celle des interconnexions entre les sous-syst`emes.

2. Un aspect essentiel des algorithmes distribu´es r´eside dans l’´echange d’informations entre les contrˆoleurs. C’est d’ailleurs le d´etail qui fait la distinction entre les approches

distribu´ees et celles compl`etement d´ecentralis´ees. Le nombre d’´echanges d’informa-tion par p´eriode d’´echantillonnage constitue alors un autre crit`ere de classificad’informa-tion. Ainsi, on peut diff´erencier :

– algorithmes non it´eratifs, dans lesquels l’information est envoy´ee (et re¸cue) une seule fois par instant d’´echantillonnage

– algorithmes it´eratifs, dans lesquels l’information est envoy´ee (et re¸cue) plusieurs fois par instant d’´echantillonnage.

3. Typiquement, les algorithmes it´eratifs sont construits pour converger vers un consen-sus global ou un point d’´equilibre (de Nash). `A cet ´egard, une troisi`eme classification peut ˆetre consid´er´ee :

– algorithmes communiquants, dans lesquels chaque contrˆoleur minimise un crit`ere local, en prenant en compte l’influence des autres sous-syst`emes sur ses propres variables

– algorithmes coop´eratifs, dans lesquels chaque contrˆoleur local minimise un crit`ere qui prend ´egalement en compte l’effet des actions locales sur l’objectif global. Cette derni`ere classification a, probablement, les cons´equences les plus importantes sur la complexit´e des correcteurs locaux. En r´eduisant les connaissances du contrˆoleur local `a son propre mod`ele de pr´ediction et `a la fonction de coˆut locale, le comportement des agents sera caract´eris´e par des actions ´ego¨ıstes. C’est le cas des algorithmes de communication it´eratifs, qui convergent g´en´eralement vers un point d’´equilibre, ou un point de Nash [132], sp´ecifique `a la th´eorie des jeux [18].

Dans cette cat´egorie, rappelons les travaux de [86, 31] qui pr´esentent des algorithmes communiquants. Une contrainte sur la matrice globale d’´etat est utilis´ee pour garantir la stabilit´e nominale en boucle ferm´ee. Une structure distribu´ee, dans laquelle les interactions entre les sous-syst`emes sont trait´ees comme des incertitudes born´ees, est d´ecrite dans [85]. Chaque contrˆoleur impose des contraintes locales sur ses propres ´etats, contraintes qui seront utilis´ees par les autres agents afin de formuler un probl`eme de type min-max. La preuve de stabilit´e est obtenue en bornant l’ensemble des contraintes sur l’´etat. Dans [131], un autre algorithme ind´ependant est pr´esent´e dans le cadre sans contrainte. L’article propose ´egalement une m´ethode afin de partitionner un syst`eme global en sous-syst`emes, par l’utilisation de la norme de Hankel, qui exprime l’´energie des paires entr´ee/sortie. Dans le mˆeme cadre de travail, des conditions n´ecessaires et suffisantes pour la convergence et la stabilit´e nominale sont d´etermin´ees dans [51, 98], utilisant la solution analytique du probl`eme d’optimisation quadratique. La stabilit´e de la boucle ferm´ee est ´egalement ´etudi´ee pour l’algorithme ´equivalent, non it´eratif. Des conditions similaires sont montr´ees dans [68]. De plus, un retard d’un pas d’´echantillonnage, correspondant `a l’´echange d’information, est ajout´e dans [180].

Les travaux de [11] pr´esentent une m´ethode de s´election de la structure de contrˆole (parmi le MPC centralis´e, l’algorithme distribu´e ind´ependant et la structure d´ecentralis´ee).

`

de commande, en fonction de la marge de robustesse et de la connectivit´e entre les sous-syst`emes.

L’objectif des algorithmes coop´eratifs est d’assurer la convergence vers la solution op-timale globale. G´en´eralement, pour atteindre ce but, les contrˆoleurs locaux doivent agir de fa¸con altruiste, ce qui suppose l’inclusion dans les fonctions de coˆut locales des termes li´es aux objectifs des autres agents.

Ainsi, l’algorithme coop´eratifs propos´e dans [184] implique la connaissance locale du mod`ele complet du syst`eme, afin que la fonction de coˆut globale soit minimis´ee locale-ment. Dans l’approche pr´esent´ee, de nombreuses propri´et´es int´eressantes sont prouv´ees comme la convergence de l’algorithme vers la solution optimale globale, mais ´egalement la faisabilit´e et la stabilit´e nominale en boucle ferm´ee si l’algorithme est interrompu `a une it´eration interm´ediaire. Un autre algorithme convergeant vers l’optimum global est d´ecrit dans [195], mais par rapport au pr´ec´edent, cette ´etude est d´evelopp´ee pour une optimisation sans contraintes. L’avantage de l’approche r´eside dans la minimisation locale d’une fonction qui r´eunit seulement le crit`ere local et les crit`eres des sous-syst`emes voisins (directement interconnect´es), ce qui augmente la flexibilit´e du syst`eme de contrˆole. Deux algorithmes coop´eratifs sont analys´es dans [103], dont le premier est non it´eratif et suppose des ´echanges unidirectionnels entre agents, tandis que le deuxi`eme est it´eratif et utilise des communications bidirectionnelles. Pour prouver la stabilit´e des deux architectures, les au-teurs font appel `a la th´eorie des ensembles invariants via l’utilisation d’une contrainte de stabilit´e. Les algorithmes sont ensuite appliqu´es au processus d’alkylation catalytique du benz`ene [104], compos´e par quatre r´eacteurs et un s´eparateur. Des extensions de ces tra-vaux, prenant en compte des mesures asynchrones ou retard´ees ainsi que la possibilit´e de perte d’informations se retrouvent dans [105] et [80].

Un algorithme int´eressant qui implique seulement deux ´echanges d’information par p´eriode d’´echantillonnage est propos´e dans [113, 114] pour le cas de deux sous-syst`emes. Chaque agent r´esout son propre probl`eme d’optimisation et ensuite partage la solution optimale locale obtenue. Apr`es le premier ´echange, la proc´edure d’optimisation locale est r´ep´et´ee et la nouvelle solution partag´ee, puis les agents choisissent la solution qui donne la meilleure performance globale, parmi un ensemble de possibilit´es. L’inconv´enient de l’approche vient du fait que le nombre des communications peut s’av´erer ´enorme pour des syst`emes de grande taille.

Dans les approches mentionn´ees pr´ec´edemment, la connaissance locale des objectifs d’autres agents r´eduit l’aspect d´ecentralis´e de la structure de contrˆole. Une alternative int´eressante est l’utilisation d’un m´ecanisme d’agent de prix, qui permet la convergence vers l’optimum global, alors que chaque contrˆoleur n’a qu’une vue locale du crit`ere. Ce type d’algorithmes repose sur diff´erentes techniques de d´ecomposition.

Ainsi, la loi MPC distribu´ee pr´esent´ee dans [69] est bas´ee sur la d´ecomposition duale et la mise `a jour des multiplicateurs de Lagrange par une m´ethode de sous-gradient qui repose sur les travaux de [157, 158]. La vitesse de convergence faible est le principal in-conv´enient de l’algorithme. Par cons´equent, les auteurs proposent un crit`ere d’arrˆet de

la proc´edure it´erative de telle sorte qu’un certain degr´e de sous-optimalit´e est garanti si la stabilit´e asymptotique du syst`eme en boucle ferm´ee est assur´ee. L’implantation de la strat´egie suppose normalement l’apparition d’un ou plusieurs agents de prix qui diffusent les valeurs des multiplicateurs vers les contrˆoleurs locaux en fonction des solutions locales. Une telle structure de contrˆole est pr´esent´ee dans [27], pour la commande d’un syst`eme de r´efrig´eration contrˆol´e par des variables bool´eennes ou dans [97], pour la gestion d’un r´eseau d’eau potable. Pour une application similaire, dans [84], un agent n´egociateur est employ´e pour chaque paire de r´egulateurs MPC qui partage une ou plusieurs variables. Il r´esout un probl`eme d’optimisation au moyen d’un algorithme d’apprentissage par renforce-ment. D’autres structures de coordination, dont l’id´ee est de remplacer chaque contrainte coupl´ee par un terme lin´eaire bas´e sur les multiplicateurs de Lagrange, sont propos´ees dans [137, 135, 136], avec des applications appropri´ees.

Afin de g´erer de mani`ere optimale les contraintes coupl´ees dans une approche MPC distribu´ee, l’article [134] s’appuie aussi sur la d´ecomposition duale. Une solution alternative pour le mˆeme type de probl`eme est propos´ee dans [47], repr´esent´ee par une version de l’algorithme de Han [78] adapt´ee `a la formulation quadratique de la fonction de coˆut du MPC. L’id´ee principale de l’algorithme de Han est de r´esoudre le dual du probl`eme d’optimisation centralis´ee dans un environnement parall`ele. Ses am´eliorations sur la vitesse de convergence de l’algorithme sont r´ealis´ees en utilisant des pond´erations individuelles pour chaque variable duale, ainsi qu’une solution initiale non nulle [48]. L’algorithme est appliqu´e pour la r´egulation des niveaux d’eau dans un canal d’irrigation.

La manque de convergence de la d´ecomposition duale pour le cas d’un syst`eme non lin´eaire compos´e de quatre r´eservoirs a motiv´e les auteurs de [167] pour proposer une m´ethode de gradient dynamique distribu´e, dont l’id´ee est d’utiliser localement une infor-mation sur le gradient du crit`ere global. `A ce stade, les conditions n´ecessaires ou suffisantes pour la convergence de l’algorithme repr´esentent les pistes futures de travail.

Concernant la programmation lin´eaire, une strat´egie pr´edictive de coordination bas´ee sur la d´ecomposition de Dantzig-Wolfe est analys´ee dans [34]. Afin que la m´ethode soit em-ploy´ee, les couplages entre les sous-syst`emes sont n´eglig´es. La n´ecessit´e de la coordination r´eside dans l’existence d’une contrainte de couplage.

Plusieurs structures MPC distribu´ees ont ´et´e propos´ees pour des sous-syst`emes d´ecou-pl´es, dont l’interconnexion est r´ealis´ee par l’objectif de contrˆole ou par les contraintes coupl´ees. Une solution `a ce type de probl`emes est propos´ee dans [163], o`u les sorties des sous-syst`emes sont coupl´ees par une contrainte globale. Les agents r´esolvent les probl`emes d’optimisation locaux de mani`ere s´equentielle, en ´echangeant les valeurs pr´edites des va-riables de couplage. Une preuve de faisabilit´e robuste est pr´esent´ee bri`evement, en sup-posant que les perturbations sur les sous-syst`emes sont ind´ependantes et born´ees. Une approche distribu´ee qui traite un probl`eme similaire fait l’objet de l’´etude dans [89], dont chaque agent calcule les s´equences optimales locales ainsi que celles des voisins. Un autre algorithme d´evelopp´e pour la commande d’un ensemble de sous-syst`emes coupl´es unique-ment par une fonction de coˆut non-s´eparable est propos´e dans [53]. La stabilit´e est assur´ee

par une contrainte, dite de compatibilit´e. Pourtant, cette contrainte peut conduire vers des performances diff´erentes par rapport au cas centralis´e. Les architectures distribu´ees utilisant des mod`eles d´ecoupl´es ont des applications int´eressantes pour les probl`emes de vol en formation [88, 153], l’´evitement de collisions [32, 46], etc.

MPC Optimisation du crit`ere Solution

distribu´e, non it´eratif

d’´equilibre (Nash)

locale + prix locale diff´erentes formulations

distribu´e, it´eratif

globale locale d´ecentralis´e centralis´e globale interm´ediaire d´ecentralis´ee centralis´ee

C

o

m

p

le

x

it

´e

O

p

ti

m

a

li

t´e

Figure 2.9 – Caract´eristiques des diff´erentes cat´egories d’algorithmes MPC La figure 2.9 repr´esente un sch´ema synth´etique des structures de commande pr´edictive pour les syst`emes de grande taille. Le choix de l’algorithme de commande est g´en´eralement la cons´equence d’un compromis entre le degr´e d’optimalit´e de la solution fournie et la complexit´e des r´egulateurs.