• Aucun résultat trouvé

Commande optimale

Dans le document MATH ´ EMATIQUES (Page 79-83)

Contrôle optimal

4.1 Introduction

Dans ce chapitre nous présentons rapidement la théorie du contrôle optimal [118], [144], [181], qui a de nombreuses applications en automatique, robotique, commande des systèmes, mais qui est aussi à la base des méthodes d’optimisation de formes. L’idée principale de ce chapitre est la notion d’état adjoint qui permet d’obtenir des formules explicites de gradient de fonctions objectifs définies implicitement par une équation d’état.

4.2 Commande optimale

Il s’agit de contrôler ou commander de manière optimale un système d’équations différentielles ordinaires, dit linéaire-quadratique. On considère le système différentiel linéaire dont l’inconnue, appelée état du système, y(t)est à valeurs dansRN

⎩ dy

dt =Ay+Bv+f pour0≤t≤T y(0) =y0

(4.1)

où y0 ∈ RN est l’état initial du système, f(t) ∈ RN est un terme source, v(t)∈RM est lacommandequi permet d’agir sur le système, etAetBsont deux matrices constantes de dimensions respectives N×N et N×M.

On veut choisir la commandevde manière à minimiser un critère quadra-tique

J(v) =1 2

T 0

Rv(t)·v(t)dt+1 2

T 0

Q(y−z)(t)·(y−z)(t)dt +1

2D(y(T)−zT)·(y(T)−zT),

oùz(t)une trajectoire “cible”, zT une position finale “cible”, etR, Q, D trois matrices symétriques positives dont seule R est supposée définie positive.

Remarquons que la fonction y(t)dépend de la variable v à travers (4.1).

Pour pouvoir appliquer les résultats d’optimisation précédents, nous choi-sissons de chercher v dans l’espace de Hilbert L2(]0, T[;RM) des fonctions de ]0, T[dans RM de carré intégrable. (L’espace “plus naturel” des fonctions continues n’est malheureusement pas un espace de Hilbert.) Pour tenir compte d’éventuelles contraintes sur la commande, on introduit un convexe fermé non videK deRM qui représente l’ensemble des commandes admissibles. Le problème de minimisation est donc

v(t)Linf2(]0,T[;K)J(v). (4.2) Commençons par vérifier que le système différentiel (4.1) est bien posé.

Lemme 4.1.On suppose que f(t) ∈ L2(]0, T[;RN) et v(t) ∈ L2(]0, T[;K).

Alors (4.1) admet une unique solution y(t) ∈ H1(]0, T[;RN), continue sur [0, T].

Démonstration.Ce résultat d’existence et d’unicité est bien connu sif etv sont continues. Il n’est pas plus difficile dans le cadreL2. On utilise la formule explicite de représentation de la solution

y(t) = exp(tA)y0+ t

0

exp

(t−s)A

(Bv+f)(s)ds

qui permet de vérifier l’existence et l’unicité de y dans H1(]0, T[;RN). Le Lemme 2.2 nous dit enfin quey est continue sur[0, T]. ⊓⊔

On peut alors montrer l’existence et l’unicité de la commande optimale.

Proposition 4.2.Il existe un unique u∈ L2(]0, T[;K) qui minimise (4.2).

Cette commande optimale uest caractérisée par T

0

Q(yu−z)·(yv−yu)dt+ T

0

Ru·(v−u)dt

+D(yu(T)−zT)·(yv(T)−yu(T))≥0, (4.3)

∀v ∈ L2(]0, T[;K), où yv désigne la solution de (4.1) associée à la com-mandev.

Démonstration. On commence par remarquer que v →y est une fonction affine. En effet, par linéarité de (4.1) on a

yv= ˜yv+ ˆy oùy˜v est solution de

⎧ fonc-tion quadratique positive dev (plus précisément, la somme d’une forme qua-dratique et d’une fonction affine), donc J est convexe, et même strictement convexe car la matrice R est définie positive. Comme L2(]0, T[;K) est un convexe fermé non vide, le Théorème 3.8 permet de conclure à l’existence et à l’unicité du point de minimumude (4.2). D’autre part, la condition d’opti-malité nécessaire et suffisante du Théorème 3.19 est J(u), v−u ≥0. Pour calculer le gradient, la méthode la plus sûre et la plus simple est de calculer

δlim0

J(u+δw)−J(u)

δ =J(u), w.

CommeJ(v)est quadratique le calcul est très simple puisqueyu+δw =yu+ δ˜yw. On obtient aisément (4.3) en remarquant queyu−yv= ˜yu−y˜v. ⊓⊔ Remarque 4.3.En explicitant la condition d’optimalité de (4.2) on a en fait calculé le gradientJ(w)pour toutw∈L2(]0, T[;RM)(et pas seulement pour le minimumu), ce qui est utile pour les méthodes numériques de minimisation (voir la Section 3.4). On a obtenu

T La condition nécessaire et suffisante d’optimalité (4.3) est en fait inexploi-table ! En effet, pour tester l’optimalité de u il est nécessaire pour chaque fonction test v de calculer l’état correspondant yv. Une autre façon de voir cette difficulté est l’impossibilité d’obtenir une expression explicite deJ(u)à partir de (4.5). Pour contourner cette difficulté on a recourt à la notion d’état adjointqui est une des idées les plus profondes de la théorie du contrôle opti-mal. Montrons comment procéder sur l’exemple étudié dans cette sous-section (nous donnerons l’idée générale dans la Remarque 4.6 ci-dessous). Pour le pro-blème (4.2) on définit l’état adjointpcomme la solution unique de

⎧ oùy est la solution de (4.1) pour la commandeu. Le nom d’état adjoint vient de ce que c’est la matrice adjointe At qui apparaît dans (4.6). L’intérêt de l’état adjoint est qu’il permet d’obtenir une expression explicite deJ(u).

Théorème 4.4.La dérivé deJ en uest donnée par

J(u) =Btp+Ru . (4.7)

La condition d’optimalité nécessaire et suffisante du problème (4.2) est donc T

0

Btp+Ru

·(v−u)dt≥0 ∀v∈L2(]0, T[;K). (4.8) Remarque 4.5.La formule (4.7) ne dépend pas du fait queuest optimal. Elle se généralise pour tout w ∈ L2(]0, T[;RM) en J(w) = Btp+Rw, quitte à calculer ppar (4.6) en utilisant l’état y correspondant à la commande w.

Le Théorème 4.4 donne une expression explicite du gradient au prix de la résolution supplémentaire du système adjoint (4.6). C’est une différence fon-damentale avec la formule (4.5) qui, pour chaque fonction test v, nécessitait la résolution du système (4.1) avec la commandev. La formule explicite (4.7) du gradient permet, soit d’obtenir des propriétés qualitatives de l’état y et de la commande optimale u, soit de construire une méthode numérique de minimisation de (4.2) par un algorithme de type gradient. • Démonstration.Soitpla solution de (4.6) ety˜vcelle de (4.4). L’idée est de multiplier (4.6) pary˜vet (4.4) parp, d’intégrer par parties et de comparer les résultats. Plus précisément, on calcule la quantité suivante de deux manières différentes. Tout d’abord, en intégrant et en tenant compte des conditions initialesy˜v(0) = 0etp(T) =D(y(T)−zT), on a D’autre part, en utilisant les équations on obtient

T On déduit de l’égalité entre (4.9) et (4.10) une simplification de l’expression (4.5) de la dérivée

Remarque 4.6.Comment a-t-on bien pudevinerle problème (4.6) qui définit l’état adjoint afin de simplifier l’expression de J(v)? Encore une fois, l’idée directrice est l’introduction d’unLagrangienassocié au problème de minimi-sation (4.2). On considère l’équation d’état (4.1) comme une contrainte entre deux variables indépendantes v et y et, suivant la Définition 3.22, on définit le Lagrangien comme la somme deJ(v)et de l’équation d’état multipliée par un multiplicateur de Lagrangep, c’est-à-dire

L(ˆv,y,ˆ p) =ˆ T

0

Rˆv(t)·ˆv(t)dt+ T

0

Q(ˆy−z)(t)·(ˆy−z)(t)dt +D(ˆy(T)−zT)·(ˆy(T)−zT) +

T 0

ˆ p·

−dˆy

dt +Ayˆ+Bˆv+f dt

−p(0)ˆ ·(ˆy(0)−y0).

Le LagrangienL(ˆv,y,ˆ p)ˆ est défini pour tout(ˆv,y,ˆ p)ˆ ∈L2(]0, T[)×H1(]0, T[)× H1(]0, T[)qui sont trois variables indépendantes. Formellement, les conditions d’optimalité de (4.2) s’obtiennent en disant que le Lagrangien est stationnaire au point(u, y, p)(oùy etpsont l’état et l’état adjoint pour la commandeu), c’est-à-dire que

∂L

∂v(u, y, p) = ∂L

∂y(u, y, p) = ∂L

∂p(u, y, p) = 0.

La première dérivée donne la condition d’optimalité (4.7), la seconde donne l’équation vérifiée par l’état adjoint p, et la troisième l’équation vérifiée par

l’étaty. •

Dans le document MATH ´ EMATIQUES (Page 79-83)