• Aucun résultat trouvé

1.3 Contrôle optimal

1.3.1 Formalisation en termes de contrôle optimal

Pour ne citer que quelques exemples (classiques), les problèmes de contrôle optimal donnent un cadre et des pistes de résolution pour les questions suivantes.

1. En robotique, par exemple, Mombaur et al. [125], dans les systèmes de mouvements biologiques, par exemple, en minimisant le nombre de fonctions élémentaires néces- saires (appelées primitives en robotique) dans la reproduction d’un mouvement, par exemple, Li [117], pour contrôler un bras articulé lors d’une opération chirurgicale, et autres applications en médecine ;

2. En systèmes de communication, interface avec le traitement de l’image, notamment pour le problème de contraste, par exemple, Cots [65] ;

3. En électricité et électronique, par exemple pour l’étude d’un véhicule électrique, par exemple, Sager et al. [150] ;

4. En systèmes d’énergie, pour la gestion de barrages hydroélectriques ou de centrales nucléaires, par exemple, Pfeiffer [135] ;

5. En médecine, pour gérer des opérations au laser, en définissant la quantité, la durée et l’emplacement des émissions, dans le but de rétablir la courbure d’un œil pour un patient atteint de myopie ; ou encore, pour modéliser des processus de diffusion et traitements en anti-angiogènes, par exemple, Ledzewicz et Schättler [115], et Dupuis [77] ;

6. En économie, minimiser une dépense ou maximiser un gain, via une modélisation de différents agents avec leurs intérêts respectifs, interface avec la théorie des jeux, par exemple, Laraki et al. [112], Fudenberg et Tirole [92], et, plus précisément, les jeux différentiels, par exemple, Cardaliaguet [49] ;

7. En mécanique spatiale et aérospatial (par exemple, Trélat [160]), pour permettre un déplacement de satellite (transfert orbital), par exemple, Caillau et al. [46], Cail- lau [44], gérer un atterrissage sur une planète, avec une consommation minimale en carburant ; veiller à réduire l’accumulation de chaleur, en minimisant la chaleur due aux frottements pour une navette spatiale lors d’une traversée de l’atmosphère ap- pelée rentée atmosphérique (atmospheric re-entry), par exemple, Bonnard et al. [36]. Nous décrivons davantage les approches développant des méthodes en contrôle optimal pour les applications en aéronautique dans la sous-section1.2.1.

En contrôle optimal, nous distinguons deux variables vectorielles : une variable de contrôle u, pour indiquer les décisions prises, et une variable x, pour indiquer l’état du système au fil du temps. Le modèle de contrôle standard (Pc) pour un système contrôlé est

composé de deux éléments essentiels : le système dynamique contrôlé (auquel s’ajoutent souvent des contraintes) et la fonctionnelle (définissant le critère d’optimisation) :

(Pc)                        min

u,x J (u(t), x(t)), (fonctionnelle correspondant au coût à minimiser)

sous les contraintes

˙x(t)= f (u(t), x(t), t), (système dynamique contrôlé : équations d’états) x(t0)= xt0, x(tf) ∈ Cf, (conditions initiales et terminales, sur les états)

g(u(t), x(t), t) ≤ 0. (contraintes éventuelles sur le contrôle et/ou l’état)

où l’état (noté x) est de dimension n, le contrôle (noté u) de dimension m, et Cf représente

l’ensemble des états finaux, comme conditions terminales. 1.3.1.1 Système dynamique contrôlé et contraintes

Tout d’abord, nous nous donnons un système dynamique, autrement dit, un système différentiel. Ce système dynamique admet, de plus, des conditionsinitiales, comme le problème de Cauchy. Il peut être complété avec des conditions terminales. Il s’agit pour un mobile (objet en mouvement, par exemple un avion) d’atteindre un ensemble cible. Enfin ce problème différentiel va admettre une particularité, en effet, c’est un système contrôlé, pour lequel nous nous intéressons à une variable vectorielle de contrôle (souvent notée u)3.

D´efinition 1.8. Pour des fonctions données gtf, gx, gu,x, guqui sont lisses (i.e., qui satisfont

certaines conditions de régularité), citons, comme suit, différents types de contraintes sur le système contrôlé.

Les contraintes sur l’état final du système. (dans la littérature, on retrouve souvent le terme conditions terminales, ou final-state constraints)

gtf



x(tf)≤ 0.

Les contraintes pures sur l’état du système. (contraintes pures, pure state constraints ou path constraints)

gx(x(t)) ≤ 0 pour tout t dans [t0, tf].

Les contraintes mixtes état-contrôle du système. (contraintes mixtes, ou mixed cons- traints)

gu,x(u(t), x(t)) ≤ 0 pour presque tout t dans [t0, tf].

Les contraintes sur le contrôle du système. (contraintes sur le contrôle, ou control cons- traints)

gu(u(t)) ≤ 0 pour presque tout t dans [t0, tf].

Définissons à présent les différents types de contraintes (cf. Définition1.8) qui peuvent être rencontrés dans la modélisation (et la résolution) d’un problème de contrôle optimal. Concernant les contraintes pures sur l’état, qui vont faire partie de nos préoccupations dans la suite de cette thèse, commençons par les remarques suivantes.

Les systèmes dynamiques qui peuvent être écrits sous la forme : x(t)(k) = f (u(t), x(t))

sont des systèmes contrôlés par leurs kièmedérivées par rapport au temps. Les contraintes pures sur les variables d’états contrôlées par leurs kièmedérivées (par rapport au temps)

sont appelées contraintes pures d’ordre k. Dans le chapitre suivant, nous considèrerons, pour notre modèle et les approches de résolution, des contraintes pures d’ordres 1 et 2. En effet, notre système dynamique contrôlé admet l’accélération comme commande, et les variables d’état sont les vitesses et les positions. Elles sont soumises à certaines contraintes, dites pures, respectivement d’ordre 1 et d’ordre 2. Nous y reviendrons dans l’exposé de notre modèle et de nos approches de résolution lors du prochain chapitre.

1.3.1.2 Modélisation d’une fonctionnelle

Les critères parmi les plus fréquemment choisis sont le temps minimal (minimiser le temps de transfert d’un état vers un autre état), la consommation minimale (en carburant), ou encore satisfaire certaines propriétés de régularité (pour les trajectoires solutions). Du critère choisi, dépend la forme des trajectoires optimales. Pour des valeurs initiales don- nées (t0, xt0), les comportements et les trajectoires suivies sont ainsi déduits du contrôle u.

D´efinition 1.9. La fonctionnelle, fontion objectif, J : U −→ R, est une application d’un espace de fonctions (i.e., ensemble de contrôles admissibles) à valeurs dans R, définie par :

J (u(t), x(t))def= Z tf

t0

L(u(t), x(t), t) dt + ψtf, xtf ,

les applications L etψ, sont respectivement appelées le coût courant et le coût terminal. Le temps tf correspond à l’instant final qui peut être soit libre, soit fixé ; et l’état du

système noté xtf def= xt

f



est l’état terminal qui peut lui aussi être soit libre, soit fixé. Plus précisément, donnons la définition.

D´efinition 1.10. Un problème de contrôle est à temps final fixé si l’instant de fin, noté tf,

est connu et fixé dans l’étude. Inversement, nous dirons qu’un problème de contrôle est à temps final libre, si l’instant de fin, noté tf, est inconnu et fait partie des variables de

décision à déterminer.

D´efinition 1.11. Suivant la fonctionnelle considérée dans le problème de contrôle opti- mal, la représentation du problème de minimisation est dite :

de Lagrange, avec la fonctionψ triviale, comme suit, J (u(t), x(t)) def=

Z tf

t0

L(u(t), x(t), t)dt, de Mayer, avec la fonction L triviale, comme suit,

J (u(t), x(t)) def= ψtf, xtf ,

de Bolza, avec les fonctionsψ et L non triviales, comme suit, J (u(t), x(t)) def=

Z tf

t0

Remarque 1.12. Naïvement, la formulation de Bolza semble plus générale ; pourtant les trois formulations (de Lagrange, de Mayer et de Bolza) sont équivalentes (cf., Trélat [159]).

D´efinition 1.13. Un problème de contrôle est autonome lorsque la fonction objectif n’est pas dépendante explicitement du temps. Plus précisément, pour un problème autonome, la fonction objectif ne dépend pas directement de la variable de temps t (bien que le système contrôlé évolue dans le temps avec une certaine dynamique qui dépend du temps). Si ce n’est pas le cas, le problème est non-autonome.

Ainsi, la résolution d’un problème de contrôle optimal, comme (Pc), peut être comprise

comme : trouver un contrôle u(.) qui minimise J(u(.), x(.)) sur l’ensemble des contrôles admissibles.

D´efinition 1.14. Un problème de contrôle est en boucle ouverte s’il passe par la ré- solution d’équations d’états, une fois et une seule. Le plus souvent, cette approche fait appel au Principe du Maximum de Pontryagin (PMP). Autrement, s’il passe par la ré- solution d’équations d’états puis d’une loi de commande, dans un processus itératif, le problème de contrôle est en boucle fermée. Le plus souvent, cette approche est réalisée à travers la programmation dynamique et la résolution d’équations de Hamilton-Jacobi- Bellman (HJB).