• Aucun résultat trouvé

Fonction de Lyapunov composée

Dans le document Assistance préventive à la sortie de voie (Page 110-116)

Éléments théoriques de la commande des systèmes

3.5 Fonction de Lyapunov composée

Nous avons présenté dans les sections précédentes des ensembles invariants ellipsoïdaux qui sont engendrés par des fonctions de Lyapunov quadratiques. Les ensembles ellipsoïdaux ne sont pas toujours appropriés pour étudier et approcher les ensembles atteignables des systèmes dy-namiques. Dans l’Exemple 3.4.1 l’ensemble des états initiaux est représenté par un polytope, χ0. Même si le polytope χ0 est invariant, donc identique à l’ensemble atteignable χ(t, t0, χ0) dans ce cas (χ0 = χ(t, t, χ0)), l’ellipsoïde qui l’approchera restera toujours une approximation conservatrice.

En effet, pour mieux approcher l’ensemble χ(t, t0, χ0), nous aurions besoin d’un ensemble invariant polyédrique, voir polytopique. Les méthodes pour développer des ensembles invariants polyédriques présentent des avantages théoriques, mais elles restent en pratique difficiles à im-plémenter, surtout pour les systèmes dynamiques continus [Bla08], [Bit95], [Vas89], [Cas93], [Mes04].

Dans ce cas, les ensembles invariants fournis par les fonctions de Lyapunov composées re-présentent un bon compromis. Introduites récemment par [Hu03], les fonctions de Lyapunov composées sont utilisées pour élargir l’estimation du domaine d’attraction d’un point d’équi-libre. Une des propriétés qui les rendent très intéressantes est l’invariance de l’enveloppe convexe de plusieurs ellipsoïdes invariants. Par la suite, nous allons exposer la définition et les propriétés les plus importantes des fonctions de Lyapunov composées, qui se trouvent dans [Hu03] et [Hu04]. Un théorème pour la synthèse d’une loi de commande via une fonction de Lyapunov composée sera proposé.

3.5.1 Propriétés de la fonction quadratique composée

Considérons des matrices symétriques et définies positives Pj = (Pj)T, Pj ≻ 0, Pj ∈ Rn×n, j = 1, . . . , N . L’ensemble Γ contient des vecteurs γ tels que :

Γ , {γ ∈ RN :

N

X

j=1

γj = 1, γj ≥ 0, j = 1, . . . , N}. (3.118)

Pour un vecteur γ ∈ RN nous définissons les matrices suivantes : Q(γ) ,

N

X

j=1

γjQj, P (γ) , Q1(γ), (3.119)

où Qj = (Pj)−1, j = 1, . . . , N. Puisque les matrices Qjsont symétriques et définies positives pour j = 1, . . . , N (comme étant l’inverse d’une matrice symétrique et définie positive), les matrices Q(γ) et P (γ) sont également symétriques et définies positives.

Remarque 3.5.1 Pour γ ∈ Γ, Γ défini par l’équation (3.118), ε(1

αP (γ)) , {x ∈ Rn: xTP (γ)x ≤ α} (3.120) est un ellipsoïde.

Définition 3.5.1 (Fonction quadratique composée) Une fonction Vc : Rn → R qui satis-fait :

Vc(x) , min

γ∈Γ xTP (γ)x (3.121)

Remarque 3.5.2 La fonction quadratique composée définie dans (3.121) est une fonction définie positive.

La courbe de niveau de la fonction Vc(x) est décrite par :

SVc(α) = {x ∈ Rn: Vc(x) ≤ α}. (3.122) La courbe de niveau SVc(α) est l’enveloppe convexe des ellipsoïdes composants : ε(α1Pj), j = 1, . . . , N (voir Figure 3.9).

Fig. 3.9 – Courbe de niveau d’une fonction quadratique composée pour α = 1. Théorème 3.5.1 (Courbe de niveau de la fonction quadratique composée) [Hu03]

SVc(α) = co{ε(α1Pj), j = 1, . . . , N } = [

γ∈Γ

ε(1

αP (γ)). (3.123)

Nous remarquons qu’en créant l’enveloppe convexe de plusieurs ellipsoïdes de volumes dif-férents et avec des orientations différentes par rapport aux axes, nous obtenons une forme géo-métrique semblable à un polytope (voir Figure 3.9). Dans le cas extrême, quand les ellipsoïdes composants sont dégénérés et réduits à un seul axe, la forme obtenue représente rigoureusement un polytope.

Une propriété importante de la courbe de niveau SVc(α) est que chaque point situé sur cette enveloppe convexe peut s’écrire comme une combinaison linéaire des points appartenant aux ellipsoïdes couverts. De plus, le vecteur de la combinaison linéaire est fourni par la solution du problème de minimisation calculé pour la fonction quadratique composée.

Lemme 3.5.1 [Hu04] Pour un x ∈ Rn fixé, soit γ

∈ Γ une solution optimale telle que : xTP (γ)x = min

γ∈Γ xTP (γ)x = Vc(x). (3.124)

Notons xj = QjP (γ

)x. Avec ces notations, x est une combinaison linéaire de xj, j = 1, . . . , N :

x =

N

X

j=1

Notons h = P (γ )x et α = Vc(x). Si γ j > 0, alors xj ∈ ∂ε(α1Pj) où ∂ε(1 αP j ) , {x ∈ Rn: xTPjx = α}. (3.126) Pour calculer la valeur instantanée de la fonction quadratique composée, [Hu03] proposent une méthode basée sur l’optimisation LMI. Une représentation équivalente de la valeur de la fonction quadratique composée est donnée par :

Vc(x) = min

γ∈Γ

ω>0

{ω : ω ≥ xTP (γ)x}. (3.127)

La représentation (3.127) peut être tranformée par le Lemme de Schur en un problème d’opti-misation LMI : minimiser ω contraint par ω ≻ 0, γj ≻ 0, j = 1, . . . , N, PN j=1γj = 1, µ ω xT x PN j=1γjQj ¶ º 0. (3.128)

Les variables de décision sont ω et γj, j = 1, . . . , N. Notons la solution du problème LMI (3.128) par ω et γ

j, j = 1, . . . , N, soit γ

= (γ

1, . . . , γ N)T.

Bien évidemment, le problème d’optimisation LMI (3.128) est toujours faisable et a une solution. Cependant, la solution n’est pas toujours unique. Le lemme suivant offre des conditions dont la vérification garantit une solution unique au problème (3.128). De plus, si la solution γ

est unique pour un x ∈ Rnfixé, la continuité de la fonction γ

: Rn → RN est garantie, propriété décrite dans le lemme ci-dessous.

Lemme 3.5.2 [Hu04]

1. Si pour tout x ∈ ∂SVc(1), il existe une représentation unique x = N X j=1 γjxj, xj ∈ ∂ε(Pj), γ ∈ Γ, (3.129) alors γ

(x) est unique pour tout x ∈ Rn. 2. Si γ

(x) est unique ∀ x ∈ Rn, alors γ

(x) est une fonction continue en x.

Une propriété analytique très importante de la fonction Vc(x) est la différentiabilité. La fonction quadratique composée est une fonction continument différentiable par rapport à la variable x.

Théorème 3.5.2 (Dérivabilité de la fonction quadratique composée) [Hu03] La fonction Vc(x) est dérivable par rapport à x. Considérons γ

(x) un γ optimal tel que xTP (γ

(x))x = min

γ∈Γ xTP (γ)x. La dérivée de Vc(x) par rapport à x est décrite par : ∂Vc

∂x = 2P (γ

Nous avons décrit quelques propriétés très pertinentes de la fonction quadratique composée : c’est une fonction définie positive, avec des courbes de niveau qui enveloppent des ellipsoïdes, en approchant la forme d’un polytope. Cette fonction est notamment différentiable, avec une dérivée continue par rapport à x.

Afin de rendre invariant ses courbes de niveau, la fonction Vc devrait satisfaire également la deuxième condition des fonctions de Lyapunov : avoir les dérivées négatives le long des trajectoires du système dynamique considéré. Nous proposons dans la section suivante un théorème pour la synthèse d’une loi de commande qui stabilise un système linéaire et permet à la fonction quadratique composée de vérifier les propriétés d’une fonction de Lyapunov.

3.5.2 Fonction de Lyapunov composée : stabilité et ensemble invariant

Considérons un système dynamique linéaire sans perturbation et à une seule entrée de com-mande :

½

˙x = Ax + Buu

y = x, t ∈ R+, x ∈ Rn, u ∈ R. (3.131)

Nous proposons pour ce système (3.131) une loi de commande qui repose sur des retours d’état linéaire Kj associés à des fonctions de Lyapunov quadratiques xTPjx, j = 1, . . . , N . Ce théorème exige une valeur temporelle maximale pour la grandeur de commande : |u| ≤ Umax. Le théorème ci-dessous est inspiré d’un théorème proposé par [Hu03] pour la synthèse d’une loi de commande saturée. Néanmoins, il a été formulé et prouvé dans le cadre de cette thèse.

Théorème 3.5.3 (Fonction de Lyapunov composée) Considérons le système dynamique li-néaire décrit par (3.131). Les matrices Pj = (Pj)T ∈ Rn×n, Pj ≻ 0 et les vecteurs Kj ∈ R1×n, j = 1, . . . , N , sont tels que :

(A + BuKj)TPj+ Pj(A + BuKj) ≺ 0, ∀x ∈ Rn (3.132) et

|Kjx| ≤ Umax ∀ x ∈ ε(Pj), (3.133)

où Umax est une constante réelle positive. Notons Qj = (Pj)−1 et Yj = KjQj pour j = 1, . . . , N. Pour γ ∈ Γ défini par (3.118), nous définissons :

K(γ) , Y (γ)P (γ) (3.134) où Y (γ) = N X j=1 γjYj, Q(γ) = N X j=1 γjQj, P (γ) = Q1(γ). (3.135) Considérons γ (x) tel que Vc(x) = min γ∈Γ xTP (γ)x = xTP (γ (x))x. 1. Si la fonction γ

(x) est continue, u(x) , K(γ

(x))x est une loi de commande continue. 2. SVc(1) = {x ∈ Rn : Vc(x) ≤ 1} est contractif et invariant pour la loi de commande

u(x) = K(γ

(x))x. 3. De plus, |K(γ

Preuve 3.5.1 (Fonction de Lyapunov composée) 1. La loi de commande est définie par :

u(x) = K(γ(x))x = Y (γ(x))Q1(x))x, (3.136) où Y (γ (x)) =PN j=1γ j(x)Yj, Q(γ (x)) =PN j=1γ j(x)Qj. (3.137)

Cette loi est donc équivalente à : u(x) = ( N X j=1 γj(x)Yj)( N X j=1 γj(x)Qj)1x. (3.138) Puisque la matrice Q(γ

(x)) est une somme de matrices symétriques définies positives, elle est également une matrice symétrique définie positive. En conséquence, la matrice inversée Q(γ

(x))−1 existe ∀x ∈ Rn. Ce fait engendre l’existence de la loi de commande u(x) ∀x ∈ Rn.

De plus, u(x) est exprimé en fonction de γ

(x) et de x(t). Puisque x(t) est une fonction continue, la continuité de la loi de commande u(x) est déterminée par la continuité de γ

(x).

2. Considérons x quelconque. γ

(x) est la solution de min

γ∈Γ xTP (γ)x = xTP (γ (x))x, où PN j=1γ j(x) = 1, et γ j(x) ≥ 0 pour j = 1, . . . , N.

Les inégalités matricielles suivantes proviennent des hypothèses du Théorème 3.5.3 : (A + BuKj)T(Qj)−1+ (Qj)−1(A + BuKj) ≺ 0, j = 1, . . . , N ⇔

QjAT + Qj(Kj)TBT

u + AQj+ BuKjQj ≺ 0, j = 1, . . . , N. (3.139) En posant Yj = KjQj, nous obtenons :

QjAT + (Yj)TBuT + AQj+ BuYj ≺ 0, j = 1, . . . , N. (3.140) En multipliant chaque inégalité de (3.140) par γ

j(x) et en les additionnant pour j = 1, . . . , N , il résulte : Q(γ (x))AT + YT (x))BuT + AQ(γ (x)) + BuY (γ (x)) ≺ 0. (3.141) Sous la condition d’une matrice non-singulière Q(γ

(x)), nous multiplions à droite et à gauche l’équation (3.141) par Q−1

(x)). Nous obtenons de cette façon : ATQ(γ )−1+ Q(γ )−1YT )BT uQ(γ )−1+ +Q(γ )−1A + Q(γ )−1BuY (γ )Q(γ )−1 ≺ 0. (3.142) Sachant que P (γ ) = Q−1 ) et que K(γ ) = Y (γ )Q−1 ), l’équation (3.142) est ré-écrite comme suit :

(A + BuK(γ

))TP (γ

) + P (γ

)(A + BuK(γ

Nous construisons alors une fonction quadratique avec la variable x ∈ Rn : xT[(A + BuK(γ ))TP (γ ) + P (γ )(A + BuK(γ ))]x < 0 ⇔ xT[A + BuK(γ )]TP (γ )x + xTP (γ )[A + BuK(γ )]x < 0 ⇔ 2xT[A + BuK(γ )]TP (γ )x < 0 ⇔ {[A + BuK(γ )]x}T2P (γ )x < 0, ⇔ ˙xT2P (γ )x < 0 ⇔ (2P (γ)x)T˙x < 0. (3.144)

D’après le Théorème 3.5.2, la fonction Vc(x) est différentiable d’une manière continue par rapport à x, avec la dérivée :

∂Vc(x)

∂x = 2P (γ

(x))x. (3.145)

Sa dérivée temporelle est décrite par conséquent par : ∂Vc(x) ∂t = ( ∂Vc(x) ∂x ) T ·∂x∂t. (3.146)

Selon les résultats (3.144), (3.145) et (3.146) nous obtenons d’une part que la dérivée temporelle de la fonction Vc(x) est négative pour la loi de commande u(x) = K(γ

(x))x : ∂Vc(x)

∂t < 0. (3.147)

et d’autre part, que la fonction Vc(x) = min

γ∈Γ xTP (γ)x = xTP (γ

)x est définie positive grâce à la matrice symétrique définie positive P (γ

).

En utilisant le Théorème de Lyapunov, nous concluons que Vc(x) est une fonction de Lya-punov et par conséquent la courbe de niveau SVc(1) est invariante et contractive.

3. Considérons x ∈ SVc(1) et Vc(x) = min

γ∈ΓxTP (γ)x = xTP (γ

(x))x = α ≤ 1. Le Lemme 3.5.1 assure qu’il existe xj = QjP (γ

)x tel que pour γ

j > 0 nous avons xj ∈ ∂ε(α1Pj) et x =PN

j=1γ jxj.

En faisant l’hypothèse que x ∈ SVc(1), il résulte que α ≤ 1. Ceci implique ∂ε(α1Pj) ⊂ ε(Pj). Ainsi, pour γ

j > 0 nous avons xj ∈ ε(Pj).

Par la suite nous considérerons l’hypothèse faite dans l’énoncé du Théorème 3.5.3 : |Kjx| ≤ Umax, ∀ x ∈ ε(Pj). Ceci implique |Kjxj| ≤ Umax pour tout xj = QjP (γ)x et γ

j > 0, j = 1, . . . , N . Nous réécrivons cette relation et nous obtenons :

|KjQjP (γ)x| ≤ Umax, j = 1, . . . , N, γj> 0. (3.148) En utilisant la notation Yj = KjQj, l’équation (3.148) devient :

|YjP (γ)x| ≤ Umax, pour j = 1, . . . , N et γj > 0. (3.149) Nous multiplions ensuite par γ

j > 0 et additionnons les équations (3.149) pour j = 1, . . . , N et γ

j > 0. Le résultat ainsi obtenu est :

N X j=1 γ∗ j>0jYjP (γ)x| ≤ N X j=1 γ∗ j>0 γjUmax. (3.150)

En considérant que γ

j ≥ 0 l’équation (3.150) est équivalente à :

N X j=1jYjP (γ)x| ≤ N X j=1 γjUmax, (3.151) car si γ

j n’est pas strictement positif, alors il est nul. En utilisant l’inégalité | N X j=1 γjYjP (γ)x| ≤ N X j=1jYjP (γ)x| (3.152)

nous obtenons à partir des équations (3.151) et (3.152) : |

N

X

j=1

γjYjP (γ)x| ≤ Umax. (3.153)

Selon la définition de la loi de commande, nous remarquons que PN j=1γ

jYj = Y (γ

) et l’équation (3.153) devient alors :

|Y (γ)P (γ)| ≤ Umax. (3.154)

Nous remplaçons Y (γ

)P (γ

) par K(γ

) dans l’équation (3.154) et nous obtenons |K(γ

)x| ≤ Umax, (3.155)

ou, autrement dit

|u(x)| ≤ Umax ∀ x ∈ SVc(1). (3.156)

Dans le document Assistance préventive à la sortie de voie (Page 110-116)