• Aucun résultat trouvé

Observabilité non linéaire

Considérons les systèmes non linéaires de la forme    d dtx = f (x, u) y = h(x) (4.2)

avec x ∈ Rn, u ∈ Rm et y ∈ Rp, les fonctions f et h étant régulières.

4.2.1 Définition

Pour définir l’observabilité, il convient d’abord de définir la notion de distinguabilité.

Définition 14 (Distinguabilité). Deux états initiaux x et x sont dits in-e distinguables (notés xIex) si pour tout t ≥ 0, les sorties y(t) et y(t) sonte identiques pour toute entrée u(t) admissible2. Ils sont dits distinguables si-non.

L’indistinguabilité est une relation d’équivalence. Notons I(x) la classe d’équivalence de x. L’observabilité est alors définie de la manière suivante Définition 15 (Observabilité globale). Le système (4.2) est dit observable en x si I(x) = {x} et il est observable si I(x) = {x} pour tout x.

2. y(t) (resp. y(t)) correspond à la sortie de (e 4.2) avec l’entrée u(t) et la condition initiale x (resp.ex).

En fait, le système est observable si pour tous les états initiaux x et ex, il existe une entrée admissible u qui distingue x et x, c’est à dire telle quee y(t) 6=ey(t) pour au moins un temps t ≥ 0.

Il peut exister des entrées qui ne distinguent pas certains points. Cepen-dant, le système peut être malgré tout observable. Par exemple

   d dtx1 = ux2 d dtx2 = 0 y = x1

est observable (pour u = 1 par exemple). Cependant l’entrée u = 0 ne dis-tingue pas les points x et ˜x tels que x1 = ˜x1et x2 6= ˜x2. Notons que l’observa-bilité ne signifie pas que toute entrée distingue tous les états. L’observal’observa-bilité est un concept global. Il peut être nécessaire d’aller très loin dans le temps et dans l’espace d’état pour distinguer deux états initiaux. Pour cela nous introduisons le concept plus fort qui suit.

Définition 16 (Observabilité locale en temps et en espace). L’état x de (4.2) est localement observable, si pour tout ε > 0 et pour tout voisinage U de x, il existe η > 0 plus petit que ε et un voisinage V de x contenu dans U , tel que pour toutx ∈ V , il existe une entrée [0, η] 3 t 7→ u(t) qui distinguee x et x, i.e. telle que y(η) 6=e y(η). Le système (e 4.2) est localement observable s’il l’est pour tout x.

Intuitivement, le système (4.2) est localement observable si on peut ins-tantanément distinguer chaque état de ses voisins en choisissant judicieuse-ment l’entrée u.

4.2.2 Critère

La seule façon effective de tester l’observabilité d’un système est de consi-dérer l’application qui à x associe y et ses dérivées en temps. Nous suppo-serons dans cette section que y et u sont des fonctions régulières du temps. Nous supposerons également que les rangs en x des fonctions de (x, u,dtdu, . . .) qui apparaissent ci-dessous sont constants.

Considérons donc (4.2). On note h0(x) := h(x). En dérivant y par rapport au temps on a

d

dty = Dxh(x) d

dtx = Dxh(x) · f (x, u) := h1(x, u) Des dérivations successives conduisent donc à une suite de fonctions

définie par la récurrence

hk+1= d

dt(hk), h0(x) = h(x) Si pour un certain k, le rang en x du système

               h0(x) = y h1(x, u) = d dty .. . hk(x, u, . . . , u(k−1)) = y(k)

vaut n = dim(x) alors le système est localement observable. Il suffit d’utiliser le théorème d’inversion locale pour calculer x en fonction de (y, . . . , y(k)) et (u, . . . , u(k−1)). Si à partir d’un certain k, hk+1 ne fait plus apparaître de nouvelle relation en x, i.e., si le rang en x de (h0, . . . , hk)0 est identique à celui de (h0, . . . , hk, hk+1)0, alors il en est de même pour k + 2, k + 3, . . . Ainsi, il n’est pas nécessaire de dériver plus de n − 1 fois y pour savoir si un système est localement observable ou non. Ce raisonnement est valable autour d’un état générique, nous ne traitons pas les singularités qui peuvent apparaître en des états et entrées particulières. Nous renvoyons à [22] pour les cas plus généraux avec singularités.

Ce calcul élémentaire montre aussi que y et u sont reliés par des équations différentielles. Elles correspondent aux relations de compatibilité associées au système sur-déterminé (4.2) où l’inconnue est x et les données sont u et y. On obtient toutes les relations possibles en éliminant x du système

               h0(x) = y h1(x, u) = d dty .. . hn(x, u, . . . , u(n−1)) = y(n)

On peut montrer que pour un système localement observable, u et y sont reliés par p = dim(y) équations différentielles indépendantes. Ces équations font intervenir y dérivé au plus n fois et u dérivé au plus n − 1 fois.

La mise en forme des idées précédentes est assez fastidieuse mais néan-moins instructive. Nous nous contenterons de retenir qu’en général l’observa-bilité signifie que l’état peut être exprimé en fonction des sorties, des entrées et d’un nombre fini de leur dérivées en temps. Dans ce cas, y et u sont reliés par p équations différentielles d’ordre au plus n en y et n − 1 en u.

Exemple 26. Pour conclure, reprenons l’exemple du réacteur chimique (3.6) afin d’illustrer l’analyse formelle précédente. Nous ne considérons que x1 et T car l’invariant chimique x1+ x2 est supposé égal à xin1 . Nous supposons que la température T est mesurée (thermo-couple) mais pas la concentration x1. Nous avons donc à résoudre le système sur-déterminé (les quantités autres que (x1, u, y, T ) sont des constantes connues)

d dtx1 = D(xin 1 − x1) − k0exp(−E/RT )x1 d dtT = D(Tin− T ) + α∆H exp(−E/RT )x1+ u y(t) = T

On a facilement x1 en fonction de (y,dtdy) et u

x1 = d

dty − D(Tin− y) − u

α∆H exp(−E/Ry) (4.3)

Le système est donc observable. y et u sont reliés par une équation différen-tielle du second ordre en y et du premier ordre en u. On l’obtient en utilisant l’équation donnant dtdx1 d dt d dty − D(Tin− y) − u α∆H exp(−E/Ry) ! = Dxin1 − (D + k0exp(−E/Ry)) d dty − D(Tin− y) − u α∆H exp(−E/Ry) (4.4)

Il s’agit d’une condition de compatibilité entre y et u. Si elle n’est pas sa-tisfaite alors le système sur-déterminé de départ n’admet pas de solution. On conçoit très bien que ces relations de compatibilité sont à la base du diagnostic et de la détection de panne.

4.2.3 Observateur, estimation, moindres carrés

Savoir que le système est observable est bien. Calculer x à partir de y et u est encore mieux. Cependant, la démarche formelle précédente ne répond en pratique qu’à la première question. En effet, avoir x en fonction de dérivées des mesures s’avère d’une utilité fort limitée dès que l’ordre de dérivation dépasse 2 et/ou dès que les signaux sont bruités. Il convient en fait de calculer x en fonction d’intégrales de y et u. Dans ce cas, le bruit sur les signaux est beaucoup moins gênant. La synthèse d’observateur pose des problèmes supplémentaires (et nettement plus difficiles en fait) que la caractérisation des systèmes observables.

Revenons à (4.2). Nous avons un nombre infini d’équations en trop. En effet, puisque l’entrée u est connue, l’état x est entièrement donné par sa condition initiale x0 grâce au flot φut de dtdx = f (x, u(t)) : φut(x0) est la solution de dtdx = f (x, u(t)) qui démarre en x0 à t = 0. Ainsi x0 vérifie à chaque instant t, p équations, p étant donc le nombre de mesures

y(t) = h(φut(x0))

Il est très tentant de résoudre ce système par les moindres carrés, même si, pour un système non-linéaire cela n’a pas beaucoup de sens. Considérons un intervalle d’observation [0, T ]. x0 peut être calculé comme l’argument du minimum de

J (ξ) = Z T

0

(y(t) − h(φut(x0)))2 dt

x0 est ainsi obtenu comme on obtient un paramètre à partir de données expérimentales et d’un modèle où ce paramètre intervient : en minimisant l’erreur quadratique entre l’observation y(t) et la valeur prédite par le modèle φut(x0). Les problèmes d’observateurs sont fondamentalement proches des problèmes d’estimation pour lesquels l’optimisation joue un rôle important. Cependant, les difficultés ne sont pas pour autant aplanies : la résolution de l’équation différentielle dtdx = f (x, u) ne peut se faire que numériquement en général ; la fonction J n’a aucune raison d’avoir les propriétés de convexité qui assurent la convergence des principaux algorithmes d’optimisation (voir par exemple [53]). La synthèse d’observateurs reste donc une question difficile en général bien que très importante en pratique. Noter enfin que l’identification de paramètres θ sur un modèle dtdx = f (x, u, θ) en est un sous-problème : l’identifiabilité correspond alors à l’observabilité du système étendu

d

dtx = f (x, u, θ), d

dtθ = 0, y = x d’état (x, θ) et de sortie y = x.

Dans le cas linéaire, f = Ax + Bu et h = Cx, φut(x0) est une fonction affine en x0

φut(x0) = exp(tA)x0+ Z t

0

exp((t − s)A)Bu(s) ds

À partir d’un intervalle d’observations [0, T ], x0 peut être calculé comme l’argument du minimum de

J (ξ) = Z T

0

où z(t) = y(t) − CR0texp((t − s)A)Bu(s) ds. Dans ces conditions J est quadratique. On est en train de retrouver, dans un cadre déterministe pour les moindres carrés, le filtre de Kalman traité dans la Section 4.5. Nous allons maintenant aborder l’observabilité des systèmes linéaires avec un point de vue moins classique qui met l’accent sur les observateurs asymptotiques. Ces derniers fournissent, avec des calculs très économiques, directement x = φut(x0) en fonction de y, u et leurs intégrales.