• Aucun résultat trouvé

Identification récursive de modèles MIMO SARX

Chapitre 5 Identification de modèles MIMO SARX 139

5.5 Identification récursive de modèles MIMO SARX

La méthode algébro-géométrique que nous avons présentée en deux versions dans les sections 5.3 et 5.4 de ce chapitre pour l’identification de MIMO SARX, s’applique à un ensemble fini de données dont la collection est achevée. En particulier, la version projective de la méthode (cf. Section 5.4) considère l’estimation d’un seul polynôme de découplage dont les dérivées évaluées en des points spécifiques zj, permettent le partitionnement hors ligne des données, c’est-à-dire l’obtention de l’état discret. Cependant, en suivant cette procédure, il est difficile de concevoir, comment on pourrait par exemple, partitionner une infinité d’observations en un temps fini. En fait, la complexité numérique des algorithmes opérant hors ligne est directement fonction du nombre d’observations à traiter. Par ailleurs, il peut être nécessaire ou même indispensable dans certaines applications de la vie réelle, de traiter les données une à une, c’est-à-dire à mesure qu’elles sont capturées. Pour répondre à ce besoin pratique, nous discutons dans cette section une version récursive de la méthode algébrique pour des systèmes MIMO SARX. En nous inspirant des travaux de Vidal et al. dans [126], [53], [127] pour des systèmes SISO, nous allons présenter dans cette sous-section, un schéma d’identification récursive de modèles MIMO SARX, sous l’hypothèse que le nombre de sous-modèles ainsi que les ordres sont connus a priori. Dans cette méthode, la transformation polynomiale de la section 5.3 n’est plus utilisée que dans une étape intermédiaire d’extraction de l’état discret. Etant donné l’état discret, les paramètres des sous-modèles sont obtenus par la méthode classique des moindres carrés récursifs.

5.5.1 Schéma d’identification

La stratégie suivie dans la méthode qui sera présentée ci-dessous consiste à utiliser la transformation polynomiale (estimation et differentiation de polynômes) pour extraire l’état discret courant du système puis l’algorithme des moindres carrés récursifs pour mettre à jour les paramètres du sous-modèle actif à l’instant courant.

Ce principe est comparable à celui bien connu de l’algorithme EM (Expectation Maximization) dans lequel les données sont traitées séquentiellement. Une observation donnée est attribuée au mode qui, au vu d’un certain critère de décision, apparaît comme celui qui, de tous les modes, est le générateur le plus vraisemblable de cette observation. Par conséquent, les paramètres de ce dernier sous-modèle sont adaptés en fonction de l’observation tandis les paramètres des autres sous-modèles restent inchangés. Dans la mise en oeuvre d’un tel schéma, des seuils peuvent accessoirement être définis en vue d’éliminer automatiquement le plus de points aberrants possibles. Cela signifie qu’une observation sera classée seulement si son degré d’appartenance à un mode est supérieur à certain seuil de confiance. Sinon l’observation en question est dite inclassable et ainsi, elle est simplement rejetée ou mise en attente d’un traitement ultérieur.

Nous commençons par rappeler l’algorithme des Moindres Carrés Récursifs (MCR) [75]. Pour une matrice A∈ Rm×d à estimer à partir d’une équation de régression linéaire y(t) = Ax(t), t = 1, . . . ,∞, soit ˆA(0) la valeur initiale de A et L(0) = σId, avec σ un scalaire, la valeur initiale de la matrice d’autocorrelation de (en fait, il s’agit de son inverse) du vecteur d’observation x(t). Alors, étant donné une nouvelle

5.5. Identification récursive de modèles MIMO SARX

observation x(t), y(t)

, la mise à jour du couplen ˆ

A(t− 1), L(t − 1)opar l’algorithme MCR, est donnée par l’algorithme 5.3 dans lequel α est un facteur d’oubli, α∈ [0, 1].

Algorithme 5.3 n ˆ A(t), L(t)o = MCRn ˆ A(t− 1), L(t − 1), x(t), y(t)o ε(t) = y(t)− ˆA(t− 1)x(t) q(t) = L(t− 1)x(t) α + x(t)L(t− 1)x(t) ˆ A(t) = ˆA(t− 1) + ε(t)q(t) L(t) = α−1L(t− 1) − α−1q(t)x(t)L(t− 1),

La convergence de cet algorithme a fait dans la littérature, l’objet de bien d’investigations [63]. Si les données x(t), y(t)

ne sont pas sujettes à des perturbations, c’est-à-dire si elles suivent rigoureusement le modèle linéaire y(t) = Ax(t), alors en supposant que le facteur d’oubli α est strictement inférieur à l’unité et que la séquence {x(t)} est excitante de façon persistante [4] dans le sens où il existe mo ∈ N, ρ1 > 0, ρ2> 0 tels que ρ1Id< q+mo X t=q x(t)x(t)< ρ2Id ∀ q, (5.32)

alors on peut montrer que ˆA(t) converge exponentiellement vers sa vraie valeur A pour toute valeur initiale A(0) (cf. [63] pour une preuve). Dans la notation ci-dessus, la relation A < B entre deux matrices signifie que B− A définie-positive.

5.5.2 Reformulation du modèle SARX

Maintenant nous retournons au modèle considéré qui est toujours de la forme donnée par (5.20). Cependant, nous considérons plutôt la forme (5.31) qui résulte de (5.20) par un jeu d’écriture :

y(t) =h Φyλt(t) φuλt(t)⊗ Iny i" aλt vec(Fλt) # + e(t). (5.33)

Pour des raisons de commodité, notons

ϑλt =h aλt vec(Fλt)i ∈ R(nλt+(nλt+1)nuny), Ψλt(t) =h Φyλt(t) φuλt(t)⊗ Iny i ∈ Rny×(nλt+(nλt+1)nuny). (5.34)

Alors, l’équation du modèle SARX s’écrit

où la matrice d’information Ψλt(t) est complètement formée à partir des mesures disponibles et ϑλt est le vecteur de paramètres (à estimer) correspondant au sous-modèle indexé par λt. A partir du modèle (5.35), il est techniquement difficile d’estimer directement le vecteur de paramètres ϑλt de façon récursive au moyen des MCR. Cette difficulté tient essentiellement au fait que Ψλt(t) est ici une matrice au lieu d’un vecteur comme dans le cas classique de l’algorithme 5.3. De ce fait, l’application du lemme d’inversion matricielle (dont est dérivé l’algorithme MCR) [75] n’est plus bénéfique. Pour cette raison, nous procédons d’abord à une mise en forme du modèle (5.35) en vue d’une application des MCR. Dans ce but, considérons un ensemble de vecteurs z(t) ∈ Rny indexés par le temps tel que z(t)y(t) 6= 0 presque chaque fois que y(t)6= 0. Si nous multiplions l’équation (5.35) à gauche par z(t), il vient

˜

y(t) = φλt(t)ϑλt + ˜e(t), (5.36)

avec ˜y(t) = z(t)y(t)∈ R, ˜e(t) = z(t)e(t)∈ R et φλt(t) = Ψλt(t)z(t). Nous obtenons ainsi un modèle convenablement dimensionné pour l’application des MCR. Cependant, il nous faut encore choisir z(t), ce qui peut se faire simplement en posant z(t) = y(t) ou plus généralement z(t) = y(t− k), avec k un entier naturel, ou encore en remplaçant z(t) par une certaine combinaison linéaire filtrée des entrées et sorties passées.

5.5.3 Identification récursive

Nous arrivons maintenant à l’identification récursive du modèle SARX (5.20) à travers la relation (5.36). Cependant, la détermination de l’état discret est basée sur l’estimation du modèle auxiliaire (5.21), comme dans la section 5.4. Ce choix est justifié par le fait que le régresseur obtenu à partir de (5.21) est d’une dimension en général moins importante que celle du régresseur construit à partir de (5.36) (c’est-à-dire, nλt + (nλt+ 1)nu ≤ nλt+ (nλt + 1)nuny) et donc plus approprié pour l’application de la transformation de Veronese.

Pour des raisons de simplicité1

, nous considérons seulement le cas où les ordres des sous-modèles sont connus et tous égaux à n. Nous supposons aussi que le nombre s de sous-modèles est connu a priori bien qu’en pratique la connaissance d’un majorant de celui-ci soit suffisante [126]. Alors, il est facile de remarquer que la dernière entrée du vecteur de coefficients h définissant le polynôme (5.25), vaut 1 et que le dernier élément de νs(¯xn(t)) vaut −ξ(t) ∈ R, avec ξ(t) = (−1)s+1yo(t)s. Notons h0

RMs(K)−1 le vecteur constitué des Ms(K)− 1 entrées restantes de h et ϕ(t) les entrées de νs(¯xn(t))

correspondantes. Ainsi, pour déterminer l’état discret, nous devons estimer de manière récursive le modèle linéaire ξ(t) = h0ϕ(t) défini par le vecteur de paramètres hybride. Connaissant h0(t), nous déduisons

1. on pourrait étudier aussi le cas où ni les ordres, ni le nombre de sous-modèles ne sont connus. Malheureusement, dans ce cas, les règles de décisions sont si inextricables qu’il est difficile d’obtenir un algorithme efficace dans un contexte récursif. Notons toutefois qu’il n’est pas nécessaire de connaître le nombre exact de sous-modèles [126] ; la connaissance d’un majorant de ce nombre suffit à l’obtention de bonnes estimées.

5.5. Identification récursive de modèles MIMO SARX

h(t) =h

h0(t) 1i

puis le polynôme annihilateur gs,t(z) = h(t)νs(z) et enfin le vecteur auxiliaire

ωh(t) = ∇νs(¯xn(t))h(t)

eK∇νs(¯xn(t))h(t) ∈ RK,

dont le rôle ici est de permettre la détermination de l’état discret courant. Nous lançons en parallèle s + 1 identifieurs MCR dont un algorithme par sous-modèle et un algorithme pour l’estimation du vecteur de paramètres hybride h(t). Cela est implémenté selon les étapes suivantes.

Chaque fois qu’une nouvelle observation (xn(t), y(t)) est mesurée, 1. Mettre à jour le vecteur de paramètres hybride h0(t)

n h0(t), Ph(t)o = MCRn h0(t− 1), Ph(t− 1), ϕ(t), ξ(t)o, ˆ h(t) =h h0(t) 1i ,∈ RMs(K) ˆ ωh(t) = ∇νs(¯xn(t))ˆh(t) eK∇νs(¯xn(t))h(t)ˆ ∈ RK. 2. Déterminer le mode actif selon les règles

    

Si ∆(ˆωh(t), ¯xn(t))≤ ε, alors ˆλt= arg max

j=1,...,s

∆(ˆωh(t), ˆθj(t− 1)), Sinon, la paire (¯xn(t), y(t)) est dite indécidable.

où ∆(ˆωh(t), ¯xn(t)) = ˆωh(t)n(t) ˆωh(t)

· k¯xn(t)k mesure la correlation entre les vecteurs ˆωh(t) et ¯xn(t) et ε∈ [0, 1], un certain seuil de décision utilisé en vue d’éliminer de possibles points aberrants. 3. Mettre à jour les paramètres du mode actif ˆλt

n ˆ ϑλtˆ (t), Lλtˆ (t)o = MCRn ˆ ϑˆλt(t− 1), Lˆλt(t− 1), xn(t), ˜y(t)o ,

où ϑλtˆ est le vecteur de paramètres du sous-modèle ˆλt.

4. Pour tous les modes j 6= ˆλt, aucun changement dans les paramètres.

Dans cette procédure, nous rappelons que les vecteurs ˆθj(t) ne sont pas directement estimés mais construits à chaque étape à partir de ˆϑj(t) et selon la formule (5.23), avec nj = ¯n = n pour tout j = 1, . . . , s. Notons qu’une convergence des estimées ˆϑˆλt(t) est subordonnée d’une certaine manière, à celle de ˆλtqui dépend à son tour de la convergence du vecteur de paramètres hybride h(t). Des commen-taires donnés dans la sous-section 5.5.1 sur l’algorithme MCR, nous savons que si la séquence de données {ϕ(t)} satisfait à une condition d’excitation du type (5.32), alors ˆh(t) converge exponentiellement vite vers h =h

h0 1i

. Par conséquent ˆϑj(t) aussi convergera vers ϑj pour tout j si nous supposons que tous les états discrets sont fréquemment visités par le système et cela, une infinité de fois quand t→ ∞.

Une remarque importante est que la condition d’excitation persistante (5.32) pour la détermination du vecteur h0(t) par les MCR impose une contrainte supplémentaire sur les commutations du système. En effet, avec ϕ(t) =h

IMs(K)−1 0Ms(K)−1,1i

νs(¯xn(t)), cette condition s’écrit : il existe mo∈ N, β1> 0, β2> 0 tels que

β1I <

q+moX

t=q

ϕ(t)ϕ(t)< β2I ∀ q. (5.37)

Mais pour qu’une telle contrainte soit respectée, il est nécessaire que tous les s modes du système soient suffisamment visités sur chaque fenêtre temporelle [q, q + mo]. Pour plus de commentaires sur cet aspect, nous nous référons à l’article [126] qui traite de l’identification récursive d’un système SISO.

Cependant, pour avoir ˆλt→ λtquand t→ ∞, il n’est pas vraiment nécessaire que ˆh(t) → h. En référence au critère de décision dans l’algorithme précédent, pour obtenir ˆλt = λt = i, il suffit que les estimées ˆ

θk(t− 1), k = 1, . . . , s, vérifient ∆(ˆωh(t), ˆθi(t− 1)) > ∆(ˆωh(t), ˆθj(t− 1)) pour tout j 6= i, chaque fois que les vecteurs de paramètres réels θk(t− 1) satisfont à ∆(ˆωh(t), θi(t− 1)) > ∆(ˆωh(t), θj(t− 1)) pour tout j6= i.

Documents relatifs