• Aucun résultat trouvé

Modèles paramétriques et réseaux neuronaux

3.5 Association d’un apprentissage avec d’autres techniques

3.5.4 Modèles paramétriques et réseaux neuronaux

xk yk εk ˆ yk

FIG. 3.33 – Architecture neuronale combinant apprentissage et modèles paramétriques

Dans notre approche, le flux rotorique est évalué grâce à un EKF travaillant dans un repère fixe statorique. L’estimation de la vitesse est obtenue à partir du module du flux rotorique, des courants statoriques mesurés et de l’angle d’orientation du flux rotorique. Cette étude est basée sur des simulations et démontre un comportement acceptable de la commande malgré la variation des paramètres comme les résistances de la machine. Elle a également mis en évidence le rôle critique des mesures de tension utilisées dans le EKF (Massoum et al., 2006c,a). Cette étude représente un travail préliminaire en vue d’une in-vestigation plus ample. L’objectif de ce travail à venir est de développer des commandes neuronales sans capteur. En effet, les approches adaptatives et neuronales permettrons de prendre en compte les phénomènes non stationnaires.

3.5.4 Modèles paramétriques et réseaux neuronaux

3.5.4.1 Généralités

Les modèles connexionistes et les techniques d’apprentissage sont souvent mise en op-position aux modèles paramétriques. Une attitude plus positive consiste à les regrouper au sein d’une même stratégie pour :

– tenter de comprendre le comportement ou les capacités de ces modèles, – les améliorer mutuellement,

– rendre la réalisation de la tâche plus performante, et dans le présent cas il s’agit d’iden-tification et de commande,

– etc.

Une approche simple est proposée par Miyamoto et al. (1988) et son principe est re-présenté sur la Figure 3.33. Dans ce modèle, les sous-systèmes situés en amont de chaque neurone peuvent très bien être, soit des étapes de pré-traitement ou de conditionnement des signaux, soit des modèles paramétriques. Les deux cas représentent des expressions de connaissances a priori du processus considéré. La sortie est une combinaison pondérée de tous les sous-systèmes. Dans les mêmes travaux, les auteurs ont également proposé une ap-proche qui met en parallèle plusieurs structures. Elles utilisent toutes la même erreur pour la mise à jour des poids, et les sorties sont additionnées pour le calcul de la commande du système (un robot manipulateur 3 DOF). L’apprentissage au sein de ce type de structure reste délicat. Sa convergence ne peut être prouvée puisqu’elle est tributaire et du type de

-+ paramètres estimés modèle paramétrique yk xk pk

FIG. 3.34 – Architecture neuronale pour apprendre les paramètres d’un modèle

sous-systèmes et des valeurs de leurs paramètres.

Une alternative consiste à définir un modèle paramétrique précis. Un réseau neuromimé-tique, toujours sur la base d’un apprentissage supervisé à partir des mesures du processus, est alors utilisé pour déterminer les valeurs des paramètres. Dans ce schéma, représenté par la Figure 3.34, la sortie du réseau de neurones représente le vecteur pkdes paramètres du mo-dèle. En utilisant un apprentissage en ligne, le vecteur des paramètres est mis à jour à chaque itération et contient les variations des paramètres du processus réel. La tâche d’identification du processus est alors réalisée par l’association d’un modèle paramétrique avec un réseau de neurones. L’apprentissage est cependant délicat. En effet, l’erreur utilisée pour l’appren-tissage n’est pas déterminée par rapport à la sortie du réseau mais par rapport à la sortie du modèle. L’influence d’un paramètre par rapport à un autre peut être très différente dans l’évolution de la sortie du processus. Il est extrêmement difficile de “capter” et de reproduire cette corrélation. Ainsi, on sait que plus le modèle paramétrique utilisé est complexe, plus l’apprentissage est difficile.

Nous avons mis en oeuvre un régulateur neuronal proportionnel-intégral qui entre dans l’approche qui vient d’être évoquée. Enfin, une piste supplémentaire qui associe réseaux de neurones et espace d’état est explorée. Ces développements sont exposés ci-dessous.

3.5.4.2 Espaces des neurones et espace d’état

La représentation d’état, ou espace d’état, est un outil théorique et déterministe mis au point par la science du contrôle pour représenter et décrire une réalité physique évoluant dans le temps. Cette représentation sous forme matricielle en utilisant des variables d’état, qui peut être linéaire ou non-linéaire, rend compte de l’état du système à n’importe quel instant futur si ses valeurs initiales sont connues. Cette représentation s’écrit dans le cas discret :

xk+1 = A xk+ B uk,

yk= C xk. (3.25)

où xk, uket yk sont respectivement les vecteurs d’état, des entrées et des sorties à l’instant discretk. Les matrices A, B et C définissent complètement le modèle d’état et modélise de

a) structure générale b) structure affine c) structure des liaisons fixes

avec uk uk uk ˆ xk ˆ xk Wr Wr Wr yk yk yk

FIG. 3.35 – Architecture du réseau à espace d’état (SSNN, State Space Neural Network) avec 1 entrée, 1 sortie et 2 états internes

ce fait la dynamique du système.

Plusieurs liens ont déjà pu être établis entre réseaux de neurones et espace d’état. Ces liens sont intéressants :

– Il existe aujourd’hui des apprentissage où la mise à jour des poids des neurones est entièrement effectuée sur la base d’un EKF. On peut citer par exemple les cas des les réseaux non récurrents du type MLP (Puskorius et Feldkamp, 1994 ; Rivals et Personnaz, 1998) et pour les SOM (Haese, 1999 ; Haese et Goodhill, 2001). Le filtre de Kalman peut être vu comme un modèle paramétrique même s’il est com-posé pour une partie par un modèle statistique (du bruit). L’autre partie repose sur une représentation d’état. Une règle d’apprentissage qui utilise un EKF est donc un proces-sus qui se base sur un modèle d’état et sur un modèle statistique de bruit. Utilisé dans ce contexte, cet apprentissage tombe moins facilement dans les minima locaux, il ne se base pas sur un gradient instantané (et presque aveugle) mais sur des connaissances à plus long terme (dont les propriétés statistiques). Les algorithme génétiques utilisés pour l’apprentissage sont identiques, ils nécessitent plus de temps, plus de données pour aboutir à la solution. La détermination de la représentation d’état reste cependant délicate dans le cas d’un apprentissage basé sur l’EKF.

– Des KF ou EKF ont été proposés avec des approches neuronales intégrées pour sup-pléer le modèle d’état comme dans (Wira, 2002b) avec des cartes auto-organisatrices ou comme dans (Linsker, 2008) avec des réseaux à couches.

– Le fonctionnement de certains neurones formels peut s’exprimer selon une représenta-tion d’état. C’est le cas du neurone de base qui constitue le réseau CNN : la formulareprésenta-tion d’un neurone d’un réseau CNN, donnée par les expressions (3.1) et (3.2) est très proche de l’écriture donnée par (3.25) même si l’une est dans l’espace continu et l’autre dans l’espace discret.

– Des réseaux de neurones ont été spécialisés vers le formalisme des espaces d’état (Zamarreno et Vega, 1998). Appelés réseaux de neurones à espace d’état ou SSNN (en anglais State-Space Neural Network), ils sont une voie que nous avons commencé à explorer. Ce travail est abordé ci-dessous.

On appelle SSNN, un type de réseaux de neurones récurrent (Elman, 1990) dont la structure reflète exactement une équation dans l’espace d’état non linéaire. Si leur

struc-ture est basée sur des réseaux récurrents, on peut noter que les différents travaux utilisent parfois des variantes comme celles de Zamarreno et Vega (1998) ; Zamarreno et al. (2000), de Henriques et al. (2001) ; Gil et al. (2001, 2006), et de Rivals et Personnaz (1995). La Figure 3.35 montre une structure très générale composée de MLP, une structure appelée structure affine qui “découple” le retour des variables d’état, et une structure utilisant des “connexions” fixes (définies au départ par des connaissances a priori, en pointillés sur la fi-gure). Les deux réseaux neuronaux présents dans les deux premières structure peuvent être concaténés mais en les distinguant, on peut voir que le premier sert à reproduire le compor-tement du vecteur d’état et que le second représente la relation de sortie. Mathématiquement, on peut écrire en reprenant les notations de Zamarreno et Vega (1998) :

ˆ

xk+1 = Whf1(Wrk+ Wiuk+ Bh), ˆ

yk = W0

f2(Wh2ˆxk+ Bh2). (3.26)

Dans la représentation d’état (3.26), xk, uket yk sont respectivement les vecteurs d’état, des entrées et des sorties à l’instant discretk. f1() et f2() sont les fonctions, généralement non

linéaires, des neurones. Les grandeurs Wh, Wr, Wi, Wh2et W0 sont les poids adaptatifs des neurones, et les termes Bh et Bh2sont les biais des neurones.

On voit que la structure neuronale de la Figure 3.35 a) est parfaitement profilée pour la représentation d’état (3.26). Une autre spécificité de cette structure neuronale provient du fait que xk et yk dépendent tous les deux du vecteur d’état initial x0. Dans les travaux de Gil et al. (2004, 2005), les auteurs s’intéressent à la convergence de l’apprentissage. Ce problème n’est pas facile, ils utilisent donc un cas plus simple, celui de la structure affine qui est plus proche du formalisme de la représentation d’état de la science du contrôle.

Nos propres travaux débutent avec une étude très générale sur les SSNN. Ils ont commencé en septembre 2007 avec le stage de Magister de Amoura (en cours, soutenance prévue en 2010). Je co-encadre ce travail à distance puisqu’il se dé-roule à l’Université Mouloud Mammeri de Tizi-Ouzou en Algérie. Différentes structures sont évaluées et comparées. Elles sont appliquées à l’identification de systèmes linéaires tels qu’un moteur à courant continu, ou à des systèmes non linéaires, complexes et multiva-riables dont le modèle est connu ou pas (systèmes physiques, séries temporelles, etc.). De par leur contrainte structurelle, les SSNN n’autorisent qu’un nombre réduit de neurones, ce qui limitent quelque peu leurs performances face à des systèmes fortement non linéaires et multivariables. Cette identification neuronale permet de créer un observateur neuronal mais surtout de retrouver les valeurs exactes des paramètres physiques inscrits dans le modèle d’état et de les utiliser pour la conception de lois de commandes classiques ou neuronales.

Nous envisageons d’autres voies comme le développement d’organisations neuronales bidirectionnelles qui permettent de reproduire le formalisme de la représentation d’état. Ces architectures neuronales ont l’avantage par rapport aux SSNN de pouvoir contenir un nombre de neurones suffisants pour la réalisation des tâches avec la précision souhaitée. L’appren-tissage bidirectionnel permettra de “reconstruire” l’espace d’état comme un espace interne entre deux modules neuronaux en série. Notons que le Echo State Network (ESN) de Jaeger (2001) possède également une structure qui reflète une forme proche de la représentation d’état.

å 1 z-1 z -+

onduleur + filtre de sortie

iref(k) e(k)

ˆ

u(k) iinj(k)

FIG. 3.36 – Régulateur neuronal proportionnel-intégral

3.5.4.3 Régulateur neuronal proportionnel-intégral

Dans le cadre de l’étude sur la compensation des harmoniques, plusieurs lois de com-mandes neuronale ont été développées. Une partie du travail de Magister de Boudjedaimi (2009) que je co-encadre, porte sur la mise au point d’un régulateur proportionnel-intégral basé en partie sur un principe d’apprentissage. Ce type de contrôleur est alors appelé de manière générale régulateur neuronal proportionnel-intégral.

Si de nombreuses variantes ont déjà été proposée (Vas, 1999), il s’agissait surtout pour nous d’évaluer les performances d’une telle structure : extrêmement simple, peu coûteuse en ressources informatiques, capable de s’adapter rapidement...

La structure proposée est illustrée sur la Figure 3.36. Elle répond aux contraintes fixées puisque :

– l’apprentissage est effectué par un Adaline pour entrer dans une structure de calculs homogènes,

– seuls des opérateurs simples accompagnent l’Adaline (une ligne à retard et une com-paraison),

– la mise à jour des poids est compatible avec l’application temps-réel.

Dans cette architecture, le signal d’erreur utilisé pour mettre à jour les poids constitue également les éléments du vecteur d’entrée de l’Adaline. Les poids de l’Adaline représentent les coefficients proportionnel et intégral qui sont donc adaptés en ligne. Ce régulateur neu-ronal PI a été mis en oeuvre pour le contrôle de l’onduleur dans le schéma du filtrage actif des harmoniques (Boudjedaimi et al., 2008a,b). Des résultats de simulation montrent que lorsque l’identification des courants harmoniques est réalisée à l’aide de la méthode des cou-rants diphasées, le THD est maintenu en dessous de 1.16% contre 2.61% avec un régulateur à hysteresis avec une charge non linéaire variable .

Dans (Ould Abdeslam et al., 2008), une implémentation sur carte à DSP dSPACE a été réalisée et des tests expérimentaux effectués sur la plate-forme (Figure 3.4). Les perfor-mances de différents types de contrôleurs utilisés dans des conditions identiques sont syn-thétisées dans la Table 3.6 (page 86). Les courants expérimentaux réinjectés dans le réseau électriques sont représentés sur la Figure 3.37. Les performances du contrôleur neuronal inverse-direct sont les meilleures (avec 5 neurones dans la couche cachée de chacun des 2 MLP), mais celles du régulateur neuronal proportionnel-intégral restent acceptables au re-gard des coûts algorithmiques bien moindres qu’il implique.

time (s)

FIG. 3.37 – Courants expérimentaux ré-injectés dans le réseau électrique avec un régulateur neuronal proportionnel-intégral (courbe du haut) et un contrôleur neuronal inverse-direct (courbe du bas), les courants de référence sont représentés en rouge (en A)