TH
Pré
entée
1'1
TI111T D'ÉL
TROIQUE
DE L'V
IVER
ITÉ 0 0 TITH
p
n
vue
de
l'obtention
du
titre
de
MGI
T Ren
lectronique
ý
Option
:Déci
ion
et
.ontrôle
(l)fo
Par
\/
bdelhak
BE
ZID
Y)r
. BE ( .C.
niversité
de on tntine)
P "ident
Mr K. BEL RBI
(M.C.
niversitê
de Contantine)
pporteur
r
K. BE H MED
(M.C.
Université
deétit)
minteur
Mr .CH REF
(M.C.
niversité
de ontantine)
minteur
outenue
le : 10/12/1996ý ý ý ý ý
rI
ý ý ý ýJ
ý ý ý,1
rl
REMERCIEMENTS
Je tiens à remercier profondément Mr K. BELARBI , maitre de conférence a
l'université
de Constantine pour sonaide,
ses encouragements et ses conseils précieux . (J1I 'IItrouve ICI l'expression de ma profonde gratitude ,
Je remercie chaleureusement AIr A. BENN/A maitre de conférence à "IIIJ1Wrsll": .I.'
Constantine de
l'honneur
qu'il m 'afatt enpresidant leJury de celte thèseQue Mr K. BENA/AH4AfAfED maître de conférence à l'université Je
Sétif.
trouve kll'expression des mes vifs remerciements pour
avoir
accepté d'examiner ce modestetravail
.Je tiens également à remercier sincèrement Mr A. CHAREF maître de contéren, , .i
l'université de Constantine
pour avoir
accepté d'être l'un des examinateurs de cetravail
.Ales spéciales remerciements sont privés à mes chèrs
frères
: Noureddine . Abdel""l, t,.;[Mouloud
ainsi que leurs conjointes :Moufida
, Naima et Sorryapour
leurs prières et SUl/lien)moraux. Sans oublier lapetite
Aufel.
Mes pertinents remerciements l'ont aussi à : Chafik , Mahieddine , Slim , Sebt:
Badreddine
,Abdelmalek
. Abdelfetah , Abdelkrim .Said, Ammar
.Toufik ,Salmi.
S.mllM.saui
, Salah et Tahar pour leursfraternités
et amitiés .Je tiens aussi à marquer mes profonds remerciements aux étudiantes et étudiants .Ie l.
post-graduation pour leurs amitiés etgentillesses en
particulter
:Mahmoud
, Kamel et Fm\',JI 'Ales vifs remerciements sont adressés également au personne/technique et admintstruuf
DEDICACES
A "'" mbe , à mon pèr« .
 ma SH"'S ;
HO"'Ül
et"'Ie,üm
tlinsi lJ"ek",s
"""is
Abdehlilllil
et Hocine .A ma
frères
..AbdelnuuQid et AbtkJo"ahaIJ et Sil pdile flllllilh .III
J
J
"
ý ý ý ýRESUME
L'objectif de cene érude est la mise en évidence de
J'automatisation
de J'unité secondai.",du procédé
d'épuration
des eaux usées il boues activées, caractérisée par WlC: dynamiquecompliquée
et des non linéarités trèsmarquées.
us techniques decontrôle conventionnelles
')1,;trouvent insuffisantes surtout en présence de larges
perturbations.
Celte lacune est à l'origine dl:notre recours à l'outil neuronal. Cependant, cet outil est doté d' un
inconvénient
majeur résid.uudans le temps
d'entraînement
consommé. Cet obstacle peut êtresurmonté
par la combinai ...on JI:..,méthodes du
contrôle
adaptatif J\CC lestechniques connexionistcs
l·.nconséquence.
plusrcui sstructures de contrôle Cil ligne issues de cette
combinaison
sont appliquées au contrôle du procedeà boues activées.
L'entraînement
multiple par périoded'échantillonnage
est une nouvelle tcchniq UI.:d'adaptation
introduite. Les résultats de simulation montrent l'efficacité desconfigurations
J..:contrôle
et des méthodesd'entraînement
proposées enparticulier
celles del'approche
J..-prédiction
d'erreur de sortie qui minimisedirectement
l'erreur de contrôle ct améliore clairement 1.1convergence.
mols clés: réseaux de neurones, emulateur du procédé, contrôleur neural,
entraînement
mulupl,en ligne, théorie de contrôle
conventionnel,
boues activtées.ABSTRACT
This studies deals with the automatic control of activated sludge process in waste water
treaternent.
The fondamental characteristic of this plant is the enormous complexity depending onboth nonlinear and dynamic nature, in which the
conventionnai
control gives poor results il thesystem is subject to large
disturbances.
This is one reason why theapplication
of neural netw orbtool has been investigated. However, time consuming is the major problem of this empirical
approach.
Methods that combines neural networks techniques and adaptive control can overcome
these shortcomings. In this work, one such method is applied for the control of activated sludge
process with new on line mulitiple training updating during each sampling period.
The simulation results show the effecuness of the proposed neuromorphic control
structures and training methods, in particular the predicted output error approach, directly
minimizes the control error and greatly improves
convergence.
Keywords : neural networks, plant emulator, new-a! controller, on-line mulptiple training.
l
r-l
r
SOMMAIRE
CHAPITRE
IINffiODUCTION
GENERALE
01CH.jPITRE
IlGENERALITES
SURLES
RESEAUX
DENEURONES
0""2.1.
Introduction
05
22
..
O't···
emitions
de
ease
base
et
et
oroorié
propnetes
06
2.2.1. Introduction
06
2.2.2.
Le
neurone biologique
06
2.2.3.
Le
neurone
formel.
07
2.2..1.
Le
réseau
de
neurones
09
2.3.
Architecture
des
réseaux
de
neurones
10
2A.
Apprentissage
et
adaptation
des
réseaux
de
neurones
112.".1.
Introduction
Il
2.".2.
Méthode
de la
rétropropagation
12
2..1.2.1.
Algorithme
d'entraînement..
16
2.5. Conclusion
17
CH4PITRE
IIICONTROLE
AVEC
RESEAUX
DENEURONES
1 M3.1.
Introduction
19
J.2.
Contrôle
des
systèmes dynamiques
non
linéaires
10
J.2.l.
Position
du
problème
20
3.2.2. Théorie conventionnelle
de la
commande adaptative
22
1
r
3.2.2.2. Commande adaptative directe
et
indirecte
22
3.3. Structures
debase
ducontrôle neuronal..
2"
3.J.l.
Introduction
2"
J.J.2.
Contrôle
par
réseaux
deneurones
multicouches
2"J.3.2.1.
Emulateur neuronal
duprocédé
25
3.3.2.2.
Contrôleur
neuronal
duprocédé...
. 273 &.
Modes
dentrainement.
2M3A.1.
Définitions
debase
2N3.-1.2.
Contrôle direct
par
modèle inverse
2M3.".3.
Contrôle neuronal adaptatif direct
2')3.",",. Contrôle neuronal adaptatif indirect
JO
3.5. Efficacité
d'entraînement
enligne
313.5.1. Entraînement
des
emulateurs
323.5.1.1.
Algorithme
dentrainement
3-43.5.2. Entraînement
des
contrôleurs
35
3.5.2.1.
Contrôle directe
àmodèle inverse combiné
35
3.5.2.1.1.
Algorithme
d'
entrai nement..
J()3.5.2.2.
Approche
deprédiction d'erreur
desortie
3N3.5.2.2.1.
Algorithme
d'entrainement..
I3.6. Conclusion
-42CH-lPITRE
IVAPPLICATION
AUPROCED.t D'EPURATION
DES EAUX USEES
..."
0".1.
Introduction
-1'"4.2. Structure
d'une unité
depurification
A'"
".2.1.
Définition
-&"4.2.2. Traitements
des
eaux
46
4.2.3. Traitements
des boues
..."...
.&6r.
ý ý1
r-]
r
"'.J.
Les
limitations
ducontrôle
des
procédés
àboues
activýI
A7"'.J.l.
Les
perturbations
ý7
"'.J.2.
Les
paramètres
decontrôle
AH"'.J.J.
Les
non-linéarités
AH"'.JA.
Propositions
etremèdes
AH-'A.
Pratique courante
dela
commande
des
procédés
àboues
activées
A9
-'.ý.1.
Introduction
-19·".&.2.
Contrôle
par
l'oxygène dissous
A9.&..&.3.
Contrôle
par les boues
recyclées
5U.&A.·I.
Contrôle
par les
boues rejetées
50.&A.5.
Utilité
des
techniques modernes
decommande
51-'.5. Modélisation
des
procédés
àboues activées
53
-'.6. Analyse
enBoucle Ouverte
55..
t6.1.
Elaboration
durégime permanent
55
.&.6.2.
Dynamique
dusystème
en 80 57-'.6.3.
Emulation
de laconcentration
d'oxygène
dissous
enBO
60-'.7.
Analvse
enBoucle Fermée
62-'.8. Conclusion
7...CHA
PITRE
FCONCLllSIONS
ETPERSPECTIVES
75
l'ig.2.ý : Structure J'W\ réseau statique ttl
Fig.2.1 : Shéma du neurone
biologique
7Fig.2.2 : Schéma du neurone formel H
Fig.2.J : Les t'onctions de décision souvent utilisées H
l,·" ., - S hé .1' " .1 . 11
tg ý: I.: (!ma u un res(!au uynanuque .
Fig.2.6 : Schéma
synoptique
de larétropropagation
11Fig.3.t : Commande
adaptative
directe 23Fig.3.! : Commande
adaptative
indirecte 2JFig.J.J :
Emulateur neuronal
du procédé 26Fig.3." :
Contrôleur neuronal
duprocédé
2bl<ïý.3.5 : Contrôle direct par modèle inverse 2ý
Fig.3.6 : Contrôle
neuronal
direct 31}Fig.J.7 :
Contrôle
neuronal indirect 31Fig.3.H :
Entraînement
multipled'emulateur
33Fig.J.9 : Entraînement du contrôle inverse combiné J6
Fig.J.IO
: Schéma de contrôle par prédiction d'erreur de sortie --'UFig.J.II
:Entraînement
multiple parprédiction
d'erreur de sortie 0FigA.l : Schéma
synoptique
d'une stationd'épuration
des eaux usées 5l'' " ., 'h .
d
.J' .
b
. . -J
·lg _ : SI.: erna u proce e a oues activees ý
Fig J.a:
Concentration
du substrat dans leréacteur
56Fig.
".J.
b :Concentration
des boucs dans le réacteur 56FigA.J.c : Concentration d'oxygène dissous dans le réacteur 57
FigA."'.a
:Concentration
du substrat à l'entrée So 58.
êbi d'infl Qi ý8
Flg
-I.b:
De It uent-Fig.4.5.a:
Concentration
du substrat en régime variable 59Fig"'. 5.b :
Concentration
des boues en régime variable 59,.
J
J
J
ý ý ý ý ý ý ý ý(.
r.
r]
r]
FIGVRES:
Fig..t5.c :
Concentration d'oxygène
dissous en régime variable 60i'ïg. -'. 6.a :
Emulation
de la dynamique: duprocédé
(,1l" -' 6 b i Emulati d
.. . .
"
tg. .. : mu non u regime transrtotre 61
f<ïg.ý.6.c : Erreur d'
emulation
62Fig.-'.7.a
:Régulation
de la DO parl'approche
àmodèle
inversecombiné
63Fig"'. 7.b : Régulation de: la DO par
l'approche
àprédiction
d'erreur de: sortie 6-'Fig.-'.H :
Concentration d'oxygène
dissous désirée Yd 65Fig.-'.9: Contrôle
de la DO parl'approche
àprédiction d'erreur
de sortieFig.ý.l0
: Profil des boues recyclées 67Fig.-'.ll : Profil du
coefficient
de: decay 67Fiý"'.12.a
:Concentration
dusubstrat
et des boues dans leréacteur
Kd constant et r variable 6tt
Fig.-'.12.b:
Contrôle
de la DO parl'approche
àprédiction
d'erreur de sortieKd
constant
et r variable 6ýFig.-'.13.a
:Concentration
dusubstrat
et des boues dans leréacteur
Kd variable et r
constant.
70Fig.... lJ.b:
Contrôle
de la DO parl'approche
àprédiction d'erreur
de sortieKd variable et r
constant.
·· 71Fig"'.
14.a :Concentration
du substrat et des boues dans leréacteur
Kd et ries deux variables 7ý
Fig.... 14.b:
Contrôle
de la DO parl'approche
àprédiction
d'erreur de sortieKd et r les deux variables ·..
·.···
7ý\TABLEUX:
Tab.2.t
:Equations d'evaluation
d'un réseaumulticouches
13d, . de wifi . t
III
Fig..&.5.c:
Concentration d'oxygène
dissous en régime variablc 60Fig .. 6'8.. Em ulatianon de lae a dvn,ynarruque du proce.'d'e 61
Fi , .. 6 b . Ela'
d ". .: ý
g. .. . mu uon u regunc
transitoue
61Fig 6.c: Erreur
d'emulation
62l'ïg
7.a:
Régulation de la DO parl'approche
à modèle inverse combiné 63Fig 7.b : Régulation de la DO par
J'approche
àprédiction
d'erreur de sortie 6-'l'ig.-'.ý :
Concentration
d'oxygène dissous désirée Yd 65Fig.-'.9:
Contrôle de la DO parl'approche
àprédiction
d'erreur de sortieFig.". lu : Profil des boues recyclées 67
Fig Il : Profil du
coefficient
de decay 67Flg 12.a :
Concentration
dusubstrat
el des boues dans le réacteurKd constant et r variable 6ý
Fig.... 12.b: Contrôle de la DO par
l'approche
àprédiction
d'erreur de sortieKd constant et r variable 6ý
Fig..&.13.a :
Concentration
du substrat et des boues dans le réacteurKd variable et r constant. 711
Fig.... 13.b: Contrôle de la DO par
l'approche
àprédiction
d'erreur de sortieKd variable et r
constant.
7 tFig ....
l.ta
:Concentration
du substrat et des boues dans le réacteurKd et r les deux variables 7"1
Fig..&.14.b: Contrôle de la DO par
l'approche
àprédiction
d'erreur de sortieKd et r les deux variables 7ýý
TABLEUX:
Tab.2.t
:Equations d'evaluauon
d'un réseaumulticouches
13. d"
de ...:4:._
" I
CHAPITRE
I
=CýýP,_I
ýI.ýt"ý"ýctýI,,ýG'ý"ýulý.
I"
Lý terme «contrôle adaptatif» recouvre l'ensemble des techniques utilisées pour
l'ajustement automatique: en ligne et en temps réd des régulateurs des boucles de commande.
afin de réaliser ou maintenir W1 certain niveau de
performance
quand les paramètres du IHo-:ýd..:à commander soient inconnus et ou varient dans le IClHpý.
Les taches primordiales
effectuees
par un tel contrôle sont les suivantes:- réduction du temps d'ajustement automatique cl
amélioration
des performances.- optimisation des paramètres des regulateurs pour divers points de fonctionnement.
- permet la mise en oeuvre des
régulateurs
plus complexes ct plus performants que les P I D.- maintenir des performances du contrôleur quand les
caractéristiques
du système changent.Ces taches ont été prouvé par la mise au point avec succès des techniques de cette
approche conventionnelle pour un grand nombre d'applications (ex: traitement des marériau.,
régulation dt Ph, asservissements à moteurs
électriques
...etc.). Alors, il cst évident lIUC 1.."':champ connaît un très grand essor ces dernières armées. Les raisons principales sont:
- les études
théoriques
ont conduit audéveloppement
d' algorithmes de conun .mdcperlonuants et à de nouvelles méthodes
danalyse.
- les possibilités de calcul offertes par les mini ct micro ordinateurs élargissent de jour 1.'11
jour le: champ d'application du contrôle adaptatif.
- les applications, déjà réalisées, ont prouvé l'intérêt ct la validité de cette approche.
Tous ces points torts valorisant cene approche conventionnelle. sont mis en évidence
avec des systèmes linéaires invariant dans le temps. Pour des applications pratiques, ces
techniques sont validées par des hypothèses porté cs sur le système à commander.
Cependant, si on parle des systèmes dynamiques non lineaires, ces techniques sont
incapables de fournir des performances adéquates ou de les maintenir à des niveaux acceptables
ct par
conséquent
des efforts importants sont requis dans cette théorie.En réponse à ces
inquiétudes
ct dans le but de palier les inconvénients cités ci-dessus.les autornaticiens entament d'autres approches non conventionnelles. Les
réseaux
de neuronesest rune des tentatives prometteuses, cene méthode empirique prouve une grande utilité dan ...
plusieurs champs, en particulier l'intelligence artificielle.
I
-ýJ
J
J
J
J
.J
J
1r
l
ClL-\P.1 lalroducalon GépéraleINTRODllCTION
GENERALE:
L.application des techniques neuronales fondées essentiellement sur l'aspect
d'entraînement
etd'approximation,
\tse un contrôle en ligne efficace qui peut apporter dý"remèdes
au:", problèmes des non linéarités attachées à lamajorité
des systèmes réels daméliorent
leursperformances.
Les réseaux multicouches,
d'architectures
simples el flexibles, dotés d' algorithmed'adaptation
puissant résidant dans la fameuse rétropropagation, ainsi que leur aptitude à lagénéralisation.
En général, la forme en cascade des structures de commande fondées sur ces
élément,
qui évoluent en parallèle, fournit au contrôleur l'habilité dt donner des réponses rapides JU\
perturbations externes, ct permet ainsi au système d'avoir un degré acceptable d' autonomic.
L' obj cc tif du présent travail entre dans ce sens, ct sert à combiner les deux approche,
en dégageant ses avantages Cl points forts permettant une exploitation optimale des tcchniquc-,
conncxionistes
dans laconception
desstructures
decontrole
adaptatif, quirépond
en particulier.aux exigences des systèmes biologiques qui marquent des non linéarités complexes en citant k
traitement des eaux usées à boucs activées.
L'automatisation
de cc genre de procédé connaît li' enormes difficultes J' ordre IIIatrquccl théorique. Le manque des
capteurs
en ligne sophistiqués, l'absence d'un modèle adéquat quirépond réellement à ce système multivariable cl de
constantes
de: k:.lps trèsdifférentes
c:l k:ýperturbations probables
y ?ýý.&dlt!CS sont les raisons majeures de la défaite d' une opération dt:contrôle
performaraes.
Alors, dans cette étude on essaye: de concevoir des structures de controleneuronale et de: les
appliquées
auprocédé
depurification
des eaux usées par les boucs activées.Le paramètre à contrôler est le: taux li' oxygène dissous, ce choix est motivé par son intérêt
économique
e:t sa simplicité de mise en oeuvre.Dans le premier chapitre, on donne une:
présentation générale
des réseaux deneurones.
leurs architectures ainsi que leurs mécanismes
d'apprentissage.
Le:
deuxième
chapitre: est consacré à laprésentation
des différentes structures decommande par les réseaux de neurones et les modes
d'entraînement
associés. Les algorithmesde: commande clôturent chaque
configuration.
Le troisième chapitre est porté sur l'étude et la modélisation du procédé du traitement
des eaux usées et la simulation de l'ensemble «
système-commande
» ,Entin, la conclusion contient
l'interprétation
des résultats obtenus el envisage lesrýunandations et perspeclivý de ce rhamp.
III
I
"
J
,
ý ýf.
f.
(11.\1'. I Introduction GénéraitI
I
J
J
J
J
j
,
" CHAPIIC-b'"
- let ftlPSn ." 2'J
J
J
" "CHAPITRE
II
I I I",
,
I
GENERALITES
SUR
LES RESEAUX
DE
NEURONES
II I I I I L
J'association
jouant le rôle d'une mémoire, et une dernières de décision ). Ce modèlereprésentant
la première tentative sérieuse du neurone formel va évoluer par un apprentissagesupervisé. Ce dernier est effectué suivant le principe de I:-RBB en procédant par la
correction
J'erreur [28,18). En 1982, J. HOPFIELD détaille dans un article
l27,43]
le bon usage duréseau
de neurones formel, en s'appuyant sur l'organisation en couche et la simulationnumérique
sur ordinateur. Cet article mel enévidence
certainscomportements
intéressants desréseaux neuronaux mais surtout fournit des outils
mathématiques
qui viendront étayer lesrecherches.
En fait, chaque type de réseau correspond à un spectred'application
particulièrescar le réseau de neurones universel n'existe pas encore.
n
faut se satisfaire de ces quelquesmodèles et l'adapter au problème du jour, ou imaginer de nouveaux modèles. Auquel cas. il
faudra alors leur trouver des champs
d'applications convenables.
Actuellement, les
automaticiens s'intéressent
beaucoup àl'exploitation
duprogrès
remarquable dans la théorie des techniques d'analyse, en particulier, leý struc IUlýS
d'identification
et de contrôle mono et muhivariables de la commande adaptative trèspoussée
1.1.
INTRODUCTION:
Sous le terme des réseaux de neurones, on regroupe
aujourd'hui
un certain nombre demodèles dont l'intention est d'imiter quelques
fonctionnalités
du cerveau humain, enreproduisant
certaines de ses structures de base. Lessupercalculateurs
qui traitent des millionsd'informations
à la seconde sont incapable de reconnaître un objet vu sous un angle différent.alors qu'un enfant de cinq ans peut le faire.
F0I1s de cette
constatation,
voilà maintenant unequarantaine
J' années "lue lesneurophysiologistes
essayent de percer les secrets de cette fabuleuse machine[27,30,31).
Pourmieux comprendre: certains de ces
fonctionnements,
ils ont tenté, avec l'aide de chercheursd'autres disciplines, de mettre au poult un modèle
mathématique
des neurones "lui constituent lecerveau. Les origines de celte disciplines sont très diversifiees. en 1943 1\le ('l;1 L()( 'II d
PITTS
adoptèrent
un modèle décrivant lefonctionnement
du neurone formel. Ce dernier estlargement utilisée à cet
époque
dans la réalisation des fonctionslogiques[30
, 321.Centré sur les
architectures
de Mc CULLOCII d PITTS et les règles de IlEBB qurfournirent une
explication
synaptique dumécanisme
d'apprentissage
[33,47,27
A 5 j.ROSENBLAT, ýI1NShY et PAPERT nous
ressortirent
au début des années soixante li:GéMraIbéI
...
let ré!MIII " ...une cellule d' entrée, autre
GÉNÉRALITÉS
SUR LESRÉSEAUX
DENEURONES:
CHAP Il
célèbre perceptron,
qui comprend trois élémentsprincipaux
I
I
I
I
J
J
J
J
J
J
J
J
J
J
J
J
J
J
ý1
_12.2.
DÉFINITIONS
DE BASE ETPROPRIÉTÉS
avec les
reseaux
deneurones
caractérisés
par lephénomène
d'approximation
ýt degénéralisation
très puissant ainsi que: ledéveloppement
des algorithmesd'ajustement.
cý
dernier,
est le point fortgouvernant
laconvergence
de tels réseaux.Le souci majeur de cet investissement est
d'apporter
dessolutions rigoureuses
auxproblèmes
des non linéaritésrencontrés
dans lamajorité
dessystèmes
réels.2.2.1. INTRODllCTION:
Malgré leur nom. les
réseaux
deneurones
ne sont pas des dispositifs biologiques maisbien des circuits électroniques dont
chaque
élément est censésimuler
le fonctionnement de: 1.1cellule
élémentaire
ducerveau
humainqu'est
leneurone.
En pratique, la
simulation
desréseaux
deneurones
surordinateur conventionnel
CSIl'approche dominante.
Et quand, on sait que lecerveau
humain est constitue de 100 milliardsde
neurones,
dont chacun estinterconnecté
avec des milliersd'autres neurones [28,27],
ct qu....Je
surcroît,
lesrecherches
Cil cours portent sur des réseaux dequelques
dizaines de neuron,.. .:.artificiels, on est loin
d'expliqua
lesmécanismes
de la pensée ct de I'intelligcnce, même si \..-.;ýrecherches donnent
desrésultats d'ores
et déjàencourageantes.
6
GénéraJttés .ur le. réstaux de neurone.
CILýP Il
I
I
I
J
J
J
J
J
J
J
J
J
2.2.2. LE NEURONE BIOLOGIQUE :Avant de
poursuivre
avecl'informatique. revenons
à la biologie pour définir qu'est ýI.:qu'un
neurone;
c'est la cellule de base du Cerveau, lesneurones
du I:.CfYCaU ne screproduisent
pas, ils sont
interconnectés
par le biais de filaments oudendrites.
Usreçoivent
des signau\lancés à travers les axones des milliers
d'autres neurones
via les synapses. Cesdernières
serventà Limiter plus ou moins
l'amplitude
des signaux transmis.L'accumulation
d' énergie au niveau du corps de la celluledépend
essentiellement ýkseffets
d'inhibition
oud'excitation
des synapses. Si cetteénergie dépasse
un certain seuil. It:neurone
sedécharge
et envoie à son tour unpotentiel
énergie auxneurones
qui sont reliés. Sous lalumière
de cettedescription fonctionnelle,
unneurone,
comme la montre lafigure
(Fig.l.l)
,[32,33,28,31,30]
estcomposé
d'un corps cellulaire, dedendrites
qui sont lescanaux d'entrée d'énergie,
del'axone
qui est le canal de sortie et de synapse qui désigne la2.2.l. LE NEURONE FORMEL :
I
I
I
I
I
I
I
S
!I
11
.1
)
CHAr Il c...
ur ... r...
p __Ag.2.1: Schéma
duneurone biologique
.7
Dans notre
description
dufonctionnement
d'un neurone, les signaux reçus par chacunedes
dendrites s'ajoutent.
La fonctiond'activation
est donc la somme ou plusprécisément
uneintégration
dans le temps.La fonction de transfert est un simple effet Je seuil, Alors , si W1C cellule « J n est
reliée à « N» autres cellules, on peut définir le new-one formel donne: par la figure
(Fig.2.2)
[30,31,32,33]
comme étant unopérateur
effectuant une somme pondérée des ý(N» entrees,augmentée
d'une entrée externe désignant le seuil du neurone « j ». Le tout est suivi d'unélément de décision qui détermine la sortie du
neurone.
L'élément
de sortie en questionprésente
une non linéarité qui peut avoir les formes lesGéa4raUtéI
....
let ... " ..."
ZpJ lb) axone 1 F . Fix) ý ý ýx VpJ FIx) F(xI 1 ... _Flg.2.2: Schéma du neurone
formel.
(a) ---ý -1
synapses
._ ýýx
CHAP JII
I
I
I
I
-I
11
Il
-,
,
,
Iý ý ýRg.2.]:
lesfonctions
dededslon souvent utilisées.
a)
fonction signe,
b)fonction
deheavlside
cl
fonction alamolde
Alors, si on désigne par « Xp s le vecteur d'entrée du neurone « J », « \\'j ),
représente
les synapses(appelées
poids)
du neurone, tel que :Xp = [ Xu! )(,.2
x,
x,
] Wj = [WI! WI!w,
Wý ] (2.2) (2.1) - 0 I + W,o " Xpu = Wj " ( Xp )!GéRé,... ur le. ljHau de MUI'W!
Et la sortie du neurone « ýJ » est donnée par :
ZPl = F[YpJ]
La sortie intermédiaire « YPl » est donnée par
CHAP Il
2.2.-'. LE RÉSI!:Ali DE NEURONES:
Un
réseau
de neurones formel n'est ni plus ni moins qu'un ensemble de neurones telque nous les avons définis et reliés entre eux. La sortie de chaque neurone peut reliée en
entrée
à
plusieurs
autres new-ones comme la montre la figure(Fig.2"'),
[5.33,2MJ.La complexité de tel
réseau
n'est définie que par le nombre de neurones et le nombre JI.'connexions.
Le réseau peut être organisé en plusieurscouches,
dont, les neuronesd'entrée
duréseau sont reliés à l'extérieur, ceux de sortie qui donnent le résultat et, entre les deux, une ou
plusieurs couches d'autres new-ones qualifiés de ( cachés »,
Tout le
problème
de latechnologie
neuronale réside dans laconception
d'unréseau
adapté à la
résolution
d'unproblème.
A savoir, pour un réseau donné, le nombre de ses
couches,
de sesneurones.
la taille dl.'ses connexions et sa fonction de décision, sont tous des
paramètres
dont le critère de choix estomis
volontairement.
Disons. simplement que c'est parl'expérience,
lestâtonnement
ct lesessais successifs et les réglages qui
dépendent
del'application
ques'élabore
un réseau quimarche [28,2 1. Et, c'est le coté
passionnant
de cetteapproche
non conventionnelle. Parconséquent,
avecseulement quelques
dizaines de neuronesinterconnectés
on peut imaginerplusieurs solutions sans savoir cc: qui se passe à
l'inté
nieur du réseau, Nousconstatons
simplement
que le réseau a appris et qu'il sauras'adapter
à toutes lesvariations
si la situation Jedq>art "'
idenlique.
I
I
J
J
ýJ
J
J
J
J
J
J
.J
j
J
ý ý ýIl
I
I
,
J
ýJ
J
J
J
J
J
CIlU' IIcouche
d'entrée
w3>
couche cachée
2couche cachée
1fig.2.4:
Structure
d'unréseau statique.
lU
2.3.
ARCIllTECTURES
DES RÉSEAUX DENEURONES:
Le
facteur déterminant
du type d'unréseau
deneurones
est lanature
de COIUH;XÏOIl:-.entre ses cellules. Selon ce
paramètre,
on distingue deux type d'architectures;
les reseauxstatiques
(nonrécurents)
et lesréseaux
dynamiques (récurrents)l30,31,·B).
Dans un réseau J\.la première famille, la sortie qui ne peut en aucun cas
réinjecter
àl'entrée,
dépend uniquementdes sorties des
neurones précédents.
La plupart des reseauxstatiques
sontorganisées
encouches,
comme lamontre
la figure(Fig.lA)
[33.30].
Un telréseau comporte
une couchcd'entrée,
unecouche
de sortie ct une ouplusieurs couches intermédiaires
appelées cacheesComme la
couche d'entrée
est passive, lescouches cachées
et en raison de leursfonctions
d'activations
non linéaires sont lesdéments prépondérants
Je cc genre Jýréseaux
qualities .lcmulticouches.
Alors, dans cc type Je réseaux,l'informauon
circulant Jel'entrée
à la sortie Juréseau, subisse des
transformations
non linéaires[28,27,29,15].
Pour les
réseaux dynamiques,
organisés aussi encouches,
lacirculation
del'uuormauon
est
bidirectionnelle,
tel que l'état global duréseau dépend
de ses étatsprécédents.
Dans la
littérature
de ce type de réseaux, on cite le modèle de HOP FIELD(Fig.2.S)
[27,5,32,43].
Ce dernier est exploité parplusieurs
auteurs d.ms lamodélisation
et le contrôle:2..&. APPRENTISSAGE ET ADAPTATION DES RÉSEAUX DE NEURONES. 11 xn yn x2
"
" " " "
xlG+p4raJ....
.ur
It. ri.UI de """""Fig.2.5:
Schéma
dlunréseau dynamique.
CHAP Il
de:, systèmes
dynamiques [30,31].
A titred'exemple,
on trouve les réseaux àretour
de ý()11i<.:introduits
par NARENDRA[11,14,18,42]
dontchaque
sortie est réinjectée à travers uneligne de
retard,
et lesréseaux
à retourd'état,
quipossèdent
une seulecouche cachée
deneurones entièrement interconnectés. [30,31,32,33]
En
concluant,
nousconstatons
que lescritères
motivants le choix d'un type deréseau
sont la simplicité de mise en oeuvre et
l'efficacité
des algorithmesd'adaptation
appelés :Irépondre
auxperformances
désirées du système,quelques
soient sa taille et sa complexité[4,1,22,26
].I
l
J
J
J
J
J
J
il
JI
ý ý ý ý ý 2.4.1. INTRODUCTION:L'apprentissage
seconduit
avec uneméthodologie precise.
Lapremier
, et la plussimple, connue sous le nom de règle de HEBB, date de 1949. Elle existe que lorsque deux
neurones
sont excités en même temps, il faut modifier lescoefficients synaptiques
pouirenforcer
cetteexcitation
simultanée. La règle de\\1NDROW-HOFF,
établie en 1960,indique
que lamodification
de cescoefficients
estproportionne
ne àl'erreur
entre lerésultat souhaité
cl" rý i.: + 12 (Ve) couche de sortie
consigne
Ew3 (02) (92) k = 1...Nhondération
activation
couche cachée 2 Ew2 w2propagation
de l'erreur (gl)activation
pondératio
(01) i = 1...Nh couche cachée 1GéaéraUt..
.ur
le' réseau de D!Ul'oae.Ewl
vecteur
d'entrêe
I = 1.... NI
Fig.2.6:
Schémasynoptique
de larétropropagatlon
.x
La procédure est basée sur le calcul des dérivées d'une entité (norme d'erreur) par
rapport à l'ensemble des poids. Par
conséquent
ce calcul nécessite la continuité et la dérivabilité2.4.2. MÉTHODE Dl<: LA KETROPI{OPAGATlON:
La limitation des
perceptrons
est levée désl'apparition
de cette: techniquemathematique
[32,33,"7]. Quoique,
on arrive àconcevoir
des réseaux d'une ou plusieurs couches cachées clfaire
propager
la norme d'erreur ainsi formulée de la sortie du réseau àl'entrée
via ses couchesénigmes d'où le nom de
rétropropagation.
CHAP Il
La phase
d'apprentissage
est une propriété primordiale pour les réseaux de; neurones.Elle consiste donc à
l'ajustage
descoefficients synaptiques
(appelés poids) qui sont les porteursd'intormanons
pour remplir une tâche définie[5,6,32,33]. L'approche mathématique,
basée surce
concept,
sert à minimiser une fonction de coûtsformulée
autour de l'erreur de sortie.L'adaptation
commence alors, par les neurones de la couche de sortie, forcés à la bonne valeur.puis on fait varier
légèrement
les poids desneurones
des couchesprécédentes.
-J
J
J
J
J
J
J
J
)
ý ý ý ýAvec:
Tab. 2.1: Equations d'évaluation d'un réseau
multicouches.
(2.3 )
lJ
Ep(l) = (Yd(i) - Ye(i»1 " (Yd(i) - YeU»
---ý---_.-
-_.----avec
GénéraUté. sur le. ré.nus de neurone.
1 l
E = - LEp(i)
2 1=1
CIL-\P Il
x[Ni,l)
;hl[Nhl,l)
;hl[Nhl,l)
;hs[Ns,l); Wl[Nhl,NiJ
;W2[Nhl,Nhl)
;\VJ[Ns,Nh2J.
Avec Ydti) est le
vecteur
de sortie désiré, Yeti) levecteur
de sortie duréseau
e( T blongueur
del'ensemble
des échantillonsd'entraînement.
L'approche
la plus utilisée pour laminimisation de la norme d'erreur E est basée sur les
méthodes
degradient [18,14,44,
Il ].Évaluons maintenant
pow- WIvecteur d'entrée
(T=I; pour la lisibilité deséquations)
lesrelations
dutableau Tab:
2.1. Une fois la sortie dumodèle neuronale
Ye estobtenue, l'erreur
correspondante
et Iýgradient
de l'erreur par rapport à tous lesparamètres
sont calculés.Ces derniers sont
ajustés
dans le sensopposé
du &radient de l'erreur en lari1isant lafonnule
itérativesuivante
[ 29 , 31 , 32 , 33]:L'objectif
de larétropropagation
estd'ajuster
lesparamètres
duréseau
dans It: but dt:minimiser la valeur
moyenne
del'erreur
quadratique
surl'ensemble
des échantillonsd'entraînement
, tel que :Fe :
fonction d'activation
descouches cachées (sigmoïde)
.Fs :
fonction d'activation
de lacouche
de sortie(linéaire)
...1-;:';
fonctions
d':v'f;":";'ýn desneurones
[15,17).
Cemécanisme d'entraînement
est récapitulepar le
schema
synupuque: ue la ligure: ýrIg.".o.).
Pour WI
réseau multicouches
de Nientrées,
Ns sorties,composé
à titre d' exemple de(rois
couches
(deuxcouches cachées
et WIe de sortie), les états et les sorties desneurones
sontdonnés en
s'inspirant
del'illustration graphique
de larétropropagation
(Fig.2.6)
par leséquations
suivantes: I 02 = W2 . 81 - h2 g2 =Fc[02)
t ---I 03 = W3 . g2 - hs Ye = Fs] 03] L ý __,---ý---pondération
(état) activation (sortie)ý---ý---ý---.---01 = WI . x - hl gl = Fclo l ] I I
-ýJ
J
J
J
J
J
J
J
.J
ý ý ý ý ý ýavec: 0 ý jJ , a "' 1 Ep = .!.
"
(rd _ Yell 2 (2.S) (2A) (1,7) (2.6) l'' CHe'" - ln ri """""" ,., PJ(n+ 1) = P,(n) - )J. :P + a " (P,(n) -P,(n-l))
. ,(n) . .tEp lEp d'e lXn
( , ) .
-=-.-.-=-
rd-Je
.P[03}.g2=Ew3.g2
&3 ôYe m3 éW3 ' tEp= tEp " bYe " dJ3 =
_ (rd
_fe).
P.'(03).
(-1) =_
Ew3ifLs 8Ye tV3 iJJs '
Pour la
deuxième
couchecachée,
on procède de la même DWlièrc :CHAP JI
Ou Pj est le
paramètre
àadapter.
Ji est le pasd'apprentissage,
j désigne le jièmcneurone
et n est lenuméro d'itération.
Lefacteur
Ji a wu: grandeimportance
dans laconvergence
de laméthode
tel que si Ji est faible laconvergence
est lente mais la direction dedescente
est optimale.Autrement,
laconvergence
estrapide
mais le risque du minimum local estprobable [33,44J.
pour limiterl'effet
de cetinconvénient
un autrefacteur
appelé(moment)
estintroduit. l'équation
(2.2) aura donc la forme suivante:et pour lesseuils :
PoW' les poids :
Sachant
quel'adaptation
desparamètres
duréseau
esteffectuée
de la sortie versrentrée;
alors oncommence
par le calcul de la dérivée de lafonction d'erreur
Ep parrapport
aux
paramètres
de lacouche
de sortie;En
exploitant
lesrelations
dutableau Tab:
1.1 etl'équation (1.1):
on aura; -ý." l, :0.::J
J
J
J
J
J
)
)
ý ý ý ýr]
r
reste à
évaluer
lýpremier terme
:pour
lespoids
:(2.9) (2.8)
=
ýRP.
ý(02).
w2t ....I412
{-(Yd
-Ye).
F:'[03].
w3}.
ý'[02].
gI =Ew2. gl
Sp
lEp ý2 tV2 /JEp .-
=-.-.-
==-.F[V21·(-I)
dJ2 ý2 m2 éh2 £t2 ( lEp --ýl GtMnUtn IV ln ...MW'.'
lEp lEp ig2
an
lEp .- =
-.-.-=
-.F[02].gl
Ùtv2 ig2 âJ2 ý2 ig2 '
tEp tEp égl ml tEp .
-=
-.-.-=-.F[011·X·
éWl igl a?l ôwl ýl .'
lEp lEp m'e iD3
( )'
-=-.-.-=-
Yd-Ye .P[o31.w3
ég2 m'e iD3 ig2 '
:ý
-
{-(rd
-
re).
F.'(03].
w3J.
Fý'[02] "(-I)
=-
Ew2lEp
Ôtv2
Et
finalement,
pour lapremière couche cachée
on a : Alors :avec le
premier terme
estdéjà
calculé :reste à
évaluer
lepremier terme
:le
premier terme est déjà calculé
, alors :et
pour
les seuils :pour
lespoids
:CHAr JI
I
I
I
J
J
J
J
J
11
,;1 ý ýJ
r_
ý ý ý ýr]
]
Et
finalement,
pour lapremière couche cachée
on a :reste à
évaluer
le premier terme :(2,8) (2.9) =
ýRP.
F:'(02).
w2h-ltW2
{-(rd
-Ye).
F:'[03]. w3}. ý'[02].
gl =Ew2.
gl S"p lEp ý2 a:J2 Sp , - = -.-.- ==-.F[V21·(-l)
a,2 ý2 âJ2 éb2 ig2 : GtMnUHt.v
la ... """M'
tEp tEp ég2
an
lEp .aw2 = ég2 " d:n " û.v2 = ég2 " F..(02) " gl
tEp lEp 411 âJI tEp. ý
-=-.-.-=-.F[Ol]
" .x .ûwl 4:1
an
awl
411 .'tEp Sp OYe aJ3
( ),
-=-.-.-=-
Yd-Ye .F[03].w3
ý2 ôYe aJ3 ég2 I
ýý
-{-(Yd
-Ye).
r:'[03].
w3J.
F:,'[02] "(-I)
=-
Ew2 SpÔtv2
Alors :
avec le
premier terme
estdéjà
calculé :reste à évaluer le
premier
terme :pour
lespoids
:CHAr JI
le
premier terme est
déjàcalculé
" alors :pour
lespoids
:et pour les seuils :
I
I
I
ý . .l
J
J
J
r1
-..
)
ý ý1
ý ý ýr]
ýj. <_! , iEt
finalement,
pour lapremière couche cachée
on a :reste à
évaluer
lepremier terme
:(2.9) (2.8)
=
tRP"
ý[02].
w2h-lik2
{-(rd
-Ye).
F:'103].
w3}.
Fc'lo2].
gl =Ew2.
glS.p
tEptt2
iD2
éJEp ,-=
-.-.-:=
-.p[v21·(-l)
a,2 ý2
an
da ý2 I:lEp _ Ml
L-·-·-
lEp ý2.an
ý1
-h-Iý2
an
ý1GtI*!IIIn .ur In
d...
* ...
tEp tEp ýI à?1 tEp .
-=
-.-.-=
-.
F{011·x·
ûwl ýI àJI ýI ýl .'
Sp tEp ég2
a:n
lEp .- =
-.-.-=
-.F[Ol).gl
aw2 ý2 aJ2 ÛN2 ý2 .'
tEp iEp OYe éD3
( )'
-=
-.-.-=
-
Yd-
Ye.P(03}.w3
4'2
S'e
éD34'2
I:ý
-
{-(rd
- Ye).
F,'(03).
w3}. F('lOl]
"(-I)
=-
Ew2ô.v2
iEp
--Alors :avec le
premier Icone
estdéjà
calculé :reste à
évaluer
lepremier terme
:pow- les
poids
:le
premier terme
estdéjà calculé
" alors :et
pour
les seuils :pour
les poids :I
I
I
J
J
J
J
J
il
ý ý ý ý ý ý ý ýfaibles.
Etape 1: Initialiser les poids et les seuils
internes
desneurones
par des valeurs aléatoiresEtape 2 :
Présenter
levecteur d'entrée
Xp à lapremière couche
enspécifiant
la sortiedésirée correspondante.
Etape 3 :
Calculer
les sorties desneurones
en utilisant leséquations (2.1)
et (2.2)récapituler
dans letableau (Tab.2.1).
Etape'"
:Évaluer l'erreur
de sortie en utilisantl'équation (2.3)
et lesgradients
ducritère de
performance
parrapport
auxparamètres
duréseau selon
leséquations (2.6)
à(2.11).
Etape 5 : Adapter les
paramètres
duréseau selon l'équation (2.5)
ct aller à l'étape 3 sïln'y pas
convergence.
2.".3. ALGORITHME DE LA RETROPROPAGATlON:
16
(2.10)
(2.1.2) (2.11)
GWraIIH!
""
lei ri.ea" " ...{
ý(-(rd
-Ye).F,'[03J
.w3).
r:,'(02]
" w2 ý.F;rOI]. x
=Ewl.
Xk_l )
{NU'
L(-(Yd
-Ye).F,'[031
.w3). F;[02].
w2ý.
r:'[OI].
(-1) = -
Ewl
k_l ) f 1-exp{-a.x}:
F (x) =-;---+
C : I + exp{-a
"x)
}lEp lEp ýI iDI lEp ,
-=
-.-.-=
-.plOI)
.(-1)a,1 ýl iDl a,l ý1 c
Owl tEp l.Ep
--Owl CHAP Ilet pour les seuils :
le
premier
terme est déjà calculé , alors :La
fonction sigmofdc
estdonnée
par :a est Wl
coefficient
quidétermine
ladescente
de lafonction sigmoïde
.-"
,
J
t1
)
J
ý ý ý ý ý ýr.
]
r]
r
Malgré
le succèsspectaculaire
de cet algorithme dans diverses applications, ilcomporte
des lacunes, en particulier, le
problème
des minima locaux quiempêchent
laconvergence.
('ý(obstacle
a uneimportance
comme dans toutedescente
du gradient nécessite un choixadéquat
du pas
d'apprentissage:
Plusieurschercheurs
ontproposé
des remèdes à ce problème;Y:\ýIADA
etYABUTA
ontprocédé
parl'adaptation
de la pented'inclinaison
de 1.1fonction
sigmoïde pour éviter lesproblèmes
desaturation
lIS].D'autre
part, R.:\.L.Iý·lJ-SEDJ ADI et ALL [53] ont développé la
technique
decréation
dynamique desneurones
descouches
cachées.Enfin, certains auteurs
[32,.t5,.t6,.t8]
ontproposé
une modification de la loid'adaptation
enintroduisant
un terme appelé(moment)
pour éviter les problèmes d'oscillations.En plus, pour assurer et
accélérer
laconvergence
de cet algorithme, plusieursméthodes
sontutilisées
adapter
le pasd'apprentissage pendant l'entraînement
(Newton-Raphson, méthode
dugradient conjugué, méthode
deGauss-Newton
et laméthode
dt: Fletcher-powell ) [30,.t51.Cependant,
lamajorité
des auteurspréfèrent
lesméthodes heuristiques,
simples à implémentéesLe
principe
de cesméthodes
sert àincrémenter
oudécrémenter
le pasd'ajustement
dechaque
poidsindividuellement
suivant le signe de la dérivée partielle de la nonned'erreur
parrapport
au poids enquestion.
:\. noter que les lois
d'adaptation
(équations
(2.6) ... (2.11»élaborées souvent
autour
del'erreur quadratique
del'ensemble
desexemples d'entraînement,
dillërenl
d'unecouche
à autre.CHAP Il
2.5.
CONCLUSION:
,---,
I
CHAPITRE III
CONTRÔLE
AVEC
RÉSEAUX
DE
NEURONES
Iý
fr7& pM ri 7m
"""
CHAP III COItriIe ayec riKau ...
III.
CONTRÔLE
AVEC
RÉSEAUX
DENEURONES:
3.1. INTRODUCTION:
Les
contrôleurs
basés sur lesréseaux
deneurones multicouches
connaissent des effortsrécents
dans ledomaine
ducontrôle
des systèmes dynamique non linéaires, cette démarcheprouve
un grand potentiel et un champprometteur
dans labranche
non conventionnelle dt: IJcommande
adaptative, appelée souvent; lecontrôle neuronal
[13,14,47
].Les raisons motivant ce champ sont au
nombre
de trois:1) les systèmes
nerveux
biologiques incluent des exemples typiques decontrôleurs adaptatifs
intelligents.2) les
réseaux
deneurones
artificiels sont essentiellement des systèmes adaptatifsaptes à
apprendre
à réaliser des taches complexes.3) les techniques connexionistes sont capables de surmonter les difficultés dont
la théorie conventionnelle du
contrôle adaptatif souffre
avec les systèmes non linéaires ou àstructures
inconnues.
En général,
l'entraînement
descontrôleurs neuronaux
peut êtreeffectuer
en ligne ouhors ligne. Bien que,
l'entraînement
en lignepermette
une excellente généralisation, il nécessiteun temps
d'échantillonnage
important pouratteindre l'objectif
facilement.En fait
l'entraînement
descontrôleurs neuronaux
est exclusivementeffectué
en ligne, ctà
fréquence
élevée. Axées sur cette optique, desstructures
d' érnulateurs deprocédé
et decontrôleur neuronal
sontproposés.
Une simpleconnaissance
qualitative duprocessus
Jcommander
est nécessaire. Lecontrôleur neuronal,
avec des poids initiaux aléatoires, doitapprendre
ladynamique
inverse du système en exploitant sesentrée
I sorties à travers le temps.[l, 2, 20, 22, 26]. En général les
performances
townies par ces structures sont atteintes aprèsWl lent
entraînement,
et parconséquent
W\ tempsconsidérable
estdemandé.
Pour
remédier,
on doittrouver
uncompromis,
en multipliant lafréquence
d'entraînement
par période dans les limitespermises
par lescontraintes pratiques
et la(3.1)
(3.2)
avec: x(t) E Rn t Vet) E
RP,
Yet) E Rm ."
20
c ... 1e .vIC réteau dt ...
Un
système
dynamique "non linéaire " peut être décrit par le modèlecontinu
suivant:d x(t) i d t = <I> [x(t), V(t) ]
x (k+ 1) = <I>
lx
(k), V (k) ]pour le cas discret, le
modèle
a laforme:
<l> et 'II sont des
fonctions
non linéairesquelconques.
Y(t) = 'JI [X(t) 1
y (k) = 'II
lx
(k) ]Soit un système dynamique de type
monovariable décrit
par wu:équation
similaire àcelle définie ci-dessus. On
suppose
que l'état dusystème
estreconstitue
par la disponibilité de nmesures sur les
entrée/sortie
du systèmG.PoW' les systèmes non linéaires,
plusieurs suppositions portées
sur lesentrées/sorties
duprocédé
(système)doivent
êtreposer
pow-permettre
l'exploitation duprogrès
analytique marquédans la théorie de
contrôle
des systèmes linéaires [29, 34).CHAP III
Étant
données
lesfonctions
Cl> et '¥ ou leurs estimées,l'objectif
ducontrôle
est deconcevoir
Wlcontrôleur
quigénère
unecommande
Utk) enentrée,
basée sur lesdonnées
disponibles à l'instant " k "
concernant
leprocédé,
l.2.1. POSITION DU PROBLÈME:
(J.l)
(3.2)
avec: x(t) e Rn , U(l) e RP. Y(l) e Rm .
"
20
c...
Hteri....
ftMW'.'
Un système dynamique "non linéaire "peut être décril par le modèle continu suivant:
d x(t) i d t ==
<l> [x(t), U(t) ]
x (k+l) = <l>
lx
(k), U (k) ]pour le cas discret, le modèle a la forme:
ct> et 'fi sont des
fonctions
non linéaires quclconqua.yel)
= 'fi [X(t) ]y (1) = 'l'
lx
(1) ]Pour les systèmes non linéaires, plusieurs
suppositions portées
SUl' lesentrées/sorties
duprocédé
(système) doivent
être poser pourpermettre
l'exploitation du progrès analytiquemarqué
dans la théorie de contrôle: des systèmes linéaires [29, 34).
Soil un système dynamique de type
monovariable
décrit par une équation similaire àcene défuùe ci-dessus. On suppose que l'étal du
système
estreconstitue
par la disporu'bililé de nlDCiUI'CS sur les cnlréeliOl1ie du sySlèmG.
CHAP III
l.2.1. POSITION DU PROBLÈME:
J.l.
CONTRÔLE
DESSYSTÈMES DYNAMIQUES
NON LINtAIRES:Élant données les
fonctions
Cl> et '¥ ou leurs estimées,l'objectif
ducontrôle
est deconcevoir
uncontrôleur
qui génère unecommande
Uïk) enentrée,
basée sur lesdonnées
disponibles àl'instant"
k "concernant
leprocédé.
Sont spécifiées, on peut supposer que \I U(k) borné, il existe WlC seule solution au
J'identification
et decontrôle
utilisés avec les systèmes linéaires invariants.En revanche, si la fonction <t> est COMue ou bien estimée el le vecteur d'état ýsl
accessible, la détermination de la conunande U pow- avoir la
trajectoire
désirée reste unproblème à poser, puisque pour générer cette conunande, on suppose l'existence des
opérateurs
inverses convenables.
En outre si la structure du contrôleur est donné, d'autre
suppositions
doivent être poserpour assurer l'existence d'un vecteur constant des paramètres du
contrôleur.
Pour éviter ces
inconvénients
un progrèsconsidérable
est requis dans la théorie JI.:contrôle des systèmes non linéaires pour obtenir des solutions rigoureuses.
Une solution consiste à choisir
convenablement
des structuresd'identification
et decontrôle inspirées du modèle linéaire auquel on va introduire les réseaux de neurones
caractérisés
par leurs aspect empiriques. Ces réseaux qui peuvent être statique(multicouche)
oudynamiques
(récurrents
), sontconsidérés
comme des sous systèmes destinés à la conceptiondes
contrôleurs
des systèmes non linéaires sous forme de blocs [5, 11, 31, 44].Les
choix
discutés auparavant ne sont que desextensions
desconfigurations
de lacommande adaptative. 21 (J.3) théories les concepts et CopUle avee rt .. UK de ...
rUCk), U(k-I), U(kýn-2),
Yp(k),Yp(k-l)
Yp(k+n-l)]
Alors si les mesures:
Yp(k+l)
= 'l'[ct> [x (k), U (k)]
Yp(k+n+I)
= 'l'[<1> [ <1> [<1> [x (k), U
(k)], U(k+l),
,U(k+n-2)]J
Ces mesures sont récapitulées par le système d'équatious suivant:
problème.
Cessuppositions
nouspermettent
d'exploiter
CHAP III
Ce qui nous donne ft
n ft
équations non linéaires à ft n ft inconnues x(k).
]
J.2.2.2. COMMANDE ADAPTATIVE DIRECTE ET INDIRECTE: Et
l'erreur
à la sortie tend vers zéro.J.2.2. THÉORIE CONVENTIONNELLE DE LA COMMANDE ADAPTATIVE:
(3..1)
CoptIjl! avIC rt ... u ...
,
(
-
Estimalion
desparamètres
dusystème"
modèle duprocédé".
- Calcul des
paramètres
ducontrôleur
à partir desparamètres
estimésOn doit
élaborer
une loi qui ajuste Wlvecteur 8(k)
tel que:Pour
l'approche indirecte (FI".3.1),
durantchaque
itération,l'adaptation
desparamètres
du
contrôleur s'effecme
en deux étapes:Dans le cas de la
commande adaptative directe schématisée
par la figure(Fig.3.1),
kýparamètres
ducontrôleur
estiméschaque itération
sontajustés
enune
seule étape.Précisément,
pourchaque vecteur
desparamètres
du système, il existe unvecteur
desparamètres
ducontrôleur
tel que la sortie del'ensemble
"système-contrôleur"
approche assymptotiqucment
celle dumodèle
[12, 34].J.2.2.1. INTRODUCTION:
Le
progrès
important connu dans le domaine decontrôle
des systèmes linéairesinvariants est
concrétisé
par lacommande adaptative
à modèle deréférence "RMAC",
cette;technique
basée sur laprésence
decertaines informations
sur lafonction
de transfert,génère
une loi de
conunande
stable qui ajuste lesparamètres
ducontrôleur
pour que ce dernieratteindre l'objectif
désiré.CHAP III
Il
I
I
-Il
3
;I
ý ý ý " -ý -ý ý ý-,
ý]
J
Il
I
I
-Il
"
-CHAP III r II.modýle
de II'rýfýrence
ECý Ec I .iý .._ U"
Ypsystème
,.-contrôleur
ý 13 Ypsystème
Yp modèle de Ym d1identification uFig.3.1: Commande
adaptative dlrede
Flg.3.2: Commende
.daptallve
lDdkedcEc
contraleur
dont:
Y(k+l):::
F[Y(k),Y(k-l),
...,Y(k-p+l),U(k),U(k-l),
... U(k-q» (3.5)A
noter qu'en
pratique,
on limitesouvent
lacommande
Uïk)
par une borneexpérimentale
[15, 20, 36, 12), tel que:2-1 (J.7) (3.6) eïk) = r(k) - Y(t..)
coon.,
nK ... u de ... (6, 11, 48).b I Les
couches
cachées
utilisent desfonctions d'activation arbitrain:s" fonction
sigmoide",
cette dernière permetd'approximer
n'importe
qu'ellefonction
non linéaire (;1J.l.2. CONTRÔLE PAR LES RÉSEAUX DE NEURONES MlILnCOUCUES:
L'utilisation des
réseaux multicouches
dans laconception
descontrôleurs neuronaux
est
motivée
par les trois raisons de base suivantes:a I Dans ce type de réseaux,
l'information
circule del'entrée
WI'S la sortie via lescouches cachées.
Cettecaractéristiques
est trèsappropriée
pour laconception
des contrôleurs.ce qui nous donne une
architecture
sous forme de blocs: définis par leursentrée
el sortiesy (k) la sortie actuelle du système.
U(k) la
conunande d'entrée.
FI.) :
fonction
non linéairequelconque.
pet q: définissent
l'ordre
du système.Donc étant donné
l'ordre
dusystème
"p et q" ou leurs estimés, notreobjectif
est 1;,détermination d'une
loi decommande,
qui guide la sortie Yfk) aconvergé
vers une consignede
référence
r(k), en minimisant une normed'erreur
de sortieeïk),
avec:J.J.l INTRODUCTION:
Soit un
système dynamique
décrit parl'équation
discrète suivante:CllU» lU
J.J.