• Aucun résultat trouvé

Les modeles de reseaux de neurones arti ciels que nous avons utilises ou presentes jusqu'ici, font partie de la famille des reseaux a propagation unilaterale. Les connexions qui propagent l'information dans ces modeles, de nissent un sens unique allant des unites d'entree vers celles de sortie, en passant par les neurones caches. Le calcul des valeurs d'activation se fait donc, dans ces reseaux, en une seule passe lors de chaque presentation de nouvelles donnees d'entree.

Dans les reseaux recurrents, dont le graphe oriente des connexions comporte des cycles, il se cree au contraire une dynamique d'evolution des activations des di erentes unites. Ces activations peuvent se stabiliser sur des valeurs stationnaires1 ou des cycles limites ou rester, a l'oppose, totalement chaotiques.

5.2. Un modele de RNA recurrent non isole 145 Cette evolution progressive des valeurs des unites peut ^etre exploitee dans certains modeles, contrairement a ce qui se passe par exemple dans les reseaux multi-couches pour lesquels seule la valeur nale de sortie est generalement utilisee.

Les reseaux recurrents peuvent donc ^etre consideres comme des systemes dynamiques1

et ^etre etudies avec les outils classiques de ce domaine.

L'evolution du vecteur, noteA, des activations (ou etats) des unites d'un de ces reseaux peut ^etre decrit par un systeme d'equations di erentielles, generalement non lineaires,

de la forme suivante: dA

dt = F(A;E); (5.1)

ou E est le vecteur des valeurs d'entree. Le reseau est dit isole si ce vecteur est considere comme constant (i.e. si ses variations ne sont pas prises en compte) durant la convergence de l'activation des unites.

Nous pouvons noter que l'implementationd'un reseau de ce type impliquegeneralement une dicretisation de l'equation 5.1:

A = F(A;E)t (5.2)

Puisque notre but est d'obtenir un systeme capable de reagir a tout moment a des changements de donnees, nous nous sommes plut^ot interesses aux modeles non isoles. Nous presentons plus particulierement dans ce qui suit, la structure d'un modele de reseau propose par A. Labbi [86], dans l'equipe Reseaux Neuronaux du LEIBNIZ.

5.2.1 Dynamique du modele

Le modele de reseau auquel nous nous interessons dans cette section derive du Shunting Model de S. Grossberg [50]. Il a ete introduit par A. Labbi, sous le nom de reseau

versatile, pour modeliser le processus de decision d'un expert dans un environnement en continuel changement.

Il se compose de deux groupes (ou couches) d'unites (voir gure 5.1). La premierede ces couches (couche d'entree) recoit les donnees exterieures, et les transmet aux unites de la deuxieme couche, a travers des connexions a sens unique. Les unites de la deuxieme couche (couche de sortie) sont par contre totalement interconnectees entre elles. Les connexions de la couche d'entree vers la couche de sortie ont un e et positif (excitation) sur l'activation des unites de sortie. Les liaisons entre les neurones de sorties ont au contraire un e et negatif (inhibition) sur leurs activations.

L'evolution de l'activationaid'une unite de sortie d'indicei, dans un reseau comportant m entrees et n sorties, est donnee par l'equation suivante:

dai

dt = F(A;E)

= ,ciai+ (1,ai):(Xm

k=1wik:fk(ek)),(1 +ai):(Xn

j=1dij:gj(aj)) (5.3)

146 Chapitre 5. Reseaux de neurones arti ciels et encha^nement de manuvres

e1 e2 e3 e4 e5 e6 e7

s1 s2 s3 s4

dij

wik

Fig. 5.1 { Un exemple de reseau versatile.

Dans cette equation,ci est une constante positive appelee coecient de fatigue,wik et dij sont les poids des connexions reliant l'unitei, respectivement a une unite d'entree d'indicek et a une unite de sortie d'indice j, et ek est l'activation du neurone d'entree d'indice k. Les fonctions gj et fk sont des fonctions monotones positives qui peuvent ^etre identi ees a des sigmoides.

On retrouve dans cette expression le terme inhibiteur ,(1 +ai):(P

nj=1dij:gj(aj)) qui depend de l'activation des autres unites de sortie. Ce terme a pour e et de creer une competition entre ces unites. Le facteur (1 +ai) permet de limiter l'inhibition lorsque l'activationai approche de la valeur minimum -1.

Le terme (1 , ai):(P

mk=1wik:fk(ek)) correspond au terme excitateur de l'expression. Il depend des di erentes entrees du reseau. Le facteur (1,ai) permet ici de limiter l'activation lorsque celle-ci approche de la valeur maximum +1.

En n, le terme ,ciai permet de diminuer l'activation de l'unite lorsque celle-ci n'est plus excitee.

5.2.2 Proprietes

Les proprietes mathematiques de ce modele ont ete etudiees en detail par A. Labbi. Nous nous contentons de presenter ici les principaux resultats.

5.2. Un modele de RNA recurrent non isole 147 d'abord necessaire que sa dynamique soit convergente1 pour tout vecteur d'entreeE et pour toute condition d'activation initialeA0. Ce resultat est obtenu sur ce modele gr^ace au theoreme de Cohen-Grossberg[25], a la condition que les poidsdij soient symetriques (i.e. dij =dji).

Il est egalement necessaire de s'assurer que le reseau construit bien une application, au sens mathematique du terme, de l'espace d'entree vers l'espace des etats d'equilibre stationnaires. Il faut pour cela veri er que pour un vecteur d'entreesE donne, le reseau converge toujours vers le m^eme etat et ce quel que soit son etat initial. Cette propriete baptiseeconvergence globaleest prouvee pour ce modele, a partir d'un theoreme enonce par M. W. Hirsh [60], dans le cas ou les conditions suivantes sont respectees:

{ les fonctionsgi(x) utilisees dans le terme inhibiteur sont des fonctions sigmoides gi(x) = 1 + exp(1

,x) i2f1;:::;ng; ou n est le nombre d'unites de sortie.

{ les parametres de fatigueci sont choisis de telle sorte que l'on ait:

Mini2f1;:::;ng ci >jjDjj1; (5.4) ou D est la matrice de nie par (D)ij =dij etjjDjj1 =Maxi2f1;:::;ng

P

nj=1jdijj. Une demonstration complete de ces resultats pourra ^etre trouvee dans la these de Labbi [87].

L'une des caracteristiques principales des reseaux de ce type est leur tres faible periode d'autonomie. Celle-ci se resume en e et au calcul d'un pas d'iteration dans le systeme discret associe au reseau (voir equation 5.2). Ceci est d'autant plus vrai qu'il est facile de realiser une version sur circuit imprime d'un tel modele. De nombreux travaux ont en e et ete realises a ce sujet autour du Shunting Model de Grossberg dont le fonc-tionnement est tres proche de celui de notre reseau [77].

Dans le cas ou l'une des valeurs d'entree change durant la convergence vers un etat d'equilibre, le reseau est donc capable de prendre en compte ce changement pour tendre vers un attracteur di erent. La coherence du choix de ce nouvel attracteur est garantie par la propriete de convergence globale enoncee ci-dessus. Le reseau peut donc changer d'avisa tout moment,et ce quel que soit son etat. On dit qu'il est parfaitementversatile. L'apprentissage dans un modele de ce type est par contre problematique. Plusieurs extensions de l'algorithme de retropropagation du gradient, adaptees a l'utilisation sur des reseaux recurrents, ont ete proposees. Parmi celles-ci nous pouvons citer la retropropagation dans le temps [164] ou la retropropagation recurrente [130]. Aucun

1. On parle de dynamique convergente lorsque l'activation des unites se stabilise sur un etat d'equi-libre stationnaire.

148 Chapitre 5. Reseaux de neurones arti ciels et encha^nement de manuvres de ces algorithmes ne permet toutefois de respecter les contraintes sur les di erents parametres qui permettent de garantir les proprietes de covergence enoncees ci-dessus. Nous allons voir toutefois, dans la section suivante, comment les poids du reseau peuvent ^etre choisis pour reproduire un comportement particulier.

5.2.3 Codage de regles de decision symboliques

Notre but est d'utiliser le reseau versatile pour evaluer le resultat d'un ensemble de regles symboliques, regissant le choix d'un systeme de commande ou d'une instance particuliere d'un systeme de commande. Nous faisons donc concorder chaque unite de sortie avec une decision. Les entrees doivent correspondre, pour leur part, aux di erents evenements ou aux di erentes informations qui conditionnent le deroulement de la manuvre. Ces donnees peuvent prendre des valeurs binaires (e.g. la voie est libre ou non) ou reelles (e.g. la vitesse du vehicule). Dans le deuxieme cas il est generalement susant, comme nous le verrons dans l'exemple presente plus loin, de decouper la plage des valeurs possibles d'une variable d'entree en plusieurs intervalles. A chacun de ces intervalles peut alors ^etre associee une valeur binaire, indiquant si la valeur de la variable se trouve ou non dans l'intervalle.

Nos regles sont donc de la forme:

Si entree1 2 [a1;b1] et entree2 2 [a2;b2] ::: et entree3 alors decision1; ou [a1;b1];:::[a2;b2] sont des intervalles de nis respectivement sur les variables d'en-tree reelles entree1 et entree2, et entree3 est une variable binaire. Ceci permet d'as-socier a chaque entree du reseau une valeur binaire correspondant a la valeur de verite d'une proposition utilisee dans les premisses des regles.

Labbi propose une methode de codage de regles de ce type dans une version tres legere-ment modi ee du reseau1. Cette approche s'appuie sur la notion de site assez largement employee dans le domaine des RNA. Un site est un regroupement de connexions d'un m^eme type. Chaque site d'une unite de sortie correspond a une regle, et recoit des connexions depuis toutes les unites d'entree intervenant dans la partie premisse de cette regle. Les connexions vers le site d'indicek, du neurone d'indice i, se voient a ec-ter un poids egal a 1

pik, ou pik est le nombre de propositions qui composent la premisse de la regle correspondante.

Le terme excitateur de l'equation di erentielle regissant l'evolution de l'activation de l'unite d'indicei devient alors:

(1,ai)(Xri

k=1fi(Sik));

ou ri est le nombre de sites de l'unite i. Dans cette equation Sik represente la somme des valeurs transmises par les connexions parvenant au sitek de l'unite i. Cette

5.3. Un exemple de manuvre de haut niveau 149