• Aucun résultat trouvé

1.3 Connexionnisme

2.1.1 Description du syst` eme

On consid`ere le syst`eme dynamique constitu´e par le jeu de N ´equations cou-pl´ees (2.1) : xi(t) = f N X j=1 Jijxj(t − 1) − θi ! (2.1)

C’est, on le voit, un mod`ele `a temps discret. Des intervalles de temps uni-taires s´eparent la mise `a jour des ´etats. Ces intervalles peuvent ˆetre consid´er´e comme des d´elais de transmission synaptique, r´eduits `a leur expression la plus simple. La mise a jour ´etant effectu´ee en parall`ele, on a `a chaque mise `a jour une multiplication de la matrice des poids J = (Jij)i=1..N,j=1..N par le vecteur d’´etats x(t) = (x1(t), ..., xN(t))T auquel on soustrait le vecteur des seuils θ = (θ1, ..., θN)T. Le syst`eme admet donc comme ´ecriture matricielle :

x(t) = f (J x(t − 1) − θ)

La fonction de transfert f est traditionnellement une fonction sigmo¨ıdale, `

a valeurs sur ]-1,1[ ou ]0,1[. Une fonction de transfert `a valeurs sur ]-1,1[ est en g´en´eral consid´er´ee comme moins plausible biologiquement dans la mesure o`u le signe du produit Jijxj(t − 1) ne d´epend pas uniquement du signe du lien synaptique, et ne permet pas de d´efinir des liens excitateurs ou inhibiteurs. La plupart des ´etudes num´eriques porteront sur un syst`eme dont la fonction de transfert prend ses valeurs sur ]0,1[. Le choix de cette fonction de transfert n’est pas fondamental. On choisit de la faire d´ependre du param`etre g, qui conditionne la forme de la fonction de transfert (voir figure2.1) et en particulier la valeur de la d´eriv´ee en z´ero. Cette valeur de la d´eriv´ee en z´ero constitue le gain. Intuitivement, le gain donne une approximation du taux d’amplification d’un signal centr´e. La fonction de transfert qui sera utilis´ee par la suite est la fonction

fg(x) = 1 + tanh(gx) 2

2.1 ´Equations d’´evolution `a taille finie 45

Fig. 2.1 – influence du param`etre de gain g sur la forme de la fonction de transfert fg(x) = 1 + tanh(gx)

2 . La fonction de transfert a ´et´e repr´esent´ee pour des valeurs de g ´egales (de gauche `a droite) `a 2, 4 et 6. On a repr´esent´e en pointill´e la fonction seuil Θ(x > 0).

de gain g/2. Plusieurs mesures exploratoires ont par ailleurs ´et´e effectu´ees sur les fonctions gg(x) = 1+erf(gx)2 et hg(x) = 12 +arctan(

π 2gx)

π sans modification qualitative du comportement dynamique : les valeurs de bifurcation changent, mais tous les modes dynamiques sont repr´esent´es. Enfin, il faut noter que lorsque g tend vers l’infini, toutes ces fonctions tendent vers la fonction seuil Θ(x > 0) qui provoque des sorties binaires. Dans la plage de valeurs que nous nous fixerons (g prenant ses valeurs entre 2 et 20), les caract´eristiques du signal de sortie resteront celles d’un signal continu.

Chacune des N ´equations de (2.1) d´ecrit la loi de mise `a jour de l’´etat d’acti-vation (ou l’actid’acti-vation) xi(t) de l’unit´e neuronale index´ee par l’indice i. `A chaque instant, l’activation du neurone au temps t est conditionn´e par l’activation de tous les neurones `a l’instant pr´ec´edent.

On appelle dimension spatiale la dimension sur laquelle ´evolue l’indice i et dimension temporelle la dimension sur laquelle ´evolue l’indice t. La moyenne spa-tiale d´esigne la moyenne sur tous les neurones `a un instant donn´e, et la moyenne temporelle d´esigne la valeur moyenne d’un signal ´emis par un seul neurone. No-tons au passage qu’il existe une autre dimension n´ecessaire pour les approches plus th´eoriques, appel´ee la dimension de l’al´ea. Cette dimension porte sur l’en-semble des tirages al´eatoires possibles selon les param`etres du mod`ele.

On distingue habituellement deux grandeurs qui permettent de d´ecrire de fa¸con plus d´etaill´ee les caract´eristiques du neurone `a l’instant t :

– Champ local : c’est le terme de sommation des activations des autres neu-rones au temps t−1 pond´er´e par le poids synaptique Jij. Ce terme repr´esente l’influence `a laquelle est soumis le neurone `a cet instant.

ci(t) =

N

X

j=1

Jijxj(t − 1)

sous-46 Un mod`ele g´en´erique pour l’´etude des dynamiques neuronales

trait le seuil, qui correspond `a une influence propre conditionnant l’activa-tion .

ui(t) = ci(t) − θi

En fin de compte, on d´ecrit habituellement le syst`eme par le jeu d’´equations coupl´ees (2.2).      ui(t) = N X j=1 Jijxj(t − 1) − θi xi(t) = f (ui(t)) (2.2)

Du point de vue de l’interpr´etation biologique, on consid`ere parfois que, dans le cas d’une fonction de transfert `a valeurs sur ]0, 1[, l’activation xi(t) repr´esente le taux de d´echarge du neurone sur l’intervalle ]t − 1, t[, la valeur 1 ´etant rapport´ee `

a la fr´equence de d´echarge maximale. C’est l’interpr´etation traditionnelle des fonctions de transfert `a ´etats continus.

Une autre interpr´etation consiste `a consid´erer la valeur de xi(t) comme une probabilit´e de d´echarge sur l’intervalle ]t − 1, t[. Cette interpr´etation peut ˆetre mise en œuvre num´eriquement, auquel cas l’activation au temps t d´epend d’une probabilit´e et prend des valeurs binaires (un spike/pas de spike). `A grande taille, ce mod`ele est ´equivalent `a un mod`ele `a ´etats continus dont le champ local est bruit´e par un bruit gaussien 1. Un tel mod`ele est pr´esent´e page67.

L’approche que nous adopterons dans le cadre de cette th`ese est sensiblement diff´erente et sera justifi´ee plus loin. On ´etablira un crit`ere d’activit´e du neurone fond´e sur l’´ecart-type du signal d’activation. Dans ce cadre, les neurones dont l’´ecart-type est faible sont consid´er´es comme inactifs. Cela vaut pour les neurones dont le signal est satur´e par la fonction de transfert.

La taille du r´eseau (nombre d’unit´es) est N . La matrice Jij, de taille N × N , d´ecrit les couplages du r´eseau. L’espace des param`etres est de grande dimension, et, de ce fait, des pr´edictions sur le comportement asymptotique sont tr`es difficiles. On a donc fix´e certaines r`egles pour r´eduire l’espace des param`etres. Les poids sont des variables gaussiennes ind´ependantes et de moyenne E(Jij) = ¯J /N et de variance var(Jij) = σ2

J/N , o`u N est la taille du r´eseau et σJ l’´ecart-type de r´ef´erence. On notera que la loi qui d´efinit les tirages des poids synaptiques a ´

et´e choisie de telle sorte que l’esp´erance et la variance de la somme des poids aff´erents P

jJij ne d´ependent pas de N , et valent respectivement ¯J et σ2 J. On impose de plus Jii= 0 (les neurones ne rebouclent pas sur eux-mˆemes). Les seuils sont gaussiens, de moyenne ¯θ et de variance σ2

θ.

1En effet, si on note le spike si(t) ∈ {−1, 1}, avec P(si(t) = 1) = xi(t) (soit E(si(t)) = xi(t)), alors le champ localP

jJijsj(t) prend `a chaque instant une valeur selon une loi qui se rapproche d’une loi gaussienne lorsque N est grand, et dont l’esp´erance vaut P

jJijxj(t). L’´ecart par rapport `a cette esp´erance se comporte comme un bruit gaussien centr´e additionn´e au champ local.

2.1 ´Equations d’´evolution `a taille finie 47

Les variables g, ¯J , σJ, ¯θ, σθ constituent les param`etres macroscopiques du sys-t`eme. Les valeurs pr´ecises des Jij et des θi issues d’un tirage al´eatoire constituent les param`etres microscopiques du syst`eme.

Plusieurs remarques en d´ecoulent :

– Le tirage des poids et des seuils permet de caract´eriser enti`erement le sys-t`eme dynamique. En introduisant cet al´ea sur les poids, on se donne les moyens de construire autant de r´eseaux diff´erents qu’on le souhaite. On parle de syst`emes `a al´ea gel´e pour caract´eriser des syst`emes d´ependant d’un tirage particulier.

– Pour obtenir une certaine homog´en´eit´e des comportements dynamiques d’un r´eseau `a l’autre, on est amen´e `a s’int´eresser `a des syst`emes de grande taille. En effet, plus la taille est grande, plus les neurones tendront `a se com-porter statistiquement de la mˆeme mani`ere, moins la dynamique d´ependra du tirage initial des poids, et plus il sera facile de faire des pr´evisions sur le comportement de tels r´eseaux.

– Du fait de la loi qui d´efinit les poids, les connexions sont (presque sˆurement) asym´etriques. Cette asym´etrie des connexions synaptiques est une condition n´ecessaire pour obtenir des comportements dynamiques complexes. En bri-sant la contrainte de sym´etrie du mod`ele de Hopfield, on perd l’assurance de converger vers un point fixe.

– Toujours par opposition au mod`ele de Hopfield, le syst`eme poss`ede pour une large plage de param`etres un bassin d’attraction unique 2. Pour les pa-ram`etres courants que nous utiliserons, toute condition initiale m`ene donc au mˆeme attracteur. Dans ces conditions, l’apport d’information ne peut pas reposer sur la configuration des ´etats initiaux, mais il faudra agir direc-tement sur les param`etres microscopiques du syst`eme (valeurs des poids, valeurs des seuils).

– Le r´eseau est dens´ement connect´e, les connexions ´etant presque sˆurement diff´erentes de z´ero. Il n’y a aucune g´eom´etrie au pr´ealable dans un tel sys-t`eme, et en particulier chaque neurone est voisin de tous les autres neurones.

`

A chaque instant, chaque neurone traite un signal de champ (champ local) qui se fonde sur la totalit´e de l’activit´e du r´eseau au temps pr´ec´edent.