• Aucun résultat trouvé

4.2 Des composants aux multiples comportements plastiques

4.2.1 Plasticité synaptique non « hebbienne »

La transition plastique détaillée dans cette partie a récemment été l’objet d’un article de la part de nos collaborateurs133. Nous rappelons ici une partie de ces résultats, nécessaire à la compréhension du reste du chapitre.

Remarque

Dans l’ensemble de ce chapitre, les impulsions de programmation appliquées sur les cellules électrochimiques métalliques sont toutes identiques et de forme rectangulaire, d’une amplitude de 0,4 V pour une durée de 50µs.

4.2.1.1 D’une plasticité à court terme vers une plasticité à plus long terme

FI G U R E4.3 – Les graphes dont l’arrière-fond est coloré présentent l’évolution au cours du temps t de la conductance électrique G lorsqu’un train d’impulsions de tension tel que celui esquissé en insert est appliqué sur un échantillon. Les pointes noires sont des relevés expérimentaux, tandis que les symboles rouges (

) sont les pré-dictions d’un modèle ajusté, présenté dans la partie4.2.1.2. Ces graphes mettent en évidence l’existence de différentes échelles temporelles de plasticité : à court terme (à gauche, fond rose) ou à plus long terme (à droite, fond bleu). Source : adapté d’une figure de S. LABA R B E R A.

Appliquées de façon répétée à un échantillon, des impulsions de tension carrées simples induisent une potentialisation de ce dernier, associée à la croissance d’un filament d’argent mé-tallique. Appliquer un nombre restreint de telles impulsions de programmation se traduit par la formation de filaments fins, qui tendent à se dissoudre rapidement en l’absence de stimulation électrique, tandis que l’application d’un nombre important de ces mêmes impulsions entraîne le développement de filaments plus larges, qui sont ainsi plus stables dans le temps lorsque la stimulation électrique est arrêtée. Ces deux approches permettent d’obtenir une plasticité respectivement à court terme (STP) et à plus long terme (LTP), comme le montre la figure4.3. La stabilité filamentaire est interprétée comme le résultat d’une compétition entre une énergie de surface qui tend à dissoudre les filaments (plasticité à court terme) et une énergie de volume qui au contraire les stabilise (plasticité à plus long terme).

À l’issue de l’application d’un train d’impulsions de programmation, la conductance atteint une valeur Gfinal. Il est possible de suivre l’évolution de la conductance depuis cette valeur en ap-pliquant des impulsions de lecture d’une amplitude suffisamment faible pour ne pas perturber

FI G U R E4.4 – Observation d’une loi de puissance entre la constante de temps τfac de la relaxation exponentielle et la conductance Gfinalatteinte à l’issue du train d’im-pulsions de programmation. Les symboles (

) indiquent les points expérimen-taux, tandis que la ligne en trait plein orange est un ajustement du modèle (équation (4.1)). Les différents états de potentialisation (c’est-à-dire les dif-férentes valeurs de Gfinal) ont été obtenus en modifiant le nombre d’impulsions de programmation de 3 à 150, ainsi qu’en faisant varier la fréquence de ces dernières de 1 à 5 kHz. Les aires colorées classent les valeurs de constante de tempsτfac selon deux type de plasticité : à court terme (STP, en rose) et à plus long terme (LTP, en bleu). La valeur numérique de la durée employée pour distinguer les deux zones est ici arbitraire ; dans la pratique, elle dépend de la tâche à résoudre.

l’échantillon. Dans le cas présent, ce suivi a été réalisé durant 100 s après la dernière impulsion de programmation, G100 sdésignant la conductance de l’échantillon après une telle durée. La relaxation peut être ajustée avec un modèle de décroissance exponentielle, de constante de tempsτfac. La figure4.4montre cette constante de tempsτfac présente avec la conductance

Gfinal à l’issue de la programmation une relation de type loi de puissance. Autrement dit, la rétention de la cellule mémoire dépend de sa potentialisation, selon la formule

τfac= C0× (Gfinal)C1. (4.1) Un ajustement de cette formule sur des données obtenues pour différentes fréquences et lon-gueurs de trains d’impulsions de programmation nous permet d’obtenir C0= 3,4 × 1012s·S−C1

et C1= 4.

Remarque

Il est à noter que la frontière entre « court terme » et « long terme » est une notion qui dépend de la tâche visée. Ainsi, la durée moyenne nécessaire à l’apprentissage d’un motif doit correspondre à la dynamique à court terme des synapses électrochimiques métalliques, de façon à observer une transition vers un régime à plus long terme après la répétition de ce motif.

4.2.1.2 Vers un premier modèle d’évolution de la conductance

De façon à décrire l’évolution des cellules électrochimiques métalliques considérées lorsque ces dernières sont soumises à des impulsions de tension positiveIrectangulaires, un modèle a été développé par nos collaborateurs de l’Institut d’Électronique de Microélectronique et de Nanotechnologie133. Il s’appuie sur une description analytique simple (dérivée d’un modèle phénoménologique de synapses utilisé en biologie) pour décrire le comportement observé expérimentalement.

Le modèle retenu est basé sur l’observation de deux dynamiques distinctes au sein des cellules mémoires étudiées :

1. une relaxation de leur conductance G en l’absence de stimulation électrique ;

2. à l’opposé, un incrément de conductance provoqué l’application d’une impulsion de tension positive rectangulaire de programmation.

Soit un échantillon ayant atteint après n − 1 impulsions une conductance de valeur Gn−1, comprise entre une valeur minimum Gmin(environ 1µS dans notre cas) et une valeur maxi-male A (autour de 3 mS pour les échantillons étudiés). Après une duréeδt sans stimulation, sa

conductance n’est plus que

Grelax(δt) = (Gn−1−Gmin) × expµ −δt

τfac

+Gmin, (4.2)

avec la constante de tempsτfacsuivant une loi de puissance calquée sur l’équation (4.2) :

τfac= C0× (Gn−1)C1. (4.3)

Par ailleurs, lors de l’application d’une nouvelle impulsion de programmation (d’indice n) à l’issue d’un délaiδt, la conductance de ce même échantillon devient

Gn= Grelax(δt) | {z } Relaxation + U × (A −Grelax(δt)) | {z } Incrément programmation . (4.4)

Le facteur U est une constante numérique comprise entre 0 et 1, qui module l’incrément de potentialisation induit par une impulsion de programmation.

Il a été constaté après ajustement de ce modèle aux relevés expérimentaux obtenus lors de l’application de trains d’impulsions de programmation à fréquence fixe, que les paramètres A et

U (relatifs à l’effet potentialisant d’une impulsion) demeurent constants jusqu’à des fréquences

d’au moins 5 kHz (les instants initiaux de deux impulsions successives sont alors séparés de 200µs). Dans cette gamme de fréquence, ce premier modèle analytique simple donne de bonnes prédictions quantitatives du comportement plastique des cellules électrochimiques métalliques, en particulier lors de leur transition d’une plasticité à court terme vers une plasticité à plus long terme, comme le montrent les ajustements de la figure4.3 page 129.

Le modèle constitué des équations (4.2) à (4.4) capture ainsi les principales propriétés des cellules électrochimiques métalliques Ag2S intéressantes pour un usage synaptique. Tout d’abord, en l’absence de stimulation électrique, la relaxation naturelle des filaments entraîne la dépression de toutes les synapses faiblement potentialisées, jusqu’à ce qu’elles atteignent leur valeur minimale de conductance. À l’issue de ce processus, seules les synapses fortement potentialisées avant l’arrêt des stimulations électriques forment encore des connexions synap-tiques fortes, du fait de constantes de tempsτfacde valeur élevée. Un comportement similaire a été observé au sein de systèmes biologiques, où les synapses faibles tendent à disparaître au cours du temps261. Ceci n’est d’ailleurs pas sans rappeler également les stratégies de pénali-sation des connexions de poids faible en apprentissage automatique262. Par ailleurs, d’après l’équation (4.4), l’incrément de potentialisation devient nul lorsque la conductance G atteint la valeur maximale A, ce qui conduit à l’obtention de poids synaptiques bornés, évitant ainsi toute divergence de ces derniers.

261. G. CH E C H I K, I. ME I L I J S O Net E. RU P P I N, Neural Computation, 1999. 262. R. SE T I O N O, Neural Computation, 1997.