• Aucun résultat trouvé

2.2 Modélisation stochastique haut niveau d’une STT-MTJ

3.1.1 Architecture du système

Dans ce chapitre, nous allons montrer par des simulations à l’échelle d’un système, l’intérêt des jonctions tunnel magnétiques à transfert de spin employées comme éléments synaptiques binaires, programmés selon une règle stochastique. Dans ce but, nous avons adapté un schéma proposé auparavant dans la littérature pour les mémoires à changement de phase137,138 et les mémoires électrochimiques métalliques à pont conducteur88,132. Le système en question implémente un réseau de neurones impulsionnels capable de réaliser un apprentissage non supervisé en s’appuyant sur une règle de type Spike-Timing Dependent Plasticity, simplifiée par rapport à la version biologique usuelle (figure1.10 page 24) et adaptée aux caractéristiques des nanocomposants étudiés. L’architecture de ce système est présentée dans ses grandes lignes à la figure3.1.

137. O. BI C H L E Ret coll., IEEE Transactions on Electron Devices, 2012. 138. M. SU R Iet coll., International Electron Devices Meeting, 2011.

88. M. SU R Iet coll., IEEE Transactions on Electron Devices, 2013. 132. M. SU R Iet coll., IEEE International Electron Devices Meeting, 2012.

(R0) 0 Time Voltage Vread Time Voltage (R1) Time (R1) (R0) (R0) (R0) (R0) I1 I2 (R1)

Input No input No input Input

STT-MTJ LIF neur on LIF neur on

AER data from DVS camera Typically: 0.1 V during 1 ns

(a)

(W0) 0 Time Voltage (W1) ½Vprog Time Voltage (W2) VprogTime Voltage -½Vprog (W2) (W1) Input G→ LIF neur on LIF neur on No input (W0) Input (W1) No input (W0) (W0) POST spike G→ G→ G→ G→ G→ G↗ G↘ Typically: a few 0.1s V during a few ns or µs

(b)

2×tp

FI G U R E3.1 – Schéma général de l’architecture employée pour l’apprentissage à l’échelle d’un système. Les synapses sont organisées en une matrice sans transistors de sélec-tion (structure 1R), chacune étant constituée d’une unique joncsélec-tion tunnel mag-nétique à transfert de spin (STT-MTJ). Les entrées présynaptiques (O) sont ali-mentées par une séquence d’événements enregistrée par une rétine neuromor-phique de type Dynamic Vision Sensor62(DVS) dans un format Address-Event

Rep-resentation (AER). Les trois vignettes supérieures en niveaux de gris constituent

un exemple de représentation de ces signaux d’entrée. Les neurones de sortie (.) sont de type « intègre-et-tire avec fuites » (LIF). Le caractère coloré des symboles triangulaires indique l’activité récente des entrées et sorties correspondantes, dans une fenêtre temporelle définissant le caractère causal ou non d’une paire d’impulsions.

(a) Phase de lecture, ayant lieu pour chaque tir d’un neurone d’entrée (en dehors

d’une phase d’écriture) durant la phase d’inférence du système.

(b) Phase de programmation, qui a lieu lorsqu’un neurone de sortie tire et réalise

un apprentissage de type Spike-Timing Dependent Plasticity probabiliste. Les formes d’onde de tension de programmation (W1) and (W2) sont appliquées si-multanément. Du fait de la nature stochastique de la commutation, seules deux jonctions tunnel magnétiques à transfert de spin changent d’état dans cet exem-ple (G %etG &).

Les neurones d’entrée présentent les signaux d’entrée sous la forme d’impulsions asyn-chrones, qui peuvent par exemple provenir d’un capteur neuromorphique tel que la rétine artificielle de type Dynamic Vision Sensor62présentée dans la partie1.1.3. Les jonctions tun-nel magnétiques à transfert de spin sont organisées en une matrice connectant les neurones d’entrée aux neurones de sortie. La configuration architecturale la plus simple est une matrice passive, qualifiée de « 1R », proposée également dans le cadre d’applications mémoires234. Cette configuration est extrêmement efficace en termes de densité d’intégration et permet de con-necter chaque neurone d’entrée à chaque neurone de sortie par le biais d’une unique jonction tunnel magnétique à transfert de spin, à la manière de la figure1.6a. Contrairement au cas d’une puce mémoire, il est envisageable avec cette configuration de recourir à une phase de lecture hautement parallèle (voir la figure1.11 page 29). Ceci permet en principe d’amoindrir les problèmes des courants parasites de fuite (sneak path currents en anglais) durant les phases d’inférence. Toutefois, des problèmes demeurent pour les phases d’écriture (c’est-à-dire l’ap-prentissage) et de lecture (autrement dit l’inférence), ce qui requiert une énergie inutile et sera discuté ultérieurement dans le chapitre5. Pour s’affranchir de ce problème, il est possible de modifier cette structure en ajoutant un transistor de sélection en série avec chaque cellule mé-moire (configuration dite « 1T-1R »). Cette modification a cependant pour effet de réduire la compacité de l’architecture par rapport à une configuration 1R. Des comparaisons plus détail-lées sur les avantages et les inconvénients des configurations 1R et 1T-1R seront apportées dans le chapitre5, portant sur les problématiques soulevées à l’échelle du circuit par l’utilisation synaptique de jonctions tunnel magnétiques à transfert de spin.

Dans le système que nous considérons, un neurone d’entrée (O) qui tire applique une im-pulsion de tension de courte durée et de faible amplitude sur la matrice d’éléments synaptiques, comme cela est illustré sur la figure3.1a. Ceci a pour effet de faire circuler à travers les éléments de la matrice synaptique des courants qui atteignent de façon parallèle les différents neurones de sortie. Ces neurones de sortie, schématisés par des triangles (.) sur la figure3.1, lisent ces courants tout en maintenant un potentiel constant à leur borne d’entrée. Ceci permet dans le cas d’une matrice sans sélecteurs (structure 1R) de limiter les courants parasites de fuite à travers les autres synapses et peut être réalisé en ayant par exemple recours à des circuits convoyeurs de courant de seconde génération235.

Lors de chaque événement de lecture, le courant reçu par un neurone de sortie dépend de l’état (parallèle ou antiparallèle) de la synapse le reliant à l’entrée activée. Les neurones de sorties présentent deux caractéristiques :

1. Durant la lecture, à l’aide d’un amplificateur de détection (sense-amplifier en anglais), un neurone de sortie est capable de déterminer si l’impulsion qu’il reçoit de la part d’un neurone d’entrée a traversé une synapse dans l’état parallèle ou antiparallèle. Cette ap-proche suppose que durant la durée d’une impulsion de lecture, plusieurs neurones

d’en-62. P. LI C H T S T E I N E R, C. PO S C Het T. DE L B R Ü C K, IEEE Journal of Solid-State Circuits, 2008. 234. W. S. ZH AOet coll., IEEE Transactions on Nanotechnology, 2012.

trée ne peuvent pas être activés simultanément. Il s’agit de la situation rencontrée dans l’application que nous allons utiliser (traitement de données vidéo issues d’une rétine neuromorphique de type Dynamic Vision Sensor).

2. Les neurones de sortie intègrent l’information reçue de la part de leur amplificateur de détection. De façon fonctionnelle, ces neurones impulsionnels sont de type « intègre-et-tire avec fuites » (LIF). Comme nous l’avons vu dans le chapitre1, ces derniers peuvent être réalisés par le biais de circuits analogiques ou numériques13,16,17,236,237. Il est par ailleurs possible de faire l’hypothèse d’un choix de conception selon lequel seules les impulsions d’entrée ayant traversé des synapses dans leur état parallèle sont intégrées par les neurones de sortie. De cette manière, les jonctions tunnel magnétiques dans leur état antiparallèle sont interprétées comme des synapses de poids nul, tandis que les jonctions dans leur état parallèle se comportent comme des synapses de poids unitaire. Une telle interprétation binaire des poids synaptiques permet notamment de lutter contre les effets de la variabilité entre composants ou du bruit.

Lorsqu’un neurone de sortie tire, ce dernier inhibe les autres neurones de sortie en remet-tant à zéro leur variable interne. En pratique, ce comportement peut être réalisé par une ap-proche de type « plus ap-proche voisin » telle qu’un réseau diffusif238. Pourvu de ce mécanisme d’inhibition latérale, notre architecture n’est pas sans rappeler un réseau de neurones de type

Winner-Takes-All. Cette approche permet d’éviter qu’un grand nombre de neurones se

spé-cialisent dans la détection d’un même motif, par exemple en raison d’une fréquence d’appari-tion supérieure de ce dernier.

3.1.2 Une règle d’apprentissage de type Spike-Timing Dependent Plasticity adaptée