• Aucun résultat trouvé

Tailles de population

Dans le document en fr (Page 159-166)

Apprentissage temporel au sein d’une population

3. Influence de quelques paramètres sur la dynamique 1 Le seuil de décharge, déterminant de sélectivité

3.2. Tailles de population

Si le seuil détermine bien la sélectivité, c’est qu’il conditionne la quantité d’information qu’un neurone peut contenir. Par là même, on pourrait mesurer la quantité d’information que recèle une base définie d’images par le produit du nombre de neurones nécessaires pour la représenter et de leur seuil respectif. Dans le cas présent, celui des 1708 images, cette mesure serait de l’ordre de 300 unités: la simulation de base sélectionne 9 neurones avec un seuil de 36, soit 324 unités; celle avec un seuil de 50 produit 6 neurones matures (300); enfin, la simulation avec un seuil de 20 en développe 11 (soit 220).

Figure III.15. Nombre de neurones sélectionnés au terme du processus d’apprentissage en fonction du nombre de neurones mis à disposition. 3 simulations ont été menées pour chaque condition de nombre de neurones initiaux dans la population d’apprentissage, c’est-à-dire 3, 10, 20, 50 et 100 (un cercle gris par résultat, leurs moyennes au sein de chaque condition jointes par le trait plein). 3 neurones initiaux sont insuffisants quand pour 10, le système se stabilise sur une catégorisation grossière. Le nombre de neurones utiles au codage de la base d’entrée atteint un plateau à partir de 20, le situant ainsi aux alentours de 10.

Avant cela toutefois, il s’agit de bien vérifier que le nombre de neurones obtenus est stable et de ce point de vue, le nombre de neurones mis à disposition dans la population initiale peut être critique. En effet que se passe-t-il si moins de neuf neurones sont en compétition dans les conditions de la simulation de base? La charge informative va-t-elle se répartir entre les neurones présents ? De même nous pouvons nous demander si, en présence d’un plus grand nombre d’unités, le nombre de neurones développés ne serait pas plus grand que 9. Pour répondre à ces questions, les simulations ont été faites 3 fois avec des tailles de population différentes (3, 10, 20 et 50) et le nombre de neurones finaux comptabilisés (Figure III.15).

Avec 3 cellules capables d’apprendre par STDP, le résultat est simple: aucun neurone n’est finalement retenu. En effet, à chaque présentation, l’un des 3 neurones est obligé de répondre; et puisque la STDP possède une intégrale négative, il a tendance à perdre du potentiel. Ce qui se traduit par une augmentation de la latence moyenne des neurones, car ils ne peuvent se spécialiser sur une sélectivité en particulier. Dans le cas standard par contre, à 20 neurones, dés qu’un stimulus un peu différent de ceux appris jusqu’à alors était présenté, un nouveau neurone pouvait être recruté pour s’en charger, qui allait lui aussi diminuer sa latence postsynaptique. Mais à force de perdre du potentiel synaptique, les neurones finissent par répondre avec des latences de 200 millisecondes: au vu de la population à disposition pour les stocker, les stimuli sont trop divers, l’environnement trop riche pour que le système converge vers autre chose qu’un état d’inactivité.

Figure III.16. Cartes de réponses. Les réponses de populations ont été mesurées à l’état final de la même manière que précédemment pour chacune des 3 simulations, dans les conditions de 10, 20 et 50 neurones initiaux (les cartes pour les simulations à 100 neurones initiaux ne sont pas montrées, car elles ne diffèrent pas sensiblement des 50). Chacune des cellules matures est représentée par une luminance croissante avec l’ordre d’apparition (en noir la première cellule, en blanc la dernière). Dans le cas de la première simulation à 10 neurones, les réponses noires correspondent en fait à des cellules non sélectionnées au terme du processus d’apprentissage. Ceci illustre la fragilité relative de la catégorisation grossière issue du nombre restreint de neurones disponibles. En revanche, dés 20 neurones, les différentes cartes présentent des neurones sélectifs à une gamme d’orientation et de tailles de visage.

Quand 10 neurones sont mis à disposition, le système est capable de converger, et sélectionne au final assez peu de neurones: les 3 simulations produisent en effet 2, 4 et 4 neurones matures, qui

possèdent des sélectivités plus étendues que dans le cas de base (Figure III.16 colonne de gauche). En somme, le système est contraint à un état de catégorisation grossière, car le faible nombre de neurones empêche tout recrutement d’unités supplémentaires pour coder des stimuli plus spécifiques.

Les deux simulations supplémentaires à 20 neurones en apprentissage produisent à peu prés le même nombre d’unités matures que dans le cas général (9 et 8), pour des cartes de réponses similaires (Figure III.16 colonne du milieu).

Les simulations à 50 et 100 neurones étaient censées permettre au système d’obtenir plus de neurones matures, pour des cartes de réponses plus fragmentées. Ce n’est pas le cas, comme en atteste le nombre de neurones sélectionnés (8, 10 et 11 pour 50; 10, 11 et 12 pour 100) ainsi que les cartes de réponses correspondantes, très similaires au cas précédent (Figure III.16 colonne de droite).

Nous aurons donc démontré ici que les résultats obtenus dans la simulation de base sont bien stables, pourvu que suffisamment de neurones soient mis à disposition, et correspondent probablement à l’état qu’atteindrait un système à nombre de neurones « infinis ». Nous pouvons donc évaluer, sur la base des simulations à 20, 50 et 100 neurones initiaux, la quantité d’information présente dans l’ensemble des stimuli à environ 350 unités. Cette mesure est spécifique au type de filtres utilisés (ici, V1): pour des filtres plus simples (rétiniens par exemple), ou plus complexes, des quantités plus grandes, ou respectivement plus faibles, devraient être obtenues.

4. Conclusion

La STDP et un codage neuronal temporel permettent à une population de neurones en compétition d’apprendre des représentations structurées, pour répondre rapidement et sélectivement à la présentation d’un stimulus donné, et ce dans des conditions réalistes de bruit.

Que se passe-t-il ? En début d’apprentissage, la présentation d’un stimulus donné entraîne sa capture par un neurone vierge grâce à la STDP. Ceci provoque des réponses plus précoces chez ce même neurone quand ce même stimulus se re-présente, jusqu’à temps d’atteindre le cœur de sa caractérisation neuronale, la représentation structurée sur les premières afférences. Ce neurone

capturera les autres stimuli suffisamment proches de celui qu’il a appris: ceux-ci évoqueront chez lui des réponses plus longues que celle de son stimulus préféré, mais plus courtes qu’avec n’importe quels neurones vierges. Ce faisant, il développe une représentation intégrée, propre à capturer un sous-ensemble continu de stimuli. Dans une population de neurones, la représentation est donc plutôt basée sur les premières afférences partagées par l’ensemble des stimuli pour lequel il répond en premier (que les premières afférences d’un stimulus particulier dans le cas d’un seul neurone). Par contre, le fait que les niveaux de maturation aient atteint un seuil de 90%, ainsi que l’aspect très structuré des reconstructions de champs récepteurs, confirment bien qu’un sous-ensemble de synapses a été finalement sélectionné. Autrement dit, comme dans le cas 1 neurone-1 stimulus, les neurones sélectionnés ont été amenés par STDP à potentialiser complètement un sous-ensemble de synapses en déprimant complètement le reste.

Les nouveaux stimuli, différents des sélectivités développées dans la population, provoqueront une réponse chez un neurone vierge avant de le faire chez un neurone en développement. La raison en est que par STDP, ce que le neurone gagne par renforcement, il le perd, au double, par dépression: en devenant plus sélectif (rapide) à un sous-ensemble de stimuli, il diminue sa capacité à répondre à n’importe quel autre stimulus puisque l’intégrale de sa fonction est supposée négative. Le neurone vierge qui capture un nouveau stimulus acquiert le territoire environnant, borné par les limites de l’espace d’entrée et les domaines préexistants des autres neurones en développement. Au sein de son domaine, il est capable de produire des réponses présentant une sélectivité dans leur latence.

Cette latence permet aux cellules de se mettre en compétition, de par le circuit d’inhibition en feed-back de la couche en apprentissage. Dans un premier temps, les quelques neurones à avoir réagi en premier accaparent très vite l’ensemble des stimuli, grâce à un temps de réaction sensiblement amélioré par rapport aux vierges. Mais au fur et à mesure de l’apprentissage, ces neurones non vierges développent une sélectivité particulière, déterminée par leur capacité à stocker de l’information, autrement dit leur seuil. Arrivés à maturation, ils ont encore gagné en rapidité mais ce faisant, ont réduit un peu plus l’étendue de leur domaine. De nouveaux neurones peuvent donc être recrutés grâce à leur rapidité relative et combler ainsi les « trous », jusqu’à temps que n’importe quel stimulus soit repéré par un neurone, et un seul.

5. Discussion

L’apprentissage temporel au sein d’une population se caractérise par la sélection d’un sous- ensemble de neurones, qui vont développer des représentations structurées leur permettant des réponses sélectives tant du point de vue de la population qu’au niveau individuel. Il reproduit ainsi les résultats obtenus dans le cas plus simple d’un seul neurone et d’un seul stimulus, mais l’étend au cas de populations, dans le cas de stimulations réduites à un sous-ensemble connu d’images.

Les performances de cette architecture reposent sur l’importance de la dimension temporelle du traitement de l’information: codage neuronal sous la forme de vague asynchrone d’impulsions et processus de régulation synaptique dépendant des temps de décharges. La STDP fixe des représentations au niveau neuronal en regroupant dans chaque neurone sélectionné un ensemble de stimuli similaires. Ces similarités se traduisent ici par des orientations de visage comparables (au niveau du stimulus). Par extension, les vagues de décharges dont les fronts sont plus ou moins composés des mêmes entrées (au niveau de l’activité émise en sortie de C1) vont pouvoir se fixer par STDP sur un neurone. Ce résultat est donc particulièrement important du point de vue de la simulation des performances du système visuel dans les tâches de catégorisation complexes, telle qu’elle est effectuée dans SpikeNet. Là où les poids synaptiques devaient être définis de manière supervisée (VanRullen, Gautrais, Delorme & Thorpe, 1998 ; Delorme & Thorpe, 2001 ; Thorpe, Guyonneau, Guilbaud, Allegraud & VanRullen, 2004), nous avons montré ici qu’une règle de régulation synaptique simple, inspirée de la biologie, permettait le développement non supervisé de sélectivités propres à une reconnaissance des formes dans l’image.

De plus, nous avons découvert une propriété remarquable de cet algorithme de STDP dans les réseaux de neurones asynchrones impulsionnels codant l’information visuelle par latence : l’émergence d’une sélectivité au stimulus visible dans la latence de décharge du neurone postsynaptique. Ainsi, dans ce cas, la latence varie avec l’orientation du visage, en augmentant systématiquement au fur et à mesure que l’orientation s’éloigne d’une orientation préférée, celle pour laquelle la latence est minimale. En plus de permettre la production de réponses stables, vérifiée ici et montrée dans (Guyonneau, VanRullen & Thorpe, 2005), la STDP et un codage par latence de l’information dans la couche d’afférences permettent donc de développer un codage

par latence dans la couche efférente. Cette propriété a une implication particulièrement utile au développement de sélectivités dans une architecture multicouches de traitement de l’information visuelle, comme nous le verrons par la suite.

Pour ces deux raisons, caractère non-supervisé de l’apprentissage et émergence du principe de codage par latence, l’introduction de cet algorithme de STDP inspiré du traitement neuronal de l’information augmente considérablement la puissance computationnelle de SpikeNet. Maintenant que cela nous apprend-t-il sur le traitement visuel rapide, qui a inspiré la forme de codage de l’information à l’œuvre ici ? Le caractère artificiel des visages présentés - contour de visage délimité et posé sur un fond noir, position dans l’espace soigneusement contrôlée - diminue la portée biologique du présent résultat; néanmoins, ils sont tout de même tirés d’images naturelles. De plus, les expériences montrant de la STDP, bien qu’effectuées in vitro, sont non seulement solides et largement reproduites mais aussi valables pour le cortex visuel (Feldman, 2000). Si on admettait l’existence d’un circuit d’inhibition récurrente, peut-être implémenté par des cellules inhibitrices du type « basket », alors nous pourrions avancer que les formes intermédiaires obtenues ici pourraient être développées par STDP dans la voie ventrale, entre les aires de bas- et haut-niveau. Elles permettraient de produire, à la présentation de stimuli visuels, des réponses rapides, sélectives et plus informatives que de simples orientations. Néanmoins, nous nous concentrerons dans cette conclusion sur le caractère computationnel des résultats obtenus, mais reconsidérerons cette question dans le chapitre suivant, où le choix des images va se faire de manière plus naturelle.

- Chapitre IV -

Apprentissage de sélectivités

Dans le document en fr (Page 159-166)