• Aucun résultat trouvé

2.2 Transformations sensorimotrices et neurones à champ de gains

2.2.4 Résultats

Le robot apprend sa coordination visuomotrice à l’aide des neurones GF. Nous vérifions ensuite comment s’est effectué cet apprentissage, en observant les coordonnées spatialles de la main, tant dans l’espace visuel que dans l’espace peripersonnel.

Tout d’abord, le robot effectue un babillage moteur de façon aléatoire afin que les neurones ROC remplissent uniformément l’espace visuomoteur. Après cette période d’apprentissage, qui a durée 12 minutes et correspond à 12000 échantillons, correspondant à une nouvelle configuration de bras toutes les 0, 05 secondes, les neurones ROC s’auto-organisent eux-mêmes et reproduisent le comportement des neurones GF du PPC.

Pour illustrer cette phase, nous avons traçé dans la figure2.11le niveau d’activité de trois différent neurones ROC de la troisième carte, par rapport aux paires de variables (θ0, θ1) et (x, y). Le code de couleur indique la valeur d’activité pour chaque neurone et leurs champs réceptifs respectifs dans le domaine moteur et dans le domaine visuel.

Notons que les champs récepteurs visuels et moteurs ne sont pas séparés les uns des autres, et le niveau d’activité des neurones GF est lié aux quatre variables. Dans la figure2.12par exemple, le niveau d’amplitude d’un neurone GF varie par rapport à l’angle moteur θ0 pour une plage donnée de valeurs sur l’axe X. Le code couleur indique trois intervalles différents de l’angle moteur θ0. On voit que son champ réceptif n’est pas strictement centré sur une valeur particulière de l’axe X, mais se déplace par rapport au retour proprioceptif, phénomène également observé dans les neurones biologiques du PPC [Salinas and Thier,2000].

CHAPITRE 2. APPRENTISSAGE DE COUPLAGES SENSORIMOTEURS

a)

b)

c)

FIGURE2.11 – Activité des neurones GF. Les neurones 1, 4 et 15 resp. a), b) et c) encodent différents emplacements sensoriomoteurs dans (θ0, θ1)et (x, y). Chaque variable est normalisée dans l’intervalle [0, 1].

Pour estimer les propriétés de notre système à généraliser les transformations visuomotrices, nous avons effectuons des expériences sur trois transformations visuelles différentes, en s’ins-pirant des travaux de Iriki, qui a montré sur un macaque une adaptation rapide d’une nouvelle position visuelle de ses membres lors de changements opérés sur un écran [Iriki et al., 1996] ou sur le corps [Maravita and Iriki, 2004;Okanoya et al., 2008]. La première transformation consiste en une légère rotation de la caméra dans le plan du bras robotique. La seconde corres-pond à une extension de la main du robot avec un outil, et la troisième consiste en une translation de la caméra, en suivant le plan des mouvements du bras (voir fig.2.10(b) et (c)).

Dans la figure2.13, nous présentons les transformations estimées correspondant à trois cas a), b) et c), respectivement celui de la rotation, de l’utilisation d’outils et de la translation.

Chaque neurone du perceptron de la couche de sortie estime les valeurs (Δx, Δy) apprises à partir des valeurs réelles (x, y), ainsi que de celles attendues (x, y)provenant des cartes de GF.

Afin de visualiser les transformations qui relient les deux espaces sensorimoteurs, nous avons tracé des flèches liant chaque point (x, y) avec le point après transformation qui y est associé (x + Δx, y + Δy). Dans les figures2.13, on voit en bleu la trajectoire de la main avant transformation, et en rouge la trajectoire de la main après transformation. Notons que la lon-gueur des flèches ne correspond pas à l’amplitude réelle de la transformation, mais est réduite pour qu’elles soient mieux visualisées sur la figure. La figure2.13a) affiche la transformation correspondant à la rotation de la caméra. Comme on peut le voir, les flèches au centre, là où

2.2. TRANSFORMATIONS SENSORIMOTRICES ET NEURONES À CHAMP DE GAINS

FIGURE 2.12 – Dynamique de l’amplitude d’un neurone GF par rapport à la variable motrice θ0 sur l’axe X. Notons que les deux variables sont liées ensemble de par leur amplitude. Les centres sur X se déplacent légèrement aussi par rapport à la variable θ0 comme on le voit également dans les neurones biologiques.

se déplace le robot, approximent correctement la rotation. Ainsi la généralisation effectuée sur un voisinage proche des exemples appris est relativement bonne. Mais au-delà d’une certaine distance par rapport aux exemples appris (soit, dans notre cas, à l’extérieur de la zone centrale), nous pouvons voir des estimations peu précises, et parfois mauvaises, dans lesquelles l’orienta-tion des flèches ne correspond plus vraiment à la direcl’orienta-tion de la rotal’orienta-tion.

La deuxième transformation de la figure 2.13 b) correspond à l’ajout d’un petit bâton à l’extrémité du bras, qui étend celui-ci vers le haut. Au cours de cette expérience, le système de vision interprète la position de l’extrémité du bâton comme étant celle de la main. Dans ce cas également, la transformation est correctement apprise, et cette fois la généralisation est efficace dans une partie de l’espace des paramètres plus important, ce qui est très certainement dû à la simplicité de cette transformation.

La dernière transformation effectuée est un simple décalage vertical de la caméra (voir fig. 2.13 c). Une fois de plus, la transformation est correctement apprise, et cette fois la gé-néralisation s’applique efficacement à presque tout l’espace des paramètres (ce qui s’explique par le fait que la transformation apprise est véritablement globale).

D’autre résultats, notamment sur le problème dit de la correspondance lors d’interactions interpersonnelles, sont à trouver dans l’article que nous avons écrit sur ce sujet [Mahé et al.,

2015].

2.2.5 Conclusion

Dans cette section, nous avons présenté une architecture basée sur les neurones GF susceptible d’encoder l’information sensorimotrice en utilisant des propriétés multiplicatives. Le chaînage de ce type d’opérations multiplicatives, présenté à la figure2.8, permet d’avoir en sortie des neurones GF encodant bien plus de deux informations sensorielles, en utilisant des multiplica-tions du type Xm = Xm1 × Xm2 (voir eq.2.4), permettant de calculer une valeur du neurone

CHAPITRE 2. APPRENTISSAGE DE COUPLAGES SENSORIMOTEURS

a)

b)

c)

FIGURE2.13 – Transformations par rotation, utilisation d’outils et translation. Les flèches correspondent aux transformations locales estimées, les lignes bleues correspondent aux trajectoires originales de la main du robot avant transformation, et les lignes rouges aux trajectoires après transformation. (a) Trans-formation apprise après rotation de la caméra. (b) TransTrans-formation apprise après avoir ajouté un bâton à la main robot. (c) Transformation apprise après translation de la caméra.

2.2. TRANSFORMATIONS SENSORIMOTRICES ET NEURONES À CHAMP DE GAINS GF XGF

n , suivie du type X

m = Xm3 × f(XGF

n )(voir eq.2.6), et ainsi de suite. Outre la res-semblance de ce type de neurones avec ceux que l’on retrouve dans le PPC, ceci permet un encodage de la sensorimotricité qui permet de facilement ajouter de nouvelles opérations les unes à la suite des autres, et ainsi de conserver l’apprentissage précédent tout en ajoutant un correctif en cas de constat d’erreur. Notons que l’idée d’ajouter un correctif permettant de ne pas perturber l’apprentissage précédent sera reprise et développée dans le chapitre4.

Toutefois, le système actuel présente deux limites. La première est que le chaînage est choisi par le modélisateur, et non déterminé par la sensorimotricité du robot. Or l’ordre des opérations a une influence sur le résultat obtenu. De plus, le fait qu’il soit statique empêche d’ajouter facile-ment de nouvelles modalités, ou de nouvelles transformations à la volée. Si toutes les modalités ne sont pas pertinentes à ajouter a priori pour le modélisateur (comme le tactile dans notre ex-périence), notons que cette information peut s’avérer utile pour reconnaître un contexte lié à l’usage d’un outil.

Ce qui nous amène à la seconde limitation. Celle-ci concerne l’absence de moyen de lier l’erreur constatée, et potentiellement corrigée, à un contexte défini. En effet, notre architecture permet d’apprendre à corriger une erreur en apprenant une transformation, laquelle peut cor-respondre à une translation, une rotation, ou encore à l’utilisation d’outil [Mahé et al., 2015]. Si un contexte particulier rend cette transformation nécessaire, il manque un moyen d’attribuer une transformation donnée à un contexte qu’il resterait à déterminer. Ceci permettrait en effet de profiter du fait que le correctif appris ne perturbe pas le précédent apprentissage, et peut donc être dynamiquement activé ou désactivé en fonction de la reconnaissance du contexte courant.

Notons que l’idée que nous venons de présenter est une alternative à une autre méthode qui consiste à déterminer la transformation (de manière plus générale, l’apprentissage pertinent) à partir du signal d’erreur lui-même (voir par exemple la notion de responsabilité dans [Wolpert

et al.,2003]). Au lieu de déduire le contexte, nous proposons de l’apprendre et de prédire les

transformations associées aux différents contextes appris. Comme nous le verrons dans le cha-pitre suivant (chacha-pitre 3), l’inversion de cet apprentissage (dans un sens similaire à celui du modèle inverse) permettrait également de rendre de tels contextes “désirables”.

De fait, la question centrale à laquelle nous proposerons d’apporter des solutions sera celle de l’apprentissage de covariations : nous venons d’évoquer que la loi sensorimotrice varie quand le contexte varie et cette idée sera développée dans les chapitres suivants. Mais dans la section qui suit nous allons nous intéresser à la simple covariations de senseurs et de moteurs, et aux propriétés émergentes d’un tel encodage sensorimoteur.

Nous venons d’évoquer que la loi sensorimotrice varie quand le contexte varie, et cette idée sera développée dans les chapitres suivants. Par ailleurs notons que, de fait, la question centrale à laquelle nous proposerons d’apporter des solutions à partir d’ici sera celle de l’apprentissage de covariations. Dans la section qui suit nous allons nous intéresser à la simple covariations de senseurs et de moteurs, et aux propriétés émergentes d’un tel encodage sensorimoteur.

CHAPITRE 2. APPRENTISSAGE DE COUPLAGES SENSORIMOTEURS