• Aucun résultat trouvé

Des hypothèses à l’expérimentation

Dans le document EDP Open (Page 195-200)

L’Origine et l’Evolution du Langage 1

3. Des hypothèses à l’expérimentation

Pour expliquer la genèse, puis l’évolution des langages, notre hypothèse est donc qu’il faut faire appel aux théories des dynamiques de réplication et de l’émergence de multiples niveaux d’organisations. Comment – par quelles méthodes – aborder ce problème d’un point de vue scientifique ? Notre démarche, comme dans d’autres sciences, est de construire des modèles et examiner si ces modèles peuvent reproduire les faits constatés.

3.1 Modèles multi-agents

A la base de ces modèles, est l’idée, implicite dans les développements précédents, que l’émergence d’un langage partagé et relativement stable au sein d’un groupe naît des interactions entre individus et non, par exemple, de décisions prises par quelque institution.

Ce parti pris affirmant le rôle central des interactions entre individus dans la structuration d’une collectivité - ségrégation, répartition de rôles, division du travail, etc. - est l’apanage

d’un courant de la sociologie, parfois nommé individualisme méthodologique. Il conduit à des modèles informatiques de processus sociaux appelé modèles multi-agents – Agents-based models. Ces modèles mettent en oeuvre un ensemble d’agents – c.-à-d. des entités artificielles – des modules de programmes informatiques, ou même dans notre cas, on va le voir, des robots – dotés de fonctions minimales et de capacités d’interagir les uns avec les autres. L’observation de ce à quoi conduit la succession d’un grand nombre d’interactions, à la fois dans l’organisation globale de l’ensemble des agents et dans l’état interne de chacun d’eux permet de tester la pertinence du modèle pour expliquer les dynamiques réelles.

Un des premiers exemples significatifs de cette approche a été celle de Thomas Schelling, prix Nobel d’économie en 1978. Thomas Schelling s’est intéressé à l’émergence d’une structuration d’une ségrégation spatiale d’une population en différents groupes séparés, par exemple dans une ville comme New-York (cf. figure 9). Son point de vue était que cette structuration n’est pas le résultat d’une planification, d’une organisation urbaine décidée par une administration. C’est pour une large part le résultat d’un processus spontané. Par le biais d’un modèle à base d’agents, il a pu proposer une explication scientifique de cette structuration. Pour ce faire, il a imaginé un monde virtuel (numérique) constitué d’une grille spatiale dont chaque cellule représente une maison, et une population d’agents, chacun d’eux étant caractérisé par un ensemble d’attributs très simples : l’origine – le pays où ils sont nés – la langue, etc.

Figure 9. 2010 US Census New York City map, couleurs en fonction de la race [16, Pl. 15, 15].

Tous ces agents ont les mêmes règles de comportement : par exemple, habitant d’une maison, l’agent regarde quels sont ses voisins et si ces voisins partagent avec lui certaines caractéristiques – certains attributs – il est content et reste dans cette maison. Sinon il a tendance à déménager. La réflexion scientifique, la construction du modèle consiste à trouver les règles de comportements individuels les plus simples possibles permettant de reproduire, par simulation dans ce monde virtuel, la structuration observée dans le monde réel. On se demandera par exemple si une reproduction convaincante est assurée par la règle du choix aléatoire fixant la maison dans laquelle l’agent va déménager, par un choix au hasard dans l’ensemble des maisons libres. La figure 10 montre ainsi la configuration spatiale initiale de ce monde artificiel numérique, homogène, et la configuration finale, où apparait clairement une ségrégation par quartiers différents et séparés ; reste à examiner ensuite si, statistiquement (fragmentation, taille des agrégats, forme des contours, etc.), la ségrégation obtenue est similaire à la ségrégation observée.

Figure 10. Le modèle de ségrégation de Schelling [16, Planche 17, 15].

Dans notre investigation sur la genèse d’un langage partagé par une communauté, nous avons utilisé la même approche. Nous nous sommes donnés une population « d’agents linguistiques » dotés de certaines capacités minimales, par exemple d’émettre et de recevoir des « mots » mais sans que ces mots soient partagés au départ d’un agent à un autre, ni aient pour eux une signification commune ; puis on les fait interagir entre eux. On examine alors ce qui se passe et on constate, après un certain temps, l’émergence, au sein de cette

population, d’un langage commun. Cette approche, initiée en 1996, a rencontré à ses débuts – et rencontre toujours – un certain scepticisme. Mais nous pensons qu’elle a fait ses preuves et a de grandes potentialités. Les agents mis en œuvre sont plus complexes que ceux de Schelling. Initialement ces agents étaient de simples programmes interagissant entre eux au sein d’un ordinateur – c’était évidemment plus facile et plus économique – mais très vite nous avons investi une approche physique, chaque agent étant incarné par un robot, un vrai robot. Si en effet il peut être utile de faire des simulations numériques, il s’avère nécessaire, à un certain moment, d’expérimenter dans la réalité physique : les mots prennent en effet d’abord leur sens dans cette réalité physique, ils parlent de cette réalité, en mobilisant les processus de perception : on regarde tel objet, on parle et on dit : une table. C’est ce qu’il faut expliquer : comment, à partir de la perception de cet objet physique, une table, en est-t-on arrivé à le désigner par un mot comme « la table ». En montant des expériences avec des robots, on est sûr - du moins est-ce notre hypothèse - d’attaquer les problèmes d’une façon similaire à la manière dont le font les cerveaux.

3.2 Modèles d’agents et évolution du langage

Quelques exemples de notre travail sont illustrés par des vidéos. Une première vidéo montre ainsi un jeu très simple de mouvement : deux robots apprennent à associer certains mouvements – ouvrir la main… – à des mots précis – formés de suites de syllabes arbitraires – sur lesquels ils vont progressivement s’accorder : un agent demande à un autre agent, en utilisant un mot de son invention – une suite de syllabe arbitraire –, de faire un certain mouvement, par exemple d’ouvrir la main. L’autre agent, face à ce mot qu’il entend pour la première fois, dit « je ne sais pas » ; le premier agent lui montre alors le mouvement. Et le second apprend, voire d’autres agents qui ont également entendu le mot prononcé et pu voir le mouvement. A travers une série d’interactions du même type, se stabilise un vocabulaire partagé désignant des mouvements possibles. Une autre vidéo montre des robots entrant dans un environnement formé de différents objets (cf. figure 11).

Le but est d’amener progressivement ces robots à communiquer par un mot une demande d’attention à tel ou tel de ces objets, une bouteille d’eau par exemple, et bien sûr que cette communication soit efficace, savoir que les robots récepteurs du message prêtent attention à l’objet concerné. Donc arriver à une situation courante chez les humains : si on me dit : veux-tu me donner du papier pour que j’écrive sur …, je vais aller chercher du papier et le donner.

Sans entrer dans toutes les techniques mises en œuvre pour réaliser ces expériences, techniques qui ressortent de l’Intelligence Artificielle, analysons-en brièvement quelques unes.

3.3 Distinguer et nommer des couleurs

Une de ces expériences concerne l’émergence d’un vocabulaire pour les couleurs (cf. [14]).

Cette expérience mobilise des agents, de fait des robots, environnés d’un ensemble d’objets colorés de différentes couleurs et nuances. Au départ, ces agents n’ont aucun vocabulaire

pour désigner des couleurs ; mais à la fin du processus, ils en partagent un. Un tel vocabulaire en a émergé, similaire à celui dont nous disposons.

Figure 11. The naming game [3].

De quoi faut-il doter ces agents pour que cette expérience aboutisse ? Il faut d’abord qu’ils aient une capacité de percevoir, donc qu’ils disposent chacun d’une caméra. Il faut qu’ils soient ensuite armés pour projeter chaque objet (ou partie d’objet) perçu dans un certain espace abstrait – un espace de configuration, un feature space –, dont chaque dimension représente une caractéristique mesurée sur cet objet – plus spécifiquement dans ces travaux, pour être proche de l’œil humain, une projection sur le diagramme tridimensionnel CIE/Lab (un axe de luminence, allant du noir au blanc et deux axes de couleurs allant respectivement du vert au rouge et du bleu au jaune, voir figure 12). Il faut également qu’ils soient équipés pour être à même de délimiter, dans cet espace de configuration, des régions distinctes, qui constitueront autant de catégories – ici des catégories de couleurs. Cette capacité de catégoriser conduit les agents, à chaque étape de ce « jeu de langage », à un ensemble de catégories provisoires et propres à chacun d’eux. Ces agents sont en outre capables d’associer librement à ces catégories provisoires des mots (des suites arbitraires de syllabes).

L’expérience consiste en une succession d’interactions entre deux robots. Lors de chacun de ces jeux, un robot speaker s’adresse à un robot hearer en lui proposant un mot et lui demande de deviner, c.à.d. de désigner par un geste un objet qui ressort de la catégorie que

Figure 12. Perception, Feature space, Catégories, Symboles [16, Planche 34, 15].

le speaker avait associée à ce mot. Si le hearer devine bien, la communication entre les deux est un succès et l’association mot-catégorie est renforcée dans le cerveau des deux robots, ainsi que validité de leur catégorisation respective pour l’objet désigné2. Parallèlement d’autres associations voient leur force diminuée (processus d’inhibition). Au début du processus, les agents possèdent toutes les capacités mais n’ont aucun vocabulaire ni aucun répertoire de catégories. L’objectif est qu’au terme du processus – en fait un processus d’apprentissage coopératif – aient émergé parallèlement des catégories – en l’occurrence de couleurs – et des mots pour les désigner, communs à tous les agents.

2 D’autres type d’interactions peuvent bien sûr être mises en oeuvre, comme par exemple celles où un robot attire l’attention d’un autre robot en lui désignant par un geste et en prononçant le mot correspondant à la couleur qu’il lui attribut.

Dans le document EDP Open (Page 195-200)