• Aucun résultat trouvé

Résultats avec 32 mots et 32 environnements locaux

permettre à un lexique clair de se former [Kaplan, 2000]. Lorsqu’on utilise le modèle minimal aucune confusion ne s’installe, celle-ci apparaît lorsqu’on passe à 8 mots. Le fait qu’il y ait 12 règles par individu peut justifier que la confusion s’installe puisqu’à l’aide de 12 règles on peut distinguer plus de 8 mots et plus de 8 sens sans pour autant avoir une relation bijective. Tester les 64 possibilités est quasiment impossible au niveau individuel à cause de l’uniformisation de ceux-ci, bien que les 10 individus par agent de départ permettent théoriquement de le faire. L’augmentation du nombre de mots transforme cette relation bijective par l’appauvrissement du facteur nombre de règles par rapport aux nombres de combinaisons possibles. En effet, on peut difficilement distinguer 16 mots avec 12 règles, par conséquent, le système risque d’avoir tendance à utiliser les mots de manière unique. Ce phénomène s’amplifie avec 32 mots. A l’inverse lorsqu’il n’y a que 4 mots et 4 sens distinguables, les 12 règles permettent pratiquement d’évaluer l’ensemble des 16 combinaisons possibles et d’éliminer progressivement celles qui sont inutiles.

Nous allons vérifier cette hypothèse à l’aide d’expérimentations complémentaires mesurant l’état de confusion dans les lexiques en cours de formation.

6.4.2 Analyse du lexique

Nous avons défini un modèle de communication pour lequel la fonction de récompense favorise le développement de la communication entre les agents vers la formation de lexiques idéaux. Pourtant, même dans ce cas de figure idéale, et comme l’a constaté [Edwin De Jong, 2000] :

142 CHAPITRE 6. COMMUNIQUER AVEC DES SMA HÉTÉROGÈNES Inspection revealed that words did not always uniquely identify a meaning, but were sometimes associated with several meanings.16

La confusion dans la formation des lexiques s’exprime par la tendance des agents à utiliser plusieurs mots pour désigner une chose (synonymie) ou au contraire à n’utiliser qu’un mot pour désigner plu- sieurs choses (homonymie). Nous allons voir l’influence réelle sur la formation des lexiques de l’aug- mentation du nombre de mots, en terme d’homonymie et de synonymie.

Homonymie L’homonymie se traduit par l’utilisation d’un mot pour désigner plusieurs sens diffé-

rents. Au niveau de la matrice dénotationnelle, nous pouvons calculer un pourcentage d’homonymie dans un lexique en modifiant légèrement la mesure d’entropie et plus particulièrement le calcul de pi j qui, pour mémoire, donne le poids relatif du mot i et du sens j dans la matrice :

pi j Mi j

kMik

On obtient donc une pondération de Mi jpar rapport à l’ensemble des autres sens possibles pour le mot i. On peut alors calculer l’entropie de l’homonymie :

HHomonymie ∑i j pi j log2 pi j

Afin de normaliser le calcul comme pour le succès de communication, nous calculons pour une matrice dénotationnelle de taille n n :

HHomonymieU ni f orme n

2 1

n log2

1

n n log2 n

HHomonymieIdeale n 1 log2 1 0 0

Le taux d’homonymie s’exprime alors comme une distance à l’idéale dans l’intervalle représenté par HHomonymieIdealeHHomonymie

U ni f orme:

Homonymie HHomonymie

HHomonymieUni f ormeH

HomonymieIdeale 100

Synonymie La synonymie signifie que plusieurs mots ont le même sens. De la même manière que

pour l’homonymie, nous pouvons calculer un pourcentage de synonymie dans un lexique en modifiant la mesure d’entropie par le calcul de pi j :

pi j Mi j

lMl j

Le calcul de pi j permet de pondérer chaque sens par rapports aux mots qui le désigne. Le calcul de l’entropie pour la synonymie reste le même :

HSynonymie ∑i j pi j log2 pi j

Dans le même soucis de normalisation des calculs, nous calculons pour une matrice dénotation- nelle de taille n n : HSynonymieU ni f orme n 2 1 n log2 1 n n log2 n

HSynonymieIdeale n 1 log2 1 0 0

Le taux de synonymie se calcule alors de la même manière que le taux d’homonymie, comme une distance à l’idéale dans l’intervalle HSynonymieIdealeHSynonymie

U ni f orme:

16L’inspection (du lexique) révèle que les mots n’identifient pas toujours un sens de manière unique, mais parfois sont

6.4. EXTENSION DU MODÈLE MINIMAL 143

Synonymie HSynonymie

HSynonymieUni f ormeH

SynonymieIdeale 100

Étude A l’aide de ces deux mesures, nous allons revisiter les expériences faites dans la section 6.4.1.

Sans changer les paramètres des expérimentations, nous avons mesuré l’évolution de l’homonymie et de la synonymie pour les différents nombres de mots proposés avec pour chaque représentation, les résultats de 2 à 10 agents puisque nous voulons également vérifier les hypothèses que nous avons faites sur l’influence des paramètres.

La figure 6.12 contient les résultats d’homonymie et de synonymie avec 4 mots et 4 sens possibles. Nous avions obtenu un succès de communication qui passait par un pic à 92% puis une stabili- sation autour de 87%. Au moment où la communication réussit à 92%, l’homonymie est à 0% et la synonymie atteint 641%. C’est alors que le taux de synonymie ne cesse d’augmenter pour atteindre 990% en fin d’expérimentation. La quantité de classeurs disponibles semble permettre aux agents d’utiliser de manière efficace bien qu’inutile un surcroît de mots pour désigner les 4 environnements locaux disponibles. Toutefois l’homonymie à 0% combinée à ce taux de synonymie révèle que les agents ne désignent pas l’ensemble des environnements locaux possibles. En effet, si tous les en- vironnements locaux étaient désignés dans la matrice dénotationnelle, nous aurions soit un taux de synonymie et d’homonymie à 0% pour le cas de la communication parfaite, soit un taux supérieur pour les deux du fait du calcul de pi j. Nous pouvons donc déduire qu’en moyenne, rarement la totalité des environnements locaux sont reconnus, de plus ils ne sont pas systématiquement désignés de ma- nière unique. Regardons maintenant l’évolution de l’homonymie et de la synonymie lorsqu’on passe à un lexique de taille 8.

Nous pouvons voir ces résultats sur la figure 6.13.

Lorsque le succès de communication atteint un maximum de 96% à la génération 44, l’homo- nymie est de 153% et la synonymie atteint 214%. Ces taux montrent l’établissement d’un lexique entre les agents sans pour autant garantir que l’ensemble des agents a réussi à communiquer. Nous avons relevé la valeur de fitness moyenne des agents à cet instant qui reflète le nombre de fois qu’ils ont réussi à communiquer en moyenne : ce taux est de 3525%. Si l’on regarde l’évolution de l’ho- monymie et de la synonymie par la suite, on observe que le taux d’homonymie dépasse légèrement les 25% et que le taux de synonymie se situe aux alentours de 22%. Dans le même temps, la valeur moyenne des agents atteint 9258% et le taux de formation lexicale est stabilisé à un peu plus de 65%. Ces résultats semblent indiquer que les agents ont créé deux lexiques qu’ils utilisent alternativement, créant la confusion dans la formation du lexique. Le nombre de règles par individu semble directement responsable de ce phénomène. Il y a en effet 12 règles pour exprimer 8 sens, et si l’on suppose le sys- tème capable d’organiser deux lexiques, on s’aperçoit que l’intersection des deux lexiques représente 4 règles sur 12 soit 13de confusion que l’on retrouve dans les 65% mesuré dans le taux de formation du lexique. L’explication peut alors s’appliquer pour l’expérience à 4 mots dans laquelle le système est capable de créer jusqu’à 3 lexiques distincts sans intersection. Nous allons voir si lors du passage à 16 mots le phénomène diminue puisque les agents pourront alors difficilement avoir plusieurs lexiques.

144 CHAPITRE 6. COMMUNIQUER AVEC DES SMA HÉTÉROGÈNES 0 5 10 15 20 25 30 35 40 45 50 0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 5 10 15 20 25 30 Pourcentage Generation

Homonymie avec 4 mots par agent

2 agents 3 agents 4 agents 5 agents 6 agents 7 agents 8 agents 9 agents 10 agents 0 5 10 15 20 25 30 35 40 45 50 0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 5 10 15 20 25 30 Pourcentage Generation

Synonymie avec 4 mots par agent

2 agents 3 agents 4 agents 5 agents 6 agents 7 agents 8 agents 9 agents 10 agents