• Aucun résultat trouvé

L’APPROCHE MULTI-AGENTS EN GÉOGRAPHIE

4.2. Le concept d’agent

Le concept d’agent a été l’objet d’études pendant plusieurs décennies dans différentes disciplines. Il est non seulement utilisé dans les systèmes à base de connaissances, la robotique, le langage naturel, la chimie et d’autres domaines de l’intelligence artificielle, mais aussi dans des disciplines des sciences humaines et sociales comme la géographie, l’économie, etc. Avec l’évolution des nouvelles technologies et l’expansion de l’Internet, ce concept est davantage associé à plusieurs nouvelles applications.

4.2.1. Définition

Il est primordial de faire remarquer que la notion d’agent est un concept fondamentalement abstrait et revêt d’une sémantique polymorphe relative à l’échelle organisationnelle considérée et aussi à la discipline dans laquelle elle est mise en œuvre. En informatique, discipline dont l’importance pour les géographes n’est plus à démontrer notamment quant à la concrétisation des modèles de simulation, un agent est principalement un « programme autonome et personnalisable et, pour les plus aboutis, présentant des caractéristiques d’auto-apprentissage et de communication avec ses alter- ego pour une action coopérative ou compétitive » [Cardon, 2003]. Ainsi, en géographie le concept d’agent peut notamment s’appliquer à l’échelle spatiale en tant qu’entité changeant d’états. Il peut également s’appliquer au fonctionnement de la dynamique sociale au niveau individuel et/ou collectif.

Une autre définition du concept d’agent qui s’accorde bien aux préceptes de la géographie est celle de Ferber : « Un agent est une entité physique ou abstraite qui est capable d’agir sur elle-même et sur son environnement, qui peut communiquer avec d’autres agents, qui poursuit un objectif individuel et dont le comportement est la conséquence de ses observations, de ses connaissances, de ses compétences et des interactions qu’il peut avoir avec les autres agents de l’environnement. » [Ferber, 1989]. Dans la littérature, on peut trouver plusieurs autres définitions. Mais le point commun à toutes les définitions est que l’agent est une entité autonome qui agit au sein d’un environnement. En somme, au- delà de l’autonomie, trois autres propriétés fondamentales caractérisent un agent : la réactivité, la proactivité et la socialité.

La réactivité : l’agent est uniquement dirigé par des évènements perçus dans l’environnement. Il réagit de manière ‘‘opportuniste’’ à ces changements.

La proactivité : à l’inverse des objets5, l’agent n’agit pas seulement en réponse à des changements de l’environnement. Il est aussi capable de s’assigner des buts et de prendre des initiatives pour les atteindre (par exemple élaborer des stratégies résidentielles).

La socialité : l’agent interagit avec les autres agents. Cette propriété caractérise le fait qu’un agent est capable de gérer le passage d’un niveau collectif (satisfaire un but commun à plusieurs agents) à un niveau individuel (gérer ses désirs et ses intentions, élaborer des plans pour atteindre un but qu’il s’est assigné, réduire les conflits entre buts, etc.) et inversement.

4.2.2. Agents réactifs et agents cognitifs

On oppose classiquement deux catégories d’agents : les agents réactifs et les agents cognitifs.

► Les agents réactifs sont définis uniquement à partir de règles de type stimulus-réponse. Ils permettent de modéliser des comportements très fins, mais ne possèdent pas d’états internes ou de mémoire historique. Selon Brooks [Brooks, 1986 ; 1991a ; 1991b], le comportement intelligent d’un agent devrait résulter de divers comportements plus simples. Un agent est alors vu comme un ensemble de comportements accomplissant une tâche donnée. Chaque comportement est une machine à états finis qui établit une relation entre une entité sensorielle et une action de sortie.

L’étude de la dynamique spatiale relative à une thématique géographique peut se référer à un modèle d’agents réactifs au sens des automates cellulaires (cf. chapitre suivant). Lorsqu’un agent est dépourvu de toute faculté mentale, il est représenté conceptuellement par un modèle abstrait de type stimulus-réponse. C’est-à-dire que le comportement de l’agent est régi par un ensemble de règles prédéfinies. Ces règles peuvent s’exécuter en parallèle ou séquentiellement. Ce type d’agent possède donc un voisinage lui permettant de raisonner sur son environnement immédiat ou lointain selon le cas. Le comportement d’un tel agent est résumé à la figure 4.1.

5 En termes de programmation informatique, les objets ont en commun avec les agents des similarités

évidentes mais aussi des différences fondamentales. Un agent décide de son comportement en fonction de son état, de ses connaissances et de la perception qu’il a de son environnement. Les objets ne possèdent pas cette autonomie de contrôle.

► Les agents cognitifs sont dotés d’états internes ou de mémoire leur permettant de se représenter l’évolution de leur environnement. En clair, il s’agit d’agents qui possèdent des états mentaux. Pour la modélisation de ce type d’agent dans le cadre du raisonnement pratique6, les chercheurs ont développé l’architecture BDI (Belief, Desire, Intention) [Bratman, 1987 ; Bratman et al., 1988 ; Georgeff et Lansky, 1987 ; Rao et Georgeff, 1991a, 1991b, 1992 ; Sing, 1994 ; Brazier et al., 1997 ; Rana et al., 2003]. Ces agents sont généralement modélisés avec les aptitudes mentales de croyances7 (ce que l’agent connaît

de son environnement), de désirs (les objectifs potentiels que l’agent peut vouloir atteindre) et d’intentions (les objectifs pour lesquels l’agent s’est engagé). Un agent BDI doit donc mettre à jour ses connaissances en fonction des informations qui lui proviennent de son environnement, identifier quelles options lui sont offertes, filtrer ces options afin de déterminer de nouvelles intentions pour agir en conséquence.

L’étude de la dynamique socio-fonctionnelle relative à une thématique géographique peut se référer à un modèle d’agents cognitifs. Dans le cadre de nos travaux, les ménages sont modélisés selon une architecture BDI. C’est un modèle abstrait qui considère qu’un agent cognitif, c’est-à-dire doté de facultés mentales, prend ses décisions en fonction de son état de connaissances sur le monde réel, ses désirs et ses intentions. Ces connaissances peuvent être incomplètes ou erronées. Les désirs d’un agent ne pouvant pas tous être satisfaits, les intentions constituent les désirs potentiellement satisfaisables. Les intentions constituent donc un sous-ensemble dynamique des désirs. Conceptuellement, ces trois structures de données forment l’ossature d’un agent cognitif. Mais ce dernier ne ‘‘vit’’ pas en autarcie. Il évolue dans un environnement peuplé par ses pairs au sein du système. L’agent cognitif peut se trouver en situation de dépendance sociale vis-à-vis d’un ou d’autres agents du système. A ce titre, il répond à des évènements en provenance du système ou du monde extérieur ; ce qui lui permet d’enrichir ou de mettre à jour son état de connaissances et par la même occasion, d’ajuster ses désirs et de filtrer ses intentions en fonction de ses objectifs. L’ensemble de ce processus est schématisé à la figure 4.2.

6 Traduction de l’expression anglaise « Pratical reasonning » c’est-à-dire, le raisonnement tel qu’il se

pratique chez les humains.

7 En raison de l’ambigüité de ce concept, nous lui préférons le terme ‘‘Connaissances’’ ou ‘‘Base de

Figure 4.1 : Architecture d’agent réactif (adapté de [Agbossou, 2006])

4.2.3. L’anthropomorphisme des agents

Le projet NewTies de Nigel Gilbert [Gilbert et Troitzsch, 2005] montre que la reproduction d’attributs des sociétés humaines constitue un des objectifs des systèmes multi agents. Cet anthropomorphisme se trouve aux origines de l’IA. Lorsque cette discipline a été fondée par Allen Newell, Herbert Simon, Marvin Minsky et John McCarthy, la reproduction de l’intelligence humaine constituait l’objectif ultime. Les modes de raisonnement humain sont ainsi la source d’inspiration pour la création de systèmes informatiques capables de résoudre des problèmes similaires à ceux résolus par l’intelligence humaine.

De la même manière, les comportements collectifs humains et animaux représente une source métaphorique de résolution de problèmes à l’aide des systèmes multi agents. C’est ainsi que les chercheurs importent les notions de confiance, de réputation ou de pouvoir au sein des SMA [Castelfranchi, 1990 ; Carabela et al., 2004 ; Melaye et Demazeau, 2004 ; Casare et Sichman, 2005 ; Sierra et Debenham, 2005 ; Huynh et al., 2006]. D’autres cherchent à modéliser les interactions entre agents pour qu’elles correspondent mieux aux comportements humains. Par exemple, avec l’écoute flottante, Eric Platon essaie de concevoir des agents capables d’écouter aux portes [Platon et al., 2005].

L’aspect anthropomorphique des agents informatiques contribue, avec l’usage d’un terme partagé, à les rapprocher des agents d’autres disciplines telles que l’économie [Folley, 2002 ; Axelrod, 2005] et la géographie.

Architecture d’agent réactif

© I. AGBOSSOU, THEMA, UMR 6049, 2006

Algorithme comportemental