• Aucun résultat trouvé

La spécificité des modules qui composent toutes les approches hybrides hérite de l’argument de modularité introduit par Jerry Fofor [Fodor, 1983] : l’intellect doit être composé de mo- dules hautement spécialisés qui fonctionnent en temps réel et communiquent par l’intermédiaire d’entrées/sorties13. Qu’ils soient désignés par les termes d’agents, d’experts, de spécialistes, de codelets, les composants doivent disposer d’interfaces similaires mais peuvent être de natures foncièrement différentes. La communication peut être directe et explicite via des protocoles parfois complexes ou bien implicite via l’environnement ou la diffusion de signaux non ciblés.

2.2.1 Architecture de subsomption

L’architecture de subsomption, développée par Rodney Allen Brooks au Massachusetts Ins- titute of Technology, suppose un lien direct entre perception et action quel que soit le com- portement envisagé [Brooks, 1991b; Brooks, 1991a]. Cette hypothèse a longuement été testée à travers des séries de robots interagissant avec des environnements réels. La force principale du modèle est en effet la réalisation de robots au fonctionnement robuste malgré les imperfec- tions et aléas du monde réel, Brooks étant d’ailleurs un fervent défenseur de la cognition incarnée. L’intelligence que l’humain prête aux robots créés repose sur un ensemble de modules fonc- tionnant en temps réels, réalisant chacun une fonction bien spécifique (figure 2.8b). Rien de bien nouveau si ce n’est que les modules sont interconnectés de manière hiérarchique afin de contourner la nécessité d’une boîte décisionnelle centrale (une "computational box" fournissant un contrôle centralisé) (figure2.8a). La hiérarchie provient de la capacité de chaque module d’in- hiber des fonctions inférieures, tout en étant lui aussi sujet à une inhibition similaire de la part de modules supérieurs. Brooks a donc opté pour un développement incrémental de ses robots, dans une optique constructiviste d’ajout de comportements et non de capacités abstraites. Le comportement global émergent est donc facilement déterminé : seules les actions correspondant 13. Dans la majorité des théories cognitivistes, les fonctions cognitives élevées étaient considérées comme modu- laires et inférentielles alors que les aspects bas-niveau étaient interprétés en termes behavioristes. Fodor souligna néanmoins que des illusions perceptives telles que celles de Müller Lyer étaient stables dans le temps et non in- fluençables par des croyances conscientes. La conception modulaire et l’encapsulation devaient donc toucher tous les niveaux de la cognition.

2.2. Approches réparties et hybrides aux comportements les plus prioritaires dans le contexte actuel s’exécutent.

Malgré une simplicité déconcertante force est de constater l’efficacité de la technique. Cette simplicité est en réalité trompeuse, car c’est dans la recherche et l’étude de la hiérarchie que re- pose l’intelligence qui permet la coordination complexe de comportements. Cela rend la concep- tion bien plus ardue lorsque l’on souhaite modéliser des tâches complexes, comme dans les développements plus récents de l’équipe du MIT [Brooks et al., 1999;Brooks, 2001].

(b) (c) (a) Reset 10 1 3 Inhibitor Outputs Suppressor Inputs s 15s level 2 level 3 Sensors Actuators level 1 level 0 robot collide map sonar robot motor command force feelforce runaway avoid heading wander halt

Figure 2.8 – (a) Aperçu de la hiérarchisation initiale de l’architecture de subsomption. Chaque niveau interagit directement avec l’environnement et "subsume" la couche inférieure. (b) Module de l’architecture potentiellement inhibé et influençant d’autres modules. (c) Exemple d’orga- nisation pour un robot explorant un environnement inconnu mais devant en priorité éviter les obstacles.

2.2.2 Systèmes multi-agents

Les systèmes multi-agents s’intéressent autant à des processus abstraits qu’à des robots ou des humains, se plaçant ainsi à un niveau d’étude et d’analyse très général [Wooldridge, 2002]. Les caractéristiques communes de tous les agents sont leur autonomie, tout du moins partielle, leur perception locale de l’environnement. S’insérant dans le cadre général de l’intelligence arti- ficielle distribuée, ils permettent de modéliser des systèmes biologiques ou mécaniques, de même que des sociétés humaines ou animales (dont ils s’inspirent) en l’absence de tout contrôle cen- tralisé.

De tels systèmes tentent de répondre à diverses problématiques dont la coordination des actions dans un environnement partagé. L’architecture générique d’un agent peut se décomposer de la manière suivante :

– Interaction : Chaque agent dispose de capacités et de fonctionnalités propres grâce aux- quelles il peut interagir avec son environnement subjectif.

– Fonction : Il cherche constamment à réaliser une fonction qui peut être considérée comme sa raison de vivre. Il est donc un processus actif et intentionnel14. Il comporte donc 14. Quoique rares, certains applications et implémentations utilisent néanmoins des agents réactifs ou pulsion-

souvent un modèle cognitif explicite, par exemple fondé sur la théorie des BDI (Belief Desire Intention).

– Communication : Afin d’atteindre ses objectifs, l’agent doit communiquer avec les autres agents présents dans l’environnement, qui ont potentiellement des buts et représentations internes très différents. Cette communication doit être utile et contribuer à l’évolution du système.

– Coopération : Quoique optionnelle, de nombreux systèmes multi-agents tentent d’éviter ou résoudre les conflits afin de satisfaire leurs propres buts plus efficacement. Cela im- plique néanmoins une forme de théorie de l’esprit15 relativement aux autres agents, leur permettant de faire des concessions et des négociations.

Comparée aux approches intégratives ou aux approches unifiées décrites à la section suivante, cette architecture propose théoriquement une coordination dynamique bien plus souple. En pratique, la mise en oeuvre de protocoles de communication complexes pour parvenir à des situations coopératives contraint néanmoins énormément la dynamique du système global.

2.2.3 Polyscheme

L’architecture Polyscheme a été initiée par Nicholas Cassimatis durant son doctorat sous la direction de Marvin Minski [Cassimatis, 2005]. Le constat à l’origine de Polyscheme est qu’à chaque problème auquel doit faire face un individu intelligent correspond une manière opti- male spécifique de le résoudre. Ainsi des spécialistes variés ("specialist" en version originale), employant différents types de représentations, de logiques et d’inférences, peuvent produire les solutions les plus adaptées et efficaces. Chaque spécialiste s’attache ainsi à modéliser certains aspects de l’environnement et résoudre certaines classes de problèmes.

De même que dans les systèmes multi-agents, chaque spécialiste doit communiquer avec les autres afin de déterminer lequel est le plus compétent et possède une connaissance suffisante de la situation. Dans ce but, Cassimatis a introduit la notion de focus attentionnel dans son modèle, afin que plusieurs composants puissent choisir un problème commun et se synchroniser dessus. De plus, un spécialiste réflexif peut prendre un rôle légèrement dissymétrique afin de guider le focus sur des aspects préférentiels de la situation. A nouveau et en accord avec le prin- cipe général de l’architecture, différents schèmes d’inférences peuvent être utilisés pour guider l’action, tels un filtrage de scripts, une recherche systématique depuis les buts, une simulation stochastique et d’autres raisonnements fondés sur diverses logiques.

Une telle architecture permet la prédiction d’événements non directement perçus (telle que l’apparition d’objet occultés souvent testée en psychologie du développement) ou le suivi robuste d’objets. Dans de telles applications, les spécialistes peuvent gérer des aspects tels que l’identité des objets, le temps, les relations spatiales, la causalité ou la coordination des actions. Elle a été appliqué aussi bien en robotique qu’à travers des simulations.

nels, agissant exclusivement sur la base de besoin internes immédiats ou de stimulus extérieurs.

15. L’expression est bien entendue à prendre dans son acception cognitive (de prédiction de ses propres actions ainsi que celles des autres) plutôt qu’épistémologique.