• Aucun résultat trouvé

SCIENCES COGNITIVES ET INTELLIGENCE ARTIFICIELLE

Dans le document EDP Open (Page 143-149)

Deuxième Partie Sciences cognitives et Intelligence Artificielle Présentation

La seconde partie – Sciences cognitives et Intelligence Artificielle - rassemble quatre textes en rapport avec l’Intelligence Artificielle (IA). Cette discipline fait partie des sciences cognitives. Il est clair en effet en premier lieu, que dès son origine, l’IA s’est posée en

« aiguillon » des sciences visant à comprendre les processus cognitifs en œuvre dans le cerveau. La programmation des algorithmes d’IA exige en effet de s’appuyer sur des modèles, de nature logique ou mathématique, des processus cognitifs que l’on veut simuler.

Ces modèles peuvent alors être proposés à ces sciences du cerveau et de la cognition. Et la réciproque est également vraie, l’IA ayant, également dès son origine, cherché à intégrer les avancées dans la compréhension et le fonctionnement des structures cérébrales, à différentes échelles. Le premier et le dernier chapitre de cette partie traitent, sous des accents un peu différents mais complémentaires, de l’histoire de l’IA, de ses performances actuelles, de ses perspectives et de sa place dans la société. Les deux chapitres centraux traitent de rapports de l’IA avec le langage humain, dont on dit souvent qu’il a un lien étroit avec la conscience, qu’il en est un corrélat voire une condition. Le premier de ces deux chapitres expose des travaux visant à donner à une machine la capacité de comprendre – en un sens fort - le langage humain ; le second présente des travaux proposant des mécanismes à même, au sein d’une société artificielle, composée d’individus dotés de capacités d’IA, de faire émerger un langage commun, avec son vocabulaire, sa sémantique, voire sa grammaire.

L’IA et son histoire

L’IA est devenue une composante majeure de l’utilisation de l’Informatique, elle bénéficie d’une couverture médiatique importante, entrainant peurs ou espoirs parfois inconsidérés.

Mais sa nature de discipline scientifique, son histoire, ses tâtonnements, la portée de ses succès et leurs limites actuelles, les directions de recherches en cours, peuvent être assez mal connues. Aussi nous a-t-il paru utile de demander à deux chercheurs éminents de l’IA de tracer un tableau de l’évolution de la discipline depuis sa naissance dans les années 1940, évolution qui montre les liens de la discipline avec les sciences du cerveau et les sciences cognitives, mais aussi avec les mathématiques.

• Ainsi dans le premier chapitre, intitulé « Intelligence Artificelle, des Big Data au

« Cerveau », Jean-Gabriel Ganascia rappelle d’abord les racines de l’Intelligence Artificielle, plongeant dans la cybernétique et le début des sciences cognitives avec les « conférences Macy » de l’immédiate « après guerre » 1946-1953. Il dresse un bref historique de l’IA depuis sa naissance « officielle » en 1956 ; sont donnés en parallèle des éléments de la montée en puissance des « Big Data ». Il introduit ensuite, de façon illustrée, l’aventure des réseaux neuronaux, depuis les premiers articles parus dans les années 1940 ; y sont présentés certains des principes de leurs performances classificatoires, ainsi que les algorithmes dit « de rétro-propagation du gradient », qui constituent une des bases de l’apprentissage profond. Avec, en arrière-plan, l’émergence de la disponibilité de grandes masses de données, à une échelle jamais connue dans l’histoire de l’Humanité, grandes masses de données que l’apprentissage profond permet d’exploiter. En conclusion Jean-Gabriel Ganascia aborde la question de la possibilité d’une « Intelligence Artificielle Forte » dépassant les performances de l’actuelle IA faible, qui restent très spécialisées.

• Dans le dernier chapitre de cette partie, intitulé « Les machines pensantes, un panorama de l’Intelligence Artificielle », Jean-Paul Haton retrace d’abord l’historique de l’Intelligence Artificielle ; il énonce les grands types de problèmes auxquels l’IA s’attelle et détaille les différentes pistes de travail qui ont été en œuvre dans cette discipline : approches symboliques, approches neuro-mimétiques, approches probabilistes et statistiques. Les problématiques et méthodes de l’Apprentissage sont ensuite abordées : apprentissage symbolique versus apprentissage numérique, apprentissage supervisé versus apprentissage non supervisé, apprentissage par renforcement. Puis est dressé un panorama des réseaux de neurones profonds : conditions hardware et software qui en ont permis l’émergence et les performances actuelles, différents types de réseaux utilisés, leurs limites et les domaines d’applications. Après un rappel des grands acteurs privés ou institutionnels concernés, Jean-Paul Haton termine en évoquant les tendances actuelles, qui ne se réduisent pas aux réseaux neuronaux profonds, en direction de l’Intelligence Artificielle Forte. Ainsi que les problèmes éthiques, sociétaux, juridiques, que les progrès déjà en place ou attendus ne manquent pas de provoquer.

L’IA, Conscience et Langage humain

S’il existe donc une Intelligence Artificielle, il n’existe pas – pour le moment – de Conscience Artificielle. Les deux tableaux historiques se terminent bien par la constatation qu’« Aucun des système d’IA n’est pour l’instant doté de conscience », même si « des modèles de ce que pourrait être une telle conscience ont été proposés ». On retrouve bien dans ces tentatives récentes une continuité avec les origines de l’IA : concevoir des modèles

formels des fonctions du cerveau, pour pouvoir ensuite simuler ces fonctions sur un support non vivant. Dans cet ouvrage dédié aux phénomènes conscients, une partie consacrée à l’IA ne pouvait donc concerner – en l’état actuel des choses - que son apport à des aspects considérés comme plus ou moins liés à la conscience, mais qui n’en constituent pas nécessairement le cœur. Avec la mémoire, la capacité d’anticiper les conséquences d’actes potentiels, l’un de ses aspects est le langage. C’est par le langage que, par exemple, un sujet manifeste qu’il est conscient d’avoir perçu tel ou tel stimulus ; comme on l’a vu en première partie, le rapport alors effectué sera pris comme assurant la réalité de cette perception consciente. Il était donc logique de s’intéresser à certaines des recherches menées en IA concernant le langage humain :

• Un chapitre sous la signature d’Antoine Bordes est intitulé « Former les machines à la compréhension du langage naturel ». Les performances atteintes dans l’exploitation des bases de données relationnelles par le biais des langages de requêtes, la facilité avec laquelle on accède aux informations en utilisant des mots clés sur les moteurs de recherche, pourraient laisser croire que l’on est proche d’une situation où les algorithmes « comprendront » le langage « naturel ».

Comprendre en un sens opérationnel, c’est-à-dire être capable d’exploiter le corpus de données ou de textes pour répondre de façon pertinente à des questions complexes exprimées par un humain dans son langage. Mais en réalité, doter les machines d’une telle capacité est toujours un travail de recherche. Certes, les capacités d’indexation permettant de rassembler de façon quasiment instantanée les éléments d’information contenant virtuellement la réponse à une question sont en place depuis longtemps mais l’exploitation pertinente de ces éléments d’information une fois rassemblés pour donner la bonne réponse est une tâche encore très difficile pour une machine. Antoine Bordes présente quelques-uns des travaux menés sur ces thèmes, dans la ligne générale des réseaux de neurones et de l’apprentissage profond. Il en expose les méthodes : encodage d’éléments symboliques dans des espaces continus, réseaux de mémoire ; il en discute les résultats obtenus : dans le domaine de l’interrogation de bases de connaissances structurées comme dans celui, plus largement ouvert, de l’interrogation sur des bases de textes, comme Wikipédia.

• Un chapitre sous la signature de Luc Steels est intitulé « L’Origine et l’Evolution du langage ». Comment peut-on expliquer l’apparition, l’évolution et la diversité des langages dans les sociétés humaines ? Pour traiter de ces questions Luc Steels défend l’hypothèse d’une analogie entre les mécanismes de l’évolution des langages et ceux de l’évolution biologique : savoir des processus de réplication/transmission, de mutation et de sélection, auxquels s’ajoutent des processus de hiérarchisation en différents niveaux d’organisation. Après avoir montré des exemples d’intervention de tels processus dans les langages, Luc Steels expose les méthodes ressortant de l’Intelligence Artificielle et de la Robotique qui lui permettent de tester son hypothèse à travers diverses expérimentations. Dans

ces expérimentations il montre d’abord comment des Intelligences Artificielles, interagissant les unes avec les autres, font émerger un vocabulaire commun, et un sens commun donné à chaque mot de ce vocabulaire. Et au-delà, toujours à travers de telles interactions, il montre comment peut également émerger – et pour quelles raisons – des structures grammaticales élémentaires telles que des accords de nombre ou de genre, voire même des structures plus complexes comme les emboitements de phrases. En conclusion, il réaffirme l’idée que les langues sont des systèmes culturels changeant de façon permanente, sous l’effet de dynamiques de nature similaire à celles à l’œuvre dans l’évolution des espèces, tout en reconnaissant que cette idée est loin de faire l’unanimité.

Pour le comité de lecture1

1Eric Chenin, Jacques Printz, Jean-Pierre Treuil

Intelligence Artificielle,

Dans le document EDP Open (Page 143-149)