• Aucun résultat trouvé

Artificial General Intelligence

L’AGI nous ramène aux objectifs initiaux des pères de l’IA : intégrer l’intelligence humaine dans des machines, en pièces détachées ou de manière intégrée pour la rendre égale à celle de l’Homme dans ses différentes dimensions, notamment en termes de capacité de raisonnement et d’adaptation. Cela reste un Graal très lointain mais divers chercheurs y travaillent. Les approches choisies sont variées avec le rapprochement de l’IA déductive et de l’IA inductive (ou symbolique vs connexion- niste), avec la poursuite des progrès dans les neurosciences pour mieux comprendre le fonctionne- ment du cerveau et enfin, avec des approches complémentaires visant carrément à connecter le cer- veau aux IA si ce n’est à le copier intégralement pour le faire tourner dans une machine. Un fan- tasme plus qu’autre chose compte-tenu de l’infinie complexité du cerveau.

Trois niveaux de l’IA

Au plus haut niveau conceptuel, on segmente habituellement l’IA en IA forte qui imiterait l’intelligence humaine avec capacité de raisonnement généraliste et IA faible, qui évoluerait de ma- nière incrémentale à partir d’outils plus élémentaires, soit l’état de l’art actuel.

La distinction entre IA forte et IA faible se re- trouve dans cette classification de la portée de l’IA avec trois niveaux d’IA : l’ANI, l’AGI et l’ASI, l’ANI correspondant à l’IA faible et les AGI et ASI aux IA fortes. C’est une classification très simpliste et bien trop anthropomorphique des évolutions futures de l’IA, très étroitement liées aux thèses de la singularité, qui anticipe ce mo- ment fatidique où une machine atteindra puis dé- passera l’intelligence humaine, ce qui n’a aucun sens quand on regarde les choses de près148.

L’Artificial Narrow Intelligence (ANI) correspond à l’état de l’art actuel avec une IA capable de traiter des problèmes des domaines très précis. C’est ce que font aujourd’hui les IA exploitant aussi bien le machine learning que le deep learning ou les moteurs de règles. On peut y mettre en vrac les moteurs de recherche courants, la détection de fraudes bancaires, le credit rating de particuliers, la conduite automatique ou assistée, l’interprétation d’imagerie médicale, Apple SIRI, Amazon Alexa, Microsoft Cortana et Google Assistant.

Si l’IA n’imite pour l’instant pas encore toutes les composantes de l’intelligence humaine, la force brute et l’usage d’éléments techniques dont l’homme ne dispose pas comme la vitesse de traitement et le stockage de gros volumes de données permettent déjà à la machine de dépasser l’homme dans tout un tas de domaines ! Et ce n’est pas nouveau ! Un tableur est déjà des millions de fois plus puissant qu’un humain doté des meilleures capacités de calcul mental ! La mémoire brute d’un Homme est très limitée.

148 Si Ray Kurzweil est connu comme le grand promoteur de la singularité, son créateur est en fait Vernor Vinge dans The Coming

Technological Singularity: How to Survive in the Post-Human Era en 1993 (12 pages). Il prévoyait l’échéance de la singularité pour 2023. Donc dans 5 ans. Et cette échéance correspondait au passage à la fin de l’humanité. Mais si l’Humanité court à sa perte, ce n’est pas forcément pas ce biais là mais bien plus à cause de questions environnementales.

On peut estimer que la mémoire verbale d’une personne moyenne est située aux alentours d’un Go de données ! Mémoire à laquelle il faudrait évidemment ajouter toute la mémoire sensorielle : vi- suelle, auditive et olfactive, qui est probablement très dense et maillée. Nos souvenirs sont en effet généralement multisensoriels et associatifs, une fonction qui est pour l’instant très difficile à repro- duire dans des machines.

Dans le second étage, l’Artificial General Intelligence (AGI) correspondrait conceptuellement à un niveau d’intelligence équivalent à celui de l’Homme, avec un côté polyvalent, avec la capacité à raisonner, à modéliser les connaissances, analyser des données et résoudre des problèmes variés. L’AGI est en fait dans la continuité des travaux des pioniers de l’IA qui cherchaient à créer des sys- tèmes d’IA capables de résoudre de manière générique toutes sortes de problèmes et en avaient même relancé l’idée au milieu des années 2000 dans l’initiative HLAI (Human Level AI).

On peut intégrer dans ce niveau un grand nombre des capacités humaines : l’usage du langage à la fois comme émetteur et récepteur, l’apprentissage par la lecture ou l’expérience, la mémoire et en particulier la mémoire associative, l’usage de la vue et les autres sens, le jugement et la prise de décisions, la résolution de problèmes multi-facettes, la création en général, notamment au niveau conceptuel mais aussi pour résoudre des problèmes physiques, la perception du monde et de soi- même, la capacité à réagir à l’imprévu dans un environnement complexe physique comme intellec- tuel ou encore la capacité d’anticipation149. Et à plus haut niveau, il faudrait intégrer la conscience,

les sentiments, la sagesse et la connaissance de soi.

On pourrait y ajouter la capacité à ressentir des émotions que celles-ci soient personnelles (intros- pection) ou celle d’autres personnes (l’empathie), avoir des envies et des désirs et aussi savoir gérer ses pulsions et agir avec plus ou moins de rationalité. Ou alors, une machine n’aurait pas du tout besoin de tout cela pour résoudre des problèmes complexes inaccessibles à l’intelligence humaine. Cette liste est très longue ! Pour l’instant, on est encore très très loin de l’AGI, même si certaines de ces capacités notamment linguistiques et de raisonnement général sont en train de voir le jour. Jusqu’à présent, les solutions d’IA fonctionnaient à un niveau de raisonnement relativement bas. Il reste à créer des machines capables de gérer le sens commun, une forme d’intelligence génétique capable à la fois de brasser le vaste univers des connaissances – au-delà de nos capacités – et d’y appliquer un raisonnement permettant d’identifier non pas des solutions mais des problèmes à ré- soudre. Il reste à apprendre aux solutions d’IA d’avoir envie de faire quelque chose. On ne sait pas non plus aider une solution d’IA à prendre du recul, à changer de mode de raisonnement dynami- quement, à mettre plusieurs informations en contexte, à trouver des patterns de ressemblance entre corpus d’idées d’univers différents permettant de résoudre des problèmes par analogie. On pourrait aussi développer des solutions d’IA capables de créer des théories et de les vérifier ensuite par l’expérimentation.

149 On continue d’en découvrir tous les jours sur les principes biologiques de base de l’intelligence humaine, comme dans Brain

Pour ce qui est de l’ajout de ce qui fait de nous des êtres humains, comme la sensation de faim, de peur ou d’envie, d’empathie, de besoin de relations sociales, l’IA ne l’intègre pas. Ce n’est d’ailleurs pas nécessaire pour résoudre des problèmes courants auxquels s’attaquent les solutions à base d’IA.

Comme l’indique si bien Yuval Noah Harari, l’auteur du best-seller ”Sapiens”150, “L’économie a besoin d’intelligence, pas de conscience” ! On pourrait même ajouter, de rationnalité. Laissons donc

une partie de notre intelligence voire une intelligence plus développée aux machines et conservons la conscience, les émotions et la créativité !

L’avènement éventuel d’une AGI dépend à la fois des progrès matériels et de notre compréhension toujours en devenir du fonctionnement du cerveau humain qui fait partie du vaste champ de la neu- rophysiologie, coiffant des domaines allant de la neurobiologie (pour les couches “basses”) à la neuropsychologie (pour les couches “hautes”).

Le fonctionnement du cerveau apparaît au gré des découvertes comme étant bien plus complexe et riche qu’imaginé. Les neurones seraient capables de stocker des informations analogiques et non pas binaires, ce qui en multiplierait la capacité de stockage de plusieurs ordres de grandeur par rap- port à ce que l’on croyait jusqu’à il y a peu de temps.

On sait par contre que le cerveau est à la fois ultra-massivement parallèle avec ses trillions de sy- napses reliant les neurones entre elles mais très lent, avec une horloge tournant au grand maximum à 100 Hz. C’est aussi un engin très efficace du point de vue énergétique, ne consommant que 20W, par heure, soit l’équivalent d’un laptop équipé d’un processeur Intel Core i7 à pleine puissance. Cette AGI est à mon sens une vue de l’esprit. Elle considère que l’IA ne se mesure que sur une di- mension alors que, nous l’avons vu, elle s’évalue sur au moins deux douzaines de dimensions com- plémentaires. L’alignement de ces dimensions, la capacité de les rendre toutes supérieures à l’Homme dans la machine est une chimère. Nous aurons sans doute très longtemps des machines supérieures à l’Homme dans de nombreuses dimensions et inférieures dans d’autres, ce qui les ren- dra complémentaires à l’Homme. Des progrès seront certainement faits pour rendre les machines capables de raisonner par analogie pour résoudre des problèmes complexes mais elles n’intègreront pas toutes les composantes de l’intelligence humaine, notamment dans sa relation avec le monde physique.

Au troisième étage de cette fusée simpliste, l’Artificial Super Intelligence (ASI) serait une intelli- gence largement supérieure à l’Homme. Elle aurait même une intelligence infinie, tirant parti de la loi exponentielle de Moore. Une prévision qui se garde bien de rentrer dans les détails logistiques de l’application de cette loi ! L’échéance d’une telle AGI est située entre 2045 et 2062 selon les pré- visions151.

Ce serait la continuité logique et mécanique de l’étape précédente, liée à la puissance des machines qui se démultiplierait et se distribuerait plus facilement que celle d’un cerveau humain avec ses en- trées-sorties et ses capacités de stockages et de traitement limitées et locales. Cette intelligence pourrait disposer de capteurs globaux : sur l’environnement, sur l’activité des gens, leurs déplace- ments, leurs loisirs, leurs états d’âme. Superintelligence va avec superinformation et super big data !

150 Intervenant en juin 2016 dans la conférence USI organisée par Octo Technology à Paris (vidéo).

151 En voici un exemple avec L'intelligence artificielle égalera l'intelligence humaine d'ici 2062 qui évoque les prévisions du cher- cheur australien Toby Walsh, auteur de 2062: The World that AI Made. Prévoir une AGI à 44 ans d’échéance semble évidemment bien trop précis. Reste à lire l’ouvrage, ce que je n’ai pas encore pu faire !

A vrai dire, une AGI serait d’emblée largement supérieure à l’Homme car elle accèderait facilement à tout le savoir humain déjà numérisé152.

A ce niveau, l’intelligence de la machine dépasserait celle de l’homme dans tous les domaines y compris dans la créativité et même dans l’agilité sociale. Ce point de dépassement est une “singula- rité”. Il est évoqué dans de nombreux ouvrages comme The Singularity is Near de Ray Kurzweil. Pour de nombreux prospectivistes, l’ASI apparaîtrait très peu de temps après l’AGI, l’ordinateur faisant preuve d’une capacité à se reproduire lui-même, y compris à l’échelle matérielle. C’est évi- demment une vue de l’esprit, tout du moins, lorsque l’on observe la manière dont fonctionnent les data-centers. Si ceux-ci étaient entièrement robotisés et alimentés en serveurs et systèmes de stock- age par des camions autonomes eux-mêmes alimentés par des usines entièrement autonomes, pour- quoi pas. D’où le besoin de préserver un minimum de contrôle humain dans cette chaîne de valeur. Dans l’essai The Singularity – A philosophical analysis, le philosophe australien David J. Chal- mers propose de tester d’abord l’ASI dans un environnement entièrement virtuel entièrement dé- connecté du monde réel pour tester ses aptitudes. Si cela peut rassurer 153!

Dans la plupart des prévisions sur l’avènement de l’ASI, il est fait état de la difficulté à la contrôler. Une majeure partie des prévisions envisagent qu’elle soit même néfaste pour l’homme malgré son origine humaine. Elles évoquent une course contre la montre entre startups et grandes entreprises pour être les premiers à créer cette ASI. Voir une course face à l’un des plus gros financeurs de l’IA : la DARPA.

Toutes ces conjectures semblent bien théoriques. Elles partent du principe qu’une ASI contrôlerait sans restriction toutes les ressources humaines. Elles s’appuient aussi sur la possibilité que toutes les sécurités informatiques d’origine humaine pourront être cassées par une ASI. C’est une vision dystopique et anthropomorphique du rôle des machines.

Les perpectives de l’AGI et de l’ASI sont surtout influencées par la science-fiction et ses grands auteurs : Philippe K. Dick (Blade Runner, Total Recall), William Gibson (Neuromancien, qui a inspiré la série de films Matrix), Arthur C. Clarck (2001 Odyssée de l’Espace), Gene Rodden- berry (Star Trek), Vernon Vinge (le père spirituel du concept de la singularité dans « The coming technological singularity » en 1993, récupéré ensuite par Ray Kurzweil en 1999 dans « The age of spiritual machines »154) et bien entendu Isaac Asimov (AI, et ses fameuses trois règles de la robo-

tique).

Les prédictions sur l’avènement de l’AGI sont souvent associées à un usage quelque peu abusif et prospectif de la loi de Moore. Or sa pérennité n’est pas garantie, quand bien même on pourrait mettre au point des ordinateurs quantiques dans les 40 ans qui viennent.

152 Dans « The inevitable », publié en 2016, Kevin Kelly estime la production de contenu humaine depuis les sumériens à 310 mil- lions de livres, 1,4 milliards d’articles et essais, 180 millions de chansons, 330 000 films de long métrage, 3,5 trillions d’images, un milliard d’heures de vidéo, télévision et courts métrages, et 60 trillions de pages web publiques. Et chaque année, le stock s’agrandirait avec 2 millions de livres, 16 000 films (dont nous ne voyons qu’à peine 1%), 8 millions de chansons et 30 milliards d’articles de blogs. Cela ne comprend pas les données brutes issues d’usages numériques (télécoms, réseaux sociaux, objets connec- tés). Cela représenterait 50 péta-octets de données. Avec les dernières technologies de stockage SSD, tout cela tiendrait dans un simple rack de data center. Voir le dernier SSD d’Intel. L’intégration de toute cette connaissance dans un réseau de neurones de deep learning se heurterait cependant à des limites techniques pas évidentes à surmonter. Mais avec un bon moteur de recherche, une AGI aurait toutefois une bonne capacité à exploiter cette base de connaissances en fonction des besoins.

153 On peut aussi se rassurer avec ce très bon papier Ruper Goodwins paru en décembre 2015 dans Ars Technica UK : Demystifying

artificial intelligence: No, the Singularity is not just around the corner. 154 Voir Technoogical Singularity de Vernon Vinge (16 pages).

Heureusement, l’AGI a aussi eu son camp de détracteurs et dans toutes les décennies récentes (liste non exhaustive ci-dessous155). En France, le chercheur Jean-Gabriel Ganacia156 auteur du « Mythe

de la singularité » est assez remonté contre le mythe de l’AGI.

Dans The Brain vs Deep Learning Part I: Computational Complexity — Or Why the Singula-

rity Is Nowhere Near, Tim Dettmers avance que la machine ne pourra pas dépasser le cerveau

pendant le siècle en cours. Il démonte les prédictions de Ray Kurzweil157.

Mais il n’est pas nécessaire de maîtriser le niveau d’abstraction le plus bas du cerveau pour en si- muler les niveaux élevés, sans passer par un clonage. Comme il n’est pas nécessaire de maîtriser les bosons de Higgs pour faire de la chimie ou comprendre la manière dont l’ADN sert à fabriquer des protéines au sein des cellules !

En tout cas, quoi qu’il arrive, l’intelligence d’une machine hyper-intelligente n’aura pas une intelli- gence similaire à celle de l’homme. Elle sera probablement plus froide, plus rationnelle, moins émotionnelle et plus globale dans sa portée et sa compréhension du monde.

155 Voir aussi The Emperor of Strong AI Has No Clothes Limits to Artificial Intelligence de Adriana Braga et Robert Logan, 2017 (21 pages).

156 Voir La Singularité, ça ne tient pas la route ! de Hubert Guillaud, juin 2017.

157 J’avais moi-même émis des doutes sur les exponentielles qui sont la primitive des raisonnements de Kurzweil en avril 2015 dans trois articles sur La dérive des exponentielles. Voir aussi The Seven Deadly Sins of Predicting the Future of AI de Rodney Brooks, septembre 2017.

L’intelligence artificielle sera supérieure à celle de l’homme dans de nombreux domaines et pas dans d’autres, comme aujourd’hui. Elle sera simplement différente et complémentaire. Tout du moins, à une échéance raisonnable de quelques décennies.

Enfin, il reste l’humour. Pour réussir le test de turing, il existe une solution très simple : rendre les gens moins intelligents ! C’est d’ailleurs l’impact qu’ont souvent les outils numériques, avec les différentes formes d’addiction qu’ils génèrent. Mais pas qu’eux. Le type de médias et contenus consommés ont aussi une forte influence. C’est la thèse ironique de Piero Scaruffi158 et aussi celle de Nicholas

Carr159.

Pourquoi faire ?

Les futurologues qui s’avancent sur l’échéance de l’apparition d’une AGI oublient systématique- ment de traiter une question clé : pourquoi faire ? Repartir des besoins et des problèmes permettrait peut-être de circonscrire le sujet et les recherches ! On aimerait bien qu’ils mettent sur la table quelques problèmes clés permettant d’améliorer le sort de la planète et de ses habitants. A la place, on a droit à des prévisions anxyogènes sur des AGI qui emprunteraient à l’Homme tout ce qu’il a de mauvais.

Quelques cas pratiques d’usage de l’AGI ont été définis par le passé mais ils sont très généraux, comme le test de Turing (agent conversationnel textuel que l’on ne peut pas distinguer d’un hu- main), le test de la machine à café de Steve Wozniak (un robot peut entrer dans un logement, trou- ver la machine à café, l’eau, le café et la tasse, faire le café et le servir), le test de l’étudiant robot (capable de suivre de cours et de passer avec succès les examens), celui du chercheur (capable de mener des travaux de recherche, de soumettre une thèse et d’obtenir son doctorat) et enfin, celui du salarié de tel ou tel métier, peut-être le cas le plus facile pour certains métiers répétitifs.

Les choses pourraient se compliquer pour une AGI si on lui demandait de démontrer le théorème d’incomplétude de Godel selon lequel “dans n’importe quelle théorie récursivement axiomatisable,

cohérente et capable de « formaliser l’arithmétique, on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie” ou encore du dernier théorème de Fermat (xn + yn = zn est impossible pour un entier n supérieur à 2).

158 Dans Artificial Intelligence and the Singularity, octobre 2014. 159 Dans Is Google making us stupid, dans The Atlantic, juillet 2008.

quelques tests d’AGI !

le chercheur (Adams) le salarié (Nilsson)

l'étudiant robot (Goertzel) Turing (Turing) machine à café (Wozniak)

Le théorème de Fermat me fascine. Il a été démontré par Andrew Wiles et après des années d’efforts de plusieurs mathématiciens. Sa démonstration publiée dans les annales de mathématiques en 1993 fait 109 pages et fait appel à de nombreux concepts incompréhensibles au commun des mortels, y compris pour votre serviteur passé par les classes préparatoires scientifiques au 20e siècle qui s’y perd à la troisième ligne de la démonstration.

Un défi a été lancé en 2005 par un certain Jan

Bergstra pour démontrer le théorème de Fer- mat avec un ordinateur et il reste toujours à relever. A vous de jouer si cela vous tente ! Le jour où une IA démontrera le théorème de Fermat, il y aura vraiment avoir de quoi être bluffé !

Autre défi à relever pour une intelligence arti- ficielle, résoudre les six défis mathématiques restants du Clay Institute lancés en 2000160,

avec $1M de récompense à la clé pour chacun d’entre eux. Cela comprend la démonstration des équations de Navier-Stokes dans la méca- nique des fluides, la démonstration de P=NP ou P<>NP dans la théorie de la complexité161