• Aucun résultat trouvé

Cette étude de la mémorisation de la connaissance montre d'abord qu'il existe un large éven-tail de techniques permettant d'encoder une connaissance sur un substrat physique. Toutes ces techniques ne sont pas équivalentes et le choix de telle ou telle solution dépend entièrement des critères que l'on souhaite privilégier. Si l'on veut par exemple une mémoire able et rapide d'accès, telle que requise dans l'informatique moderne, alors une mémoire locale, statique et consultable par adresse semble être la solution adéquate. Ce type de mémoire, aujourd'hui uni-versellement répandue, convient particulièrement bien aux environnements informatiques ainsi qu'à la nature des applications utilisées dans le sens où la manipulation de données s'y prête bien. Cependant, ce type de mémoire contient des limites fortes dans sa dénition même. Comme il a été souligné auparavant, une mémoire locale est très volatile notamment à cause du phénomène d'eondrement soudain. Un phénomène de bruit quelconque provoquant la modication d'un très petit nombre de valeurs du système peut alors rendre une information totalement illisible. De même, un programme écrit dans un langage quelconque requiert un contexte d'utilisation très strict, et l'utilisation de ce programme devient quasi impossible dès lors que l'on s'éloigne un tant soi peu du domaine rigide de sa dénition. Or, le monde réel est caractérisé par un bruit ambiant permanent et il semble donc dicile de manipuler l'information dans un tel milieu en utilisant ce type d'encodage de l'information. La représentation distribuée de l'information semble plus appropriée puisque la modication d'un nombre restreint de valeurs inuera très peu sur le système : un plus grand nombre de connaissances sera concerné par cette modication mais ces connaissances demeureront accessibles. De plus, les traitements sur cette représentation distribuée de l'information peuvent être parallélisés, chaque sous-partie de l'information pouvant faire l'objet d'un processus distinct. Cette manipulation de l'information sous forme distribuée et parallèle se trouve être à la base du connexionnisme (cf. gure 1.6) et des réseaux de neurones articiels dont les propriétés de résistance aux bruits bien connues trouvent leurs fondements dans ce type de représentation. Dans le cadre de la robotique autonome, il semble donc logique de s'orienter dans cette voie an de s'assurer de ces propriétés. Le concept sans doute le plus important lié au substrat de la mémoire est alors la dynamicité. Posséder une mémoire dyna-mique signie être capable de mettre à jour progressivement une connaissance vis-à-vis d'une expérience ou d'un exemple présenté. Comme il vient d'être souligné, le monde réel est bruité, mais ce bruit ne s'applique pas aux seules modications du support physique, ce phénomène de bruit est présent dans le modèle même du monde. Apprendre à faire du vélo ne peut se faire en une seule fois, cela requiert un apprentissage lent et parsemé d'expériences desquelles on va extraire les régularités (régularités qui se vérient d'expériences en expériences) permettant de se construire un modèle interne. Dans ce cheminement, le bruit du monde intervient sous la

1.5. Discussion

Déclarative

Procédurale Déclarative Procédurale Déclarative Procédurale Déclarative

Adresse Contenu Adresse Contenu

Parallèle Séquentiel

Procédurale Déclarative

Procédurale Déclarative Procédurale Déclarative Procédurale Déclarative

Adresse Contenu Adresse Contenu

Parallèle Séquentiel

Mémoire

Distribuée Locale

Procédurale

Fig. 1.6 Une classication des mémoires avec les zones respectives du domaine des réseaux de neurones articiels et de l'informatique en général.

forme d'expériences en contradiction avec le modèle ainsi construit, il faut alors être en mesure de tenir compte de l'expérience sans remettre en cause le modèle entier. De même, apprendre à reconnaître quelqu'un signie mémoriser les traits essentiels de son visage et être capable de les reconnaître lorsqu'ils sont de nouveaux présentés. Si ce visage présenté est maintenant légèrement diérent parce que la personne en question porte des lunettes, a bronzé ou a vieilli, il faut alors mettre à jour le modèle interne ; il n'est pas question de ré-apprendre par coeur son visage. Reste alors ces aspects procéduraux et déclaratifs de la mémoire : pourquoi vouloir mani-puler la connaissance selon ces deux approches ? Comme nous l'avons souligné tout au long de ce chapitre, les notions de mémoires procédurales et déclaratives sont présentes aussi bien en informatique qu'en cognition humaine. Elles représentent les deux facettes indispensables de la connaissance, la généralité et le cas particulier. En informatique, la mémoire procédurale représente le fondement même de la notion de programme. C'est une façon de manipuler la connaissance sous un aspect général. Il n'est pas aujourd'hui concevable de mettre au point un programme de multiplication autorisant la seule multiplication de 2 par 3, puis un autre pro-gramme autorisant la seule multiplication de 2 par 4, puis un autre propro-gramme... etc. Il vaut mieux mettre au point un programme calculant la multiplication de deux entiers quelconques. Dans le même temps, la programmation requiert la manipulation explicite de données auxquelles on va appliquer les programmes. Si l'on ne peut pas instancier notre programme générique de mul-tiplication sur des exemples précis, alors ce programme est inutile. L'informatique nous montre donc une coopération ecace entre mémoire procédurale d'un côté et mémoire déclarative de l'autre. Pourtant, cela n'est pas entièrement satisfaisant. En eet, l'algorithme sous-tendant un programme s'attache généralement à résoudre un problème qui est entièrement spécié dès le départ, c'est à dire que l'on connaît par avance ce que doit faire le programme. Par exemple dans le cas de la multiplication, on connaît le résultat attendu ainsi que l'algorithme permettant

Chapitre 1. Diérentes mémoires

de multiplier deux entiers à partir, par exemple, de l'addition. La conséquence immédiate est alors que si ces algorithmes sont ecaces, ils sourent d'une rigidité extrême et ne ne peuvent prétendre résoudre un autre problème.

Or, comme nous le verrons par la suite, la robotique autonome se caractérise elle par une classe de problème qui ne sont pas entièrement spéciables, il faut alors disposer de structures adaptatives permettant la résolution dynamique de ces problèmes. C'est ce que proposent en par-tie les réseaux de neurones articiels. Mais comme nous allons le montrer dans le chapitre suivant, la plupart des modèles existants ne s'attache qu'à l'un des deux aspects de la connaissance, le côté procédural ou bien le côté déclaratif, et cela est insusant pour la robotique autonome. Nous devons donc concevoir des modèles connexionnistes manipulant ces deux facettes de la connaissance ainsi qu'un modèle de leur coopération et ce sont bien là les objectifs de notre travail.

Chapitre 2

Notion de mémoire en connexionnisme

Information is not stored anywhere in particular. Rather it is stored everywhere. Information is better thought as evoked than found.

David Rumelhart et Donald Norman, [Rumelhart and Norman, 1981]

Sommaire

2.1 Les fondements du connexionnisme . . . . 38