• Aucun résultat trouvé

L’ EXPLICATION DANS LES DIALOGUES FINALISES

DANS LES DIALOGUES ENTRE APPRENANTS

CONNAISSANCES DANS LES INTERACTIONS ARGUMENTATIVES

4. L’ EXPLICATION DANS LES DIALOGUES FINALISES

« Plus tu m’expliques, plus je m’embrouille ».

Éléonore BAKER, 10 ans (communication personnelle, novembre 2002)

ans le premier chapitre de cette synthèse, j’ai décrit les interactions

épistémiques en tant qu’interactions dont l’enjeu principal est

l’élaboration de connaissances nouvelles, à partir des fondements des solutions proposées à un problème à résoudre en commun. Les

interactions argumentatives et explicatives constituent des cas

prototypiques dans le genre, car elles nécessitent précisément le sélectionnement et la restructuration des connaissances, dans des contextes interactifs précis, sous la forme de justifications, explications ou arguments. L’argumentation et l’explication, portant tous les deux sur des

relations entre des connaissances, sont souvent liées : on peut être obligé

de s’expliquer en argumentant, on peut argumenter vis-à-vis des explications alternatives pour un phénomène, etc. (cf. Plantin, 1996, p. 45). D’une certaine manière, l’explication et l’argumentation dans les interactions sont toutes les deux suscitées par des situations

« problématiques », renvoyant ou bien à l’univers de référence (par

exemple, deux faits qui paraissent conjointement problématiques et qui suscitent une explication), ou bien à un « problème » dans l’interlocution (une ou deux propositions qui ne sont pas communément admises). La

différence principale entre les deux réside dans le fait que dans le cas de l’explication, le fait sur lequel porte la discussion n’est pas remis en cause, alors qu’il l’est précisément dans le cas de l’argumentation dialoguée. Au milieu des années 1990, j’ai mené une recherche sur l’explication dans les dialogues finalisés, hors situations qui visent l’apprentissage, dans le désir d’explorer la généralité de mes recherches sur la co-élaboration des connaissances. Ainsi, j’ai pu réinvestir mes recherches sur la « négociation des connaissances » (voir le chapitre 2 ci-dessus) et, dans une certaine mesure, mes travaux sur le dialogue argumentatif dans le champ de la modélisation des explications dans des dialogues

personne-machine. Cette recherche était menée principalement dans le

cadre du groupe de recherche « Génération d'Explications

Négociées (GENE) » du PRC-GDR-IA, dont j’ai assumé la responsabilité

scientifique et matérielle pendant les années 1992-1996. Le groupe rassemblait, autour de ce thème commun, des chercheurs en intelligence artificielle, en sciences cognitives et en sciences du langage. Comme je le décrirai ci-dessous, dans la perspective de l’élaboration de systèmes de dialogues personne-machine explicatifs, nous avons travaillé sur l’analyse de deux types de dialogues (oraux et médiatisés) : les dialogues de

recherche d’informations, et les dialogues de diagnostic médical.

P

ROBLEMATIQUES DE L

EXPLICATION DANS L

’I

NTELLIGENCE

ARTIFICIELLE

L'essor des recherches sur l'explication dans les sciences cognitives pendant les années 90 trouvait son origine dans les premiers travaux sur les Systèmes Experts nommés aussi Systèmes à Base de Connaissances (SBC). Ces systèmes, basés sur l’utilisation de connaissances expertes, et conçus au départ comme des outils d’aide à la résolution de problèmes, devaient — pour être acceptés par leurs usagers potentiels — pouvoir

prouver leur compétence, la validité des connaissances représentées et la fiabilité du raisonnement, surtout dans des applications sensibles, comme le diagnostic médical ou le contrôle d'une centrale nucléaire. Dans les premiers travaux (Shortcliffe, 1976), dans un souci de surveillance des capacités du système, il s'agissait simplement de transmettre la trace du raisonnement suivi par le système à l’utilisateur. Très vite, en voulant réutiliser ces systèmes à des fins d’enseignement, des chercheurs comme Clancey (1987), se sont rendu compte que la « trace » du raisonnement en soi n’était pas une explication satisfaisante pour tous les utilisateurs : fidèle reflet du raisonnement du système, elle ne contenait que les heuristiques résultant de la « compilation » par l’expert de son savoir-faire de résolution de problèmes. De plus, le comportement global du système résultait d’une interaction complexe entre les règles sans qu’il soit possible de dégager sa stratégie générale de résolution. Les connaissances exprimées n’étaient pas nécessairement celles qu’on aurait souhaité transmettre et il manquait de plus, à la fois les connaissances qui auraient permis de justifier certaines étapes du raisonnement et celles exprimant la stratégie de résolution du domaine d’expertise.

De ce fait, deux axes de recherche ont fortement marqué les travaux sur l’explication en intelligence artificielle. Le premier s’attache à la représentation des connaissances à expliquer (Clancey, 1987 ; Kassel, 1987 ; David & Krivine, 1990) ; le deuxième étudie la modélisation du raisonnement explicatif, c’est-à-dire, du raisonnement mené pour construire des explications en toute généralité (Moore & Swartout, 1989 ; Weiner 1980, Lemaire & Safar, 1991). À partir de la fin des années 80, un troisième axe s'est imposé, centré sur la mise en œuvre des processus explicatifs dans les interactions homme-machine (Miller 1984 ; O’Malley 1987 ; Gilbert 1988 ; Paris, 1988; Cawsey, 1993 ; Baker, et al., 1994a, 1994b, 1996). En effet, dans les recherches menées en psychologie et en sciences du langage, sur les interactions verbales entre humains,

l'explication est vue comme un phénomène qui émerge de l'interaction. De plus, pour atteindre une meilleure adéquation entre les attentes de la machine et celles de l’usager, une interaction plus ou moins étendue est nécessaire pour modéliser les connaissances et les buts de ce dernier. La nécessité de modéliser à la fois les connaissances chez l'être humain, ses processus de compréhension d'explications et l’interaction elle-même, exige ainsi une collaboration entre chercheurs en informatique et en sciences humaines, au sein des sciences cognitives. Les recherches actuelles sur l’explication en intelligence artificielle se situent au confluent de ces trois axes de recherche.

Dans l’article suivant, publié au début des années 90, j’ai été le premier à introduire dans la communauté de recherche francophone l’idée selon laquelle l’explication pourrait correspondre à un processus — et non comme une entité, textuelle ou autre, qui pourrait être tout simplement soumise à l’utilisateur — impliquant une collaboration entre l'homme et la machine :

Baker, M.J. (1992). Le rôle de la collaboration dans la construction d'explications. Actes des Deuxièmes journées "Explication" du PRC-GDR-IA du CNRS, pp. 25-42, Sophia-Antipolis, juin 1992.

La collaboration se manifeste comme une négociation (voir le chapitre 2 de cette synthèse, ci-dessus) portant d’une part sur la nature de « ce qui est à expliquer » et d’autre part sur « ce qui explique ». L’analyse de corpus d’interactions s’efforce donc à mettre en évidence la façon dont chaque interlocuteur ou agent participe ou contribue à la co-élaboration de l’explication. Dans ce cadre, par « explication », j’entends l'ensemble

des processus portant d'une part, sur la structuration des connaissances mises en jeu dans l’interaction et d'autre part, sur l'adéquation de celles-ci aux buts d'agents-interlocuteurs, afin d'augmenter la cohérence de leurs représentations mutuelles de ce qui est à expliquer. Dès lors, il devient difficile de trouver une entité

unique qui corresponde à l’objet « explication », on ne trouve que des traces partielles (des segments explicatifs), raffinées tout au long de l’interaction, à partir desquelles on peut tenter de reconstituer les processus explicatifs sous-jacents.

L’utilisation des concepts de la structuration, de l'adéquation, et de la cohérence des représentations dans ma définition de travail est motivée par l’objectif d’élaborer une problématique cohérente et restreinte de l’explication dans le cadre de dialogues finalisés. Dans le premier cas, il s’agit de restreindre l’explication au cas où un raisonnement explicatif serait mis en œuvre (Lemaire & Safar, 1991) afin de structurer des connaissances, et de ce fait exclure de la considération les simples apports d’information (Baker et al, 1994a). Dans le deuxième (l’adéquation), outre la relativisation de l’explication à l’être humain (on explique pour quelqu’un, une explication en est une pour quelqu’un), je fais référence au fait que les explications peuvent s’insérer dans des négociations sur d’autres plans (par exemple, pour faire accepter une proposition, on explique le raisonnement sous-jacent), et qu’elles-mêmes peuvent être négociées (Baker et al, 1993, 1994a, 1994b, 1996a, 1996b). Enfin, par « augmenter la cohérence », j’entends toute opération qui réduit des contradictions (Dessalles 1993), simplifie ou complète la représentation de ce qui doit être expliqué, ou bien ses liens epistémiques-conceptuels avec les éléments d’explication, ce que Gärdenfors (1988) appelle « réduire la dissonance cognitive » (i.e. « comprendre »).

Ce positionnement dit « explications négociées », avec mes recherches antérieures sur la négociation des connaissances, a été repris en tant que cadre théorique commun au sein du groupe GENE.