D ENIS P IERRE
Les schémas mentaux : représenter et maintenir une connaissance apprise
Mathématiques et sciences humaines, tome 139 (1997), p. 37-68
<http://www.numdam.org/item?id=MSH_1997__139__37_0>
© Centre d’analyse et de mathématiques sociales de l’EHESS, 1997, tous droits réservés.
L’accès aux archives de la revue « Mathématiques et sciences humaines » (http://
msh.revues.org/) implique l’accord avec les conditions générales d’utilisation (http://www.
numdam.org/conditions). Toute utilisation commerciale ou impression systématique est consti- tutive d’une infraction pénale. Toute copie ou impression de ce fichier doit conte- nir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
LES
SCHÉMAS
MENTAUX :REPRÉSENTER
ET MAINTENIR UNE CONNAISSANCE APPRISE Denis
PIERRE1
RÉSUMÉ 2014
Nous nous intéressons àl’apprentissage
àpartir d’exemples
et à la résolution deproblème
dans un universévolutif représenté
par une base de connaissancesincomplète.
Nousformali-
sons un cadre de
représentation
de connaissancessusceptible
d’être élaboré etcritiqué
par des humainscomme par des machines. Cette
représentation
des connaissances estappelée
théoriesemi-empirique
carcette
forme
de théorie n’est pascomplètement axiomatique.
Nous avonsformalisé
lagestion
de la crois-sance incrémentale de la connaissance dans notre
système
autour de l’idée de noyaucentral,
issue des recherches enpsychologie sociale,
endéfinissant
un sous-ensemble cohérent de la base de connaissancescomme le concept à
apprendre,
et enobligeant l’apprenti
àpersévérer
dans cette croyance. Lapropriété
essentielle de ce sous-ensemble est la monotonie du raisonnement.
SUMMARY 2014 Mental schemes : how to represent and maintain a learned
knowledge.
We are interested in
learning from examples
andproblem solving
in an evolutive universerepresented by
anincomplete knowledge
base. Weformalize
aknowledge representation framework
that could be built and criticizedby
humanand/or artificial
agents. Thisknowledge representation
is called asemi-empirical theory
because this kindof theory
is notcompletely
axiomatic. Weformalize
asystem
called a mentalscheme
modelling
theknowledge
increaseduring
thelearning
process. We deal with thedynamic
characte-ristic
of
thelearning acquisition
processthrough reasoning mechanisms, proof building
and thedefinition of
aknowledge
core.1 INTRODUCTION
L’apprentissage
est laproduction
et l’évaluation de modèles devant êtreexploités après
leur validation par un expert du domaine. Il existeplusieurs
typesd’apprentissage répondant
à différents critères dont lesprincipaux
sont énumérés ci-dessous :- Phase
d’apprentissage:
engénéral,
les méthodesd’apprentissage
sedécomposent
en deuxétapes, apprendre
et décider.- Connaissance da domaine : certaines méthodes nécessitent une connaissance a
priori
dudomaine, qu’elles adapteront
par la suite à de nouveaux contextes.- Incrémentalité : les éléments constituant la connaissance du domaine peuvent être
présentés
pro-gressivement.
Ils sont alorsanalysés
suivant l’ordre deprésentation.
- Résistance au bruit : la notion de bruit est liée aux erreurs de
description
ou de mesure. Engénéral,
les méthodes incrémentales ne résistent pas au bruit. On admet
qu’un grand
nombred’exemples
est, en
apprentissage,
un facteurprépondérant
de résistance au bruit.Les deux
grands
domaines de recherche enapprentissage
en relation avec leproblème qui
nous intéressesont
l’apprentissage
àpartir d’explications,
ouEBL,
etl’apprentissage
par détection desimilarités,
ou SBL.1. Laboratoire d’Informatique, de Robotique et de Microélectronique de Montpellier
(LIRMM),
UMR 9928 UniversitéMontpellier Il/CNRS, 161 Rue ADA, 34392 Montpellier Cedex 5, FRANCE
L’apprentissage
parexplications,
ouEBL,
est un typed’apprentissage
danslequel
lagénéralisation
doitêtre
justifiée
par desexplications.
Lessystèmes
de type EBLexpliquent pourquoi
une instanceparticulière,
décrite par une collection de littéraux
représentant
sescaractéristiques
et sesvaleurs,
est un élément d’un concept(un prédicat
sur un universd’instances).
Le résultat del’apprentissage
est ladescription
d’unou de
plusieurs
concepts. Le raisonnement est basé surl’explication
desobservations,
et repose sur une connaissance du domaine souventreprésentée
par une base derègles.
L’apprentissage
parexplications comprend
unephase d’explication, qui
prouvequ’une
instance estexemple
d’un concept, en déterminant les
caractéristiques
del’exemple pertinentes
pour le concept et unephase
de
générnlisation qui
permet de déterminer un ensemble de conditions suffisantes pourlesquelles
la struc-ture
d’explication
est valide.L’approche
EBL est donc unetechnique
déductivequi
repose sur une théoriecomplète
du domaine. Deplus,
ces méthodes nécessitent une définition d’un conceptbut,
ou concept àapprendre, disponible
avantl’apprentissage.
L’apprentissage
par détection desimilarités,
ouSBL,
est uneapproche
danslaquelle
unsystème d’appren- tissage reçoit
des informations relatives à un domained’application
sous forme de faits ou de formules.Sur la base de ces
informations,
lesystème
induit desrègles générales
caractérisant ledomaine,
et émet deshypothèses
sur des éléments inconnus du domaine. Les informationsapportées
par la suite peuvent permettre l’induction de nouvelleshypothèses,
tantqu’elles
ne falsifient pas leshypothèses
existantes.La consistance de l’ensemble
d’hypothèses
doit être maintenuelorsque
de nouvelles informations sontapportées.
L’objet
de notre recherche se caractérise par la formalisation d’un modèled’apprentissage
àpartir d’exemples
de typeSBL,
une théoriesemi-empirique.
Une théoriesemi-empirique
est une forme d’ex-pression
des connaissancessusceptible
d’être élaborée etcritiquée
par un agent humain ouprogrammé.
En formalisant dans un schéma mental l’ensemble des relations
qui
lient les énoncés d’une théorie semi-empirique,
nous souhaitonspouvoir
décrire comment unapprenti
peut formuler deshypothèses
en décou-vrant
progressivement
le domained’application.
Cetapprenti
est en situation de résolution deproblème
initié par une
question
relative à un domaine surlequel
il n’a aucune connaissance apriori.
Il enrichit incrémentalement sesconnaissances,
augré
des interactions avec un expert, et ildispose
de méthodesqui
lui permettent de formuler des
hypothèses
etproduire
desargumentations.
Les théories
semi-empiriques
sont une alternative aux formulationslogiques puisqu’elles
neprésupposent
pas l’existence d’un cadre a
priori
mais permettentl’émergence
d’uneargumentation,
sous la forme d’une preuve,lorsqu’un
état stable de la connaissance est atteint.L’objectif
del’apprenti
que nous cherchons à formaliser est d’atteindre un état danslequel
l’ensemble de ses connaissances(données, hypothèses
etméthodes)
sont stables. ’Cet article
présente préalablement
un état de l’art succint desprincipaux
thèmes liés à notreobjet
d’étude.Puis nous énoncerons la formalisation du schéma mental : son
principe
dereprésentation
de l’incertitudeet ses mécanismes de formulation
d’hypothèses
et de construction de preuves. Enfin nousprésenterons
laméthode de
gestion
de la croissance incrémentale de la connaissance dans un schémamental, inspirée
dela théorie du noyau central issue des recherches en
psychologie
sociale.2 APPRENDRE ET
REPRÉSENTER
.Le processus de classification d’entités observées est une tâche
complexe qui précède
souvent ledévelop-
pement d’une théorie sur ces entités. Ce processus est une formed’apprentissage
àpartir d’observations,
c’est-à-dire un
apprentissage
nonsupervisé.
Les méthodes lesplus classiques
calculent des mesures de similitude entre entités et les classescomposées
sont des ensemblesd’objets
avec une forte similarité intra-classe et une faible similarité inter-classes. Ces méthodes supposent que tous les attributsperti-
nents décrivant les entités sont connus a
priori
etqu’ils
sontprésents
en nombre suffisant pour créer uneclassification. De
plus,
elles ne prennent pas en considération la connaissance(background knowledge) qui
porte sur les relations entre des attributs ou des conceptsgénéraux qui pourraient
être utilisés pour caractériser desconfigurations d’objets.
Enparticulier,
les attributs sont considérés avec uneimportance égale,
aucune distinction n’est faite relativement à leurdegré
depertinence
auregard
duproblème
traité.Ainsi,
s’il existe un accord entre les valeurs d’un nombre suffisammentgrand
d’attributs nonpertinents,
desobjets
sensiblement différents peuvent être classés comme étant similaires.Les travaux autour de la notion de regroupement en concepts
(concept1J.al clustering)
tentent depallier
cesinsuffisances
[20 ; 21 ; 28 ; 7 ; 11 ; 8].
Cesapproches
fontl’hypothèse
que les entités peuvent êtrearrangées
en classes
représentant
des conceptssimples plutôt qu’en
classes baséesuniquement
sur une mesure de similitude.Lorsque plusieurs
classifications sontpossibles,
le choix de l’uneparmi
d’autres peut être orienté endésignant
le but de la classification. Ceci définit une sorte depoint
de vuequi guide
le processus de formation de concepts endésignant
les attributssignificatifs
pour un but donné et endécomposant
cebut en une succession de sous-buts subordonnés à la vérification de ces attributs.
Stepp
et Michalski[28]
construisent ainsi ungraphe
dedépendance
de buts(Goal Dependency Network,
notéGDN).
Lesconnaissances
générales,
contraintes et critèresgénéraux,
sont utilisées pourguider
une classification. Les connaissancesspécifiques
audomaine, règles
d’inférenceappliquées
sur leGDN,
sont utilisées pour inférer les attributssignificatifs
pour un but donné. Le GDN permet donc degénérer
des attributs dérivés liésau but de la classification. Plusieurs buts peuvent être
présents
dans unGDN,
c’est alors laprécédence
d’un but sur un autre
qui guidera
la classification.Ce
principe
est illustré sur unexemple
de classification de trains décrits àpartir
d’attributs tels que la couleur des roues, le nombre devoitures,
la forme desvoitures,
la forme desobjets transportés
ou leurtype :
produit toxique
ou non. Si la classification estguidée
par lasimplicité
des formesgéométriques
lesgroupes formés se
distinguent
par desexpressions
du type "les trains de cette classe sontcomposés
de quatre voitures" ou "ies trains de cette classe ont tous les roues blanche". Si le but est de survivre etqu’un graphe
dedépendance
de buts lie le fait de survivre à la surveillance du transport deproduits toxiques,
la classification sera
guidée
par un attributsignificatif
différentqui
décrit si une voiture transporte desproduits toxiques
ou non../
Cet
exemple
illustre assez bien le faitqu’un
ensemble dedescriptions
contient des informations de na- ture différentesqui
ne vont pas toutes dans le sens de l’illustration d’un conceptunique. Ainsi,
dans cetexemple,
certains attributs illustrent la notion desurvie,
d’autres(mais
non nécessairement un ensembledisjoint
dupremier)
illustrent la forme. Il semble alors raisonnable de convenird’apprendre
l’un ou l’autrede ces deux concepts, et non les deux
simultanément,
chacun émettant du "bruit" dans ladescription
del’autre. En
effet,
tenter de déterminer desrégularités
sur des attributs aveclesquels
aucune relation neprend
sens( i. e.
ces attributs ne sont pas liés par une relationd’implication,
decausalité,
dehiérarchie, d’équivalence,
deressemblance, d’antagonisme...)
est uneentreprise
aléatoire. Ce choixs’impose lorsque
les
problèmes
de révision de connaissance sont abordés etqu’il
devient nécessaire de maintenir unehy- pothèse
contre une autre. Connaître le but de la classification aide alors à la révision.Nous montrerons dans la
partie
4 comment nousisolons,
dans notre modèle dereprésentation,
un noyau de connaissancesstable,
buthypothétique
du processusd’apprentissage,
et comment cettehypothèse
facilite la révision des connaissances.
2.1 Raisonnement non monotone
L’utilisation d’une
règle
d’inférence pourproduire
une conclusion àpartir
d’une base de connaissancesdépend implicitement
d’unepropriété générale
deslogiques classiques (incluant
lalogique propositionnelle
et la
logiques
dupremier ordre)
que l’onappelle
la monotonie. Unelogique
est monotonesi, lorsque
nousajoutons
un nouvel élément à une base deconnaissances,
lespropositions originales
de lapremière
basesont
présentes
dans la nouvelle.Soit,
pour deux ensembles de formules T et T’ et une formuleF,
Cette
propriété
n’estplus
vérifiée en raisonnement non monotone. Cecisignifie
quelorsque
de nouvelles informationsapparaissent,
des conclusionsprécédentes
peuvent être rétractées.Supposons
parexemple qu’il
soitdemandé,
dans unpremier
temps, decompléter
la suite1,3,5,7... puis,
dans un second temps,que l’on
précise
laquestion
encomplétant
la suite par1,3,5,7,11 ...
Nous constatons quel’ajout
d’uneinformation peut invalider une conclusion obtenue
précédemment
et pourtantacceptable.
Ce thème intéresse les chercheurs en IA pour diverses raisons :
- La
plupart
des raisonnements humainsqui impliquent
un raisonnement inductif ont cettepropriété
de non monotonicité.
- La
complexité
de la tâche de raisonnement peut être réduite en utilisant une base de connaissances restreinte avec desrègles
d’inférenceplus efficaces,
mais non monotones.- Les
logiques classiques imposent
à leurs résultats d’êtrecertains,
et ceci s’avère souvent excessif. Il est souventpossible
de se satisfaire d’uneréponse raisonnable,
maisincertaine, qui
peut donc être contredite.Nous cherchons une solution intermédiaire entre
l’expression logique
d’une théorie et sonexpression
parun ensemble de
descriptions.
Les théoriessemi-empiriques
sont uneconceptualisation
de la connaissanceindépendante
dulangage.
La connaissance del’apprenti
estempirique.
Nous souhaitonsexprimer
desrègles
obtenues par une inférenceguidée
par les données etreprésentatives
des partsd’exemples
et decontre-exemples
observées. Nousjugeons
donc l’évaluation d’uneexpression
par une croyanceplus adaptée
à la forme de
représentation exigée.
Lesproblèmes
rencontrés demeurentcependant :
commentreprésenter
des connaissances contradictoires ou
exceptionnelles,
et comment, suivantquels critères,
isoler un sous-ensemble de la base de connaissances afin de minimiser les
opérations
de révision?2.2 Révision de théorie
Le
problème
de la construction d’une base de connaissances(acquisition
deconnaissances)
peut être vucomme un processus
décomposé
en deuxphases :
dans lapremière phase
il est construit un modèle initialqui
est révisé pour devenir une base de connaissancesplus performante,
au cours d’une secondephase.
Au cours de l’utilisation de cette base de
connaissances,
la modificationdynamique
de l’environnement peut provoquer son invalidité pour les raisonspossibles
suivantes :- De nouveaux
développement
peuvent conduire à de nouveauxproblèmes
non couvert par la basede connaissances. Le
système
ne peut donc pas résoudre cesproblèmes.
- Des connaissances
intégrées
à la base peuvent devenir obsolètes et ne doiventplus
être utilisées pour calculer des solutions dans la mesure où elles ne sontplus
valides dans l’environnement courant.Dans la
première situation,
nous avons un nouveau casd’application (un exemple positif) qui
ne peutpas être dérivé par la base de connaissances. Dans le second cas il est
possible
de dériver une solution de la base de connaissancesqui
n’est pasadmissible,
par les nouvelles lois de l’environnement. Ceci est doncappelé,
parconséquence,
unexemple négatif.
D’un
point
de vueplus formel,
cecisignifie qu’une
base de connaissances B doit être révisée en utilisant lesexemples positifs
E+et/ou négatifs
E’ de sorte que tous lesexemples positifs
et aucun desexemples négatifs
soient couverts par la base de connaissances résultat B’.Prenons une base de connaissances définie comme une théorie de Horn T = F U R
composée
de faits Fet de
règles
R satisfaisant un ensemble de contraintesd’intégrité CI,
la tâched’exploration
de la révision de théorie est de transformer T en T’ telle queLa théorie résultante T’
doit,
biensûr,
satisfaire les contraintesd’intégrité,
i.e. CI U T’ doit être consis- tant. Cette vérificationd’intégrité représente
la tâche devérification
de la révision de théorie.La tâche
principale
demeurecependant
comment obtenir la théorie révisée. Enprincipe,
il existe deuxpossibilités
-
premièrement,
nous pouvons modifier lesrègles,
parexemple
en utilisant destechniques
degénéra-
lisation ou de
spécialisation
- ou nous pouvons étendre l’ensemble des
faits,
ou les faits additionnels peuvent être trouvés par abduction.FORTE
[24]
est unsystème appliquant
une recherche "ascendante" dans un espaced’opérateurs
despé-
cialisation ou de
généralisation
afin de déterminer une révision minimale d’unethéorie,
en l’occurrenceune base de connaissances décrite sous forme d’un programme
Prolog
sansfonction, qui
reste consistanteavec un ensemble
d’apprentissage.
Le processusgénéral
de révisionidentifie,
àchaque itération,
despoints
dans la
théorie, appelés points
derévision, qui
peuvent être des sourcesd’erreurs,
et donc pourlesquels
une révision a le
potentiel d’augmenter
lajustesse
de la théorie. Un ensemble de révisions estgénéré,
basé sur ces
points
derévision,
le meilleur d’entre eux est sélectionné et exécuté. Ce processus est exécutéjusqu’à
cequ’aucune
révision n’améliore la théorie.Il est à noter que Richards et
Mooney
définissent dans FORTE un moduledésigné
sousl’appellation
de "théorie
f ondamentale
du domaine"qui
contient lesprédicats
que l’utilisateur souhaite écarter du processus de révision. Deux raisons peuvent conduire à un tel choix.Premièrement, placer
les élémentsde la théorie
qui
sont connus comme étant corrects dans la théorie fondamentale du domaine permet de réduirel’espace
de révisions.Deuxièmement,
la théorie fondamentale du domaine peut fournir les définitions intensionnelles des relations fondamentales utilisées pour définir un domaine. Ce module a unefonction similaire à ce que nous définirons comme le noyau de la base de connaissances dans la section 4.
2.3 Gestion de l’incertitude
L’inférence
est une actionqui
permet à un humain ou une machine d’accroître ses connaissances. Cette personne ou cette machine "fait uneinférence",
c’est-à-direqu’elle
infère un résultat àpartir
d’un ensemble de données. Dans une situation où un agent, humain ouprogrammé, raisonne,
l’incertitude du raisonne- ment peut être attachée à l’inférenceappliquée,
sesprémisses,
saconclusion,
ou ces trois éléments à lafois.
Ainsi,
face à uneinformation,
la croyanceapportée
aux conclusionsengendrées
par cette informationet
l’application
d’unerègle
d’inférence peut être influencée par l’incertitude que l’on accorde à l’infor- mation elle-même ou à l’inférenceappliquée
dans une tellesituation,
déduction ou induction. Ces deuxpossibilités
sont illustrées par la notationsuggérée
parHempel [12]
etcomplétée
parKyburg
dans[15 ; 16]
avec desprémisses
d’incertitude :Schéma 1
Ce
premier
schémareprésente
une inférencequi
contient deuxprémisses,
dont uneexprime
une incertitude(probabilité, croyance...),
et dont la conclusion est un énoncéexprimant explicitement
une incertitude.L’inférence est strictement
déductive,
la conclusion ne peut être vraie que si lesprémisses
sont vraies.Le deuxième schéma retenu par
Hempel
est le suivant : Schéma IICe schéma
représente
une inférence danslaquelle
la conclusion estcatégorique,
mais dont larègle
d’infé-rence n’est pas
simplement
déductive. Leparamètre qualificatif
p caractérise cette fois larègle
d’inférenceet non
plus
la conclusion : preprésente
la valeur deprobabilité
minimale pour exécuter cette inférence.La
première prémisse
de cette inférence contient la connaissance del’incertitude,
la seconde contient la connaissance debase, catégorique,
noncompromise
parl’incertitude,
tant que le contexte de son argu- ment lui convient. Dans ce cas, l’inférence n’estplus simplement déductive,
iln’y
aplus préservation
de la vérité des
prémisses.
Cepourrait
être une inférenceinductive, probabiliste, statistique
ou une in-férence par
analogie.
La conclusion de cette inférence n’estplus
un énoncéexprimant
l’incertitude d’unautre
énoncé,
maissimplement
ce dernierénoncé,
sous forme de conclusioncatégorique.
Dansl’exemple,
la conclusion n’est pas que les
éléphants
serontprobablement sauvés,
maisqu’ils
seront sauvés. Ceci nesignifie
pas que larègle
d’inférence est correcte, enparticulier
ellepourrait
être remise en cause par des événementsplus récents,
mais ceciimpliquerait
une autre inférence.Notre modélisation tente de considérer ces deux types de
représentation
del’incertitude,
à travers desvaleurs de croyance et la définition de
règles
d’inférenceshypothétiques
àpartir
deprémisses
non certaines.Nous
représentons
l’incertitude par des valeurs dans un ensemble de croyances, défini comme un bitreillisau sens de
Ginsberg.
2.4
Lalogique
multi-valuée deGinsberg
Une croyance est une forme de valuation de la connaissance. Ce terme
désigne
une extension de la notionde valeur de vérité attribuée à une
proposition.
L’idée deGinsberg [9]
est dedéfinir,
sur un ensemble devaleurs
désignées
sous le terme de croyances, deux relations d’ordre permettantd’exprimer
le faitqu’une
croyance est moins vraie
(T)
ou moins connue(K) qu’une
autre. Les valeursfaux (F)
et vrai(V) désignent
les bornes inférieures etsupérieures
de larelation T,
silence(S)
et contradictoires(C)
cellesde la
relation K .
Nous souhaiterions de
plus
définir uneopération
denégation
sur cet ensemble de sorte que si a >T b alorsà T -b
(la négation
inverse le sens de la relation devérité)
mais aussi que si a >K b alors à >K z(si
nous en savons moins sur 6 que sur a, nous en savonségalement
moins sur lanégation
de b que sur lanégation
dea).
Enfin nous souhaitons lanégation idempotente :
à = a.Un tel ensemble définit un bitreillis.
Ginsberg
énonce cette définition àpartir
desopérateurs, lesquels
permettent de définir les relations d’ordre.DÉFINITION
2.1(Ginsberg)
Un bitreillis est unsextuplet (B,
A,V, ~, +, ~)
tel que:1.
(B,
A,V)
et(B,., +)
sont tous les deux des treillis 2. ~ : B -~ B est définie par :(a)
"2 = 1(b) -,
est unhomomorphisme
de treillis de(B, A, V)
dans(B, V, A)
et de(B,., +)
dans lui-même.Le bitreillis non trivial minimal au sens de
Ginsberg
est réduit aux bornes inférieures etsupérieures
des deux relations d’ordre distinctes T et K, soit
{F, V, S, C}.
Celles-ci sont liées auxopérations
dubitreillis de la
façon
suivante :Il est
toujours possible
de construire un bitreillis àpartir
duproduit
cartésien d’un treillis avec lui-même[9]. Ainsi,
le bitreillis minimal peut être défini par leproduit
du treillis({0,1},A,V)
avec lui-même:2.4.1
ClôtureM.L.
Ginsberg
définit un mécanisme d’inférence utilisant ces valeurs de vérité sur son modèlereprésen- tationnel,
laclôture, qui construit,
àpartir
d’un ensemble depropositions,
toutes lesconséquences
de cespropositions.
L’interprétation
d’un ensemble de formules bien formées est définieclassiquement
comme une fonctiondans un bitreillis. Pour une
interprétation 0
et uneproposition p, 0
contient une informationexplicite
surp dans la valeur de vérité
0(p),
mais aussi des informationsimplicites
sous la forme de valeurs de véritésur des
expressions logiquement
liées à p. Ces deux types d’information doivent être obtenus à traversl’opération
de clôturequi produit
une nouvelleinterprétation cl(§) qui
détient les informationsexplicites
et
implicites
sur p dans une nouvelle valeurcl(,O)(p).
Nous attendons del’opération
de clôturequ’elle
ait lespropriétés
suivantes :1. Elle doit être une construction de
bitreillis, dépendant uniquement
des ordres et de lanégation
définissant le bitreillis
original.
2.
cl(cl(q,))
=cl(o),
pour tout0.
3.
cl(~) (p)
> K0(p),
pour tout p.La notion d’inférence doit donc
incorporer
l’information dérivée de la structure du bitreillis mais ne doit pas faireappel
à des notions ou destechniques dépendant
du domaine. Les deux dernières conditionsprécisent
quel’opération
de clôture ne nécessite d’être réaliséequ’une
seule fois afin d’extraire les infor- mationsdésignées
commeimplicites
données par0,
et quesi 0
attribue la valeur à uneproposition
p, la clôture
de 0
ne modifie en rien cette informationexplicite. Ginsberg
définit une méthode de calcul itératif de la clôture d’uneinterprétation
pour uneexpression
p en déterminant un ensemble de valeursxi
correspondant
aux dérivations de p àpartir
d’autres énoncés dulangage,
de sorte quecl(q,)(p)
>K Xi pour tout i. Ils’agit
en fait de déterminer les Xi tels que2.4.2
Le bitreillis des mondespossibles
Une classe intéressante de bitreillis peut être obtenue à
partir
d’une collection de mondespossibles.
Supposons
que W est un ensemble demondes,
et que(U, V)
est uncouple
de sous-ensembles de W. Direqu’une proposition
p a une valeur de croyance(U, V) signifie
que p est fausse dans les mondes de U et vraie dans les mondes de V. Il n’est pasexigé
que l’ensemble U f1 V soitvide,
un monde w appartenant à cet ensembleprécisant
que p est à la fois vraie et fausse dans w. Les relations d’ordre peuvent être définies de lafaçon
suivanteune
proposition
p est moins vraiequ’une proposition
q si p est fausse au moins dans les mondes où q est fausse et si q est vraie au moins dans les mondes où p estvraie ;
etune
proposition
q estplus
connuequ’une proposition
psi q
est connue comme vraie(resp. fausse)
aumoins
lorsque
p est connue comme vraie(resp. fausse).
Les bornes des relations d’ordre sont données
respectivement
paret C =
(W, W).
Et lesopérateurs
V, A, +, et - sont définis par:L’ensemble de tous les
couples
de sous-ensembles de W étantdésigné
parBw,
soitBw
=P(W)
x~(W),
pour tout ensemble
W, (Bw,
A, V, ., +,-)
est un bitreillis.2.4.3
Le bitreillis de lalogique
desdéfauts
Un autre
exemple
de bitreillis estreprésenté
sur lafigure 1(a) ;
il permet le traitement de lalogique
desdéfauts. En
plus
des valeursF, V, S,
etC,
uneproposition
peut être évaluée commefausse
pardéfaut
(dF)
ou vraie pardéfauts (dV).
La valeur * = dF + dVdésigne
uneproposition qui
est à la fois vraie et fausse par défaut. Ce bitreillis est obtenu par uneexpansion
dupoint
S en un autre bitreillis reflétantFIG. 1-
Exemple
de bitreillis pour deslogiques
dedéfauts
l’existence d’un autre ordre de croyance. Ici encore, la
négation correspond
à unesymétrie
selon l’axe(S, C).
Pour le traitement du célèbre
exemple
deTweety,
le manchot nonvolant, Ginsberg
pose que notre croyance dans le fait queTweety
voleprovient
de laconséquence
de larègle
par défaut les oiseaux volent.En attribuant à cette
règle
la valeur de croyancedV,
et aux conclusions decelle-ci,
une valeur de croyancejamais plus
connue quedV,
la contradictionengendrée
par le nouveau faitprécisant
queTweety
ne volepas est levée car cette
proposition
est alorsplus
connue que la conclusion de larègle.
Par
expansion
de la valeur S du bitreillisprécédent
en un autrebitreillis,
nous pouvonségalement
définirun bitreillis pour la
logique
des défautsprioritaires (figure 1(b)) désignant
un défaut du second ordre.Cette idée peut être étendue de
façon
à définir une hiérarchie infinie dedéfauts,
discrets ou continus.Nous pouvons noter que ces deux bitreillis partagent les valeurs
F, V, S,
et C avec lepremier.
Enfait,
tout bitreillis
possédera
quatre éléments distinctscorrespondant
aux bornes inférieures etsupérieures
desdeux relations d’ordre.
2.4.4 Éléments fondamentaux
Une notion intéressante introduite par
Ginsberg
est celle d’élémentsfondamenta~c~ (grounded).
Elle pro-vient du fait
qu’il existe,
dans unbitreillis,
des élémentsqui correspondent
à des informations"primitives".
Dans la
perspective
de construire la clôture d’uneinterprétation
arbitraire en accumulant les informations de sourcesdifférentes,
c’est une notionqu’il
semble intéressant de formaliser.Considérons le bitreillis de la
logique
desdéfauts, représenté
sur lafigure 1(a).
On peut aisémentimaginer,
à
partir
d’un ensembled’exemples, qu’une proposition
soit vraie oufausse,
ou même vraie par défautou fausse par défaut. Il est
plus
difficiled’imaginer qu’une proposition
ait pour valeur decroyance *
oucontradictoire. Ces deux
points
sedistinguent
intuitivement des autres dans le bitreillis par le faitqu’ils
ne sont pas situé sur la "bordure inférieure" du bitreillis. Cette "bordure inférieure" est en fait divisée
en deux
parties :
cellejoignant
S à F et cellejoignant
S à V. Nous dirons d’un élément x situé entre Set V
qu’il
estf ondamentalement V,
etqu’il
estf ondamentalement
F s’il est situé entre S et F.DÉFINITION
2.2(Ginsberg)
Un élément 2* d’un bitreillis B estf ondamentalement
Vsi,
pour toutX/ ~ ~ ï/ >r.c =~ ~ ~.
Il sera
f ondamentalement
Fsi,
pour tout y EB, y
T z + y >K -c.~ est
f ondamental
s’il est à la fois fondamentalement V et fondamentalement F.LEMME 2.1 Pour un bitreillis E B est fondamental ssi :c =
inf K (B).
Supposons
en effet l’existence d’un élément au E B différent de S =inf K (B)
tel que x soit fondamental dans B. Alorsquelle
que soit laposition
de x par rapport à S selon l’ordre T(S
ou S T~),
larelation S doit être vérifiée. Ceci
impose,
par définition deS, x
= S.Le silence est donc
l’unique
élément fondamental de tout bitreillis.Nous avons
présenté
les références lesplus importantes,
lesplus proches
des thèmes que nous abordons dans ce travail.À
savoir :l’expression
derégularités
observées sur une base deconnaissances, l’expression
d’une valeur de croyance permettant la
description
des éléments de la base et leurcomparaison
enterme de connaissance et de vérité. Enfin nous avons
présenté
certains des travaux en raisonnement non monotone et en révision de théorie. Chacun de ces thèmescorrespond
à un des aspects de ce travail. Nous cherchons en effet à formaliser un modèled’acquisition
et dereprésentation
deconnaissances,
leproblème
de l’évaluation de la connaissance sera donc notre
premier
souci avantd’évoquer
les différentsproblèmes
liés à la découverte de
régularités
et la constructiond’hypothèses
dans une base de connaissances.3 LES
THÉORIES SEMI-EMPIRIQUES :
UNE FORMALISATIONLes théories
semi-empiriques (TSE) [25 ; 26]
sont uneconceptualisation
de la connaissanceindépendante
du
langage.
Ellesprécisent
la manière dont une connaissance seformule, s’expérimente
et se diffuse.La
figure
2présente
une taxinomie des termesemployés
pourexprimer
la connaissance en TSE. Cette taxinomie est basée sur le travail de Addis[2].
Les connaissancess’organisent
endonnées,
mécanismeset méthodes. Les données constituent la connaissance. Les mécanismes sont des méthodes de base:
l’abduction crée des
données,
l’induction lesorganise
et la déduction propage les contraintes. Enfin les méthodes sont liées aux interactions avec un agent externecapable
deproduire
descritiques qui
permettent d’examiner lapertinence
desexpressions
être uneobjection,
être uneconjecture,
être un lemme ou êtreune preuve.
FtG. 2 - Taxonomie des termes intervenant dans la
formalisation
et l’évotation des connaissances. pour les TSE.Un
fait
est un élément d’unedescription,
c’est-à-dire une relation entre deux énoncés A et X du type Apossède
lapropriété
X. Les TSE doivent permettre à unapprenti
d’émettre deshypothèses
sur desfaits,
illustrées par des
exemples
et descontre-exemples produits
par unoracle,
etqui
forment l’échantillon(ou
connaissances de
base)
del’apprenti.
Les énoncés d’une Théorie
Semi-Empirique,
éléments d’unlangage
dénotant unedescription
ou un at-tribut,
sedistinguent
selon lesinterprétations qui
leurs sont associées. Un énoncé est unobjet quand
onpeut lui associer un ensemble de faits. Un énoncé est un concept