• Aucun résultat trouvé

S[f g2;RT

Cette regle fut ainsi presentee dans [Hui96]25 comme un postulat interessant en recherche d'in-formations. Il exprime le fait que si une situation

S

0 est a-propos d'une situation

T

, avec



2

S

0 et si !r



est valide, alors nous pouvons remplacer l'infon



par dans

S

0 sans perdre le fait que cette derniere soit a-propos de la situation

T

. Les preuves de la validite de ces regles de derivation a partir de celles de la section precedente sont donnees dans [KLM90].

3.4.3 Completude et Correction

Notre modele de derivation de pertinence devra ^etre complet et correct vis-a-vis de la conse-quence preferentielle jR introduite dans la de nition 3.2.13 (page 88). Dans ce cas, la correspon-dance se fera bien entre la requ^ete et les representations les plus elargies des index des documents. Dans [KLM90], une notion de relation de consequence cumulative26et preferentielle est ainsi de nie:

De nition 3.4.3 (Relation de Consequence Preferentielle)

Une relation de consequence

jest ditepreferentielle ordonnee27si, et seulement si, elle contient toutes les instances de l'axiome de re exivite, et est fermee sur les regles de l'Equivalence Logique a Gauche, de l'A aiblissement a Droite, du Cut, de la Monotonicite Circonspecte, de la Disjonction et du Bouclage.

Notre systeme de derivation de pertinence de la section 3.4 est donc de ni comme suit:

De nition 3.4.4 (Derivation de Pertinence Relationnelle)

Le systeme relationnel de deri-vation de pertinence S

< est de ni comme etant le triplet h P, fRe exiviteg, fEquivalence Logique a Gauche, Endiguement Elementaire, Endiguement Faible, Endiguement avec Retenue, Cut, Mo-notonicite Circonspecte, Disjonction, Bouclagegi.

Les regles d'endiguement etant la contre-part logique de l'A aiblissement a Droite, il en decoule de la de nition 3.4.3 que la relation de pertinence Relationnelle 2;Rest une relation preferentielle ordonnee:

Lemme 2

La pertinence relationnelle 2;R est une relation preferentielle ordonnee. Le theoreme de correction suivant est ainsi enonce. La preuve se trouve dans [KLM90]:

Theoreme 2 (Correction)

la relation de consequence jR de nie par le modele relationnel pre-ferentiel MRP de la de nition 3.2.14 (page 89)est une relation preferentielle ordonnee, i.e, si

j

MRP



(

d

) jR



(

q

) alors ` S

<



(

d

)2;R



(

q

)

De plus il est montre dans [KLM90] qu'etant donnee une relation preferentiellej, il est possible de construire un modele preferentiel dont la relation de consequence est exactement j:

Theoreme 3 (Completude)

Le systeme de derivation de pertinenceS

< est complet vis-a-vis de la relation de consequence preferentiellejR, i.e, si`

S

<



(

d

)2;R



(

q

) alorsj

MRP



(

d

)jR



(

q

).

3.4.4 Decidabilite

Supposons que nous posons une question a une machine, et que cette derniere est munie d'un certain algorithme qu'elle utilise pour produire une reponse correcte. Si la machine garantie qu'a un moment donne, elle s'arr^etera pour nous donner une reponse (positive ou negative), alors le probleme est dit decidable. Si la machine s'arr^ete uniquement quand elle est en possession d'une reponse positive, et qu'elle pourrait in niment tourner quand la reponse est negative, alors le

26:Le terme \Cumulative" est introduit a n de mentionner le fait que tous les axiomes et regles qui ne contredisent pas la non-monotonicite sont ajoutees au systeme de derivation.

probleme est dit semi-decidable. Les raisonnements non-monotones conduisent generalement a des approches qui ne sont m^eme pas semi-decidables [Isr80, Rei80]. Par consequent, n'importe quel systeme qui utilise une approche non-monotone fera dans les meilleurs des cas des erreurs de deductions de temps a autres, ou dans les pires des cas, il pourra boucler in niment [Gin87].

Dans notre approche, ceci serait le cas si le langage d'indexation relationnelle est in ni. En e et, il se pourrait alors que l'ajout d'information (ou en d'autres termes la speci cation de nouvelles valeurs de verite pour les termes d'indexation) soit in ni. Par consequent, le systeme de derivation bouclera in niment et ne sera pas en mesure de fournir une reponse a la question posee. Il s'agit du cas ou l'on n'est pas certain d'avoir un element minimal dans la cha^ne de preference.

Theoreme 4 (Decidabilite)

Si le langage d'indexation relationnelle L est ni, le systeme de derivation S

< est decidable.

Preuve 2

D'apres le theoreme 1 de la page 88, si le langage d'indexation relationnelle est ni, alors il existe un element minimal unique constituant l'index le plus elargi du document par rapport aux proprietes des relations et des objets. Dans ce cas, le systeme de derivation relationnelS

< etant complet et correct vis-a-vis du modele preferentiel, l'evaluation de la relation de pertinence 2;R

s'e ectuera a la base de cet element qui existe et qui est unique. L'operation qui consiste a savoir si un ensemble ni est inclus dans un autre ensemble ni (ou que la situation associee a la requ^ete est incluse dans celle associee a l'index le plus elargi) etant decidable, la decision de pertinence du systeme est un probleme decidable.

Ce resultat est assez important. En e et, vu que nous choisirons un langage d'indexation base sur les graphes conceptuels, et que ce dernier est ni une fois l'ontologie du domaine d'application speci ee, notre systeme de derivation a base de graphes conceptuels sera decidable (voir chapitre 4, page 198).

3.4.5 Exemple de Derivation de Pertinence

Nous reprenons ici comme exemple, l'image de la page 86, decrivant une aventure de Tom & Jerry. Supposons que cette image

d

est maintenant munie de l'index suivant:



(

d

) =fhha-droite,Tom,Jerry;1ii,hhEtat,Tom,colere;1ii,hhTenant,Jerry,Cuillere;1iig

Supposons qu'une requ^ete est a la recherche de toutes les images ou Jerry tenant un objet appara^t a gauche de Tom dans le plan de la photo. Cette requ^ete est exprimee de la facon suivante en theorie des situations:



(

q

) =fhha-gauche,Jerry,Tom;1ii,hhTenant,Jerry, Objet;1iig

Considerons que la base de connaissances du systeme est partiellement formee des relations d'endiguement suivantes:

Connaissances

hha-droite,

e

1,

e

2;1ii r hha-gauche,

e

2,

e

1;1ii hhI,Cuillere;1ii ! hhI,Objet;1ii

Nous montrons alors que le document

d

est pertinent a la requ^ete

q

a travers l'utilisation des connaissances du domaine:

hhI;Cuillere;1ii!rhhI;Objet;1ii fhha-gauche;Jerry;Tom;1ii;hhTenant;Jerry;Objet;1iig2;R(q)

(EI)

fhha-gauche;Jerry;Tom;1ii;hhTenant;Jerry;Cuillere;1iig2;R(q) hha-droite;e1;e2;1iirhha-gauche;e1;e2;1ii

(ELG)

fhha-droite;Tom;Jerry;1ii;hhTenant;Jerry;Cuillere;1iig2;R(q) hha-droite;_p;_q;1ii6?rhhEtat;_s;_t;1ii hhTenant;_p;_q;1ii6?rhhEtat;_s;_t;1ii

(MR)

fhha-droite;Tom;Jerry;1ii;hhTenant;Jerry;Cuillere;1ii;Etat;Tom;colere;1iig2;R(q)

Il s'en suit que par application successive des regles d'Endiguement Inverse (EI), d'Equivalence Logique a Gauche (ELG) et de Monotonicite Rationnelle (MR), il est possible de deduire que le document

d

est a-propos de la requ^ete. Les pas de derivation se basent sur les proprietes des relations incluant, entre autres, les proprietes sur leurs arguments (il s'agit ici de la relation de specialisation/generalisation entre CuillereetObjet).

Il est a noter, que comme nous l'avons explique precedemment, nous preferons dans la pratique l'utilisation de la Monotonicite Rationnelle, par rapport a la Monotonicite Circonspecte. En e et, la regle de Monotonicite Rationnelle permet de favoriser l'etablissement de certaines derivations comme pour l'exemple ci-dessus. Comparee a la trop contraignante regle de Monotonicite Cir-conspecte, elle favorise le taux de rappel tout en respectant la contrainte de precision des reponses, puisqu'elle veri e qu'il n'y a pas de contradictions entre les informations ajoutees et celles existantes dans une situation donnee.

3.5 Extensions Possibles du Modele

Notre systeme relationnel de derivation de pertinenceS

< utilise uniquement des relations d'en-diguement certaines, c'est-a-dire des connaissances valides dans tous les contextes d'application. Les regles deS

< permettent ainsi la derivation des connaissances implicites vehiculees par les re-lations et les objets qu'elles lient. Chaque passage d'une situation a une autre se faisait ainsi avec une certitude totale.

En recherche d'informations, il est parfois interessant de considerer des derivations de connais-sances incertaines. Ces derivations peuvent se baser sur des relations d'endiguement plausibles mais pas toujours certaines. Ainsi, la valuation du fait que le relonhhparle-a,John,Mary,;1iiest a-propos de hhecoute,Mary,John, ;1iirevient tres souvent a vraie, m^eme si ce n'est pas toujours le cas. Cela depend du contexte, par exemple siMaryetJohnsont dans une classe ou dans une conference, ou si

Maryest deja entrain d'ecouter une autre personne. S'il s'avere que dans le contexte ou l'on opere que Maryest attentive, cette valuation serait evaluee a vraie. Ceci peut se traduire par la relation d'endiguement plausible suivante: