• Aucun résultat trouvé

Pour la présentation des résultats, on peut emprunter certaines solutions adoptées dans les rapports de contrôle qualité [David et Fasquel 1997] et les adapter à notre contexte.

Les différences de position entre les objets appariés peuvent être analysées en créant un histogramme de réparation des écarts. Cet histogramme peut être associé à une grille régulière de biais régionalisé (figure 65). L’information apportée par cette grille est intéressante car elle permet d’identifier les zones de l’espace étudié pour lesquelles les écarts de position sont plus importants. Sa construction est très simple. Après avoir fixé un pas à la grille, on calcule, pour un échantillon de cellule, la moyenne des écarts de position en abscisse et en ordonnée (le biais20). Dans notre

cas, on sélectionne chaque couple d’objets appariés présent dans la cellule tirée et on

20 Rappelons que le biais correspond à l’écart entre l’espérance d’une mesure d’une grandeur et la valeur

choisit une référence. On reporte ensuite la valeur calculée sous forme de vecteur au niveau de la cellule tirée et le biais est ainsi représenté. Le choix de la référence n’a aucune importance. L’objectif est simplement de montrer la répartition des écarts et leur grandeur dans l’espace. L’analyse de cette grille doit toutefois être menée avec précaution car suivant le type d’objets traité, leur répartition et leur présence dans l’espace peut fortement varier (des échangeurs routiers ne se rencontrent pas partout par exemple).

Figure 65. Grille de biais régionalisé.

Pour exposer les erreurs de déficit et d’excédent (appelée aussi erreur d’omission et de commission), de même que les erreurs de confusion, nous aurions pu songer à utiliser les matrices de confusion [Congalton 1991]. Ces matrices sont régulièrement employées pour étudier l’exactitude de classification des objets et leur niveau de complétude. Dans notre cas cependant, elles ne sont pas tout à fait adaptées. Une matrice de confusion suppose l’existence d’un jeu de données de référence et d’un jeu à contrôler, lesquels répondent aux mêmes spécifications. Les différences de représentation correspondent aux erreurs à mettre en évidence, ce qui n’est pas le cas pour nous.

On peut tout de même exposer les résultats sous forme de tableau en indiquant en ligne les différentes représentations possibles de la première BD et en colonne les représentations possibles de la seconde en tenant compte des spécifications des deux bases (analyse croisée). C’est ce qui est représenté à la figure 66 pour les pattes d’oie. Les différents types de correspondances sont illustrés avec leur taux d’incohérences et d’équivalences respectifs. Dans cet exemple, pour 500 couples traités, 360 équivalences ont pu être détectées contre 140 incohérences.

Signalons que la présentation des résultats sous cette forme convient bien lorsqu’il existe des différences de modélisation et que leur nombre est fini, mais ce tableau n’est pas toujours applicable. La cohérence pourrait ne toucher que la position et la longueur des objets par exemple. Dans ce cas, une simple énumération des caractères contrôlés peut être présentée.

Biais planimétrique

Échelle du biais

Figure 66. Illustration de résultats d’évaluation.

C.6.3 R

ECOMMANDATIONS

En plus d’une synthèse des résultats, on peut également envisager de fournir certaines recommandations pour le traitement futur des incohérences. On peut ainsi spécifier qu’une erreur doit être réparée ou que cette erreur doit être signalée à l’utilisateur. Cette recommandation est étroitement liée avec le niveau de gravité de l’erreur. On peut également proposer de modifier les spécifications et de les enrichir pour qu’elle reflète mieux le contenu des bases. On peut s’apercevoir en effet qu’une spécification est trop contraignante et qu’en pratique, elle est rarement respectée dans les données, peut-être à juste titre.

80/80 équivalences 8/8 incohérences 5/5 incohérences 40/50 équivalences 10/50 incohérences 120/143 équivalences 23/143 incohérences 8/8 incohérences 4/4 incohérences 0/0 20/20 incohérences 0/32 équivalences 32/32 incohérences 105/105 équivalences 30/30 incohérences 20/20 incohérences 28/30 équivalences 2/30 incohérences 133/185 équivalences 52/185 incohérences 15/15 incohérences 10/10 incohérences 107/110 équivalences 3/110 incohérences 0/0 107/135 équivalences 28/135 incohérences 2/2 incohérences 3/3 incohérences 0/0 0/0 0/5 équivalences 5/5 incohérences 185/210 équivalences 25/210 incohérences 0/55 équivalences 55/55 incohérences 107/135 équivalences 28/135 incohérences 68/100 équivalences 32/100 incohérences 360/500 équivalences 140/500 incohérences Base < 10m Base > 20m 10 < Base < 20 Base < 20m Base > 20m BD1 BD2 Néant Néant Total Total

C

C..77

MM

AANNIIPPUULLAATTIIOONN DDEESS CCOONNNNAAIISSSSAANNCCEESS PPOOUURR LLEESS CCOONNTTRROOLLEESS IINNTTRRAA

--

B

BAASSEEEETTIINNTTEERR

--

BBAASSEESSPPAARRUUNNSSYYSSTTEEMMEE

--

EEXXPPEERRTT

Nous venons de présenter toutes les étapes de la méthode MECO qui définit la démarche à adopter pour réaliser l’évaluation de la cohérence inter-représentations. Pour les contrôles intra-base et inter-bases, nous avons vu que ces étapes étaient automatisées grâce à l’emploi d’un système-expert. Dans cette partie, nous présentons les caractéristiques de ces systèmes et discutons de leur intérêt pour une tâche d’interprétation comme la nôtre.

C.7.1 O

RIGINE DES

S

YSTEMES

-E

XPERTS

Le développement des systèmes experts est étroitement lié à l’évolution et aux enseignements tirés des premières recherches effectuées en intelligence artificielle.

L’intelligence artificielle a pour ambition de faire reproduire par des machines des tâches et des raisonnements complexes effectués par des humains. Les premiers résultats obtenus dans ce sens, à l’époque des années 60, furent particulièrement encourageants [Russell et Norvig 2003]. On vit notamment apparaître des programmes de traduction automatique, de démonstration de théorèmes (Logic Theorist), un système de résolution de problème de tout ordre (GPS – Global Problem Solver), ou encore un programme capable de dialoguer avec un humain (ELIZA). L’approche adoptée pour réaliser de tels programmes fut une approche combinatoire : on cherche dans l’espace des possibilités la solution désirée.

Très vite, le problème de l’explosion combinatoire apparu. La puissance des ordinateurs de l’époque fut insuffisante pour traiter l’exploration de toutes les solutions de tâches réelles complexes. Les chercheurs en IA réalisèrent alors que pour faire apprendre et comprendre des choses à une machine, il était nécessaire de lui fournir des connaissances sur le domaine considéré, à l’image de ce que font les humains. C’est ainsi que naquirent les premiers systèmes experts.

C’est une équipe de l’université de Stanford qui proposa à la fin des années 60 le système DENDRAL [Buchanan et al. 1969]. La tâche qui incomba à ce programme fut d’analyser automatiquement les spectres de masse pour comprendre la structure moléculaire d’un corps chimique. Afin d’aider le système à réaliser cette analyse, des heuristiques provenant de connaissances du domaine (la chimie) furent introduites. Peu de temps après, le système expert MYCIN fut développé pour aider à diagnostiquer des infections bactériennes du sang et proposer un traitement thérapeutique [Shortliffe 1976]. L’idée retenue pour sa conception fut de séparer les connaissances nécessaires à la prise de décision, des programmes qui les manipulent. L’architecture des systèmes-experts était définie.

La période qui suivit fut particulièrement marquée par le foisonnement de projets de développement de systèmes-experts et ceci, dans des domaines extrêmement variés, aussi bien dans les laboratoires de recherche qu’en industrie. La géographie ne fut pas mise à l’écart. Des exemples peuvent être trouvés dans [Guigo et al. 1995, Openshaw et Openshaw 1997].

C.7.2 C

ARACTERISTIQUES D

UN

S

YSTEME

-E

XPERT

Les systèmes experts furent donc essentiellement développés pour résoudre des tâches d’analyse, de diagnostic et de prise de décisions, en simulant certains raisonnements humains. [Feigenbaum 1981] définit un système-expert comme suit :

« An expert system is an intelligent computer program that uses knowledge and inference procedures to solve problems that are difficult enough to require significant human expertise for their solutions ».

Bien que depuis cette époque, les systèmes-experts de seconde génération ont été proposés [David et al. 1993b], cette définition générale est toujours valable aujourd’hui.

La caractéristique fondamentale d’un système expert est de dissocier les connaissances utiles à la résolution d’un problème et le programme qui les manipule. Ainsi, l’architecture générale d’un système expert est composée d’une base de faits, d’une base de règles et d’un moteur d’inférence (figure 67).

Figure 67. Composants d’un système-expert

La base de règles contient les connaissances du domaine. Ces règles sont destinées à être appliquées sur les faits pour aboutir au diagnostic recherché. Elles représentent donc des éléments du « savoir faire » de l’expert. Dans notre contexte, cette base renferme les spécifications des bases de données géographiques à intégrer, décrites sous forme de règles. Sa création constitue la principale difficulté dans l’élaboration du système.

La base de faits contient les données du problème, un savoir déclaratif. Au départ, elle renferme uniquement des faits initiaux mais s’enrichit au fur et à mesure des actions effectuées par le moteur d’inférence. Dans le cadre de ce travail, les faits correspondent aux objets géographiques des deux bases qui sont représentés de manière symbolique, sous forme d’un vecteur d’attributs. Nous y reviendrons ultérieurement.

Le moteur d’inférence est la composante générique du système. Il est chargé de construire le raisonnement et de prouver une hypothèse posée (dans le cas d’un chaînage arrière) à partir des faits et des règles. C’est donc lui qui se charge d’enchaîner les règles et de les appliquer sur les faits choisis : il simule le raisonnement de l’expert. Le moteur d’inférence que nous utilisons est celui proposé par JESS21 [Friedman-Hill 2003]. Nous présenterons ses caractéristiques dans le

chapitre relatif aux expérimentations menées (chapitre E).

21 JESS est téléchargeable sur le site : http://herzberg.ca.sandia.gov/jess/

Base de faits

Base de règles

Moteur d’inférence

Notons qu’on regroupe généralement sous le terme de base de connaissances la base de faits et la base de règles [Ayel et Rousset 1990].

A ces modules fondamentaux du système s’ajoutent quelques briques supplémentaires : des interfaces d’aide à l’acquisition des connaissances et à l’explication.