• Aucun résultat trouvé

[19, figure 3])

afin d’éviter des cascades d’erreurs : une erreur dans l’étape n produit k erreurs dans l’étape n + 1, et ainsi de suite. . . Les documents anciens ou dégradés sont alors difficiles à analy- ser à cause des erreurs inévitables. Ensuite, on peut imaginer que la fragmentation dans de multiples procédures des connaissances relatives au type de document interprété, ainsi que la mise au point par cycles « essai → analyse des erreurs → corrections » rendent lourde et peu fiable l’adaptation du système à des documents complexes. Finalement, on peut remarquer que la faible structuration des résultats produits ne semble permettre qu’une interprétation superficielle du contenu du document.

2.1.3 Nécessité d’un modèle de document

En conclusion de cette section, on peut indiquer que les approches purement algorith- miques permettent d’isoler simplement des primitives visuelles (composantes connexes, blocs de texte, etc.) lorsqu’aucune interprétation du contenu n’est nécessaire, et que la décision locale ne dépend pas d’un contexte plus large, spécifique au type de document concerné. Les documents spécifiquement conçus pour une segmentation hors-contexte (for- mulaires modernes, etc.) pourront être traités de cette façon, mais les documents anciens et autres types de documents où la composition est relativement libre poseront problème. On pourra se référer à [123] pour une classification des types documents selon leur structuration et le niveau de contexte nécessaire à l’interprétation de leurs contenus.

L’analyse de documents complexes et dégradés est donc plus délicate. Mao et al. [72] résument bien les limitations des approches algorithmiques : selon ces auteurs, les princi- pales limites des méthodes d’analyse de structure d’images de documents sont :

– de ne pas être basées sur des modèles formels ;

– de se baser généralement sur l’hypothèse selon laquelle l’isolation spatiale des prin- cipaux objets à identifier a déjà été réalisée ;

– d’échouer à produire des résultats corrects en présence de bruit ou d’ambiguïtés. Pour faire face à ces limites, il est donc nécessaire de baser la conception d’un système d’interprétation (qui soit capable de faire face à des documents à structure complexe) sur un modèle de document, c’est à dire une description de l’ensemble des éléments graphiques qu’il peut comporter, la façon dont ces derniers peuvent être composés, et les liens entre eux (leur sémantique), afin de sélectionner automatiquement, lors de l’exécution du système, les algorithmes les plus adaptés pour extraire l’information utile.

2.2 Connaissance sous forme statistique

Les approches basées sur une représentation statistique de la connaissance bénéficient, à priori, de deux avantages majeurs :

1. il est possible de générer cette connaissance de façon semi-automatique grâce à des exemples, ce qui peut faciliter la phase de conception ;

2. des méthodes éprouvées permettent un appariement entre un modèle statistique et des données observées afin de reconnaître les informations utiles, et permettent alors de baser la phase d’exploitation des connaissances, lors de l’exécution du système, sur un socle générique (réutilisable) et performant.

Cette section s’intéresse brièvement aux approches basées sur cette forme de connais- sance, et sur leurs limites.

2.2.1 Modèles graphiques probabilistes pour l’exploitation d’un contexte local

Les modèles graphiques probabilistes sont des modèles statistiques qui utilisent des graphes pour représenter les relations entre des variables. Ceci permet de modéliser, dans une certaine mesure, des relations contextuelles entre des objets.

À notre connaissance, ces approches peuvent soit être basées sur des réseaux bayésiens [58], soit s’appuyer sur des champs aléatoires de Markov [62, 79]. Dans les deux cas, il s’agit d’associer à une zone de l’image (qui peut être un pixel) une étiquette logique en considérant les caractéristiques du voisinage de cette zone.

Les caractéristiques utilisées peuvent être assez variées : – police, taille, couleur de caractères isolés ;

– localisation dans l’image (positionnement par rapport au bord haut, bas, etc.) ; – présence de mot-clé ;

– niveau moyen de luminosité dans différentes directions du voisinage. . .

Chaque ensemble de caractéristique est encodé dans un vecteur de taille fixe décrivant chaque portion de signal considérée.

2.2.2 Faible structuration et acquisition difficile des connaissances

Ces approches montrent des performances raisonnables dans les récentes compétitions sur les courriers manuscrits grâce à leur capacité à tolérer les dégradations et l’ambiguïté. Toutefois, la difficulté à intégrer de nouvelles informations au codage à cause de la repré- sentation vectorielle de l’information, ainsi que la difficulté à représenter l’organisation des contenus entre eux, en particulier de façon hiérarchique, limitent ces approches à une détec-

tion, au niveau signal, de classes qui peuvent être déduites des informations locales. Pour ces raisons, ces approches sont principalement utilisée pour des données peu structurées.

Par ailleurs, on peut noter l’existence sous forme implicite d’une connaissance à priori dans le choix des caractéristiques des observations et des relations entre ces dernières. Cette connaissance n’évolue pas au cours des apprentissages statistiques réalisés pour entraîner le système.

Finalement, l’apprentissage de ces systèmes nécessite une quantité non négligeable de données correctement étiquetées, ce qui est rare et coûteux dans le cas des documents an- ciens. Cantonner cette phase d’apprentissage en amont de la phase d’exploitation semble donc problématique.

2.3 Connaissance sous forme déclarative

Nous nous intéressons à présent à une autre catégorie d’approches qui visent à explici- ter la connaissance à priori à propos des documents qu’elles permettent de traiter. Ces ap- proches permettent à un expert de décrire le document à traiter lors d’une phase de concep- tion et s’appuient ensuite sur cette description pour extraire les données utiles.

La force de ces approches est de tirer profit des spécificités des documents considérés et de permettre une meilleur gestion des dégradations, ou encore la vérification de contraintes entre les éléments reconnus : par exemple, l’égalité entre la somme des nombres d’une colonne « prix » d’un tableau et la case « total ».

Un autre avantage majeur de la séparation entre le modèle de document et l’algorithme d’appariement est la capacité du système à être facilement transposé à un autre problème en modifiant en totalité ou en partie le modèle. Dans ce cas, on pourra parler d’approches génériques, par opposition aux approches spécifiques à un type de document.

Parmi ces approches, la formalisation de la connaissance peut être plus ou moins ex- plicite, et plus ou moins dissociée du système chargé de réaliser l’appariement entre les données analysées et le modèle. Nous avons donc distingué trois types d’approches :

1. les approches semi-déclaratives, pour lesquelles une partie de la connaissance reste sous forme algorithmique, et donc implicite ;

2. les approches purement déclaratives, qui se basent sur des modèles stricts des docu- ments à analyser ;

3. les approches déclaratives extensibles, qui permettent des descriptions flexibles ex- primant facilement de nouvelles propriétés à propos des documents.

2.3.1 Approches semi-déclaratives

Un première façon d’exprimer des connaissances à propos du contenu à détecter dans des images de documents est de décrire sous forme de règles les relations entre les éléments abstraits qu’on cherche à produire et les éléments qui composent la forme structurée en question, ainsi que les contraintes associées à ces éléments (relatives et intrinsèques). Par exemple, dans le cas d’un courrier, on pourrait formuler la règle suivante : « un bloc de description du destinataire doit être placé en haut de page, et formé d’au moins trois ligne verticales alignées à gauche, la première contenant un nom, et la dernière un code postal. » Vaxivière et Tombre [119] ont procédé de cette manière pour mettre en œuvre un pro- totype de système d’interprétation de dessins industriels mécaniques. Leur objectif était de

retrouver la structure de schémas pour permettre l’exploitation de ces derniers avec un lo- giciel de conception assistée par ordinateur. Une des tâches consistait alors à identifier les blocs de matière dans un dessin technique. Voici un exemple de règle intégrée à ce sys- tème : « Tout bloc rectangulaire ou trapézoïdal, symétrique par rapport à la ligne pointillée de référence, et voisin d’un bloc déjà reconnu comme bloc de matière, est aussi un bloc de matière. »

En conclusion de leur travail sur de ce prototype, ces auteurs indiquent que leur ap- proche a exploité un ensemble de règles sans structuration particulière, et que cette re- présentation « à plat » de la connaissance était difficile à faire évoluer. Ils suggèrent alors d’organiser davantage l’information, en suggérant une représentation hiérarchique, éven- tuellement à l’aide d’un langage dédié.

Dans le cadre de l’interprétation d’image des formulaires et de journaux, Watanabe et al. [123] ont également utilisé des ensembles de règles faiblement structurées, en précisant la nécessité d’intégrer un mécanisme de retour-arrière (backtrack) pour permettre de gérer les ambiguïtés d’interprétations des différentes entités visuelles.

Le principal reproche qu’on peut faire à ces approches est leur spécificité qui rend diffi- cile leur application à d’autres types de documents. On peut également indiquer que la forte dépendance des ces approches à l’étape préalable de segmentation les rend très sensibles aux ambiguïtés et incertitudes des documents anciens. Finalement, la faible structuration de la connaissance limite la capacité de modélisation du document et ne permet qu’au prix de lourds efforts (consistant principalement à vérifier la cohérence des règles entre elles) de produire une structure résultat complexe.

2.3.2 Approches purement déclaratives

Afin de s’affranchir des problèmes d’adaptation et de maintenance des systèmes basés sur des connaissances à priori, certains travaux ont cherché à séparer cette connaissance du mécanisme d’analyse, afin de permettre :

– une génération automatique d’un système spécifique à un type de document, grâce à des outils de description et d’appariement génériques ;

– une plus grande flexibilité dans le mécanisme d’exploration de l’espace des hypo- thèses d’interprétation possibles (et donc une meilleure gestion de l’ambiguïté) grâce à une indépendance du mécanisme d’appariement entre le modèle de document et l’image. Ce mécanisme peut intégrer des heuristiques, et être amélioré sans modifier la description factuelle du contenu de l’image.

2.3.2.1 Premiers langages de descriptions

Une des premières approches complètes dans cette direction a été celle de Tang et al. [115,113,114] destinée au traitement automatique de chèques bancaires et de formulaires. Cette approche est basée sur un langage de description de formulaires (FDL) qui permet de décrire les deux types d’éléments indiqués ci-après.

1. Les éléments structurants de l’image, à savoir des lignes et des bandes. Pour chaque élément attendu, il est possible de spécifier s’il s’agit d’une ligne ou d’une bande, l’orientation (verticale, horizontale, travers), l’épaisseur attendue (fine, moyenne, large) et la position attendue (coordonnées du point haut gauche et longueur).

2. Les éléments à localiser et reconnaître dans l’image, à savoir des fragments de texte imprimés ou manuscrits. Pour chaque élément, il est possible de préciser son position-

nement relatif (au dessus, en dessous, à gauche et à droite) par rapport aux éléments structurants. Ceci forme un ensemble de contraintes géométriques pour la détection des contenus. Il est également possible de sélectionner un sous ensemble de la zone ainsi décrite.

L’approche de Tang et al. décrit le processus de création et d’utilisation d’un système de reconnaissance de la façon suivante.

1. Lors de la phase de conception, un expert décrit le document grâce au langage pro- posé.

2. Lors de l’exécution du système, la description est chargée par le moteur d’analyse pour permettre la recherche des éléments spécifiques au type de document traité. Grâce à des mécanismes de gestion des lignes effacées, et de résolution des contraintes de placement, le système extrait les éléments indiqués par la description.

3. Après cette phase d’exécution, les auteurs indiquent qu’il est possible de réviser auto- matiquement les paramètres de la description (taille et position des éléments structu- rants, en particulier), en fonction des variations constatées dans les documents traités. Bien que cette approche se limite à la localisation sans structuration particulière de zones dans des documents présentant une structure très stable, à plat, et sans alternatives, elle présente toutefois un certain nombre d’avantages :

– l’utilisation d’éléments structurants pour localiser les éléments à reconnaître permet de gérer automatiquement les décalages et rotations produites par la numérisation, autorisant ainsi une certaine variabilité dans les dimensions et positions des objets ; – la description du positionnement attendu des objets limite largement l’espace de re-

cherche (qui peut augmenter exponentiellement selon le nombre d’éléments parasites, comme le montrent Mahoney et Fromherz [69]) et permet également de lancer un système de classification approprié pour chaque zone (en restreignant les symboles et mots possibles, dans le cas des chèques en particulier) ;

– la gestion de l’effacement des lignes peut alors être automatique, et n’alourdit pas la description ;

– une certaine adaptation des paramètres du système est possible à l’usage, dès qu’on dispose d’assez de contraintes sémantiques pour garantir qu’une interprétation consi- dérée comme valide ne peut pas être le fruit du hasard.

2.3.2.2 Génération automatique de blackboard

Afin de permettre la production d’interprétations structurées, certains auteurs ont cher- ché à concevoir des systèmes s’appuyant sur une meilleure organisation de la connaissance et des résultats proposés.

Le modèle de blackboard est une architecture générique qui a été utilisée par de nom- breux auteurs à cette fin. Nii [84] indique que ce modèle (qui peut être adapté à l’extrême) vise à construire progressivement une solution structurée (hiérarchiquement) à un problème. Ceci permet la mise en place de raisonnements complexes guidés par les données (dits « en avant ») ou guidés par un but (dit « arrière ») ainsi que d’autres formes plus sophistiquées. Ce modèle est basé sur trois types d’entités qui forment un système en blackboard.

Les sources de connaissances Parfois appelées « experts » ou « agents », elles contiennent la connaissance nécessaire à la résolution d’aspects indépendants du problème : seg- mentation, validation lexicale, etc.

La structure de données en blackboard Elle est la base de donnée servant à stocker les in- formations relatives à l’état courant de la résolution du problème. Les sources de don- nées modifient progressivement cette structure pour résoudre le problème de façon incrémentale. Cette structure est le seul moyen de communication entre les sources de données.

Le contrôleur Il implémente, quant à lui, le protocole de communication entre les sources de données. La stratégie la plus simple consiste à activer la première des sources qui indique qu’elle peut apporter une nouvelle information.

Un des principaux risques de l’utilisation d’une architecture de type blackboard pour le traitement de documents est de la construire directement sous forme de modules séparés qui fragmentent alors une connaissance sous forme algorithmique.

Dans le cadre de la reconnaissance de dessins techniques, Pasternak et al. [92,91,93,

94] ont proposé une approche générique originale (WIZ) qui permet d’éviter de spécifier

la connaissance de façon algorithmique. Les auteurs utilisent un environnement logiciel spécifique (un framework LISP) qui permet de générer automatiquement un système avec

une architecture de blackboard à partir d’une description purement déclarative des contenus à identifier fournie par un expert.

Le langage utilisé permet de raisonner à partir d’objets graphiques présents dans l’image (lignes, arcs de cercles, texte, et autres éléments définis au besoin) pour former progressi- vement des entités de plus en plus abstraites. Il permet de définir des règles permettant de construire des objets abstraits (comme un triangle) lorsqu’un certain nombre de contraintes sont respectées (taille et position relative des traits, par exemple). Ces règles sont utilisées pour générer automatiquement des agents capables de transformer le contenu de la structure analysée, tolérant automatiquement certaines variations grâce à des mécanismes génériques.