• Aucun résultat trouvé

Prise en compte de plusieurs hypothèses d’extraction

Pour s’assurer de la présence des extractions correctes des mots, une solution pourrait être de considérer toutes les hypothèses d’extraction possibles des traces d’une phrase. La com-plexité du graphe serait alors en O(T2), en termes de nombre d’arcs, avec T le nombre de nœuds (qui correspond aussi au nombre de traces composant la phrase).

Pour des problèmes de stockage du graphe en mémoire ainsi que de temps de calcul lors de l’exploitation du graphe, cette solution n’est pas raisonnable. De plus, la prise en compte d’un trop grand nombre d’hypothèses de segmentation ajoute surtout du bruit, c’est-à-dire des segmentations incorrectes. Cela risque d’apporter des erreurs, lors de la phase de reconnais-sance de phrases sur le graphe de mots. Les expérimentations présentées dans la section 3.4 confirment cette idée.

Il est donc important de choisir les hypothèses d’extraction de mots ajoutées dans le graphe, afin qu’elles soient les plus pertinentes possibles. Pour cela, nous nous appuyons sur un indice évaluant la confiance en le résultat de la caractérisation des espaces inter-traces.

Nous détaillons, dans les sous-sections suivantes, le calcul de cet indice de confiance ainsi que son utilisation pour créer de nouvelles hypothèses d’extraction de mots visant à traiter les éventuels problèmes de sur- et sous-segmentation.

3.3.1 Ajout d’un indice de confiance sur la caractérisation des espaces

Afin d’évaluer la fiabilité de la première réponse de la classification des espaces inter-traces, nous associons un indice de confiance au résultat du RBFN. Si cet indice de confiance est trop faible, la seconde réponse du classifieur est aussi considérée.

L’indice de confiance utilisé correspond à la différence relativedif ftop2 entre les scores des deux meilleures classes. Nous apprenons un seuilσreconsidersur cet indice de confiance, en utilisant un rejet d’ambiguïté [MA06]. Ce type de rejet permet d’apprendre un seuil en fixant le pourcentage d’éléments qui doivent être rejetés c’est-à-dire, ici, le pourcentage d’espaces inter-traces qui doit être reconsidéré. Si l’indice de confiancedif ftop2 est inférieur à ce seuil appris, la première réponse du RBFN peut être reconsidérée et des hypothèses additionnelles d’extraction de mots peuvent être générées.

3.3.2 Extension du graphe de mots

Les indices de confiance associés à chacun des espaces inter-traces permettent maintenant d’ajouter des hypothèses additionnelles d’extraction de mots (représentées par des arcs, dans le graphe de mots).

Afin de contrôler la taille du graphe de mots, lors de ces ajouts d’arcs, nous nous imposons des limitations. Tout d’abord, les espaces inter-lignes sont considérés comme étant correcte-ment détectés et ne seront pas remis en cause. Les autres restrictions concernent les éventuelles sur- et sous-segmentations, dont nous détaillons le traitement dans les paragraphes suivants. Ces limitations ne sont pas trop restrictives puisqu’elles permettent d’identifier correctement 99,54 % des segmentations correctes, dans l’ensemble de test.

3.3.2.1 Traitement des éventuelles sous-segmentations

Pour limiter la création d’arcs supplémentaires, nous considérons que le nombre de mots potentiellement sous-segmentés (représentés par un même arc) ne peut pas être supérieur à trois. Un arc du graphe de mots initial sera ainsi séparé en au plus trois parties. Cette approxi-mation est raisonnable puisque, dans la base de test, seules 4,8 % des sous-segmentations ne pourront pas être corrigées.

Afin de choisir les potentiels points de séparation d’un arc donné, ses espaces intra-mot qui ont une distance∆xnouvref positive et un indice de confiancedif ftop2 inférieur au seuil de re-considérationσreconsidersont ordonnés selon leur indice de confiance croissant. Ensuite, seuls au plus les deux premiers espaces intra-mot ainsi classés sont considérés comme de potentiels

espaces inter-mot. Des arcs et des nœuds additionnels sont alors créés, à partir des traces de l’arc courant considéré, comme illustré en pointillé sur la figure 3.6.

génération d’arcs et de nœuds

FIG. 3.6 – Exemple de création d’arcs et de nœuds, pour traiter une sous-segmentation.

3.3.2.2 Traitement des éventuelles sur-segmentations

De la même façon que pour le traitement des éventuelles sur-segmentations, nous considé-rons qu’un mot ne peut pas être sur-segmenté en plus de trois parties. Les arcs ajoutés regrou-peront au plus trois mots. Avec cette limitation, nous ne pourrons pas remettre en cause 2,4 % des sur-segmentations, présentes dans la base de test.

Afin de traiter ces éventuelles sur-segmentations, nous considérons chaque groupe de trois arcs consécutifs. Si un ou deux espaces inter-mot (représentés par les nœuds du graphe) ont leur indice de confiance dif ftop2 inférieur au seuil de reconsidération σreconsider, des arcs additionnels sont créés, comme illustré en pointillé sur la figure 3.7.

génération d’arcs

FIG. 3.7 – Exemple de création d’arcs, pour traiter une sur-segmentation.

De plus, ces arcs ne peuvent être créés que si le nombre de traits descendants fondamentaux qu’ils contiennent est inférieur à 25. Cette limite correspond au nombre de traits descendants fondamentaux du mot le plus long de notre vocabulaire.

3.3.2.3 Création du graphe de mots final

Le graphe final est obtenu après avoir traité chacune des sur- et sous-segmentations. La figure 3.8 donne le graphe de mots complet résultat de l’extraction des mots, pour la phrase manuscrite déjà présentée par la figure 3.5. Les arcs et nœuds représentés en pointillé rouge correspondent aux ajouts effectués pour traiter les sur- et sous-segmentations initiales.

Nous remarquons ainsi qu’il existe maintenant un chemin correspondant à la bonne segmenta-tion de la phrase en ses mots.

FIG. 3.8 – Exemple de graphe de mots complet, construit en reconsidérant certaines classifica-tions d’espaces inter-traces (en pointillé, arcs et nœuds ajoutés).