• Aucun résultat trouvé

Définitions et généralités

Fusion d’attributs et désignation de la zone d’intérêt

3.1 Fusion d’attributs

3.1.1 Définitions et généralités

Il n’existe pas à ce jour une définition unique de la fusion de données. Ceci s’explique par la forte hétérogénéité des applications et des buts recherchés [Val01]. Ainsi, des auteurs comme [Wal99] proposent d’harmoniser la terminologie, notamment la définition même de la fusion de données :

"La fusion de données constitue un cadre formel dans lequel s’expriment les moyens et techniques permettant l’alliance des données provenant de sources diverses. Elle vise à l’ob-tention d’informations de plus grande qualité ; la définition exacte de "plus grande qualité"

dépendra de l’application."

Cette citation met en évidence la difficulté de couvrir l’exhaustivité des travaux sous une forme unique.

Cependant, les méthodes de fusion visent selon [BBC02] à augmenter les performances suivant l’un au moins des critères suivants :

– la granularité : l’information en sortie du processus de fusion est plus riche que celle en entrée ; – la confiance : elle est matérialisée par une plus grande probabilité a priori de l’information ; – la précision : l’écart type de l’information se trouve diminué à l’issue du traitement ;

– la complétude : elle permet au système de mieux entrevoir son environnement, d’en avoir une meilleure vision.

Il est donc possible de retrouver la fusion de données dans des domaines aussi variés que : – le domaine médical [Das12], [MZW11], [ZRL+11] ;

– la surveillance [NvLSZ12], [RGH11], [SVF11] ; – la défense [SRMD11], [VMGBS11], [MN09] ;

– la robotique d’exploratoire [SE11], [FLK11], [VBA11] ; – . . .

Que la fusion soit multi-source, multi-temporelle ou multi-échelle, il est important de comprendre ce que représentent les informations en entrée de ce processus, d’où elles proviennent et quelles en sont les imperfections. Ces dernières sont catégorisées par [Blo05] en cinq familles (une autre typologie de l’incertitude peut être trouvée dans [KY95] ou plus récemment dans [Liu04]) :

1. L’incertitude. Elle caractérise le degré de discordance d’une information par rapport à la réalité (notion de fidélité). Ainsi des termes comme "sûr", "certain", "plausible", "probable" ou "vrais-semblable" font référence à cette notion de doute qui entache l’avis sur la véracité de l’information (vrai/faux) ;

2. L’imprécision. Si l’incertitude porte sur la manière dont la donnée a été définie, l’imprécision quant à elle, caractérise l’information même. L’origine de cette imprécision peut être liée à l’infor-mation elle-même ou bien aux modes d’acquisition l’ayant générée par exemple.

Soit le cadre de discernement Θ = {{peau},{sang},{instrument}} et l’affirmation suivante : "il est incontestable que le pixel appartient au sang ou à la peau". Cette information est donc certaine ("incontestable") mais imprécise ("sang", "peau"). Autre exemple : "il est probable que le pixel appartienne à l’instrument" ; cette fois l’information est incertaine mais précise. Il est immédiat de

trouver une affirmation précise et certaine de même qu’imprécise et incertaine. Dès lors il apparaît qu’une information possède à la fois une incertitude et de l’imprécision, ces deux entités étant couplées ;

3. L’incomplétude. Elle caractérise l’absence de vision globale de l’environnement. Ainsi, une infor-mation fournie par une caméra est incomplète du fait des limitations physiques liées au capteur : projection perspective, restriction à un domaine spectral spécifique, etc, auxquelles s’ajoutent le bruit propre de la caméra et celui lié à l’environnement ;

4. L’ambiguïté. Une information est dite ambigüe si elle mène à deux interprétations différentes.

Cette imperfection peut être le résultat d’une imprécision couplée à l’incomplétude de la source.

Dès lors il n’est pas toujours possible de se prononcer sur l’appartenance d’un objet à une classe en ne se basant que sur ce type d’informations. La fusion a donc pour but de supprimer l’indécision par la mise en commun d’informations ;

5. Le conflit. Fréquent dans les processus de fusion, le conflit apparaît lorsque les informations mènent à plusieurs résultats contradictoires. Plusieurs solutions sont possibles : la première consiste à éli-miner les sources d’informations les moins fiables, ce qui suppose d’avoir une connaissance a priori sur celles-ci. La seconde repose sur l’absence de décision, ce qui suppose que la source du conflit provient d’un phénomène transitoire. Enfin, une troisième solution consiste à intégrer des informa-tions supplémentaires permettant de supprimer le conflit.

Afin de rendre l’information plus précise, plus complète ou moins conflictuelle, de nombreuses ar-chitectures de fusion sont possibles. L’une des plus connues est le DFPM (Data Fusion Process Model) proposé par le Joint Directors of Laboratories (JDL) en 1986, sous la tutelle du département de la défense.

Ce modèle générique permit de codifier et standardiser les aspects de la fusion de données et de définir une terminologie. Le tableau3.1propose une synthèse des travaux de [LBR+04] visant à réactualiser ce modèle.

Description du DFPM Interprétation

Niveau 0 (Pre-Processing) : Estimation de l’état des signaux Pré-traitement des données (filtrage,

nor-malisation, recalage spatial et temporel)

Vise notamment à diminuer, par traitement d’images dans le cadre de cette étude, le bruit de l’information ainsi qu’à extraire les informations utiles de la donnée (attributs).

Niveau 1 (Object refinement) : Estimation des caractéristiques Association de données, estimation et

pré-diction, identification de l’objet

Etape permettant la reconnaissance de l’objet par le biais de l’identification de ses attributs.

Niveau 2 (Situation refinement) : Evaluation de la situation Reconnaissance de modèles, détermination

des relations entre les entités

Compréhension de l’environnement par aggrégation des connais-sances sur les objets et les liens les unissant.

Niveau 3 (Threat

Donne l’univers des possibilités pouvant affecter la situation ac-tuelle ainsi que le cours des événements.

Niveau 4 (Process refinement) : Amélioration de la procédure Surveillance, évaluation et amélioration

des performances des sous-niveaux

[SBW99] analyse cette étape d’auto-contrôle des performances comme n’étant utile que si les données d’entrée sont significati-vement exogènes.

Eléments additionnels

Interface Homme-machine : Gestion du système de base de données : Visualisation des données, interprétation des données,

contrôle global du système

Base de données de soutien, connaissance a priori ser-vant à la fusion (base de données)

Tab.3.1 – Modèle du processus de fusion proposé par le JDL

Cette architecture de fusion proposée par le JDL doit être vue non pas comme une structure rigide (au sens de framework) mais plus comme une base de réflexion. Ainsi, en fonction du problème abordé, ce modèle doit être adapté, ce qui conduit parfois à inverser, paralléliser ou ne pas exécuter certains niveaux du modèle.

D’autres travaux ont porté sur l’élaboration d’autres modèles. Leur comparaison est délicate dans la mesure où certains sont dédiés à des situations précises. Dès lors, critiquer ces schémas de fusion dans un cadre général n’a que peu de sens. Néanmoins, citons ici les modèles :

– Waterfall ([MOK+05]), qui consiste en une hiérarchisation des tâches à la manière du JDL sans pour autant inclure un raisonnement cognitif ;

– Observation, Orientation Decision, Action (OODA) de Boyd ([Boy87]), qui peut être associé au DFPM selon [SBL01] qui montre que l’étape d’observation correspond aux niveaux 0 et 1, l’orien-tation aux niveaux 2 et 3. Quant au niveau 4, il est partagé par la décision et l’action. Les auteurs mettent en avant son aspect cyclique ainsi que la diminution de la quantité d’informations lors du passage d’une étape à une autre ;

– Omnibus ([BO00]), extension du modèle OODA grâce à l’intégration de schémas plus précis des flux de données le rendant plus rigide pour des applications ;

– Situation Awareness Model ([End95]) qui est un modèle de fusion calqué sur l’homme. Couramment appelé SA, ce modèle de conscience de la situation repose sur "la perception des éléments dans un environnement borné en temps et en espace, la compréhension de leur signification, et la projec-tion de leur état dans un futur proche". Ce type de modèle possède donc un cœur correspondant aux trois questions (3Q) suivantes : Qui/Quand ?, Que font-ils ?, Que vont-ils faire ? Même si ces travaux prennent mieux en compte le facteur humain ils ne précisent pas, là non plus, les flux de données internes.

Cette présentation des schémas de fusion se voulant brève, nous ne présenterons pas les modèles de Luo-Kay ([LK]), Pau ([Pau88]), Thomopoulos ([Tho90]) et CECA ([NvLSZ12]). Cependant, le lecteur pourra se référer à [Elm07] pour une liste plus exhaustive d’architectures.

Nous retiendrons pour cette étude l’architecture DFPM en raison de la similitude des étapes 0 à 2 avec le raisonnement suivi dans cette étude : recherche d’attributs/reconnaissance d’objets/prise de dé-cision. Cette architecture est dans notre cas à plus proprement parler, une fusion d’attribut au sens de Dasarathy ([Das97]) qui distingue trois types de schémas de fusion selon que les informations sont de bas niveau (au sens cognitif), d’un niveau intermédiaire ou haut niveau, comme le montre la figure3.1 ([Mar05]). On parle alors de fusion de données (abusivement utilisée pour désigner un processus de fusion en général), d’attributs ou de décisions. La première correspond à la manipulation d’informations telles que celles issues de capteurs. La seconde, à mi-chemin entre la fusion de données et la fusion de décisions (fusion de haut niveau), la fusion d’attribut s’attache à fusionner les caractéristiques de l’information comme la couleur, le mouvement, etc. Le lecteur pourra se rapporter à [DW87] et [BF04] pour d’autres classifications des schémas de fusion ou à [Mit07] pour une vue plus complète.

En résumé :

Dans cette étude, la problématique réside dans la reconnaissance des objets présents dans la scène chirurgicale. Nous avons montré en section2.3 qu’il est nécessaire de fusionner différentes caracté-ristiques telles que la couleur, la forme et le mouvement. Nous avons présenté dans cette partie les imperfections de ce type d’information ainsi que les schémas de fusion permettant de la valoriser au regard de l’application. Dans notre cas, nous utiliserons une architecture DFPM car adaptée à la problématique : recherche d’attributs/reconnaissance d’objets/prise de décision. Cette dernière doit permettre d’émettre un avis sur l’appartenance de pixels à une classe d’objets.

Fig.3.1 – Différents types de fusion au sens de Dasarathy (source : [Mar05]).