• Aucun résultat trouvé

4.2 Théorie sur la fusion de données

4.2.1 Principes généraux

Définitions

Le concept de fusion de données est très général par essence et a donné lieu à de nombreuses ap- plications dans des domaines aussi variés que la médecine, l’aérospatial ou la défense. Commençons par quelques définitions.

– La fusion d’informations consiste à combiner des informations issues de plusieurs sources afin d’améliorer la prise de décision [Bloch and Maitre, 1998].

– La fusion de données est le processus de combinaison de données qui permet d’affiner les estimations et la prédiction [Steinberg et al., 1998].

– La fusion multicapteurs est définie comme le processus de combinaison des entrées de capteurs avec les informations d’autres capteurs, blocs de traitement d’information, bases de données, en une seule représentation [Kokar and Kim, 1994].

Bien que similaires, ces définitions mettent l’accent sur différents aspects de la fusion. La pre- mière met en avant le résultat attendu, prendre une décision quant au problème posé au moyen de plusieurs sources. Dans la seconde, la modélisation du monde est mise en avant et réalisée au moyen de données, mais pas nécessairement de sources, différentes. Enfin, la troisième se concentre sur l’architecture générale du système et la manière d’extraire les informations hétéroclites à disposi- tion, qu’il s’agisse de données brutes, de caractéristiques ou de connaissances. Ainsi, en confrontant plusieurs sources, notre compréhension du monde est améliorée.

Imperfections des données

Pour réaliser une fusion efficace, il ne suffit pas de combiner de façon hasardeuse des informa- tions issues de différents capteurs. Il est en effet nécessaire d’avoir à la fois une bonne connaissance du problème à résoudre et de l’aptitude des sources à répondre à ce dernier. Les principaux défauts de qualité des sources sont :

– l’incertitude qui caractérise la qualité des informations fournies ou l’assurance de la source en ces dernières.

– l’imprécision qui concerne le contenu de l’information et mesure un défaut quantitatif. – l’incomplétude, ou la caractérisation de l’absence d’information apportée par la source sur

certains aspects du problème, qui représente l’une des raisons principales pour choisir la fusion. En général, les capteurs utilisés n’ont qu’une vision partielle du monde qui ne met en évidence que certains aspects du problème.

– le conflit qui apparaît lorsque deux ou plusieurs informations conduisent à des interpré- tations contradictoires et donc incompatibles. Pour le gérer, il est possible notamment de supprimer les sources considérées comme non fiables, d’ajouter des informations ou de retar- der la fusion jusqu’à l’obtention d’informations concordantes.

– l’ambiguïté, ou la capacité d’une information à conduire à plusieurs interprétations, qui peut provenir des imperfections précédentes, comme d’une imprécision qui ne permet pas de choisir entre deux situations. Un des objectifs de la fusion est de lever ces ambigüités en combinant différentes sources.

Toutefois, il faut garder à l’esprit que la fusion n’est pas une solution miracle. Les sources doivent répondre à certains critères pour être éligibles. Tout d’abord, elles doivent être indépen- dantes cognitivement, c’est-à-dire qu’elles ne consultent pas les autres capteurs pris à partie pour en déduire leurs données. Ensuite, elles doivent être fiables à deux points de vue, fournir une information et en garantir la certitude. Enfin, deux qualités opposées sont également essentielles, la redondance et la complémentarité. La redondance caractérise deux sources apportant la même information qui, par le processus de fusion, se trouve renforcée. Imprécision et incertitude s’en trouvent réduites au prix d’une quantité d’information utile plus faible. La complémentarité en revanche quantifie le fait que les sources apportent des informations sur des grandeurs différentes. Cela permet de limiter les situations ambigües.

4.2. THÉORIE SUR LA FUSION DE DONNÉES 75 Modèles

Le concept de fusion de données est très vaste et englobe de nombreuses techniques en fonction du domaine d’application, du problème à résoudre et du type de capteurs utilisés. Afin d’apporter un cadre plus spécifique et de permettre aux chercheurs de modéliser, comparer, évaluer leurs systèmes à base de fusion de données, plusieurs modèles ont vu le jour.

Le premier a été proposé par [Dasarathy, 1997] et se compose de trois niveaux. – Bas-niveau.

Les informations issues du capteur sont combinées directement sans traitement, comme as- socier des signaux de même nature pour obtenir une meilleure qualité.

– Moyen-niveau.

À ce premier niveau d’abstraction, les données issues des sources sont interprétées, des ca- ractéristiques sont extraites des données puis fusionnées.

– Haut-niveau.

Il s’agit du plus haut niveau d’abstraction, les données sont souvent très hétérogènes et concernent différents aspects du problème. Il requiert la formulation d’hypothèses issues d’un expert ou d’un système.

Un modèle plus connu a été développé par le groupe DFG (Data Fusion Group - Groupe de Fusion de Données) du consortium JDL (Joint of Directors of Laboratories - Comité de Directeurs de Laboratoires) dans les années 1990 [White, 1988]. Originalement consacrée aux applications militaires, cette architecture a été élargie par Steinberg et al. en 1998 [Steinberg et al., 1998] et en 2004 [Steinberg and Bowman, 2004] pour la rendre plus accessible aux autres communautés scientifiques. Elle est composée de cinq niveaux (figure 4.1) :

Niveau 0 Évaluation des données bas-niveau.

Estimation et prédiction des états des signaux/objets observables à partir des informations brutes des sources.

Niveau 1 Évaluation des objets.

Estimation et prédiction de l’état de chaque entité à partir de son suivi, de sa cinématique, et de l’estimation discrète de son état.

Niveau 2 Évaluation de la situation.

Estimation et prédiction des relations entre les entités (relations physiques, de communica- tion, d’influence, perceptuelles, ...).

Niveau 3 Évaluation de l’impact.

Estimation et prédiction des effets sur la situation des actions planifiées, estimées ou prédites des objets.

Niveau 4 Perfectionnement du processus.

Adaptation des processus d’acquisition et de traitement des informations afin d’atteindre les objectifs fixés.

Cette approche est toutefois nettement orientée vers le domaine militaire et il n’est pas for- cément évident de décomposer tous les systèmes de la même façon. Les niveaux peuvent être imbriqués et dépendants les uns des autres.

Architectures

Définissons d’abord quelques notations. Nous disposons de l sources Sj avec j ∈ [1; l]. Chaque

source doit prendre une décision sur une observation x dans un ensemble de n décisions d1, ..., dn.

Figure 4.1 –Architecture du JDL DFG (source : [Steinberg et al., 1998]). fournit une information sur la décision di pour l’observation x représentée par Mij(x).

Les modèles évoqués précédemment se rapportent plus à l’aspect théorique et général de la fusion de données. D’un point de vue pratique se pose la question des moyens utilisés pour exprimer les informations dans le même référentiel pour les combiner. Ce procédé est constitué de quatre étapes : modélisation, estimation, combinaison et décision. La modélisation concerne le choix du formalisme, ou comment vont être représentées les informations à fusionner. Elle est guidée par les connaissances externes d’experts du domaine ou les capteurs utilisés. Elle permet de déterminer Mj

i qui peut être une distribution, une fonction coût, etc. L’estimation

n’est pas une étape obligatoire et dépend de la modélisation choisie. La combinaison permet de regrouper les informations à l’aide d’un opérateur défini et compatible avec le formalisme retenu. Enfin, l’étape de décision sert à sélectionner l’hypothèse la plus probable compte tenu des données et d’un critère. Un indice de qualité est calculé pour relativiser l’importance de la décision. L’architecture du système complet dépendra de la façon dont ces étapes s’organisent et in- teragissent. Nous pouvons distinguer quatre grands types : centralisé, décentralisé, orthogonal et hybride.

• L’approche, dite globale, correspond à une architecture centralisée (figure 4.2). Toutes les informations Mj

i issues des sources Sj convergent vers un seul centre de décision. Ce

processus est idéal en théorie car il considère l’information disponible dans son ensemble mais en pratique, il se révèle trop complexe à gérer et peu fiable. En effet, si le centre décisionnel échoue, le système complet est paralysé.

• L’architecture décentralisée comprend au contraire plusieurs centres de décisions (fi- gure 4.3). Chaque source Sj agit de manière indépendante et sélectionne une décision d(j)

au vu des informations dont elle dispose. Une décision d est prise à partir des m décisions lo- cales. Cette approche est plus modulaire car il est facile d’ajouter des sources et de gérer des arrivées décalées d’informations. Elle apporte donc une réponse rapide grâce à des procédures spécifiques à chaque source. Cette modélisation est particulièrement intéressante lorsque les sources ne fournissent pas d’informations simultanément. Cependant, aucune relation entre les sources n’est prise en compte de cette façon d’où un risque d’apparition de conflits. De plus, cela impose que toutes les sources aient des connaissances sur le même type de données.

4.2. THÉORIE SUR LA FUSION DE DONNÉES 77

Figure4.2 – Architecture de fusion centralisée. Les informations issues des capteurs sont combinées en

un seul centre de décision.

Figure 4.3 – Architecture de fusion décentralisée. À chaque source est associé un centre de décision

indépendant qui sélectionne le meilleur candidat. La fusion consiste alors à combiner ces décisions pour en déduire la plus vraisemblable.

• Le modèle orthogonal correspond à un compromis entre les deux précédents. Les données des l sources sont associées pour chaque décision di. Aucune décision intermédiaire n’est

prise et les informations sont manipulées dans le formalisme choisi jusqu’à la dernière étape, diminuant ainsi les conflits et contradictions.

• L’approche hybride consiste à choisir de manière adaptative les informations nécessaires pour un problème donné en fonction des spécificités des sources. Elle fait souvent intervenir des connaissances symboliques sur les sources ou les objets et est très utilisée dans les systèmes à base de règles.

Parmi les principales méthodes de fusion de données, nous pouvons citer la théorie des pro- babilités, ou inférence bayésienne, la théorie des possibilités, provenant de la logique floue, et la théorie de l’évidence, dite de Dempster-Shafer.