• Aucun résultat trouvé

1.3 Evaluation de l'imprécision géométrique des données géographiques

1.3.2 Les modèles d'évaluation de l'imprécision géométrique

1.3.2.1 Modèles relatifs au positionnement

Si l'imprécision sur la localisation des sommets constituant la géométrie d'un objet vectoriel est en général mesurée et estimée à l'aide de l'Erreur Moyenne Quadratique, de nombreux autres modèles ont été développés au cours des dernières années.

a. Approches probabilistes

Le modèle le plus utilisé, est celui de la bande Epsilon, proposé par Perkal (1954). Ce modèle considère que chaque point saisi peut se trouver équiprobablement n'importe où dans un disque de rayon epsilon centré sur ses coordonnées. La bande epsilon propose donc d'ajouter une valeur de tolérance pour chaque objet.

Le modèle de la bande Epsilon a été introduit dans le domaine de l'information géo-graphique par Chrisman(1982) pour les objets linéaires, sous l'appellation "epsilon-band model" (cf. gure 1.29). Le principal problème du modèle de la bande epsilon demeure dans le calibrage de la valeur epsilon.

Cependant ce modèle a inspiré de nombreux travaux, comme par exemple ceux de Good-child et Hunter (1997) qui proposent un modèle permettant de comparer deux jeux de données linéaires (cf. gure 1.30), en étudiant le taux de recouvrement de la polyligne comparée par la bande epsilon autour de la polyligne de référence. Ce modèle a été pro-longé par Heo et al. (2009) pour l'étude de la variation du trait de côte, ou encore par

Haklay(2010) pour comparer des objets routiers.

Figure 1.30  Le modèle proposé par Goodchild et Hunter(1997)

De nombreuses variantes du modèle de la bande epsilon ont par la suite été proposées. Par exemple, Wolf et Ghilani (1997) proposent un modèle basé sur une distribution normale bivariée, où l'imprécision de positionnement d'un point prend la forme d'une ellipse (cf. -gure 1.31), en considérant qu'il existe une corrélation d'erreur entre les coordonnées en x et en y.

Figure 1.31  Le modèle d'imprécision en forme d'ellipse avec un échantillon de points

Bolstad et al. (1990) proposent également un modèle d'erreur sur les données saisies ma-nuellement, en utilisant une distribution normale en deux dimensions.

1.3. Evaluation de l'imprécision géométrique des données géographiques

Caspary et Scheuring(1992) ont proposé un modèle dans la continuité de celui de la bande epsilon proposé par Chrisman (1982), mais au sein duquel la bande est resserrée dans la partie centrale de la ligne (cf. gure1.32).

Figure 1.32  Le modèle "Error Band"

Ce modèle, baptisé "error-band model" est basé sur le modèle de Dutton (1992).Dutton

(1992) a proposé un modèle probabiliste de positionnement d'une polyligne, suite à une expérimentation basée sur la génération d'erreurs aléatoires aux extrémités d'une ligne (cf. gure 1.33).

Figure 1.33  Le modèle proposé par Dutton(1992)

Shi et al. (1999) ont prolongé ces précédentes contributions en proposant un modèle d'er-reur probabiliste sur les segments de polylignes. Dans ce modèle, les erd'er-reurs de position des extrémités du segment suivent une distribution normale en deux dimensions, et ne sont pas corrélées. La probabilité des erreurs de position sur le segment de ligne peut ainsi être déduite en fonction de celle de ses extrémités (cf. gure1.34).

Le modèle deShi et al. (1999) a été prolongé par Shi et Liu(2000) en prenant en compte la corrélation entre les points successifs composant la polyligne, et en considérant que la probabilité de distribution des sommets localisés aux extrémités est identique. Ce modèle appelé "G-Band model", présente également une probabilité d'erreurs davantage resserrée au milieu de la ligne qu'à ses extrémités.

Figure 1.34  Le modèle proposé parShi et al. (1999)

Les résultats théoriques de ces modèles demeurent cependant criticables. Comme l'explique

Vauglin (1997), ces modèles ont tendance à faire croire que les points intermédiaires des segments sont plus précis que les sommets. Or selon lui, la géométrie des objets vecto-riels est construite à partir de ces sommets, sur lesquels l'opérateur de saisie porte une grande attention, alors que les segments ne sont que le résultat d'une interpolation entre ces sommets. On pourrait donc plutôt croire que l'imprécision de positionnement est plus importante entre les sommets, que sur les sommets à proprement parler.

Franck et Navratil (2011) résument très schématiquement cette idée par trois types de zones de tolérance (cf. gure1.35) :

 les zones de tolérance inscrites dans une bande Epsilon (epsilon band as a condence region),

 les zones de tolérance en forme d'os (bone shaped condence region),

 les zones de tolérance en forme de double-n÷ud (double bow condence region).

Figure 1.35  Les trois types de modélisation des zones de tolérance, d'après Franck et Navratil (2011)

1.3. Evaluation de l'imprécision géométrique des données géographiques En référence à ce constat, Vauglin (1997) propose de ne conserver la bande epsilon que comme zone de tolérance mais considère cependant qu'il n'est pas possible de modéliser l'erreur géométrique par une simple loi uniforme dans les données géographiques, du fait des diérents processus intervenus lors de la construction de la géométrie des objets. An de modéliser l'erreur de positionnement des polylignes,Vauglin (1997) a proposé un modèle d'erreur nommé "modèle GES". Ce modèle suit une loi Gaussienne Exponentielle Symétrique (cf. gure 1.36), qui est en fait le mélange entre :

 une loi Gaussienne représentant la distribution des erreurs de pointé lors de l'acquisition de la géométrie de l'objet,

 une loi Exponentielle Symétrique représentant la distribution des erreurs de généralisa-tion liées à la construcgénéralisa-tion des segments de polylignes entre les sommets.

Figure 1.36  Le modèle GES proposé parVauglin (1997)

Leung et Yan (1998) ont également développé un modèle basé sur les points composant la géométrie des objets vectoriels, dénommé "point-based error model". Ce modèle est un modèle probabiliste qui peut prendre la forme d'une bande epsilon à partir d'un certain seuil. L'hypothèse de base est que l'erreur de localisation des points varie selon une dis-tribution normale circulaire, et qu'elle se propage aux lignes et aux polygones. A partir de cette hypothèse, pour chaque couple de points (a, b), l'imprécision de localisation pour chaque point (x, y) est donnée par l'équation 1.11, où σ est un indicateur d'exactitude de position. f (x, y) = 1 2πσ2exp  −(x − a) 2+ (y − b)22  (1.11)

L'intérêt de ce modèle est qu'il peut être propagé d'un simple objet à l'ensemble des objets d'une base de données. Sa principale limite est qu'il ne prend pas en compte l'hétérogé-néité en termes d'exactitude de localisation entre les diérents objets de la base de données.

b. Approches par simulations

Face à ces approches analytiques, de nombreux auteurs privilégient des approches par si-mulations Monte-Carlo, les considérant plus robustes et surtout applicables dans un grand nombre d'applications.

Par exemple, Hunter et Goodchild (1996) ont proposé un modèle nommé "Vector Un-certainty Model" permettant de simuler des erreurs de positionnement sur chaque point composant la géométrie des objets, en suivant des ditributions normales indépendantes en x et y. A l'aide d'un grand nombre de réalisations d'objets simulés, ces méthodes permettent d'estimer l'imprécision en termes de positionnement, mais également pour d'autres opéra-tions, comme les intersections entre objets, ou encore les mesures de longueur ou de surface.

Figure 1.37  Le modèle proposé par Hunter et Goodchild(1996)

Le principal défaut de ces approches par simulations réside dans la génération d'incohé-rences topologiques lors de l'introduction d'erreurs dans le positionnement des sommets de la géométrie des objets simulés, comme le souligne Bonin(2002). Il est donc nécessaire d'introduire des corrélations entre les sommets, an d'obtenir des objets bruités plus réa-listes. Egalement, le paramétrage du bruit sur les coordonnées des points composant la géométrie des objets doit être déni. L'Erreur Moyenne Quadratique est souvent utilisée dans cette optique (Hunter et Goodchild,1996).

Ces modèles par simulations d'erreurs de positionnement ont été repris par un très grand nombre d'auteurs ces dernières années, comme par exemple De Bruin et al. (2008) qui utilisent des simulations an de modéliser les erreurs de délimitation des parcelles agricoles saisies par relevés GPS. On peut noter que l'expérimentation deDe Bruin et al.(2008) fut réalisée à l'aide du logiciel DUE (Data Uncertainty Engine), qui intègre un environnement de modélisation de l'imprécision de positionnement par simulations Monte-Carlo ( Heuve-link et al.,2007;Brown et Heuvelink,2007).

1.3. Evaluation de l'imprécision géométrique des données géographiques Cet environnement propose d'ailleurs une approche intéressante, déjà évoquée par Harrie et Sarjakoski(2002), qui diérencie les objets géographiques selon leur nature. Deux types d'objets sont ici distingués :

 les objets "déformables", comme une limite de forêt par exemple,  les objets "rigides", comme un bâtiment par exemple.

Diérentes méthodes de simulation sont proposées en fonction de la nature des objets, comme illustré dans la gure1.38. Le logiciel DUE permet également de prendre en compte la corrélation des erreurs entre sommets successifs d'une géométrie lors de la réalisation de simulations.

Figure 1.38  Objets rigides et déformables, d'aprèsHeuvelink et al.(2007) Pour terminer cette section, nous pouvons noter le développement de modèles permettant d'étudier les relations entre les eets de la simplication des polylignes sur l'imprécision en termes de positionnement, comme ceux proposés par Veregin (2000) ouCheung et Shi

(2004).

c. Approches mixtes

Egalement, nous pouvons citer des contributions mixtes, permettant de modéliser l'im-précision sur les opérations d'intersection entre objets géographiques, comme par exemple entre points et polygones. Leung et Yan (1998) ont proposé un cadre général où les po-lygones et les points sont caractérisés comme étant précis, ous, ou aléatoires, pour ainsi déterminer neuf cas d'analyse d'intersections possibles. Egalement, Cheung et al. (2004) ont proposé un modèle, au sein duquel la localisation des polygones est considérée comme précise, et celle des points comme imprécise. Ce modèle combine à la fois approches par tests et par simulations.

Les diérents modèles présentés dans cette partie ne constituent pas une revue de litté-rature exhaustive sur la modélisation de l'imprécision géométrique sur le positionnement des objets vectoriels, mais ils permettent de bien illustrer combien les contributions dans ce domaine sont nombreuses. Nous allons voir que c'est nettement moins le cas en ce qui concerne les modèles permettant de modéliser l'impact des imprécisions géométriques sur