• Aucun résultat trouvé

TEXTES DISCIPLINAIRES

2.3 Evaluation des aléas

2.3.3 Le SIG : un outil évolutif

En citant Collet (1995), un Système d’Information Géographique peut être défini :

"... comme un environnement de gestion et d'exploitation d'une information à caractère spatial. Cet environnement permet l'exploitation des dimensions thématique, spatiale et temporelle de l'information à des fins de description, d'analyse et de prévision de la réalité considérée.”

Du point de vue technique, un SIG est un ensemble constitué (Collet, 1992;

Zeiler, 1999) :

• d'un ensemble de personnes205 (du développeur qui adapte le logiciel aux besoins des utilisateurs aux utilisateurs des résultats en passant le gestionnaire de la base de données),

• de données, de sources et de formats divers (digital206, analogique207), et qui seront intégrées et représentées au sein des SIG sous un des trois formats actuellement existants, c'est-à-dire, les données vectorielles208, les données sous forme de matrices209 et les données représentées sous forme de réseau triangulaire irrégulier210),

• de logiciels211 (qui contiennent des modules permettant la saisie, la mise en forme, le stockage, la gestion, l’analyse, la modélisation et l’impression d’informations),

• d'ordinateurs.

Depuis son émergence dans les années 70, principalement en Amérique du Nord et son expansion entre les années 80 et 90 en Europe, le SIG s’est étoffé, lié en ça à la rapide évolution de la puissance de calcul et de mémoire des ordinateurs et autres stations de travail. Cela a également accéléré le processus de cartographie212 grâce à aux possibilités de mise à jour rapide des informations en fonction de nouvelles données, connaissances, et développement

205 Si à l’émergence des SIG, une personne pouvait suffire à l’ensemble des tâches, entre l’acquisition des données, la gestion de la base de données et l’impression des résultats, il s’avère qu’avec le développement des logiciels SIG, les données à acquérir et leurs applications, plusieurs personnes ne sont pas de trop pour mener à bien une utilisation optimale d’un SIG.

206 Image scannée, image satellite, etc.

207 Carte sur papier.

208 Il s’agit de données représentées sous forme de lignes, points ou polygones et cette forme est plutôt utilisée pour des données comme les routes, les forages, les contours de lacs.

209 Dans ce cas-là les données sont représentées par une grille composée de n lignes et de n colonnes, et l’unité élémentaire est un carré dont la dimension est définie par la résolution de l’image (25 m x 25 m pour un modèle numérique d’altitude produit par l’Office fédéral de topographie) et par un paramètre comme l’altitude si on prend le même exemple. C’est une bonne façon de représenter les variables continues.

210 Ce format de données permet de représenter au plus près la variation d’un paramètre, étant donné qu’il faut une forte densité de point pour les variations rapides, comme les montagnes abruptes, et une faible densité pour les zones plates, comme les plaines.

211 On peut citer IDRISI, ERDAS, ARCINFO et ARCVIEW.

212 Pour une introduction illustrée sur la cartographie par SIG, voir Mitchell (1999).

scientifique. Ce n'est pas sans risque par rapport à la qualité des informations et à leur traitement. Un des garde-fous est la création de méta-données213, qui est comme une “carte d’identité” de l’information contenue dans chaque couche214, c’est-à-dire en terme de contenu (carte d’aléa sismique exprimée en intensité MSK), sur la qualité (en terme de précision et de pertinence), le système de référence spatial, etc.

Cet outil permet donc d'analyser des données spatiales, à différentes échelles (globale, régionale et locale) et temporelles dans un même système, d'analyser par combinaison des données contenant des informations de contenus thématiques différents (superposition de l'occupation du territoire en terme d'habitations et de voies de communication sur une carte d'aléa, par exemple). Il offre également des possibilités de développer des scénarios de type exploratoire215 par modélisation numérique. On peut citer comme exemple l'application SIG HAZUS216, développé par la FEMA (Federal Emergency Management Agency) aux USA, qui permet de modéliser les conséquences d’un tremblement de terre d’une magnitude donnée et généré en un lieu donné en termes de dégâts, de coût économique, d'impact social (déplacés, sans abris, victimes). Il est prévu de l'étendre à d'autres aléas naturels comme les ouragans, les inondations, etc.

Actuellement, on trouve des applications SIG à tous les niveaux de la société, de l'individu à la communauté, de l’industrie217 aux pouvoirs publics218 en passant par la médecine219. Cela en est à un tel point que des recherches sont en cours (Goodchild et al., 1999; Sheppard et al., 1999) sur les interactions entre

213 Voir catalogue des sources de données environnementales suisses http://www.ch-cds.ch/f/Infos_1.htm.

214 Du terme “layer”, la base de données d’un SIG étant vu comme un ensemble de couches d’information thématique, spatiale, temporelle.

215 Scénarios exploratoire, allant vers le futur, par opposition aux scénarios anticipateurs, qui partent d’un état final supposé et permettent de rechercher les conditions qui amènent à ces résultats (ICIS, 1999).

216 Http://www.fema.gov/hazus/hazus4a.htm.

217 Comme les Services Industriels Genevois.

218 Voir le SITG, système d’information du territoire genevois http://www.sitg.ch.

219 Voir par exemple sur le thème de recherche “Systèmes d'informations sanitaires géo-référencées” lancé par l’institut de médecine sociale et préventive de Genève http://www.imsp.unige.ch/imsp/recher.html#Systèmes d'informations sanitaires géo-référencées.

société et SIG, dans la mesure où certains considèrent que le SIG est un outil qui permet le renforcement des communautés et d’autres comme une technologie envahissante qui avantage certaines personnes et organisations et en marginalisent d’autres. Des réflexions sont également lancées sur l’évolution que devrait prendre les SIG, en intégrant par exemple la participation publique (Sheppard et al., 1999), ce qui amène des questions sur les méthodes à développer pour utiliser des informations qui à la base ne sont pas dans un format de représentation géographique (les connaissances locales qui se transmettent oralement).

Au niveau des risques, le SIG est utilisé dans l’ensemble du cycle du management, plus particulièrement au niveau de l'identification et l'évaluation des aléas, de l'évaluation des risques mais il existe également des exemples d’application lors de la gestion d’un événement. Sur ce dernier point, la Californie a utilisé lors du tremblement de terre de Northridge en 1994 le système d’information géographique comme outil d’aide à la gestion de la catastrophe en récoltant des informations sur les dommages, établissant des projections de perte, et en produisant des cartes montrant la localisation des abris et des centres d’assistance lors des catastrophes (Tierney, 1995). Il reste encore à évaluer l’apport réel d’un tel système.

L’efficacité et la crédibilité d’un SIG dépendent de l’accessibilité des données, de leur pertinence et de leur précision. Etant donné l’éventail des possibilités d’associations des données, de la variabilité de sources et de types, la question des incertitudes se pose de manière plus aiguë encore que dans l’analyse classique.

2.3.4 Incertitudes

L’évaluation d’un aléa résulte d’une suite de processus, allant de l’utilisation de la connaissance que l’on a du phénomène à l’acquisition de données permettant d’analyser l’aléa. Etant donné la très longue histoire de la planète et sa dynamique, toutes les données ne peuvent pas être connues et la compréhension des phénomènes restera incomplète. Par conséquent, il existe toutes sortes d’incertitudes que l’on peut classer en trois catégories (Van Asselt, 1999) :

• techniques, qui sont liées aux données à disposition (quantité, qualité) ou aux paramètres utilisés. Cela peut être illustré par l’analyse sismique d’une région, les incertitudes étant liées aux données historiques et récentes disponibles et aux paramètres tels que la localisation géographique de l’hypocentre, la valeur de la magnitude, etc.

• méthodologiques, qui concernent la méthode d’analyse, d’approche employée. On peut citer les méthodes probabilistes et déterministes d’analyse

d’un aléa, qu’il soit d’origine naturelle (ex. sismique) ou technologique (ex.

accident nucléaire)220, la comparaison des deux approches pouvant donner des résultats dissemblables et induire ainsi des incertitudes.

• épistémologiques, qui portent cette fois sur la conception même d’un phénomène, induisant ainsi des incertitudes sur le niveau de confiance et sur la validité du modèle choisi pour décrire le phénomène; le cas de l’effet de serre en est un exemple célèbre.

Il existe des méthodes d'analyses221 quantitatives et qualitatives pour exprimer ces incertitudes, mais il reste encore à développer des outils permettant de gérer ces incertitudes lorsqu’on croise, associe des informations provenant de différentes disciplines.

2.4 Le risque = ?

Pour pouvoir déterminer les politiques à mettre en œuvre pour réduire les risques, il est nécessaire en premier lieu d’identifier les types de risque (risque d’accident nucléaire, risque de tremblement de terre, risque de conflit armé, etc.) auxquels la société peut être confrontée et en second lieu d’évaluer l'ampleur des dommages en cas de réalisation. Il est par conséquent utile de savoir comment on définit la notion de risque.

Dans les sciences de la Terre, une des premières formulations du risque a été établie par Fournier d'Albe (1979) dans le cadre de la gestion du risque volcanique et est en général la plus citée. Elle est exprimée sous la forme de :

Risque = Valeur * Vulnérabilité * Aléa

Fournier d’Albe définit la valeur comme comprenant le nombre de vies affectées, la valeur du capital (terre, bâtiments) ainsi que la capacité productive (industries, terres cultivables, etc.). Et, fait important, il mentionne la notion de temps, en précisant que la valeur exposée à un aléa peut se modifier au cours du temps en raison de processus “naturels” ou délibérés. Cependant cet auteur considère que ce changement est normalement lent, à l’échelle humaine.

L’évolution temporelle semble lui avoir donné tort, si on considère, sur les 20 dernières années, l’augmentation sensible du nombre de personnes affectées, l’accroissement des zones urbaines, la plupart du temps gagné sur des territoires à risque (zones inondables, terrains instables, etc.), d’environnement touché (voir l’éruption du Pinatubo, dont les cendres recouvrent un gigantesque

220 Zimmermann, 1994.

221 Van Asselt, 1999.

territoire empêchant l’agriculture et sont remobilisables à chaque saison des pluies pour quelques années au moins).

Pour ce qui est de la vulnérabilité et de l’aléa, Fournier d’Albe (1979) donne les définitions suivantes :

vulnérabilité : proportion de la valeur pouvant potentiellement être perdue lors d'un événement donné

aléa : probabilité d'une zone particulière d'être affectée par une manifestation volcanique destructive dans une période de temps donnée.

L’UNDRO (1991) modifie la formule en introduisant la notion d’éléments à risque en lieu et place de valeur et la généralise à tous les aléas naturels sous la forme suivante :

Risque = (Eléments à risque) *(Aléa naturel * Vulnérabilité)

Aléa naturel : probabilité d’occurrence, dans un intervalle de temps donné pour une région particulière, d’un phénomène naturel ayant une potentialité à causer des dommages

Vulnérabilité : le degré de perte entre 0 et 1 d’un élément à risque, ou d’un ensemble de tels éléments, résultant de l’occurrence d’un phénomène naturel d’une magnitude donnée

Eléments à risque : la population, les bâtiments et travaux d’ingénierie civile, l'activité économique, les services publiques, les infrastructures à risque dans une région donnée

Le risque est également une affaire de perception, où le contexte culturel, politique et socio-économique joue un rôle non négligeable. On distingue ainsi le risque objectif et le risque perçu. La perception est un facteur aggravant pour Alexander (1993) qui modifie le risque estimé de la manière suivante :

Risque = Cp * Ca * P(E)

Ca = causes

C = conséquences augmentées d’une puissance p en raison des craintes générées par la perception

E = événements, exprimés en termes de probabilité P

Les causes sont à relier aux aléas, qui sont définis généralement en termes de probabilité d’occurrence. Les conséquences peuvent s’évaluer en terme de coûts, de nombre de victimes. Il reste cependant le facteur p pour la perception, dont la quantification reste encore à définir et sera selon toute vraisemblance dépendante de la société considérée, de son histoire et de sa culture.

La notion de temps est uniquement sous-jacente par l’introduction de la notion de probabilité d’occurrence d’un événement sur une période de temps donnée. Il est toutefois nécessaire de noter que la vulnérabilité, la perception du risque et les éléments à risque (ou valeur) sont susceptibles de se modifier au cours du temps, avec pour résultat soit de diminuer le risque si des mesures de prévention sont prises, soit de l’augmenter en raison du nombre croissant des éléments à risque sur une région exposée, par exemple.