première lecture, le « plus aisé à connaître », c’est l’aléa. Il arrive d’ailleurs toujours en
premier dans les décompositions qui servent à définir la notion de risque. Il donne en
quelque sorte le la, et fonde la lecture en catégories de risques : « naturels » (risques liés aux
séismes…), technologiques (risques liés aux concentrations de matières dangereuses…),
sanitaires (risques liés aux virus…), etc.
Il doit donc y avoir une succession que semble fonder chronologiquement l’aléa. « Le plus
simple » et « le plus aisé à connaître », ce sont bien d’abord l’aléa, puis les composantes de
peuplement que sont les populations, les bâtiments exposés, et même leur vulnérabilité
inégale, que révèlent d’ailleurs a posteriori les dommages. En effet, les dommages viennent
forcément après les manifestations de l’aléa, selon « l’ordre naturel » si l’on reprend la
pensée de Descartes.
Dans le risque, qui est risque de dommage, l’aléa semble toujours premier, et donne même
l’impression d’être naturellement premier, tout spécialement pour la catégorie des « risques
naturels ». Il pleut, puis une partie des précipitations incidentes ruissellent et impactent les
populations, les bâtiments, puis arrivent les dommages. Cette évolution n’est-elle pas
elle-même « simple », « aisée à connaître » pour monter vers le dommage, et finalement le
risque, soit le futur dommage qu’on devrait être alors en mesure de mieux connaître, et
prévenir ? De plus, la série « suppose » un ordre qui paraît « naturellement » s’imposer, en
semblant instaurer des relations de causes à effets. Pourtant, il s’agit d’abord d’un constat
portant sur une évolution, qui peut ensuite aboutir à la reconnaissance de liens de causes à
effets. Ce n’est pas nécessairement le cas. On remarquera ici la nuance essentielle
qu’introduit Descartes, en attirant l’attention sur la différence entre « supposer » et
« démontrer ». Le troisième principe est donc bien plus nuancé qu’il ne le paraît en première
approche.
La nuance s’impose d’autant plus si on admet, toujours selon Descartes, que le bon sens,
c’est-à-dire, la « puissance de bien juger » ou « raison », est la « chose du monde la mieux
partagée ». En effet, mais seulement en première approche, qui contesterait qu’il puisse y
avoir des dommages sans la pluie, qui arrive « naturellement » et évidemment en premier ?
Ce qui voudrait tout autant pour une émeute, le virus H5N1, un krach boursier, une
révolution, qui représentent des types d’aléas possibles ? Et pourtant, le bon sens cartésien,
qui vise les interprétations les plus rationnellement cohérentes possibles, ne peut admettre
que les dommages puissent s’expliquer seulement à partir de l’aléa, par exemple, de la pluie.
C’est ce que prouvent simplement tant de retours d’expérience, et aussi tant d’efforts de
réflexion antérieurs. Ils montrent que les dommages sont aussi – et même surtout ! –
préparés par les caractéristiques des peuplements humains avant même que l’aléa ne se
manifeste. A séisme de magnitude identique, il est vérifié que l’intensité des dommages
diffère selon qu’on se trouve, par exemple, à Port-au-Prince ou à Sendai. L’aléa révèle, très
inégalement, les prédispositions à l’endommagement. Il n’est pas nécessairement premier,
loin s’en faut. Il nous semble donc qu’apparaissent des tensions entre ce que préconise
Descartes dans les principes de la méthode, chercher le plus simple et aisé, et la quête de
solutions qui soient les plus cohérentes possibles, en accord avec les principes du « bon
sens » cartésien. Le plus simple et aisé n’est pas nécessairement le plus rationnel.
Par conséquent, Descartes préconise ici une approche méthodologique des « problèmes »
dont il prétend qu’elle est « la moins limitée » et surtout la plus « simple » et « aisée à
connaître ». Nous attirons simplement l’attention sur le fait qu’elle peut justifier à elle seule
les éclatements thématiques observés entre les types de risques de désastres. Basée sur
l’éclatement des définitions et problèmes en sous-notions simples et en catégories, cette
approche systématique emporte volontiers l’adhésion. Surtout qu’elle annonce le quatrième
principe, qui, lui, apparaît plus définitif et utile. Descartes y préconise « de faire partout des
dénombrements si entiers, et des revues si générales que je fusse assuré de ne rien
omettre » (Descartes, 1637 : 46).
Le quatrième principe de méthode semble fonder non seulement une lecture systématique,
mais aussi à visée exhaustive, utile aux problèmes que pose la prévention des désastres. Et
c’est bien ce type de lecture qui domine encore nombre de publications sur les risques de
désastres. En atteste, parmi des milliers d’articles et livres structurés selon cet espoir
d’exhaustivité systématique, l’Atlas mondial des risques de désastres naturels (Shi et
Kasperson, 2014). Il cherche à dresser un inventaire mondial à partir d’une lecture des
différents sous-types de « risques naturels », la neuvième partie étant dédiée à une synthèse
recomposant le tout : « understanding the spatial patterns of global natural disaster risk ».
Comme on le voit, le problème que posent ces lectures systématiques n’est pas seulement
lié à l’identification et à la justification des « parcelles » de difficultés ou du « simple » pour
pouvoir analyser une « difficulté ». Dans le domaine de la prévention des risques de
désastres, la distinction entre aléa, exposition et vulnérabilité est généralisée, même si elle
est réductrice puisqu’elle ne laisse qu’une part très pauvre, très souvent implicite, aux
politiques elles-mêmes. La place accordée à la portée ou au statut social de ces risques,
différenciés selon les contextes est aussi pauvre. Le problème est également posé par les
relations qu’entretiennent ces « parcelles », ici, entre les sous-notions associées aux
définitions des risques et auxquelles trop souvent se réduit la pensée sur les risques. Le
« bon sens » cartésien devrait bien plus pousser à reconsidérer la lecture causale dominante
des dommages et des risques à partir de l’aléa, qui est très réductrice, et qui continue
d’exister même si beaucoup s’en défendent. La lecture systématique et monocausale s’avère
insuffisante. Ne pas s’en contenter aiderait à mieux comprendre « la pluralité
incontournable des principes concurrents », les dynamiques liées à la préparation des
désastres sur la durée, comme les surprises qui y sont associées. Les nuances de la pensée
cartésienne sont manifestes : Descartes n’a jamais écrit que l’homme était maître et
possesseur de la nature, mais « comme maître et possesseur de la nature ». Mais il est clair
que domine la tentation du systématique, fruit de l’éclatement analytique des problèmes, ce
que Morin nomme la « Grande Disjonction » (1986 : 70-71). Il nous semble que nous
retrouvons ces limites avec l’éclatement analytique de la notion de risque centrée sur les
sous-notions d’aléa et d’exposition/vulnérabilité, et encore plus lorsque la lecture est
aléa-centrée.
La démarche systématique s’attache à développer des approches simples, facilitant la
connaissance, mais au prix de limites. Ces mêmes limites permettent de mieux comprendre
celles que rencontrent les politiques de prévention des désastres. Répondre aux défis
qu’elles posent implique de poursuivre la démarche systématique, et de la compléter, par
une approche alternative. C’est ce que nous trouvons avec l’analyse systémique.
5.2. La recomposition de la base analytique : Pascal et les tentatives systémiques
En tant que tel, Pascal ne peut être qualifié de systémicien, sous peine d’anachronisme. Un
système explicite les relations qui sont identifiées entre plusieurs éléments, qui
interagissent, au moins en partie. La notion est postérieure, elle apparaît progressivement
au cours du 20ème siècle (De Rosnay, 1975 : 91). De manière significative, De Rosnay
mentionne aussi qu’elle est partagée par plusieurs disciplines universitaires. Mais il ne la
présente d’ailleurs pas comme étant neuve. On peut prétendre que Pascal fut un précurseur
de cette manière complémentaire d’appréhender les problèmes. En effet, on peut être
frappé par les similitudes entre les définitions de base d’un système, que l’on peut trouver
par exemple chez De Rosnay (1975), Walliser (1977) ou même avec les définitions de base de
la complexité, chez Morin (2005), et certaines Pensées de Pascal.
Pour De Rosnay (1975 : 92) : « d’après la définition la plus courante, ‘un système est un
ensemble d’éléments en interaction’ ».
Pour Morin (2005 : 48) : « Qu’est-ce que la complexité ? A première vue, c’est un
phénomène quantitatif, l’extrême quantité d’interactions et d’interférences entre un très
grand nombre d’unités… Mais la complexité ne comprend pas seulement des quantités
d’unités et interactions qui défient nos possibilités de calcul : la complexité comprend aussi
des incertitudes, des indéterminations, des phénomènes aléatoires ».
Il nous semble possible de comparer ces définitions avec ce passage de Pascal, ce d’autant
Dans le document
Les politiques de prévention des désastres
(Page 78-81)