• Aucun résultat trouvé

Là aussi, il nous paraît possible de défendre, sans travestir pour autant la pensée de Descartes tout en la mobilisant en fonction de nos problèmes spécifiques, que, du moins en

première lecture, le « plus aisé à connaître », c’est l’aléa. Il arrive d’ailleurs toujours en

premier dans les décompositions qui servent à définir la notion de risque. Il donne en

quelque sorte le la, et fonde la lecture en catégories de risques : « naturels » (risques liés aux

séismes…), technologiques (risques liés aux concentrations de matières dangereuses…),

sanitaires (risques liés aux virus…), etc.

Il doit donc y avoir une succession que semble fonder chronologiquement l’aléa. « Le plus

simple » et « le plus aisé à connaître », ce sont bien d’abord l’aléa, puis les composantes de

peuplement que sont les populations, les bâtiments exposés, et même leur vulnérabilité

inégale, que révèlent d’ailleurs a posteriori les dommages. En effet, les dommages viennent

forcément après les manifestations de l’aléa, selon « l’ordre naturel » si l’on reprend la

pensée de Descartes.

Dans le risque, qui est risque de dommage, l’aléa semble toujours premier, et donne même

l’impression d’être naturellement premier, tout spécialement pour la catégorie des « risques

naturels ». Il pleut, puis une partie des précipitations incidentes ruissellent et impactent les

populations, les bâtiments, puis arrivent les dommages. Cette évolution n’est-elle pas

elle-même « simple », « aisée à connaître » pour monter vers le dommage, et finalement le

risque, soit le futur dommage qu’on devrait être alors en mesure de mieux connaître, et

prévenir ? De plus, la série « suppose » un ordre qui paraît « naturellement » s’imposer, en

semblant instaurer des relations de causes à effets. Pourtant, il s’agit d’abord d’un constat

portant sur une évolution, qui peut ensuite aboutir à la reconnaissance de liens de causes à

effets. Ce n’est pas nécessairement le cas. On remarquera ici la nuance essentielle

qu’introduit Descartes, en attirant l’attention sur la différence entre « supposer » et

« démontrer ». Le troisième principe est donc bien plus nuancé qu’il ne le paraît en première

approche.

La nuance s’impose d’autant plus si on admet, toujours selon Descartes, que le bon sens,

c’est-à-dire, la « puissance de bien juger » ou « raison », est la « chose du monde la mieux

partagée ». En effet, mais seulement en première approche, qui contesterait qu’il puisse y

avoir des dommages sans la pluie, qui arrive « naturellement » et évidemment en premier ?

Ce qui voudrait tout autant pour une émeute, le virus H5N1, un krach boursier, une

révolution, qui représentent des types d’aléas possibles ? Et pourtant, le bon sens cartésien,

qui vise les interprétations les plus rationnellement cohérentes possibles, ne peut admettre

que les dommages puissent s’expliquer seulement à partir de l’aléa, par exemple, de la pluie.

C’est ce que prouvent simplement tant de retours d’expérience, et aussi tant d’efforts de

réflexion antérieurs. Ils montrent que les dommages sont aussi – et même surtout ! –

préparés par les caractéristiques des peuplements humains avant même que l’aléa ne se

manifeste. A séisme de magnitude identique, il est vérifié que l’intensité des dommages

diffère selon qu’on se trouve, par exemple, à Port-au-Prince ou à Sendai. L’aléa révèle, très

inégalement, les prédispositions à l’endommagement. Il n’est pas nécessairement premier,

loin s’en faut. Il nous semble donc qu’apparaissent des tensions entre ce que préconise

Descartes dans les principes de la méthode, chercher le plus simple et aisé, et la quête de

solutions qui soient les plus cohérentes possibles, en accord avec les principes du « bon

sens » cartésien. Le plus simple et aisé n’est pas nécessairement le plus rationnel.

Par conséquent, Descartes préconise ici une approche méthodologique des « problèmes »

dont il prétend qu’elle est « la moins limitée » et surtout la plus « simple » et « aisée à

connaître ». Nous attirons simplement l’attention sur le fait qu’elle peut justifier à elle seule

les éclatements thématiques observés entre les types de risques de désastres. Basée sur

l’éclatement des définitions et problèmes en sous-notions simples et en catégories, cette

approche systématique emporte volontiers l’adhésion. Surtout qu’elle annonce le quatrième

principe, qui, lui, apparaît plus définitif et utile. Descartes y préconise « de faire partout des

dénombrements si entiers, et des revues si générales que je fusse assuré de ne rien

omettre » (Descartes, 1637 : 46).

Le quatrième principe de méthode semble fonder non seulement une lecture systématique,

mais aussi à visée exhaustive, utile aux problèmes que pose la prévention des désastres. Et

c’est bien ce type de lecture qui domine encore nombre de publications sur les risques de

désastres. En atteste, parmi des milliers d’articles et livres structurés selon cet espoir

d’exhaustivité systématique, l’Atlas mondial des risques de désastres naturels (Shi et

Kasperson, 2014). Il cherche à dresser un inventaire mondial à partir d’une lecture des

différents sous-types de « risques naturels », la neuvième partie étant dédiée à une synthèse

recomposant le tout : « understanding the spatial patterns of global natural disaster risk ».

Comme on le voit, le problème que posent ces lectures systématiques n’est pas seulement

lié à l’identification et à la justification des « parcelles » de difficultés ou du « simple » pour

pouvoir analyser une « difficulté ». Dans le domaine de la prévention des risques de

désastres, la distinction entre aléa, exposition et vulnérabilité est généralisée, même si elle

est réductrice puisqu’elle ne laisse qu’une part très pauvre, très souvent implicite, aux

politiques elles-mêmes. La place accordée à la portée ou au statut social de ces risques,

différenciés selon les contextes est aussi pauvre. Le problème est également posé par les

relations qu’entretiennent ces « parcelles », ici, entre les sous-notions associées aux

définitions des risques et auxquelles trop souvent se réduit la pensée sur les risques. Le

« bon sens » cartésien devrait bien plus pousser à reconsidérer la lecture causale dominante

des dommages et des risques à partir de l’aléa, qui est très réductrice, et qui continue

d’exister même si beaucoup s’en défendent. La lecture systématique et monocausale s’avère

insuffisante. Ne pas s’en contenter aiderait à mieux comprendre « la pluralité

incontournable des principes concurrents », les dynamiques liées à la préparation des

désastres sur la durée, comme les surprises qui y sont associées. Les nuances de la pensée

cartésienne sont manifestes : Descartes n’a jamais écrit que l’homme était maître et

possesseur de la nature, mais « comme maître et possesseur de la nature ». Mais il est clair

que domine la tentation du systématique, fruit de l’éclatement analytique des problèmes, ce

que Morin nomme la « Grande Disjonction » (1986 : 70-71). Il nous semble que nous

retrouvons ces limites avec l’éclatement analytique de la notion de risque centrée sur les

sous-notions d’aléa et d’exposition/vulnérabilité, et encore plus lorsque la lecture est

aléa-centrée.

La démarche systématique s’attache à développer des approches simples, facilitant la

connaissance, mais au prix de limites. Ces mêmes limites permettent de mieux comprendre

celles que rencontrent les politiques de prévention des désastres. Répondre aux défis

qu’elles posent implique de poursuivre la démarche systématique, et de la compléter, par

une approche alternative. C’est ce que nous trouvons avec l’analyse systémique.

5.2. La recomposition de la base analytique : Pascal et les tentatives systémiques

En tant que tel, Pascal ne peut être qualifié de systémicien, sous peine d’anachronisme. Un

système explicite les relations qui sont identifiées entre plusieurs éléments, qui

interagissent, au moins en partie. La notion est postérieure, elle apparaît progressivement

au cours du 20ème siècle (De Rosnay, 1975 : 91). De manière significative, De Rosnay

mentionne aussi qu’elle est partagée par plusieurs disciplines universitaires. Mais il ne la

présente d’ailleurs pas comme étant neuve. On peut prétendre que Pascal fut un précurseur

de cette manière complémentaire d’appréhender les problèmes. En effet, on peut être

frappé par les similitudes entre les définitions de base d’un système, que l’on peut trouver

par exemple chez De Rosnay (1975), Walliser (1977) ou même avec les définitions de base de

la complexité, chez Morin (2005), et certaines Pensées de Pascal.

Pour De Rosnay (1975 : 92) : « d’après la définition la plus courante, ‘un système est un

ensemble d’éléments en interaction’ ».

Pour Morin (2005 : 48) : « Qu’est-ce que la complexité ? A première vue, c’est un

phénomène quantitatif, l’extrême quantité d’interactions et d’interférences entre un très

grand nombre d’unités… Mais la complexité ne comprend pas seulement des quantités

d’unités et interactions qui défient nos possibilités de calcul : la complexité comprend aussi

des incertitudes, des indéterminations, des phénomènes aléatoires ».

Il nous semble possible de comparer ces définitions avec ce passage de Pascal, ce d’autant