• Aucun résultat trouvé

Les conditions de mesure d’une loi puissance : précision ou pertinence ?

3.3 Les séries des feux de forêt distribuées en loi puissance : des travaux largement établis à l’étranger

3.3.2 Les conditions de mesure d’une loi puissance : précision ou pertinence ?

La principale contrainte d’analyse des séries statistiques de feux réside dans la quantité de valeurs prises en compte. En effet, alors qu’une distribution puissance ne prend réellement de sens qu’avec un nombre conséquent de valeurs, souvent proche de plusieurs milliers (Newman, 2006 ; Mitzenmacher, 2003), beaucoup d’auteurs se contentent d’une centaine d’événements (quelques fois moins) pour définir les paramètres de la distribution. Par ailleurs, l’utilisation des densités de fréquences revient à fortement discrétiser les valeurs et donc à réduire encore le nombre de valeurs utilisées. Avec quelques dizaines de feux (P. Fiorucci va jusqu’à calculer l’exposant α avec 15 feux) (Figure 43), c’est donc au mieux quelques points qui servent ici de support au calcul d’une loi puissance. La fragmentation excessive des données peut ainsi faire perdre la lisibilité et surtout la pertinence d’une telle mesure. En effet, l’exposant α caractérise le ratio entre les très petits et les très grands feux dans une série de données (Malamud et al., 2005 ; Millington, 2003). Or, avec un très petit nombre de feux (15 dans le cas extrême énoncé plus tôt), ce ratio est intrinsèquement tronqué. Heureusement, tous les auteurs ne franchissent pas cette limite méthodologique (Figure 40), limite qui est plutôt logique par ailleurs.

La plus grande base de données analysée comporte plus de 500 000 feux (USA entre 1970 et 2000). En fait, le nombre d’événements dépend évidemment de la qualité des recensements qui sont très variables d’un pays à l’autre. En ce qui concerne cette base américaine, la précision est assez importante (0,4 ha ce qui est assez remarquable en raison de la taille du pays qui nécessite un système de recueil très lourd à gérer). Cette précision est deux fois plus forte pour les feux au Canada (0,2 ha dans l’Ontario).

Au Japon, la taille minimum des feux recensés est de 0,01 ha (100 m²), ce qui en fait, à l’heure actuelle, la base la plus précise qui a déjà été exploitée avec la loi puissance. Il est intéressant de remarquer que le coefficient de détermination est toujours très bon, lorsqu’il est mentionné dans les résultats. Sa valeur minimale est de r² = 0,92 pour les feux au Canada pour la Colombie Britannique (Millington, 2003). Il tend le plus souvent entre r² = 0,97 et r² = 0,99, ce qui a priori confirme l’intérêt d’une loi puissance pour comprendre la structuration statistique des feux de forêt. Les périodes étudiées vont de 800 ans39 (Malamud et al., 1998) à 6 ans (Malamud et al., 2005) voire même à une seule année (Zhang et al., 2003).

Les auteurs semblent plutôt privilégier une fenêtre décennale pour mesurer l’exposant α de la loi puissance (Turcotte, 2004 ; Song et al., 2001, 2005). En fait, plus l’échelle temporelle est large plus la structuration en loi puissance prend du sens car le nuage de points s’épaissit. Tout l’intérêt d’une telle approche réside en effet dans la caractérisation du ratio entre les grands et les petits feux : plus la valeur de la pente est forte, plus la part des grands feux sur le total est importante (Malamud et al., 1998, 2005 ; Millington, 2003). Or, une fenêtre temporelle trop étroite (annuelle par exemple pour les travaux de Zhang et al., sur les feux de forêt en Russie de l’année 2001) nous prive intrinsèquement des feux les plus extrêmes, et ce d’autant plus que l’échelle spatiale envisagée est grande (au sens géographique donc fine). L’envie d’une caractérisation fine du régime des feux de forêt (à l’année et à une échelle communale par exemple) peut ainsi conduire à des biais qui faussent dans une certaine mesure la structuration statistique des données. Comme cela a été évoqué en amont, la figure suivante (Figure 43) est un bon exemple des manipulations « limites » sur les données.

Les auteurs (Fiorucci, Gaetani et Minciardi, 2006) ont cherché à caractériser la pente de la distribution des densités de fréquences normalisées pour les feux dans des communes italiennes (Ligurie). La précision des données sur les feux s’établit à 1 ha ce qui donne aux chercheurs, il faut bien en convenir, un échantillon statistique respectable de 14 730 feux entre 1987 et 2004. Néanmoins, ce seuil est très haut par rapport aux valeurs proposées par les autres chercheurs (0,4 ha aux États-Unis, 0,2 ha au Canada et 0,01 ha au Japon). Il est également très haut par rapport aux données françaises (0,001 ha depuis 1992).

39 Les données ont été recueillies à partir de récits locaux conservés dans les bibliothèques et grâce aux traces des

feux dans les arbres les plus anciens. La datation précise est possible par rapport à la position du carbone dans l’éventail des couronnes de croissance de l’arbre.

(a) Eté (b) Hiver

Figure 43. Caractéristiques des zones identifiées en Ligurie (Italie) par P. Fiorucci et al. (2006)

Les résultats sont probablement biaisés par l’absence de ces très petits feux qui représentent en France la très grande majorité des événements. Le mode des distributions en PACA est en effet de 0,1 ha, ce qui indique qu’environ 16 000 feux sont inférieurs ou égal à cette valeur. La comparaison avec les feux en PACA n’est pas anodine puisque la Ligurie et PACA sont deux régions limitrophes. Il semble alors assez raisonnable de penser que la région italienne accueille des très petits feux dans le même ordre de grandeur qu’en PACA (qui sont donc invisibles ici). Les valeurs de l’exposant α de la loi puissance reflète ainsi un panorama statistique quelque peu tronqué.

Par ailleurs, les auteurs ont choisi l’échelle communale comme échelle de référence pour construire des « zones homogènes » tout en séparant les feux d’hiver et ceux estivaux. Cette fragmentation spatiale associée à une forte discrétisation des données qui étaient au préalable assez conséquentes (14730 feux entre 1987 et 2004) amènent les auteurs à caractériser des échantillons très (trop) étroits. Non seulement, en effet, certaines communes n’ont pas accueilli de feux durant les périodes étudiées, mais en plus la majorité des zones qui résultent de cette agrégation spatiale ont moins de 100 événements pour servir de support à l’analyse (et même quelquefois moins de 50).

Cet exemple doit nous servir de mise en garde concernant le compromis difficile, mais nécessaire entre la finesse de l’analyse (qui concerne celle des données, l’échelle spatiale et l’échelle temporelle) et la pertinence statistique. Ceci nous amène à poser notre posture d’analyse pour les feux français. Il s’agit d’exploiter au mieux la précision des données tout en limitant les biais méthodologiques :

- Travailler avec des séries de feux (presque) exhaustives (recensement des plus petites superficies brûlées comme des plus grandes). Dans notre cas, nous pouvons profiter de données qui couvrent jusqu’à sept ordres de magnitude (la base Prométhée recense les feux avec une précision à 0,001 ha soit 10 m² depuis quinze ans et le plus grand feu enregistré est d’environ 11 000 ha), pour reprendre une expression proposée dans la littérature (Malamud, 1998) ;

- Changer d’échelles spatiales pour voir en quoi cela modifie la structuration des statistiques des séries de feux, mais sans aller jusqu’à l’échelle communale qui implique une trop grande fragmentation des échantillons. Nous commencerons par l’échelle la plus petite (Sud-est) afin d’essayer de faire une structure très stable qui servira de point de repère lorsque des territoires plus petits seront abordés (régions, départements, zone locale d’étude comme la maille DFCI de 20 km²). De même et dans la même logique, c’est toute la durée de l’enregistrement qui sera d’abord explorée (1973-2006) ;

- Comparer pour un même espace la structuration en loi puissance des séries de feux à plusieurs périodes. Il s’agit de voir d’une part dans quelle mesure le ratio grands feux / petits feux a été sensible aux actions de lutte et de prévention qui ont profondément évolué depuis une trentaine d’années, et d’autre part de mesurer quel accroissement de stabilité à la structure confère l’ajout de tranches temporelles de mesure après une analyse sur un temps initial.

Conclusion

L'évaluation habituelle d’un phénomène naturel dans un territoire est le plus souvent effectuée localement à partir des données topographiques et de l’occupation du sol (végétation, densité humaine, surfaces agricoles, etc.). Or, cette évaluation peut également se servir des données historiques concernant les occurrences d'incendies de forêt dans le territoire étudié. Néanmoins, cette approche, dite « structurelle », ne peut pas seulement être considérée selon la fréquence des événements. En effet, les incendies de forêt sont caractérisés par un grand nombre d'événements de très basse intensité, dont la gestion nécessite une mobilisation limitée des ressources, et peu d'événements extrêmes, dont l'occurrence implique l'intervention et la coordination d'une très grande quantité des ressources disponibles au sein d’une société afin de tenter d’y faire face. La loi puissance semble caractéristique de ce phénomène. C’est probablement l’ordre supérieur de type statistique qui permet d’envisager le feu de forêt en dépassant largement l’unicité des lieux et la « vérité » du terrain, qui restent encore aujourd’hui attrayantes pour beaucoup.

La structuration en loi puissance du phénomène feu de forêt est un sujet relativement récent, mais qui recèle des informations susceptibles de répondre aux sentiments de surprise qui accompagnent presque systématiquement l’émergence du phénomène. L’utilisation du terme « émergence » à la place d’un autre est tout à fait requise (éclosion renvoi ainsi à l’aspect mécanique alors que c’est plutôt l’aspect systémique auquel on veut faire référence). Comme on s’attachera à le démontrer progressivement, ce phénomène est en effet issu d’un système complexe. Le principe de l’émergence est donc fondamental pour envisager l’irrégularité du phénomène comme un moyen original de quantification d’un régime de feux.

Dans la littérature, la loi puissance a été envisagé dans cet objectif et comme support à une posture analytique en géographie que l’on souhaite prolonger et améliorer dans cette thèse (Turcotte et Malamud, 1998 ; Malamud et al., 2005). Cependant, la loi puissance implique le principe de l’auto-similarité, c’est-à-dire que la structuration statistique de l’objet ou de la série de données se réitère sans évoluer dans l’ordre des échelles.

Cette posture intellectuelle suppose donc d’envisager la complexité théorique du phénomène incendiaire puisque les rugosités spatiales et la finitude du monde doivent nécessairement perturber d’une certaine manière la « pureté » de cette distribution des probabilités.

En effet, parce que le phénomène dépend et se confronte à des variables physiques plus ou moins nombreuses et différemment agrégées selon les espaces, des conséquences statistiques fondamentales sont probablement à envisager : le passage de l’invariance à la covariance d’échelle et la présence d’un seuil plus ou moins élevé à partir duquel la fréquence d’émergence du phénomène est presque nulle. Si cela se vérifie, on pourra alors considérer ce seuil (nécessairement variable selon les espaces) comme l’échelle maximale d’intensité des incendies de forêt. Le chapitre qui va suivre sera primordial dans la construction de notre projet analytique. Il convient donc naturellement de préciser brièvement ces deux points essentiels.

D’une part, les contraintes physiques et climatiques doivent être de plus en plus prégnantes à mesure que l’on envisage les grandes tailles de surfaces brûlées. Il y a donc nécessairement des écarts de plus en plus grands entre la fréquence théorique issue de l’invariance d’échelle (loi de Pareto) et celle qui est observée dans la réalité. C’est là l’effet probable de la manifestation dans l’espace tangible d’un phénomène complexe. Ainsi, si l’invariance d’échelle est une propriété tout à fait adaptée pour les figures géométriques classiques et théoriques auxquelles il est souvent fait référence dans la littérature (flocon de neige de Von Koch ou tapis de Sierpinsky par exemple), c’est le principe de la covariance d’échelle qui est probablement le plus adéquat pour rendre compte de la complexité statistique du phénomène incendiaire.

Par ailleurs, et en raison de cette covariance, il y a probablement une échelle limite au phénomène. Cette échelle limite doit varier selon le niveau des contraintes qui agissent sur chaque événement ou, si l’on envisage le problème d’un autre point de vue, selon le potentiel incendiaire des espaces. On se situe alors clairement dans une démarche de différenciation spatiale en tentant de mettre en relation les différentes situations géographiques avec les contraintes mesurables dans les séries statistiques qui reflètent d’une certaine manière leur mémoire incendiaire.

C’est donc les différents régimes de feux de forêt que nous souhaitons envisager. Dans cette perspective, nous ferons appel à un ajustement parabolique de la structuration puissance qui a déjà été éprouvé pour de nombreux phénomènes naturels (éruptions solaires) et humains (hiérarchies urbaines) et qui constitue le socle du Modèle Fractal Parabolique (Laherrère, 1996 ; Martin, 2003 et 2004).

Chapitre 4. La covariance d’échelle dans les séries

de feux de forêt

« Dans les chemins que nul n'avait foulés, risque tes pas ! Dans les pensées que nul n'avait pensées, risque ta tête ! » Anonyme, 1968

Table des matières

Chapitre 4

Introduction ... 131