• Aucun résultat trouvé

3.3 Les séries des feux de forêt distribuées en loi puissance : des travaux largement établis à l’étranger

3.3.1 Un panorama synthétique des travaux existants

Introduction

Le projet scientifique de cette recherche doctorale consiste à rechercher un ordre supérieur de type statistique, qui transcende l’unicité des lieux et nous renseigne sur la nature profonde, donc abstraite, du phénomène feu de forêt.

Plusieurs des phénomènes que cherchent à mesurer les scientifiques présentent une taille caractéristique que l’on peut considérer comme une échelle, c’est-à-dire une valeur typique autour de laquelle sont centrées les séries de données recensées. Un exemple simple est la variation de la taille des êtres humains. La plupart des êtres humains adultes mesurent 1,80 m. Il y a une certaine variation autour de cette valeur centrale, notamment selon le sexe et les régions du globe, mais il nous est impossible de rencontrer des personnes de 10 cm ou de 3 m. Cette structuration particulière des valeurs selon une loi gaussienne a, à tort comme on l’a vu précédemment, largement influencé le schéma de pensée et d’analyse du phénomène feu de forêt. À la différence de cette distribution gaussienne plus familière, une distribution en loi puissance n'a aucune échelle de référence (pas de valeur centrale qui donne une dimension de référence au phénomène) ce qui explique par conséquent qu’elle s’applique à des phénomènes dits « invariants d’échelle ». Cette structuration implique que le phénomène se présente quelles que soient les échelles tout en gardant la même forme. Par exemple, un tourbillon dans un évier qui se vide à la même forme qu’un vortex dans un fleuve en crue ou qu’un cyclone dans l’atmosphère. Le phénomène de turbulence dans un fluide transcende ainsi les échelles.

Beaucoup de phénomènes anthropiques et naturels, comme les tailles des villes, celles des revenus, celles des fréquences de mots dans des textes et celles des grandeurs des tremblements de terre sont structurées selon une distribution en loi puissance. Une loi puissance nous donne à comprendre la probabilité assez forte des très grands événements, tandis que la queue exponentielle dans une distribution gaussienne les rend peu vraisemblables (d’où une certaine surprise lorsqu’ils se présentent). En d’autres termes, une loi puissance implique que les petites occurrences sont extrêmement communes, tandis que les très grands événements sont extrêmement rares, mais assez probables tout de même. Ce type de régularité ou « loi » est désigné parfois sous le nom de « loi de Zipf » en géographie et parfois de « loi de Pareto » en économie. Mais, pour ajouter à la confusion des termes, ces lois se rapportent alternativement à des distributions hiérarchisées ou non. Avant de confronter les séries de feux à cette loi et pour faire la part des choses, il convient de faire un bref rappel historique, théorique et statistique.

3.1 Loi puissance, loi de Zipf, loi de Pareto : petit rappel historique et théorique

Beaucoup de scientifiques recherchent souvent des mécanismes spécifiques aux grandes manifestations du phénomène qu’ils étudient (les villes en géographie, les mots en littérature, les tremblements de terre et les incendies de forêt en géophysique ou en climatologie), « en utilisant

pour chacun des cas pris isolément une description individuelle de type narratif » (P. Bak, 1996,

p. 42). Pourtant, lorsqu’il s’agit de systèmes ouverts dans lesquels interagissent une grande quantité de variables (c’est le cas pour ces exemples), le nombre d’événements d’une intensité donnée suit une fonction de distribution visiblement très simple.

Tous les phénomènes auxquels les chercheurs se confrontent ne sont pas centrés autour d'une valeur de référence (centrale). Certains varient au contraire sur une énorme amplitude de valeurs, parfois même sur plusieurs ordres de magnitude (Malamud et Turcotte, 1998), c'est-à- dire que chaque valeur est dix fois plus grande que la précédente et dix fois plus petite que la suivante. Un exemple classique en géographie de ce type de comportement est la taille des villes. La plus grande population aux USA se concentre à New York où elle est de 8 millions en date du recensement de 2000. Dans le monde, c’est l’agglomération de Tokyo (Japon) qui conserve son rang de plus grande concentration humaine avec près de 35 millions d’individus. À l’inverse, la ville qui accueille le plus petit nombre d’habitants aux USA est celle de Milliken, dans l’Oregon (USA), avec seulement 4 individus recensés en 1993. En réalité, elle était composée d’une seule et grande maison, occupée donc par la totalité de la population. Comme le rappelle avec humour M.E.J. Newman (Newman, 2006), la cabane en bois trônant dans le jardin était occupée par un nombre extraordinaire de chats et une concentration très impressionnante d’insectes, ce qui donnait l’image d’une ville moins peuplée d’humains que d’animaux. Plus officiellement, selon le livre des records « Guinness », la plus petite ville en Amérique est Duffield, enVirginie, avec une population de 52 âmes.

En Europe, la petite ville de Hum, située au cœur de l'Istrie en Croatie, accueille 18 habitants toute l'année. La variation de la taille des villes est donc potentiellement considérable. Quelle que soit la façon dont on observe cette variable, le rapport entre la plus grande et la plus petite population est au moins de 8 millions. Clairement, c'est tout à fait différent de ce que l’on peut rencontrer pour la taille des personnes.

Sachant cela, nous pouvons immédiatement en déduire qu'il ne peut y avoir qu’un nombre restreint de très grandes villes. En effet, dans un pays tel que l'Amérique avec une population totale de 300 millions de personnes, c’est tout au plus environ 40 villes de la taille de New York qui pourrait potentiellement exister. Or, ce qui est étonnant, c’est que lorsque l’on trace l'histogramme de la taille des villes, mais cette fois avec des axes logarithmiques, un modèle remarquable émerge : la distribution, une fois tracée de cette façon, suit de très près une ligne droite. Une loi puissance peut être ainsi caractérisée comme « une fonction de distribution

de quantités mesurables » (P. Bak, 1996, p. 44).

Les distributions en loi puissance se produisent dans une gamme extraordinairement diverse de phénomènes. En plus des populations des villes, on peut citer la taille des tremblements de terre, celle des cratères de lune, celles des éruptions solaires, celles des données informatiques et des guerres. On peut citer en outre la fréquence de l’utilisation des mots dans toute langue humaine (et animale !), la fréquence de l'occurrence des noms de famille dans la plupart des cultures, la fréquence des citations d’articles scientifiques, la vente des livres et enfin le nombre de visites des principaux sites internet dans le monde. Bien que ces références soient très nombreuses, elles ne sont pas exhaustives. Ceci est un simple aperçu de la foule d'autres variables qui suivent une forme en loi puissance.

3.1.1 Les mots, les villes et les séismes, un point commun : la loi puissance

Lorsqu’un alignement semble justement apparaître dans un graphique bi-logarithmique, on est immédiatement tenter de définir la distribution comme répondant à la définition d’une loi puissance, une loi de Zipf ou encore de Pareto, sans pour autant s’arrêter sur l’un ou sur l’autre de ces termes. Chacun des trois termes est en effet employé pour décrire des phénomènes où les grands événements sont rares, et où les petits sont tout à fait communs. Par exemple, il y a peu de grands tremblements de terre mais beaucoup de petits. Il y a quelques mégalopoles, mais beaucoup de petites villes. Cette observation semble avoir été faite en premier par F. Auerbach (1913), bien qu'elle soit souvent attribuée à G.K. Zipf. Que signifie-t-elle ?

Soit p(x) dx la fraction des villes avec une population composée entre x et x+dx. Si la distribution s’aligne sur un graphique bi-logarithmique, alors :

où α et c sont constants. Le signe moins est facultatif, mais plutôt commode puisque la pente de la ligne est souvent négative. En prenant l'exponentiel des deux côtés, cela revient à :

On dit que des distributions de cette forme suivent une loi de puissance. La constante α s'appelle l'exposant de la loi puissance. La constante C est la plupart du temps inintéressante.

Pour les tremblements de terre, ce type de distribution est connu sous le nom de loi de

Gutenberg-Richter. Elle implique que pour mille tremblements de terre de magnitude 6, il en

existe cent de magnitude 7, dix de magnitude 8, etc. Lorsqu’on représente une série de séismes dans un graphique, l’axe des ordonnées est logarithmique. C’est aussi le cas pour l’axe des abscisses puisque la notion de magnitude (m) est une expression logarithmique de l’énergie dissipée par un séisme, et pas l’énergie elle-même (Figure 35). L’énergie d’un séisme de magnitude 8 est ainsi dix millions de fois plus puissante qu’un celle d’un séisme de magnitude 1. La loi de Gutenberg-Richter semble ainsi être un exemple illustre de la forme puissance d’une distribution.

Figure 35. Distribution des tremblements de terre au Sud-est des États-Unis entre 1974 et 1983

« Quand la nature s'organise. Avalanches, tremblements de terre et autres cataclysmes »

Per Bak, Flammarion, traduit de l'américain par Michel Fioche, 1999 (1er édition 1996), 284 p

D’autre part, c’est là peut-être que se situe l’acceptation la plus délicate pour les spécialistes du terrain, cette loi nous apprend que les grands tremblements de terre suivent exactement la même loi que les petits. Ils en sont le prolongement statistique « naturel » et leurs spécificités tiennent surtout aux conséquences radicalement différentes qui en résultent.

Comme le propose si judicieusement P. Bak, « on peut donc en conclure qu’il est inutile

d’essayer de trouver des explications particulières pour les grands tremblements de terre, mais qu’il vaut mieux tenter de bâtir une théorie générale englobant tous les tremblements de terre, les grands et les petits ». (Bak, 1996, p. 30). Cette démarche doit inspirer la recherche sur les

feux de forêt dans laquelle la croyance en la spécificité des très grands incendies est encore très prégnante. Or il semble que ce phénomène, comme les autres cités plus haut, se conformerait à une loi puissance (c’est en tout cas ce que nous chercherons à vérifier par la suite).

La loi de Zipf (en tant que variante de la loi puissance) se rapporte habituellement à la « taille » (y) d'une occurrence d'un événement relatif à son rang. George Kingsley ZIPF, professeur de linguistique de Harvard, a déterminé dans son ouvrage de 1949, Human Behavior

and the Principe of Least Effort, l’existence de régularités simples dans les systèmes d’origine

humaine. Ainsi, il a cherché à caractériser la « taille » (ou la fréquence de l'utilisation en texte anglais) du 3ème, du 8ème ou du 100ème mot le plus commun dans un texte (il prit comme matière d’expérimentation le livre de James Joyce : Ulysse). La loi de Zipf (Zipf, 1935, 1949) déclare que la taille (

y)

de la plus grande occurrence d’un événement est inversement proportionnelle à son rang (

r

) :

y ~ r

-b, avec b comme unité de mesure.

Pour les courbes dont la pente est proche de 1, l’appellation « loi puissance » exprime l’idée qu’une quantité peut se traduire comme une puissance d’une autre quantité. Les phénomènes abordés dans la Figure 36 p. 114 peuvent s’exprimer sous la forme d’une loi puissance. L’invariance d’échelle les caractérise tous puisqu’une ligne droite semble avoir le même aspect à tous les niveaux de la distribution.

Autrement dit, il n’existe pas de structure à une échelle donnée qui puisse nous permettre de la différencier des autres : « il n’y a ni pic, ni bosse nulle part » (Bak, 1996, p. 45). Une distribution puissance nous apprend donc beaucoup sur les phénomènes. Mais les relations entre les événements est uniquement d’ordre statistique. L’explication de ce lien est, aux premiers abords, difficile à cerner. G.K. Zipf, lorsqu’il a découvert cette récurrence d’organisation, a évoqué « la loi du moindre effort » comme source de l’irrégularité que l’on peut observer dans les variables.

En géographie, la théorie des « lieux centraux » envisage ainsi ce comportement maximisant des sujets comme moteur de la création des structures spatiales observables et mesurables. Néanmoins, et comme le souligne P. Bak, « Zipf ne fournit aucun indice permettant

de passer du niveau individuel au niveau statistique » (Bak, 1996, p. 44). Ainsi donc, la loi de

Zipf et plus généralement la loi puissance semble être une propriété émergente d’un système dans le sens où la très simple structuration statistique n’est pas une conséquence claire des règles dynamiques et mécaniques sous-jacentes. La loi de Gutenberg-Richter est donc un constat d’une structuration statistique émergente (le nombre de séismes en fonction de leur magnitude) mais ne nous aide pas à comprendre le lieu ni la date des événements.

De même, la loi de Zipf nous donne matière à comprendre l’organisation statistique des villes, mais pas leur répartition spatiale (c’est essentiellement la théorie des lieux centraux qui s’en charge). Néanmoins, ces deux formes de structuration hiérarchiques (statistique et spatiale) sont très proches. Dans l’espace, chaque amas d’individus trouve sa position en fonction et en rapport des autres. « La loi rang-taille et la théorie des lieux centraux décrivent sous des formes

diverses le même phénomène » (Guérin-Pace, 1993, p. 52). En effet, l’un comme l’autre ressort

de la géométrie fractale (Ph. Martin, 2000).

3.1.2 Le principe du moindre effort comme critère d’optimalité des systèmes

Il existe une explication de la distribution en loi puissance en terme de structure hiérarchisée de l'ensemble des mots d'un texte : on considère qu'à chaque mot du lexique correspond un nombre fixe de mots qui lui sont associés tel que le rapport entre la fréquence d'un mot et celle d'un de ses associés est constant. Ainsi, on en déduit simplement la loi de Zipf.

Ces deux hypothèses correspondent en fait à un principe d'optimalité de l'utilisation d'un alphabet fini. Le travail principal de Zipf explore à ce sujet une théorie basée sur un processus concurrentiel équilibrant la minimisation de l'effort de l'orateur et celle de l'auditeur. Il emploie une analogie dans laquelle des mots sont considérés comme les outils, qui sont ainsi construits et disposés selon leur pouvoir à réaliser une tâche de communication aussi efficacement que possible. Il faut noter que le point culminant de sa recherche sur ce rapport a coïncidé avec la publication des propositions de C. E. Shannon (1948)35 dans la théorie de l'information.

B. Mandelbrot a depuis longtemps perçu et décrit les connexions entre ces deux travaux :

« L’usage de critères extrémaux, qui exigent que telle ou telle quantité soit grande ou aussi petite que possible, est très familier en physique ; par exemple avec le principe de moindre action, le principe d’entropie maximum, le principe de production minimum d’entropie »

(Mandelbrot, 1997, p. 210). L’auteur a proposé une variante de la loi de Zipf, appelée Zipf- Mandelbrot qui, à l’information de Shannon donnée, correspond « au moindre nombre de lettre » (Mandelbrot, 1997, p. 211).

Le principal danger d’interprétation de loi de Zipf ou de celle de Zipf-Mandelbrot, réside dans la croyance que la structuration hiérarchisée du langage est consciente ou préméditée. En fait, lorsque Zipf a proposé sa loi statistique, il a considéré sans préciser si c’est consciemment ou pas que l’orateur doit construire un flux continu d’informations, c'est-à-dire un flux continu d’expressions donnant des significations spécifiques, de façon à réduire au minimum son effort comme orateur et le rendre compatible pour une communication efficace à un auditoire. Pour éviter cet amalgame, B. Mandelbrot propose d’insister sur l’optimalité de la statistique des mots, activité, selon lui, moins facilement associée à l’idée que l’Homme est foncièrement parfait (Mandelbrot, 1997). D’ailleurs, le simple fait que la structuration statistique hiérarchisée des mots ait été vérifiée dans la communication animale (Suzuki et al., 2004 ; McCowan et al., 2003) limite fortement les raccourcis pratiques, naïfs et simplistes. En outre, comme nous le verrons un peu plus tard, la loi puissance se vérifie dans une multitude de systèmes complexes, biologiques, technologiques, comportementaux et physiques. Souvent, c’est la loi de Pareto qui est la plus citée (nous l’avons déjà mentionné plus haut).

35 A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656,

3.1.3 La loi de Pareto : une forme continue de loi puissance

L'économiste italien V. Pareto observa au début du XXème siècle que 20% de la

population italienne possédait 80% de la richesse nationale d'où le nom de loi « 80-20 » ou « 20- 80 ». Lorsque Pareto a proposé sa loi, il était donc intéressé par la répartition des revenus. Au lieu de se demander quel est le rang du plus grand revenu, il s’est demandé combien de personnes ont un revenu plus grand que le revenu x. La loi de Pareto (P) est donc donnée en termes de fonction de répartition cumulative, c’est-à-dire que le nombre d'événements plus grands que x est une puissance inverse de x. Soit une variable aléatoire X suivant une distribution de Pareto, alors la probabilité que X soit plus grande qu'un réel x est donnée par :

Ce calcul est valable pour tout x ≥ xm, où xm est la valeur minimale (positive) que peut

prendre X, et k est un réel positif. Les distributions de Pareto sont des distributions continues. La loi de Zipf, parfois nommée distribution « zeta », peut être considérée comme l'équivalent discret de la loi de Pareto. Pour les séries de feux, c’est donc plutôt dans sa version « Pareto » que nous confronterons les données à une loi puissance. En finance, il a été démontré (Mandelbrot, 1968) qu'une telle distribution se déduit naturellement, à la fois dans le cas des revenus salariaux et des revenus spéculatifs à partir de l'hypothèse d'une structure hiérarchisée : à chaque agent d'un niveau de revenu donné correspond un nombre précis d'agents subordonnés et il existe un rapport constant entre le revenu d'un agent et le revenu de ses subordonnés. Le nombre de subordonnés pour un agent et ce rapport sont des variables aléatoires qui, dans l'intervalle d’observation, ne dépendent ni de l'agent, ni de son niveau de revenu. « On considère ainsi que l'ensemble des

revenus d'une population est structuré par une propriété d'homothétie interne » (Mullon et

Pichon, 1990, p. 19036). Par ailleurs, P. Levy a développé dans son ensemble la théorie

statistique de la loi de Pareto et a montré que les lois normales sont des cas particuliers des lois de Pareto (Levy, 1925).

36 Les problèmes statistiques de la très grande variabilité, SEMINFOR, 1990, atelier Problèmes statistiques du

Dans ce contexte, il est donc important d’envisager l’ensemble des événements, les petits comme les plus grands pour caractériser la structuration statistique d’une série de données. En effet, d’un strict point de vue déontologique, il serait assez malvenu de tenter de comprendre la nature fondamentale d’un processus et triant au préalable les données pour sélectionner celles qui sont « convenables » et rejeter a priori celles qui ne le sont pas. Par ailleurs, cette démarche dépasse la seule thématique des incendies. Elle est encore largement répandue par son aspect pratique. Cette démarche a été largement battue en brèche par les travaux de P. Bak (Bak, 1987, 1997, 2002).

3.1.4 L’importance des très petits comme des très grands événements

Si la loi de Gutenberg-Richter (1944) traite des séismes, les répliques sismiques (les séismes qui suivent pendant une période relativement courte un plus grand séisme) sont également structurées en loi puissance. Cette connaissance est même plus ancienne que la célèbre loi de Gutenberg-Richter, puisque c’est la loi d'Omori (Omori, 1895) qui en rend compte. Concrètement, la loi d'Omori définit la décroissance du nombre de répliques (aftershock en anglais) après un séisme important. Cette formule empirique a été découverte par le sismologue japonais Fusakichi Omori (1894) à partir de la séquence sismique qui a suivi le tremblement de terre de Nobi en 1891.

Ainsi, la corrélation temporelle entre les tremblements de terre montre que juste après un séisme, la fréquence d'une magnitude sismique dite « de réplique » diminue avec le temps T tel que :

Les répliques sismiques sont décrites en tant qu'événements corrélés qui se produisent à