• Aucun résultat trouvé

Plus de soixante ans de complexité

La mathématisation des sciences sociales emprunte de nombreuses voies. La plus commune est sans conteste l’utilisation des outils statistiques qui permettent à chaque science d’améliorer la qualité des données dont elle dispose [Menger, 1993, p. 2]. Mais ce type de mathématisation est sans conséquence sur les limites disciplinaires. En revanche, certaines voies empruntées par la mathématisation permettent des rapprochements théoriques remarquables qui tendent à affaiblir les clivages disciplinaires. Le plus bel exemple en est certainement celui de l’analyse des réseaux

sociaux qui fournit des concepts méthodologiques et des méthodes communs tant à la microéconomie qu’à la sociologie mathématique, à l’anthropologie sociale, à la géographie ou encore à la psychologie sociale [Wasserman, Faust, 1994, pp. 10-15]. Ceci est encore plus vrai lorsque l’analyse des réseaux sociaux est incorporée à la théorie des jeux dans le cadre de la théorie des jeux en réseaux [Goyal, 2007 ; Jackson, 2008]. Ce rapprochement entre réseaux et jeux était sans doute inévitable tant il est vrai que la théorie des réseaux et la théorie des jeux ne sont que deux branches d’une même théorie des systèmes [Lugan, 1993, p. 13]. Alors, se pose la question de l’existence d’un vaste paradigme interdisciplinaire qui serait formé par la théorie générale des systèmes fondée sur l'analyse des systèmes complexes. Nous nous proposons ici de démontrer que ce vaste paradigme, qu’Alan Kirman nomme avec humour « le grand chapeau de la complexité » [Kirman, 2008], est la matrice qui permet les convergences les plus profondes entre sciences sociales et notamment entre économie et sociologie.

Toutefois, il reste difficile de définir l’analyse des systèmes complexes et toute tentative de généralisation à son propos reste délicate, voire sujette à caution. Ne serait-ce qu’au sujet de son histoire, les versions prolifèrent et les avis divergent. Quoiqu’il en soit, une chose est sûre, particulièrement à la mode dans les années 1990, l’analyse des systèmes complexes fait partie des « grandioses théories en C », comme le dit joliment Steven Strogatz, qui fleurissent tous les dix ans et dont les plus marquantes ont été la théorie du chaos dans les années 1980, la théorie des catastrophes dans les années 1970 et la cybernétique dans les années 1960. Cependant, la succession chronologique ne doit pas masquer les relations théoriques qui existent entre chaque étape. De même, Edgar Morin fait remarquer que :

« La pensée de la complexité se présente (…) comme un édifice à plusieurs étages. La base

est formée à partir de la théorie de l'information, de la cybernétique et de la théorie des systèmes et comporte les outils nécessaires pour une théorie de l'organisation. Vient ensuite un deuxième étage avec les idées de John von Neumann, Heinz von Foerster, Henri Atlan et Ilya Prigogine sur l'auto-organisation. » [Morin, 1996]

À y regarder de plus près, la première strate théorique de la théorie des systèmes complexes, formée par la théorie de l'organisation, la théorie de l'information, la cybernétique et la théorie des systèmes, présente une forte unité. En effet, la cybernétique de Norbert Wiener [1948] reprend la théorie mathématique de l’information de Claude Shannon et de Warren Weaver [1948] en y adjoignant le principe de contrôle par rétroaction (feed-back). Or, W. R. Ashby [1958] a démontré qu’un système ne peut être contrôlé que par un système au moins aussi complexe.53 D’où la

53 Dans ce cas, la complexité est définie comme le degré de néguentropie, soit le logarithme du nombre V d’états Ω

i que

question on ne peut plus légitime : comment se structurent, émergent, évoluent, les systèmes qui ne sons pas contrôlés ? Toute la théorie des systèmes auto-organisés tente d’apporter une réponse, que ce soit avec l’« order from noise principle » de Heinz von Foerster [1979], les « self-reproducing

automata » de John von Neumann [Neumann, Burks, 1966], le « hasard organisateur » de Henri

Atlan ou la « self-organisation » d’Ilya Prigogine et Grégoire Nicolis [1977]. Malheureusement, comme le soulignait déjà Henri Poincaré en 1908, l’émergence de nombre de systèmes auto- organisés est si sensible aux conditions initiales que toute prédiction en devient impossible. Encore que des efforts très importants aient été déployés pour réduire au maximum cette incertitude. Nous pensons ici à la théorie des catastrophes de René Thom qui permet de prévoir les états possible d'un système en fonction du nombre de paramètres de ce dernier [Thom, 1972, 1983]. Mais ces efforts ont été décevants car les systèmes à plus de six paramètres sont rapidement imprévisibles. Et il a fallu se résoudre à une véritable théorie du chaos [Lorentz, 1963 ; Li, Yorke, 1975] basée sur le fait que la plupart des systèmes peuvent avoir eux aussi une dynamique imprévisible, y compris les plus simples. Toutes ces théories, outre les liens génétiques indiscutables qui les unissent à la théorie mathématique de l’information, partagent aussi deux caractéristiques évidentes : elles s’inscrivent, tout en le prolongeant, dans le cadre général tracé par la théorie générale des systèmes du biologiste Ludwig von Bertalanffy [1973] et se sont structurées théoriquement autour des grandes étapes qui ont jalonné les progrès de la physique, et tout particulièrement l’étape que fut la formalisation de la physique statistique par Ludwig Boltzmann [1871a, b, c]. On remarquera par exemple que la théorie mathématique de l’information se fonde toute entière sur le concept d’entropie tel que définit par Boltzmann : au niveau microscopique, l’entropie microcanonique totale est le produit entre une constante (la constante de Boltzmann) et l’opposé du logarithme népérien du nombre d’états possibles que peut prendre un système. De même, la dialectique lancinante qui opposent ordre et désordre, et qui traverse toute « les théories en C », se rattache au fameux principe d’ordre de Boltzmann, rendu possible par la mesure de l’entropie : tout système tend vers son état le plus probable qui est celui du désordre maximal. Autre exemple, le comportement erratique des systèmes simples de la physique des fluides, tel que le système dynamique différentiel d’Edward Lorenz [1963], a joué un rôle considérable dans la constitution de la théorie du chaos et des nombres fractals [Gleick, 1987]. De même, c’est sans difficulté aucune que l’on pourra constater que la théorie générale des systèmes de Ludwig von Bertalanffy s’appuie sur la logique de la physique des systèmes ouverts à états stables de Ludwig Boltzmann. Enfin, l’important renouvellement de la théorie générale des systèmes apporté par Ilya Prigogine vise justement à dépasser le paradoxe d’un monde éminemment ordonné et pourtant soumis à l'implacable loi du désordre maximal formulée par Boltzmann. Somme toute, en matière de théorie

des systèmes, il y a un avant et un après Boltzmann. D’où la pertinence de la classification des systèmes proposée par Edgar Morin [1977] selon qui il existe :

- des systèmes déterministes, dont les changements d’état obéissent à une logique Newtonienne,

- des systèmes à dynamique aléatoire, dont la formalisation s’inspire fortement des travaux de Boltzmann,

- et des systèmes à dynamique chaotique, du type « effet papillon », selon l'aimable formule d'Edward Lorentz [1972].

Nous considèrerons ici que l’analyse des systèmes complexes est la partie de l’analyse des systèmes qui se concentre principalement sur l’étude des deux dernières catégories : les systèmes aléatoires et les systèmes chaotiques. De plus, nous admettrons que son modèle le plus achevé est formé par la physique thermodynamique de Boltzmann, et tout particulièrement par le système ouvert dit « ensemble grand canonique » formalisé en 1902 par Joseph Willard Gibbs.