• Aucun résultat trouvé

Partie A : Contextes et paramètres

2.2. Causalité, structures dissipatives et algorithmes

Un algorithme, qui se définit comme étant « un ensemble d’étapes qui permettent d’accomplir une tâche »116, constitue en soi un fil de causalité très présent dans le fonctionnement de nombreuses structures. Si l’on se réfère à la loi MEP et à son incidence constante sur le fonctionnement et le comportement des structures dissipatives, la tâche « à accomplir », pour ces dernières, est d’assurer la maximisation de sa dissipation d’énergie (dans le contexte de la maximisation de dissipation de son environnement). En l’occurrence, l’ensemble des « étapes » permettant d’ « accomplir » cette dissipation suit toujours le même schéma : information issue de l’environnement > production de néguentropie/ organisation -> production d’énergie libre --> maximisation de la dissipation de cette énergie (production maximale d’entropie à exporter dans l’environnement : désorganisation). On a donc affaire à un algorithme.

102

L’information elle-même suit le plus souvent un processus algorithmique (récurrent) : émergences produites par auto-organisation de l’environnement (écosystème global ou sous-écosystème social) -> attracteur potentiel (information nouvelle) -> conjonction information nouvelle avec informations acquises -> émergence -> organisation/néguentropie. (Ce processus est de type rétroactif et constitue en lui-même une structure auto-organisée).

Comme on l’a vu, à cette organisation succèdera une désorganisation puis une réorganisation et ainsi de suite : schéma également algorithmique (la tâche « à accomplir » étant toujours d’aboutir à une maximisation de la dissipation d’énergie). L’ensemble étant cybernétique, on a bien affaire à une structuration algorithmique établie et durable, les structures cybernétiques étant des processus fondés sur des étapes récurrentes (le feedback est en soi un système récurrent). En conclusion, on peut avancer l’hypothèse que les structures auto-organisées fonctionnent et se comportent selon des processus algorithmiques.

L’univers, dans son évolution, a également suivi ce schéma algorithmique propre aux structures dissipatives. La question se pose au préalable de savoir si l’Univers est un système isolé (fermé) ou un système ouvert : dans le premier cas, il ne peut pas être une structure dissipative ; dans le second cas, c’est l’inverse. F. Roddier résoud ce problème de la manière suivante : « La loi MEP implique que l’Univers s’auto-organise de manière à maximiser son taux de production d’entropie. Il crée des structures dissipatives capables de produire de l’énergie libre et de dissiper cette énergie de plus en plus efficacement » (2012, p.50). En substance, la question est ainsi contournée : l’univers se comporte à la manière d’une structure dissipative grâce à la multitude des structures dissipatives qui le composent.

Le caractère algorithmique du fonctionnement et du comportement de l’univers conforte l’hypothèse computationnaliste selon laquelle ce dernier fonctionne à la manière d’un ordinateur, tout programme informatique étant algorithmique. Cette approche computationnaliste apparaît d’autant plus pertinente que le comportement des structures dissipatives consiste bien dans du traitement d’informations (cf. schéma d’application de la loi MEP) : de fait, on a affaire à des programmations produisant de l’organisation à partir d’inputs d’informations. Chez les plantes, le programme consiste à traiter les « informations » que sont l’oxygène et le gaz carbonique ; chez les étoiles, il consiste en réactions nucléaires (processus de traitement de l’« information ») permettant de transformer l’énergie gravitationnelle (input) en dissipation sous forme de rayonnement (output).

103 Chez l’humain (comme pour l’ensemble des organismes animés), l’ordinateur est principalement le cerveau, qui officie en tant qu’unité de traitement de l’information. Pour les groupes sociaux, les « cerveaux communs » (organes de traitement des informations générées et perçues par les individus et les strates) sont des logiciels virtuels (médias, modes, courants politiques, notamment) dont les programmations sont principalement d’ordre culturel (et, de façon sous-jacente, économique). Enfin, pour les écosystèmes, on peut former l’hypothèse que les cycles de saisons, les phénomènes géologiques, météorologiques et migratoires, entre autres, constituent autant de programmes récurrents de traitement des biotopes dans une optique organisatrice.

L’homme étant une structure dissipative, il résulte de ce qui précède que le comportement humain - considéré d’un point de vue computationnaliste - est, fondamentalement, articulé sur des schémas algorithmiques, les algorithmes étant des processus systématisés assimilables à des plans d’instruction. Ceux-ci suivent des lignes évolutives récurrentes et généralement d’ordre similaire pour l’ensemble des individus partageant une même culture.

Ces plans d’instruction aboutissent, après un certain nombre de graphes récurrents (voir à ce propos le chapitre 4), à des graphes plus spécifiques (individuels), déterminés selon les buts poursuivis individuellement, à la manière dont les GPS d’automobiles fonctionnent tous selon les mêmes types d’algorithmes, mais dont les graphes varient en fonction des destinations spécifiques choisies.

Si l’on considère les structures dissipatives que sont les hommes, leur comportement résulte des informations issues, comme nous l’avons souligné, des émergences produites par la conjonction d’informations acquises et d’informations nouvelles. On peut avancer que les schémas de production de ces émergences, pour chaque individu, suivent des parcours assimilables à des algorithmes, dans la mesure où ces parcours prennent, au fil du temps, la forme de programmes durables, répétitifs et peu variables, étant à la longue de mieux en mieux adaptés aux nécessités personnelles. En effet, nos informations acquises s’auto-organisent au fil du temps de manière à dégager un maximum d’efficacité - en termes de production d’énergie libre - dans leurs convergences avec les informations nouvelles (issues des attracteurs de l’environnement) ; cette auto-organisation suit des schémas récurrents, durables tant qu’ils s’avèrent a priori fiables (et viables), tels les schémas-programmes de type

104 algorithmique (la récurrence des comportements individuels témoigne de ces schémas récurrents).

Dès lors que le comportement humain suit des processus algorithmiques, on peut concevoir que la culture elle-même constitue une structure algorithmique (une « programmation » au sens informatique) d’organisation générale et commune des algorithmes individuels. La similarité des comportements dans un milieu culturel donné (qui peut aussi être celui d’une strate sociale ou d’un type de métier) est davantage due à des algorithmes communs qu’à des processus d’imitation (comme le laisse entendre notamment R. Dawkins à propos de la transmission des mèmes,cf.ch.1, para.2.1.12.2 ).

Un algorithme « global » peut être envisagé comme un assemblage de sous-algorithmes inscrits dans une arborescence spécifique (la décomposition d’un algorithme global en sous-algorithmes composants s’apparente d’une certaine manière à ce que l’on appelle, en algorithmique, la « méthode descendante » - top down). Cette arborescence correspond, pensons-nous, à celle qui inscrit le comportement des structures dissipatives dans une structure hiérarchique évoquée par ailleurs dans cet ouvrage, allant de l’univers à l’homme en passant par le système solaire, la planète Terre et les groupes sociaux (ou allant de l’écosystème univers à l’individu en passant par l’écosystème système solaire, l’écosystème « global » Terre et les sous-écosystème sociaux (cf. ch.1, para.1.4.2).

D’autre part, ces arborescences ou hiérarchies peuvent conduire à considérer que l’ensemble des structures considérées appartiennent à une structuration proprement fractale (structure invariable par changement d’échelle).

il est clair que les algorithmes des comportements planétaire, social et individuel sont sujets à des variations parfois subites, dues à des phénomènes difficilement prévisibles (tels par exemple les catastrophes de type météorologique, ou la survenance de conflits soudains) dans leurs environnements respectifs. Il n’est toutefois pas interdit de concevoir que ces phénomènes inattendus s’inscrivent eux-mêmes, également, dans des algorithmes globaux récurrents, dont il nous est difficile de prévoir, statistiquement, les cycles périodiques, objets de facteurs de complexité et de chaos. Remarque complémentaire : l’écriture en langage informatique est fréquemment désignée par le terme de codage. On peut y voir un lien avec les codes qui orientent bon nombre de comportements socio-culturels, en particulier si l’on envisage les structures dissipatives que sont les systèmes sociaux comme étant régis par des

105 processus algorithmiques (c’est-à-dire « computationnalistes »).

L’ensemble de ces considérations s’inscrit dans une approche résolument déterministe. Ce constat n’a évidemment rien de surprenant dès lors qu’il participe d’une démarche fondée sur des lois et principes propres aux sciences de la nature.