Repères Events & books Ouvrages en débat
Pourquoi la société ne se laisse pas mettre en équations
Pablo Jensen
Éditions du Seuil, 2018, 314 p.
Cet ouvrage de Pablo Jensen aborde la question de la formalisation quantitative des systèmes sociaux, depuis la recherche de lois générales jusqu’au traitement des big datadans les sciences de la société. L’auteur, physicien, vulgarisateur, créateur des « cafés sciences et citoyens » à Lyon, se consacre en effet depuis plusieurs années à ces questions. Constatant l’emploi difficile de la modélisation en sciences sociales (elles « sont les véritables sciences dures ») malgré l’avalanche de données que la révolution numérique rend possible, il a souhaité offrir aux lecteurs des clés de compréhension de l’intérêt et des limites de l’approche quantitative dans l’étude des systèmes sociaux.
L’ouvrage de 314 pages est constitué de 22 chapitres regroupés en 5 parties, chacun d’entre eux se terminant par une minibibliographie « pour aller plus loin » qui donne de nombreuses pistes pour mieux explorer la complexité des questions de modélisation en sciences sociales. Une première lecture laisse imaginer une construction à base de cas tirés de la littérature scientifique, offrant de multiples points d’entrée sur la problématique comme pourrait le faire un dictionnaire amoureux de la modélisation des systèmes sociaux. Pourtant, l’ouvrage prend progressive- ment la forme d’un parcours organisé dans l’histoire des idées en rapport avec la théorisation et la formalisation des sciences de la société, le long des chemins tracés par la communauté scientifique et parcourus par l’auteur, depuis ses premières recherches en tant que physicien de la matière jusqu’à ses travaux récents sur l’étude formelle des systèmes sociaux. Pédagogique et plein d’humilité, parfois ironique, parfois naïf, toujours passionnant, ce livre constitue le récit de voyage au pays des sciences sociales d’un physicien qui possède le regard affûté de celui qui a beaucoup baroudé dans l’univers des systèmes complexes et qui est prêt aujourd’hui à délivrer un message !
La première partie, intitulée « Comment les sciences naturelles construisent un savoir fiable », constitue une préparation au voyage depuis le monde de la physique qui est la discipline de l’auteur. Jensen commence par rappeler certaines bases épistémologiques de la démar- che scientifique en défendant une approche issue de la
philosophie pragmatiste de William James et John Dewey, qui favorise la recherche de représentations qui permettent d’enrichir notre expérience du monde.
L’auteur enchaîne alors par des illustrations du caractère construit, imparfait, simplificateur mais parfois terri- blement efficace des lois et modèles de la physique, sur la base d’exemples tels que la chute des corps, l’atome, le climat.
Après cette ouverture par la physique, la seconde partie de l’ouvrage aborde la construction et l’emploi de modèles de simulation informatique de sociétés virtuelles visant à étudier les sociétés réelles. Jensen y présente successive- ment des modèles classiques de la littérature scientifique cherchant à rendre compte de manière simple de la réalité sociale (ségrégation raciale, dynamiques électorales, compétition économique), d’autres modèles se proposant d’étudier des systèmes moins complexes mais exploitant de nombreuses données empiriques (la ola dans un stade, la construction d’un nid par des fourmis, le déplacement des piétons), et enfin des modèles plus réalistes de sociétés virtuelles pour décrire des phénomènes complexes comme les dynamiques scolaires d’enfants, la propagation des épidémies, l’évolution du marché du travail. Avec ces exemples, Jensen fait le constat que les modèles sociaux ont du mal à être fiables, car basés sur la modélisation d’individus qui s’avèrent trop instables, imprédictibles, complexes, réflexifs, contrairement aux atomes de la physique. Cela n’interdit pas que ces modèles sociaux puissent être utiles, car ils permettent de rassembler des connaissances sur un domaine, donnent à voir la complexité des problèmes considérés et peuvent aider à écarter des solutions simplistes, mais il faut avoir conscience des limites intrinsèques à la construction de telles sociétés virtuelles.
Après les modèles, les statistiques. Jensen aborde dans les chapitres de la troisième partie l’analyse de la société par les méthodes quantitatives exploitant des données réelles, à la recherche « d’explications », de
« lois sociales » toujours sur le modèle de la physique, pour expliquer les phénomènes sociaux comme « l’action d’une même cause qui domine les individus et qui leur survit » (Durkheim). L’auteur rappelle que la méthodo- logie scientifique classique hypothético-déductive ne peut s’appliquer directement aux sciences sociales : « Le caractère foncièrement unique de chaque situation
https://doi.org/10.1051/nss/2019041 Sociétés
Disponible en ligne : www.nss-journal.org
sociale et l’impossibilité de mener à bien des expériences contrôlées font qu’il n’est pas possible de tester rigoureusement les différentes hypothèses » (p. 201).
Toutefois, les méthodes statistiques offrent des outils largement utilisés dans des démarches d’analyse quantitative de la société qui permettent de chercher des régularités dans des données, en identifiant et en quantifiant les causes multiples. L’auteur souligne néanmoins qu’elles rencontrent des difficultés spécifiques en sciences sociales du fait de la multiplicité des causes agissant diversement dans chaque contexte (non observées ou renseignées dans l’étude), des effets non linéaires (dépendants du contexte, difficiles à bien prendre en compte et pourtant toujours présents), et enfin de l’hétérogénéité des cas observés (courante en sciences sociales). Il défend alors de manière convaincante l’intérêt de méthodes alternatives d’analyse de données, par exemple l’analyse qualitative comparée (AQC) introduite par Charles Ragin1, basées préférentiellement sur les cas, plutôt que sur les variables prises isolément avec les méthodes de régression, qui supposent de plus une certaine homogénéité de l’espace des données.
Ainsi, Jensen soutient qu’il ne faut pas renoncer à la recherche d’explications sociales, qui restent toujours nécessaires pour pouvoir mieux guider l’action publique, à la condition de repenser cette notion d’explication. Il mobilise alors Latour (et indirectement Dewey) et sa vision de l’explication en termes de liens dont la pertinence est à juger dans ce qu’ils apportent dans l’action, depuis les entités ainsi connectées. C’est dans ce cadre que Jensen inscrit ses travaux récents sur l’analyse bibliométrique de la production scientifique des ins- titutions de recherche, dans une approche debig dataqui vise non pas à prédire ou à expliquer, mais à explorer la complexité du monde des chercheurs, avec et pour eux et les dirigeants de leurs organismes. En effet, des statistiques au traitement des big data, le chemin est direct et Jensen en donne ici sa vision, assez négative là encore. Sur la base de quelques exemples (lesretweets, les publicités dirigées, le chômage), il explique qu’il croit peu à la capacité des big data à apporter de nouvelles connaissances scientifiques originales sur nos sociétés et nos comportements. Mais il reconnaît que le rôle d’intermédiation des plateformes du web, sources de big data, bouleverse bel et bien nos sociétés, dans une dynamique qui s’apparente au développement au XIXe siècle des statistiques au service des administrations des États pour mieux gouverner leurs habitants, « au- jourd’hui toutefois au niveau mondial, et sous contrôle privé ».
Jensen termine ce tour d’horizon critique des approches quantitatives en sciences sociales en abordant dans la 4epartie l’élaboration et le suivi d’indicateurs dont beaucoup se veulent objectifs pour décrire et piloter des systèmes sociaux complexes. Sur la base d’exemples toujours riches et variés (la répartition des commerces à Lyon, le transport de la chaleur et la température ressentie, la rentabilité du projet d’aéroport à Notre- Dame-des-Landes, le classement de Shanghai des universités, les indices de productivité scientifique), Jensen décrit les indicateurs comme une « quantification d’un phénomène complexe en retenant du réel certains aspects jugés pertinents ». Il rappelle leur origine –au
XXesiècle aux États-Unis– dans la méfiance du public envers les experts et dans la quête d’objectivité avec, comme en physique pour la température, la recherche d’un nombre « qui ne dépend ni du chercheur qui mesure ni d’un choix arbitraire de la substance utilisée pour construire le thermomètre ». L’emploi de ces indicateurs s’est alors généralisé avec la standardisation massive des biens et services au sein du commerce mondial et le développement des technologies, en particulier au- jourd’hui avec le numérique.
Le propos de Jensen est ici de montrer les obstacles intrinsèques à la définition d’indicateurs objectifs de concepts globaux tels le bonheur ou la richesse (le PIB de Kuznets) et les nécessaires interrogations soulevées par l’emploi d’indicateurs qui se veulent de plus en plus rigoureux, et qui pourtant ne pourront jamais remplacer à l’échelle individuelle l’expérience directe de la réalité.
Quantifier, ce n’est pas neutre, cela reflète tout d’abord le choix d’une norme, d’une convention. La mesure, plus ou moins précise, juste, vient ensuite. Pour Jensen, les indicateurs permettent surtout une déresponsabilisation...
des responsables, via leur pseudo-objectivité. Mais il reconnaît qu’ils sont néanmoins utiles dans leur capacité à suivre les effets des actions entreprises, à résumer des situations sociales complexes pour mieux les appréhen- der, les comparer, à la condition que leurs définitions soient ouvertes, vérifiables, critiquables et que la société soit éduquée, encouragée et aidée à développer cette culture de la contre-expertise. Et Jensen d’encourager finalement à ne pas se limiter à critiquer leurs définitions, mais à aller au-delà et à étudier l’impact de leur utilisation dans l’action publique sur l’évolution de nos sociétés en acceptant l’idée qu’ils peuvent jouer un rôle de « faitiche » comme le propose Latour.
Quelle vision du social ? C’est le titre donné par Jensen à la dernière partie de l’ouvrage, dans laquelle il tente d’apporter des éléments de synthèse et de conclusion à l’ensemble des critiques qu’il a jusqu’alors formulées à l’encontre de la modélisation quantitative du monde social. Ces chapitres sont importants, car Jensen y précise les sources et les courants de pensée qui ont orienté sa démarche, son cheminement, permettant ainsi
1Charles C. Ragin (né en 1952) est un sociologue et politologue américain, professeur à l’Université de Californie à Irvine.
au lecteur de stabiliser sa compréhension du message délivré.
Jensen s’appuie donc sur Dewey, Simon, Latour, Simondon, Jullien, pour dire qu’il n’y a pas nécessai- rement d’explication globale, que les sociétés virtuelles ne permettent pas toujours de faire émerger les faits sociaux, et que des indicateurs, des relations stables, peuvent toutefois nous aider à réfléchir et à agir via nos propres expériences. Et cela parce que ni l’approche mécaniste de la physique sociale, de l’économie, des systèmes complexes, mettant les interactions et les comportements individuels au cœur de toute explication du global, ni l’approche structuraliste de la sociologie, donnant primauté au fait social et renvoyant à des lois globales toute explication des dynamiques locales, ne sont satisfaisantes. Pour l’auteur, face aux limites de ces deux approches, il serait nécessaire d’adopter un point de vue alternatif, où les interactions ne résultent pas de la présence d’entités définies a priori, mais constituent ces entités, comme avec le concept de monade, repris par Latour, en cohérence avec le concept d’individuation au sens où l’entend Simondon. Il esquisse alors ce que pourrait être un nouveau cadre conceptuel de la modélisation des transformations globales, plus en accord avec la tradition chinoise et la lecture philoso- phique du Yi King qu’en fait Jullien.
Certains lecteurs deNSStrouveront peut-être dans cet ouvrage trop de physique, de modélisation, debig data.
Mais s’ils dépassent cet obstacle, ils pourront apprécier toute l’originalité de ce témoignage, expression d’un physicien curieux s’étant ouvert aux systèmes complexes et aux sciences sociales, et qui après ce cheminement au sein de multiples disciplines tente d’apporter des justifications et des réponses au constat qu’il fait d’un
« affaiblissement de l’ambition modélisatrice face à la résistance du social ».
Frédérick Garcia (Inra, UR875 MIAT, Toulouse, France) frederick.garcia@inra.fr
Faire et dire l’évaluation. L’enseignement supérieur et la recherche conquis par la performance
Christine Barats, Julie Bouchard, Arielle Haakenstad (Eds)
Presses des mines, 2018, 326 p.
Ordonner les universités : une affaire classée ? La question de l’évaluation de la recherche et des universités est au cœur des discussions et des débats publics depuis une quinzaine d’années, particulièrement
en Europe. Les transformations radicales dans le mode de gestion des universités dans plusieurs pays européens depuis le début du XXIesiècle ont aussi eu pour effet positif d’amener un nombre croissant de chercheurs en sciences humaines et sociales à scruter ce phénomène qui les affectait au premier chef.
L’ouvrage collectif Faire et dire l’évaluation, coordonné par Christine Barats (sciences de l’informa- tion et de la communication, Université Paris-Descartes), Julie Bouchard (sciences de l’information et de la communication, Université Paris-13) et Arielle Haakenstad (Université Paris-2-Panthéon-Assas) auquel ont contri- bué dix-huit personnes, comporte treize chapitres précédés d’une introduction générale et d’une postface qui récapitulent les principales conclusions des auteurs.
Tout en offrant des études originales sur les divers mécanismes d’évaluation de l’enseignement supérieur et de la recherche mis en place dans différents pays européens (France, Allemagne, Belgique, Italie, Pays- Bas et Royaume-Uni, mais avec un chapitre sur la Chine), l’ouvrage constitue une excellente synthèse des principales conclusions auxquelles sont parvenues les nombreuses études consacrées à mieux comprendre
« les mutations de l’évaluation dans l’espace acadé- mique des années 1980 jusqu’à nos jours », mutations que les différents auteurs replacent dans leurs « contex- tes nationaux et institutionnels » (p. 11). Les lecteurs peu au fait de la manière dont l’évaluation de la recherche s’est imposée dans la plupart des pays européens, des effets et des résistances que cela a entraînés, feront bien de consulter ce livre qui, je crois, servira longtemps de référence en langue française, grâce aussi à sa bibliographie de trente pages qui recense de manière très complète les nombreux travaux publiés sur le sujet depuis les années 2000.
Il est aujourd’hui généralement admis que ce n’est qu’à compter des années 1980, marquées par la montée du néolibéralisme économique, que le monde de l’enseignement supérieur et de la recherche se voit progressivement « conquis par la performance » comme l’indique le sous-titre de l’ouvrage. Cette exigence de
« performance » est véhiculée par ce qu’il est convenu d’appeler le nouveau management public (New Public Management en anglais), défini de manière assez consensuelle comme « l’utilisation accrue de techniques managériales [...] empruntées au secteur privé par le secteur public (santé, justice, éducation, culture...) » (p. 27-28). Ces techniques de mesure et de contrôle sont en phase avec les discours sur « l’excellence », « l’éva- luation », la « reddition de compte », le « benchmarking » et autres buzz words qui se sont multipliés au sein des universités, sommées par leurs gouvernements de rendre des comptes en mettant en place des « tableaux de bord » dont les « lumières » vertes et rouges sont alimentées par une batterie d’indicateurs de « performance ».
La forme institutionnelle que prend la mise en place de ces mesures de contrôle et d’évaluation, tout comme les détails des relations entre l’État et les institutions d’enseignement supérieur, varie bien sûr selon les pays.
Différents chapitres présentent donc la manière dont les mécanismes d’évaluation se sont structurés en tenant compte du contexte local. Ainsi, un pays centralisé comme la France a pu mettre en place d’abord un Comité national d’évaluation (CNE) en 1984, remplacé en 2006 par l’Agence d’évaluation de la recherche et de l’enseignement supérieur (Aeres) –qui couvre l’en- semble des activités de recherche et non plus seulement les universités comme c’était le cas du CNE–, elle-même devenue Haut conseil (HCERES) en 2013. L’Allemagne, par contre, en raison de sa structure fédérale, a des universités qui relèvent delanderset l’État central doit en tenir compte pour éviter les débats constitutionnels.
Cela explique que la loi fédérale de 1998, qui vise à instituer des évaluations, stipule seulement que les universités doivent mettre en place un processus d’évaluation (p. 31). En Belgique, où la pression idéologique en faveur de l’évaluation s’est fait jour en 1988, au moment où le pays a organisé un transfert de compétences du niveau national vers les régions et les communautés, la situation diffère encore (p. 59). Les communautés flamande et wallone voient alors leur système d’enseignement supérieur et de recherche diverger, la première optant pour une conception plus formelle et quantitative de l’évaluation que la seconde (p. 61). Aux Pays-Bas, en 1985, c’est plutôt l’Association des universités néerlandaises qui prendra en charge l’évaluation de la qualité.
Évaluer la « qualité », « l’impact » ou l’« excellence » de la recherche n’a rien d’évident. Les débats allemands sur l’initiative d’excellence (étudiés au chapitre 2) visant à sélectionner une élite des meilleures universités pour y concentrer les ressources montrent bien comment cela accentue les inégalités, génère des tensions et remet en cause une conception des universités comme lieux de formation accessibles, s’opposant aux grandes universi- tés américaines (Ivy League2) où les frais annuels de scolarité dépassent le salaire moyen des Américains (p. 52). Cette rhétorique de l’excellence est inattaquable –car qui oserait se dire contre ?–mais demeure en fait une tautologie. Comment en effet mesurer l’excellence ? Un organisme pourrait en effet affirmer que son taux de succès est de 60 % car les comités ont considéré que tous les projets retenus étaient « excellents ». Cela est d’ailleurs le cas au Canada : au Conseil de recherches en sciences naturelles et en génie (CRSNG), le taux de succès des trois dernières années au concours « subven- tion à la découverte » varie entre 65 et 75 %. Rien dans ces décisions n’est fondé sur une mesure objective, mais plutôt sur un choix politique incarné dans un chiffre magique : 10 ou 15 % d’un côté et 50 ou 70 % de l’autre.
Le premier reflète le choix discutable qu’il est impossible qu’une majorité des projets valent la peine d’être appuyésfinancièrement.
Toutes les évaluations doivent bien sûr s’appuyer sur des indicateurs censés mesurer la productivité de la recherche. Ce sont donc les publications qui sont à la base de tous les systèmes de mesure et la question de leur qualité est rapidement apparue et, avec elle, celle des revues qui les publient. Mesurer les citations réellement obtenues par les articles nécessitant d’attendre quelques années –au moins deux en sciences de la nature et au moins cinq en sciences sociales et humaines–, une solution facile a consisté à sefier directement aux revues, même s’il est évident que la variance au sein d’une revue est très grande et suit, en gros, une distribution de Pareto du genre 20/80 (20 % des articles d’une revue recevant 80 % des citations). C’est ainsi que le facteur d’impact des revues est devenu un indicateur de la qualité des articles. Mais comme les revues de sciences sociales et humaines sont très mal couvertes par les bases de données bibliométriques qui calculent ces facteurs d’impact, la solution a consisté à créer des classements complémentaires, en nommant (par des procédés peu transparents) des comités « d’experts » chargés de définir la qualité de centaines de revues en leur donnant des notes ou des chiffres. Ce système adopté en 2008 par l’Aeres, sous la pression des critiques, a été ensuite remplacé –sauf pour la très néolibérale « discipline économique »– par une liste définissant simplement un
« périmètre de scientificité » défini, en gros, par l’existence d’un comité de lecture. L’Australie, toujours en 2008, a adopté un classement des revues, lui aussi critiqué (p. 139). La Norvège, quant à elle, a adopté un système de classification des revues (p. 140) plus complet tenant compte de la production de livres, mode de diffusion encore central en sciences humaines et sociales. La prise en compte de livres et de chapitres d’ouvrages collectifs soulève de nouvelles questions : comment comparer un article et une monographie ? La réponse est bien sûr le plus souvent arbitraire et on dira que quatre ou cinq articles valent une monographie. Mais il faudra alors aussi créer une liste de maisons d’éditions pour définir leur qualité ! Et le processus repart en vrille...
Le chapitre sept, consacré au classement des revues en SHS, analyse en détail cette énorme quantité de travail de construction et de mobilisation d’un grand nombre de personnes pour créer et mettre à jour ces listes et ces classements de revues devant ensuite servir à l’évalua- tion des chercheurs.
Les revues, une fois classées, peuvent servir d’unité comptable pour établir des primes ou fixer des seuils
2Groupement de huit grandes universités privées du nord-est des États-Unis représentant l’excellence académique et sportive.
d’admissibilité à des concours. En Chine, par exemple, des écoles de commerce offrent une prime de 40 000 RMB pour un article dans une revue dite de « rang 1 » et 12 000 pour une revue de « rang 2 », alors que le salaire mensuel de base n’est que de 10 000 RMB (p. 127). Il est d’ailleurs connu que ce genre de prime existe aussi dans des écoles de commerce en France. La forme la plus extrême d’évaluation quantitative est probablement celle imposée en Italie. Créée en 2006, l’Agence nationale d’évaluation du système universitaire et de la recherche (ANVUR) a défini des normes quantitatives strictes de productivité scientifique pour la qualification nationale des enseignants-chercheurs (p. 85). Aussi incroyable et, en fait, aussi stupide que cela puisse paraître, l’indicateur de base qui permet de déterminer si une personne peut se qualifier pour un poste est la médiane des publications de tous les enseignants-chercheurs : seules les personnes dont la production est au-dessus de la médiane peuvent soumettre un dossier ! Aucune mesure de qualité, seul le nombre décide de tout ! Face au tollé, la médiane a simplement été remplacée par une « valeur seuil » définie par l’ANVUR, mais cela demeure une mesure simpliste et unidimensionnelle (p. 86).
Les effets pervers de tous ces systèmes d’évaluation sont multiples. Le plus ancien système de mesure, le Research Assessment Exercise (RAE), établi dans la Grande-Bretagne néolibérale de Margaret Thatcher en 1986, devenu le Research Excellence Framework (REF) au début des années 2010, a fait émerger la notion douteuse de « chercheur inactif », qui deviendra en France « chercheur non publiant ». De manière à maximiser leur position dans le classement REF, les universités peuvent choisir de ne pas inclure tous leurs chercheurs dans l’évaluation, créant ainsi une classe d’exclus. Le chapitre 6, consacré à « la population inactive de l’université », met en évidence la curieuse croissance aufil des cycles d’évaluation des « inactifs » dans les plus grandes universités. Ainsi, la célèbre université d’Oxford n’a inclus en 2014 qu’une minorité (38 %) de son effectif académique dans l’évaluation tout comme l’écrasante majorité (84 %) des autres institutions (p. 107, p. 109). Dans le cas français, l’usage du mot
« non publiant » est en un sens encore plus pervers car le terme ne signifie pas vraiment que ces personnes ne publient pas, mais plutôt qu’elles ne publient pas dans les revues considérées comme « de qualité»par l’organisme d’évaluation. Le plus curieux ici est bien sûr que des chercheurs utilisent eux-mêmes de telles expressions bureaucratiques sans vraiment sembler saisir qu’ils contribuent ainsi à faire exister une catégorie douteuse.
On devine que si l’évaluation de la recherche est difficile, discutable et coûteuse en ressources humaines et monétaires, celle des formations académi- ques est encore plus redoutable comme le montrent les
chapitres 10 et 11 consacrés à cette question. On comprend dès lors la tendance à simplement se fier aux divers classements des universités, dont la multiplication depuis lafin des années 1990 est analysée au chapitre 12. L’impact tout particulier en Europe du fameux « classement de Shanghai » utilisé depuis 2003 justifie d’ailleurs ample- ment que le chapitre 13 soit totalement consacré au contexte de sa création et de sa réception.
Il est impossible de commenter ici plus en détail la richesse des analyses réunies dans cet ouvrage et je conclurai en soulevant quelques questions pour les recherches à venir. Devant de telles usines à classer on reste en effet surpris que les auteurs n’aient pas tenté d’évaluer les coûts économiques (incluant les coûts d’opportunité) de toutes ces opérations censées être essentielles pour assurer la qualité renouvelée de la recherche dans ces pays. Après tout, il semble tout à fait logique d’appliquer l’évaluation « coût-bénéfices » aux promoteurs de l’évaluation. Vu de l’Amérique du Nord, il est également frappant de constater que l’obsession des dirigeants d’universités pour le classement de Shanghai est essentiellement européenne, alors même que ces dirigeants se disent fascinés par les universités améri- caines. Alors que les journaux européens en parlent abondamment (p. 280), on peine à trouver plus de dix articles sur le sujet dans les journaux américains depuis 2004. Je pense aussi qu’une attention plus marquée devrait être portée au rôle de l’Europe dans toutes ces transformations (p. 79). Il apparaît assez évident que l’idéologie du nouveau management public qui va de pair avec une conception purement managériale et néolibé- rale de l’éducation est d’abord et avant tout portée par le projet européen qui cherche à reconfigurer les systèmes de la recherche des pays membres pour les rendre homogènes et au service des seuls besoins du marché.
Enfin, étant donné que l’on entend encore des dirigeants d’universités en France répéter qu’il faut « prendre les classements au sérieux » alors même qu’il est prouvé que ces instruments sont mal construits, qu’ils influencent très peu les étudiants et leurs parents (p. 287), et n’excitent en fait que les dirigeants eux-mêmes–réunis dans les chambres d’écho formées par les associations d’universités et autres groupes autoproclamés d’accré- ditation de la qualité–, il faudrait étudier de plus près les types de personnes qui, parvenus à des postes de direction, semblent perdre tout esprit critique et engagent l’avenir de leurs institutions sur la base de mesures coûteuses, douteuses et le plus souvent techniquement invalides.
Yves Gingras (Université du Québec à Montréal [UQAM]), Centre interuniversitaire de recherche sur la science et la technologie [CIRST], Montréal, Québec, Canada) Gingras.yves@uqam.ca
La mondialisation des pauvres.
Loin de Wall Street et de Davos Armelle Choplin, Olivier Pliez Éditions du Seuil, 2018, 108 p.
La mondialisation des pauvres est un titre provo- quant, car s’il est coutume d’accuser l’interconnexion du monde et la multiplication des échanges d’avoir aggravé les inégalités, il est bien moins courant de s’intéresser à la face la moins rutilante de ce processus. Pour autant, ce livre fait un pari réussi, celui de ne pas traiter des
« perdants » de la mondialisation, se fondant sur l’hypothèse que tous les habitants de la planète, pris dans la toile d’interconnexions croissantes qu’ils ne font pas que subir, « agissent » à leur façon ces phénomènes. Il s’agit bien d’un ouvrage « à thèse », montrant d’abord que personne ne peut être considéré comme tout à fait passif dans un tableau socioéconomique du monde actuel et que les stratégies mises enœuvre par les plus pauvres ne se résument pas à des positions de repli, notamment géographique. Loin de l’idée d’opposer gagnants et perdants de la mondialisation, Armelle Choplin (Université Paris-Est Marne-la-Vallée) et Olivier Pliez (CNRS) construisent leur propos à partir de l’analyse des réseaux qui mondialisent « les plus pauvres ».
Pour comprendre de qui il s’agit quand on parle ici des « pauvres », il faut s’intéresser au sous-titre de l’opus : « Loin de Wall Street et de Davos » : ce n’est pas à l’échelle individuelle que la pauvreté est saisie. Les auteurs construisent une analyse géographique visant à retourner les représentations que l’on peut avoir depuis le monde occidental et proposent de saisir la planète du point de vue de ceux qui habitent aujourd’hui les espaces les plus“discrets”du monde global. Loin des hyper-lieux concentrant les regards et les investissements, ce ne sont pas pour autant des lieux oubliés desflux mondiaux, mais des parties du monde qui font peu parler d’elles, ce qui ne veut pas dire qu’elles ne comptent pas et que les Nords ne sont pas impactés par ce qui s’y produit. La définition initiale de la pauvreté utilisée par les auteurs de l’ouvrage n’est pas simple, et l’introduction de cet opus se base sur des statistiques (dont le choix demanderait à être plus discuté qu’il ne l’est dans ce chapitre liminaire) à l’échelle nationale, lesquelles permettent d’opposer des pays riches et des pays pauvres, notamment en termes d’accès à la consommation, critère de définition d’un
« horizon mondialisé ».
De façon originale, l’ouvrage se départit d’emblée de la volonté de repérer dans ces « espaces interstitiels » des mécanismes d’innovation qui permettraient de retourner le stigmate de la pauvreté, selon un raisonnement traditionnel en économie sur l’effet de ruissellement. En l’occurrence, après quelques pages d’ouvertures assez classiques sur les déséquilibres macroéconomiques globaux, A. Choplin et O. Pliez offrent ici une possibilité de retournement du
regard, « une géographie désoccidentalisée [qui] s’écrit en pointillé, entre des lieux connectés par des routes qui forment un espace réticulaire, et bat en brèche les délimitations et grands ensembles d’hier » (p. 27). Leur proposition est en effet de s’intéresser à des circulations entre les Suds, que nous ne connaissons pas, et dont la découverte nous amène à penser très différemment ce qui fait la mondialisation aujourd’hui, liant par exemple les souks nord-africains, Dubaï et les régions chinoises de provenance et de commercialisation des produits manu- facturés, notamment pour l’aménagement des maisons, ou les routes des sacs de ciment en Afrique subsaharienne.
La force de l’ouvrage est de fonder ce raisonnement sur une pratique ethnographique des terrains, dont la richesse, liée à une fréquentation personnelle sur plusieurs années, permet un tableau très nuancé et vivant de ces routes commerciales et financières, comme des réseaux inter- personnels qui s’y déploient. Les auteurs se défendent aussi de mettre en avant une volonté de transformer tout individu en micro-entrepreneur, préférant une approche géogra- phique qui met en lien « la frontière, le carrefour, la place marchande, la gare routière, l’entrepôt, la villa, l’im- meuble », comme autant de lieux qui façonnent des « routes globales » et des « réseaux transnationaux » dont le dynamisme explique la production de ressources dans des territoires qui échappent jusqu’ici au fonctionnement des modèles économiques occidentaux. Cette analyse multiscalaire met en évidence la force des liens inter- personnels, mais aussi les capacités à repousser les frontières culturelles, comme l’illustre le développement de Yiwu, à deux heures au sud de Shanghai, devenue ville
« hub pour les marchés de gros en biens de consommation » grâce notamment à la pénétration massive, depuis vingt ans, de commerçants arabes en provenance de Dubaï et d’Afrique du Nord.
Après une courte introduction, intitulée « La géogra- phie discrète de la mondialisation », la première partie tente de construire une proposition théorique pour aborder ces aspects peu visibles de l’interconnexion économique, sociale et culturelle de la planète, avec un titre en forme d’oxymore : « Une mondialisation (pas si) discrète ».
L’ouvrage court, dans le style de la collection développée par la République des idées qui vise à mettre à disposition du plus grand nombre des matériaux originaux de recherche, déploie ensuite deux chapitres empiriques, l’un consacré « aux espaces mondialisés en Méditerra- née », l’autre aux « Mondialisations africaines ». Ce que ces deux titres ne disent pas, c’est que le continent africain et les espaces du Golfe se trouvent de fait présentés dans leurs liens forts avec l’Asie, la Chine notamment, mais aussi l’Europe. Les territoires américains sont les grands absents de ce travail, même si certains commerçants libanais disent avoir vécu en Amérique latine, par exemple, avec des contacts notamment sur la triple frontière Brésil/
Paraguay/Argentine.
On sent bien dans cette construction que ces deux développements font écho aux spécialités respectives des deux auteurs : l’Afrique du Nord et le golfe Arabo- Persique pour O. Pliez, l’Afrique subsaharienne pour A. Choplin. Avec le premier, on part d’abord à la découverte du « Souk Dubaï » à El Oued, dans le Sud algérien, puis en remontant les filières commerciales, vers la frontière Libye-Égypte. C’est un jeu de piste ancré dans la matérialité de produits qui y ont longtemps été importés depuis Dubaï et les Émirats, mais que les
« acheteurs » vont désormais commander directement en Chine. Au cours de ces trajets, certaines frontières franchies en contrebande, d’autres officiellement, témoi- gnent de la caducité de la binarité entre commerce formel et informel. Cette mondialisation, en revanche, met en évidence une négociation constante avec les normes.
On retrouve dans la partie suivante, sous la plume de A. Choplin, le même ancrage matérialiste dans le suivi des « tribulations d’un sac de ciment » ou le portrait des circulations du « parpaing, lingot du pauvre », dans toute l’Afrique de l’Ouest, et notamment sur les routes Dakar/
Bamako. Là encore, le facteur humain est essentiel, car ces trajets sont l’expression de combinaisons entre
« stratégies familiales et opportunités commerciales du moment » où les femmes jouent une place importante.
Derrière ce qui pourrait relever parfois de l’anecdote, on trouve des explications convaincantes pour comprendre certains aspects des transformations rapides des conti- nents concernés, notamment des approches inédites de l’urbanisation africaine et la présentation d’une géo- graphie d’infrastructures mal connues, zones portuaires et aéroportuaires installées là où ne les attend pas quand on n’y voyage pas : l’aéroport de Casablanca comme hub, le port de Tripoli.
Ces découvertes originales qui justifient la lecture de l’ouvrage ne cachent pas quelques déceptions, sur sa structure notamment : on peut regretter la juxtaposition de ces deux grands cas d’études sans justification méthodo- logique de l’apport d’une telle approche comparative. La rapidité de l’exposé nous prive également du récit par les auteurs des conditions de récolte de ces informations. Le format condensé de la collection ne justifie pas complè- tement non plus une conclusion rapide, qui certes revient sur les échelles de cette mondialisation qui met en réseau
« points d’ancrage » inédits et voies de circulation, mais ne tient pas toute la promesse du titre. On peut aussi penser que la première partie du livre, écrite à quatre mains, manque parfois defluidité : il ne s’agit pas seulement d’une question de style, mais de construction. Les auteurs y justifient leur approche par un état de l’art liant pauvreté, interconnexion commerciale et archipel mondialisé planétaire, mais ne vont sans doute pas assez loin dans leur proposition initiale consistant à déconstruire notre représentation commune selon laquelle l’Occident serait maître de la mondialisation. Les personnes dont il est
question au cours de ces pages ne sont « pauvres » qu’aux yeux de ceux qui ne les connaissent pas et ce n’est pas vraiment l’objet du livre que de questionner et de définir la pauvreté dans la mondialisation. Ce sont des individus vivant dans des espaces où l’accès aux ressources globales se négocie selon des modalités que nous ignorons, et sur lesquelles l’ouvrage a le grand mérite de nous ouvrir les yeux, dans une invitation au voyage dans des lieux ignorés des circuits touristiques. D’une certaine manière, il importe peu queLa mondialisation des pauvressoit aussi ramassé puisqu’il s’agit avant tout, comme son titre l’indique, d’un livre programmatique : comme le souli- gnent A. Choplin et O. Pliez, nous ne pouvons plus faire semblant de comprendre la mondialisation d’un point de vue nombriliste !
Anne-Laure Amilhat Szary (Université Grenoble Alpes, UMR5194 Pacte, 38000 Grenoble, France) Anne-Laure.Amilhat@univ-grenoble-alpes.fr
Le syndrome de l’autruche. Pourquoi notre cerveau veut ignorer le changement
climatique George Marshall
Actes Sud/Colibris, 2017, 405 p.
L’auteur de l’ouvrage Le syndrome de l’autruche, le Britannique George Marshall, a servi sous plusieurs casquettes. Il a été militant pour la Rainforest Foundation et pour Greenpeace. Plus récemment, en 2004, il a fondé le Climate Outreach Information Network à Oxford, une organisation spécialisée dans la communication sur le changement climatique qui propose ses conseils à un large éventail de parties prenantes (ONG, gouvernements, entreprises). Climate Outreach a d’ailleurs participé à la rédaction d’un manuel de communication à l’usage des auteurs du sixième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Marshall a également écrit de manière ponctuelle pour plusieurs journaux (dontThe Guardian, New Scientist et The Ecologist) et a publié Carbon detox3 en 2007, un guide qui propose différentes manières de se mobiliser pour le changement climatique au niveau individuel.
Son deuxième livre,Le syndrome de l’autruche4, a été publié en français en 2017 par Actes Sud dans la collection Domaine du possible qui sert de caisse de résonance aux solutions et aux initiatives cherchant à
3Marshall G., 2007.Carbon detox. Your step-by-step guide to getting real about climate change, London, Gaia.
4Traduit de : Don’t even think about it. Why our brains are wired to ignore climate change, New York, Bloomsbury, 2014.
bâtir un futur plus durable. L’auteur s’intéresse aux multiples obstacles psychologiques qui freinent nos actions contre le changement climatique, une manière, selon lui, de ne pas faire de la mobilisation des intérêts climatosceptiques la seule raison de ce manque d’engagement. G. Marshall n’a pas conduit lui-même des recherches scientifiques originales sur la question, mais se base sur son expérience de militant écologique et sur ses nombreuses rencontres avec des personnalités de tous horizons (psychologues, climatosceptiques, scienti- fiques, écologistes, etc.). C’est donc un ouvrage destiné à un large public, pas nécessairement expert de la question climatique. Son format est original et propose 42 cahiers excédant rarement dix pages, ce qui permet de le lire sans obligatoirement suivre l’ordre de la table des matières.
La première partie propose une présentation des différents biais psychologiques qui nous poussent à ignorer la question du changement climatique, tout en ayant pourtant bien conscience de la menace. Pour G. Marshall, c’est en ouvrant la boîte noire de notre cerveau que nous prenons la mesure des difficultés que nous rencontrons à faire face à ce problème. Aufil de ses rencontres avec des experts, l’auteur introduit le lecteur aux différentes théories en psychologie cognitive et sociale qui aident à expliquer le déni climatique. Il développe en particulier les approches évolutionnistes qui distinguent entre le cerveau rationnel et le cerveau émotionnel et soutiennent que, si le cerveau rationnel est conscient de la menace climatique, le cerveau émotion- nel, lui, fondamental pour passer de la pensée à l’action, ne se sent pas concerné par les messages souvent trop techniques et abstraits qu’il reçoit5. Il évoque également les codes sociaux, normes et valeurs qui poussent certaines communautés à rejeter la gravité du change- ment climatique et d’autres à la reconnaître. Aux États- Unis, par exemple, la ligne de fracture entre « convain- cus » et « sceptiques » s’est progressivement superposée à celle opposant républicains et démocrates6. En Norvège et en République tchèque, activistes et chercheurs ont observé la persistance d’un silence socialement construit autour de la question du changement climatique, qui est devenue « tabou » dans le débat public. Pour la majorité des experts, la nature même du changement climatique (dite « pernicieuse »), en tant que menace « distante, abstraite et contestée » (p. 106), dont les coûts se matérialiseront sur le long terme, n’aide en rien notre cerveau à y faire face.
Dans la seconde partie, G. Marshall offre de nombreux exemples de campagnes de sensibilisation à la question climatique qui selon lui ne sont pas parvenues à mobiliser le public. L’omniprésence de la figure de l’ours polaire dans les manifestations des ONG environnementales en est un exemple, tant elle repré- sente un symbole éloigné de nos préoccupations quotidiennes. Les campagnes qui cherchent à culpa- biliser les citoyens en les mettant face à leurs responsabilités envers leurs propres enfants sont un second exemple. L’auteur critique également les cam- pagnes qui, à l’inverse, débordent d’optimisme quant aux capacités de nos sociétés à enclencher la transition écologique, mais ne remettent pas en question le statu quo.
À de nombreuses reprises, l’auteur revient donc sur les nombreux processus « innés et intuitifs » (p. 164) qui nous poussent à « faire l’autruche » en refusant d’af- fronter un problème qui mérite pourtant qu’on s’y intéresse. Ce constat sert de tremplin à une proposition originale qui cherche à élargir l’éventail des histoires et des discours qui circulent sur le changement climatique, trop longtemps limités, d’après l’auteur, à des pré- sentations austères alliant graphiques et statistiques complexes. Il conseille aux scientifiques de narrer leurs propres expériences et angoisses face au changement climatique afin de cultiver une certaine proximité avec le grand public et de gagner ainsi sa confiance. De manière plus générale, G. Marshall plaide pour une communica- tion positive mettant en avant la coopération (plutôt que la concurrence) autour d’une cause commune pour « combler le fossé partisan » (p. 387) et présentant le changement climatique comme un cheminement spirituel.
À lire Marshall, et en particulier la première partie de son ouvrage, on serait tenté, en mettant l’accent sur nos biais psychologiques, à ne pas reconnaître les choix politiques qui nous ont mis sur la voie de l’inaction. Si la dimension psychologique du changement climatique ne doit pas être négligée, il ne faut pas pour autant écarter le projet politique qui, en premier lieu, est responsable de notre dépendance aux énergies fossiles et dont les défenseurs cherchent par tous les moyens à se maintenir au pouvoir7. De même, de nombreux chercheurs ont montré que la construction du changement climatique comme problème environnemental et global a contribué à sa dépolitisation, en minimisant les conflits autour des inégalités socioéconomiques entre pays du Nord et pays
5LeDoux J., 2003. The emotional brain, fear, and the amygdala, Cellular and molecular neurobiology, 23, 4-5, 727-738, doi:10.1023/A:1025048802629.
6Dunlap R.E., McCright A.M., 2008. A widening gap:
republican and democratic views on climate change,Environ- ment: Science and Policy for Sustainable Development, 50, 5, 26-35, doi:10.3200/ENVT, 50, 5, 26-35.
7Mitchell T., 2009. Carbon democracy,Economy and Society, 38, 3, 399-432, doi:10.1080/03085140903020598. Fressoz J-B., 2012.L’Apocalypse joyeuse. Une histoire du risque technolo- gique, Paris, Seuil, p. 320.