• Aucun résultat trouvé

Politiques et Management Public : Article pp.33-54 du Vol.36 n°1 (2019)

N/A
N/A
Protected

Academic year: 2022

Partager "Politiques et Management Public : Article pp.33-54 du Vol.36 n°1 (2019)"

Copied!
22
0
0

Texte intégral

(1)

0X

*Auteur correspondant : catherine.fallon@uliege.be

doi :10.3166/pmp.36. 2019.0003 © 2019 IDMP/Lavoisier SAS. Tous droits réservés

Catherine Fallon et Nathan Charlier

Université de Liège Département de Sciences politiques SPIRAL Quartier Agora - Place des Orateurs 3 - Bat. 31 - Bte 8 B-4000 Liège (Sart Tilman)

Résumé

Les discours politiques contribuent à définir les conceptions légitimes et mobilisables pour justifier un certain exercice du pouvoir : c’est au niveau de leurs traductions pragmatiques au sein des dispositifs de gouvernement que se donne à lire une certaine « théorie de l’action » qui propose et légitime le problème politique à résoudre et les modalités d’intervention pu- blique (Rose et Miller, 1992).

Cet article mobilise une perspective constructiviste qui intègre les transformations de « l’être de l’État » et le « faire de l’État » dans le secteur de la politique universitaire : depuis 1988, les universités ont suivi des trajectoires très différentes dans les deux communautés, flamande et francophone, au point que le territoire belge présente aujourd’hui deux régimes politiques d’enseignement supérieur et de recherche.

En analysant au plus près des acteurs quelques dispositifs récents en matière de gestion de la qualité universitaire et de régulation du financement public de la recherche, cette approche comparée contribue à mettre au jour les dynamiques spécifiques de normativité au cœur des dispositifs d’évaluation qui constituent des formes de gouvernementalité (Foucault, 1978) prenant appui sur l’engagement des acteurs concernés.

© 2019 IDMP/Lavoisier SAS. Tous droits réservés

Mots clés : instruments d’action publique, politique scientifique, indicateurs.

Abstract

Performance measuring instruments supporting public action: a comparative analysis of regulatory devices for university research in the belgian communities.

Political discourses help to define the legitimate and mobilizable conceptions to justify a certain exercise of power: it is at the level of their pragmatic translations within the devices of government that a certain “theory of action” is read that proposes and legitimizes the

Les instruments de mesure de performance au service de l’action publique :

une analyse comparée des dispositifs

de régulation de la recherche universitaire dans les communautés belges

03

(2)

political problem to be solved and the modalities of public intervention (Rose et Miller, 1992).

This article mobilizes a constructivist perspective that integrates the transformations of the state and its modes of action in Belgium, in the field of science policy: since 1988, uni- versities have followed very different paths in the two communities, Flemish and French- speaking, to the extent that the Belgian territory today presents two political regimes of higher education and research. By analyzing through the level of individual actors some recent mechanisms for the management of university quality and the régulation of public funding of research, this comparative approach helps to bring to light the specific dyna- mics of normativity at the heart of the evaluation mechanisms that constitute forms of governmentality (Foucault, 1978) based on the commitment of the actors concerned.

© 2019 IDMP/Lavoisier SAS. Tous droits réservés Keywords: public action instruments, science policy, indicators.

Introduction

Les autorités publiques des pays engagés dans l’économie globale sont aujourd’hui convaincues de l’importance de l’apport de la recherche au service de la croissance écono- mique, comme en témoigne l’Union européenne avec son projet d’Espace Européen de la Recherche, conçu comme un espace ouvert pour la connaissance et la croissance. Chercheurs et universités ont développé au fil des siècles des relations complexes avec les autorités politiques, dont ils demandent ressources et protection tout en invoquant l’autonomie et la liberté de chercher. De nombreux auteurs défendent l’hypothèse que cette « science » qui mérite l’engagement des ressources publiques n’est pas un objet circonscrit et stable, mais un ensemble mouvant de pratiques, de processus, d’institutions, de valeurs et de normes : les instruments de financement contribuent à en redessiner les contours (Fallon, 2011). Confronté à des enjeux similaires, tels que la globalisation de l’économie et la circulation des savoirs, chaque pays a construit des dispositifs propres de régulation pour leur politique scientifique.

Depuis les années 1990, un nombre croissant de pays a imposé au secteur d’enseignement supérieur et de recherche les principes de la « nouvelle gestion publique » (Bruno et Didier, 2013 ; Fallon et Leclercq, 2014), incitant les universités à une augmentation quantifiable de leur production et encourageant une mise en concurrence des acteurs pour l’accès aux ressources. La publication récente de Barats et al. (2018) met en perspective la traduction de tels principes dans la gestion des laboratoires de recherche, associant les injonctions de concurrence et de rendement à des cadres systématiques d’évaluation, ainsi que les tensions résultant de telles réformes.

En Belgique, la politique scientifique a été, pour une grande part, dévolue aux régions et aux communautés1, instaurant des régimes politiques très différents en matière de recherche.

1 L’enseignement universitaire est organisé par les Communautés (francophone, néerlandophone, ger- manophone) mais les dépenses de recherche dans les universités dépendent à la fois des autorités régio- nales (Flandre, Wallonie, Région de Bruxelles Capitale) et des Communautés et des autorités fédérales.

Cet article prend appui sur l’analyse de la transformation de la recherche universitaire dans les universités flamandes de Flandre et les universités francophones de Wallonie (Charlier, 2017)

(3)

Nos travaux2 mettent en évidence l’évolution des caractéristiques (normes et discours, ins- truments et pratiques) de ces politiques scientifiques depuis leur communautarisation, dans une perspective socio-historique, analysant la stabilité et la plasticité des instruments et des institutions face à l’accélération de la globalisation de la recherche et à la mise en place de nouveaux projets politiques liés à la régionalisation de la Belgique. Cet article présente l’évolution des dispositifs d’évaluation et de financement de la recherche à partir de 1989 en Flandre et en Wallonie. L’approche comparée dévoile des dynamiques contrastées de norma- tivité au cœur des dispositifs d’évaluation et de financement qui constituent autant de formes de gouvernementalité (Foucault, 1978) fondées sur l’engagement des acteurs concernés.

Après une explicitation du cadre théorique de référence et des concepts mobilisés en matière des dispositifs de « gouvernementalité » (1), l’article présente la dynamique de construction conjointe des territoires d’intervention et des logiques d’actions qui se donnent à voir dans les discours politiques (2), avant de détailler les dispositifs concrets de financement et de métrologie construits par les administrations pour encadrer les activités des chercheurs en Flandre et en Wallonie (3) : constitués comme sujets responsables et calculateurs, ces derniers s’engagent dans ces dispositifs en usant de leur autonomie pour en mobiliser les ressources en fonction de leurs projets propres, en référence à des logiques de calcul fondées sur des indices et collectifs distincts (4).

1. L’analyse de l’action publique par le prisme de la « gouvernementalité »

Les travaux de Rose et Miller (1992) ont contribué à actualiser le concept de « gouverne- mentalité » de Foucault (1978) pour poser la question des modes d’analyse du gouvernement de la société par l’État. Pour Rose et Miller, à suivre Foucault, il faut appréhender la gouvernemen- talité comme une modalité de gouvernement qui passe par des instruments et des techniques, au travers desquels l’État gouverne en prenant appui sur l’engagement des individus concer- nés. Les instruments et techniques de gouvernement sont compris comme des traductions des programmes d’action et des discours : ils traduisent une « théorie de l’action » qui propose et légitime à la fois le problème politique à résoudre et les modalités d’une intervention publique efficace. Les discours politiques contribuent à définir les conceptions légitimes et mobilisables pour justifier un certain exercice du pouvoir. Foucault (1976) affirme qu’il n’y a pas de savoir sans une volonté qui le soutienne parce que le savoir ne dévoile pas une réalité déjà là : il pro- duit son objet. Les idées sont « adéquates » quand elles engendrent le domaine de réalité, les choses qu’elles donnent à connaître. Les connaissances, les typologies, les outils statistiques et de classifications sont autant d’infrastructures qui permettent de construire la « réalité » des territoires à contrôler, et par là même d’encadrer l’engagement des acteurs en exerçant une forme

2 Fallon (2011) a analysé la transformation des dispositifs de financement de la recherche en Wallonie.

Melon (2013) a reconstitué à titre expérimental, au cours d’un séjour de recherche à l’Université de Leyden (NL), une base de données bibliométriques de la production scientifique des universités belges francophones complémentaire à celle existant pour la partie néerlandophone. Charlier (2017) a réalisé une enquête de terrain sur les modes de gestion de la recherche en biotechnologie dans les deux régions du pays, sur la base d’entretiens avec les responsables des conseils de politique scientifique, de gestion- naires d’universités et de chercheurs, grâce au financement d’un projet de recherche du FNRS (TASTI : projet PDR - FRFC, 2012-2016).

(4)

de contrainte douce, en faisant circuler des normes et des schémas de pensées. Ces dispositifs statistiques et métrologiques sont consubstantiels à l’action étatique qu’ils contribuent à légitimer, comme en témoigne la place grandissante des chiffres dans les discours politiques, sous forme de palmarès, d’indices, de tableaux et de graphiques.

On retrouve ces postulats dans l’approche de Lascoumes (2007) qui présente les instruments d’action publique comme des dispositifs : au-delà des dimensions instrumentales et techniques, un dispositif métrologique ou d’évaluation est un dispositif sociotechnique qui « organise des rapports sociaux spécifiques, qui sont porteurs de valeurs, nourris d’une interprétation du social, et d’une conception précise du mode de régulation envisagé » (id. p. 76). En d’autres mots, les instruments de mesures et de régulation en matière de production scientifique ne sont pas neutres, mais contribuent à structurer le champ politique suivant une logique propre, créant un cadre stable permettant des anticipations, des réductions d’incertitudes, des actions collec- tives, par exemple pour l’accès aux ressources. Les dispositifs de gouvernement mobilisent des techniques, construisent des données, des statistiques, des représentations ; ils encouragent les acteurs à adopter certains comportements tout en renforçant la légitimité des positions qu’ils induisent. En saisissant l’action publique dans sa matérialité, une analyse de l’évolution des dispositifs permet d’en dénaturaliser les mécanismes et rend possible une approche critique de la normalisation des phénomènes sociaux (Lascoumes et Simard, 2011) : une analyse diachronique du développement d’un dispositif met en évidence ses formes concrètes, les acteurs associés et exclus, pour observer ce qu’il fait, comment il le fait, et comment il dit qu’il le fait.

Ces dispositifs génèrent des formes de coopération entre acteurs (par exemple, chercheurs, fonctionnaires et sociétés d’édition scientifique) mais aussi des structures de contrôle et de responsabilité. Les acteurs ne sont pas passifs mais des « sujets » qui participent au proces- sus de « normativité » (Macherey, 2009). Étudier un instrument, c’est analyser comment les acteurs l’ont construit et se le sont approprié dans une perspective socio-historique ; quelles formes de légitimation y sont liées à travers les débats et controverses ; comment sont transformées ou redessinées les frontières du collectif considéré, ici les académiques participant à un projet européen, là une université et ses départements se positionnant au cœur de la concurrence internationale (Buisson-Fenet, 2008). Le sujet ne subit pas la norme passivement : le sujet est inséré dans un milieu conceptuellement architecturé et dans un dispositif normatif. Il agit dans un réseau continu qui l’encourage à se construire comme sujet en l’interpellant et en lui assignant des normes d’action qui ne sont pas extérieures mais produites en même temps qu’elles configurent leur champ d’application (Macherey, 2009). C’est à travers ces dynamiques de traduction (Callon, 1986) qu’un instrument est réapproprié par les acteurs, qui vont tantôt lui résister, tantôt en proposer une reformulation.

Le Bourhis et Lascoumes (2011) mettent en avant les processus d’appropriation et résis- tances des différents acteurs et la capacité de réinterprétation des programmes par ceux qui les mettent en œuvre. Dès lors, la démarche d’analyse doit se concentrer sur ces formes de

« gouvernement à distance » (Miller et Rose, 1992) fondées non pas sur la hiérarchie et la prescription mais sur la mise en mouvement d’individus assignés à être autonomes, dans des espaces contraints par les cadres cognitifs véhiculés par les instruments eux-mêmes.

Notre étude des instruments mobilise dès lors trois niveaux d’analyse : acteurs, dispositifs et discours politiques. Les acteurs participent au processus de « normativité » en se réappropriant les dispositifs de régulation, tantôt en y résistant, tantôt en les reformulant. Ces dispositifs de régulation sont déconstruits comme le résultat contingent de traductions pragmatiques

(5)

des discours politiques, dont ils contribuent à renforcer les conceptions légitimant un certain exercice du pouvoir (Rose et Miller, 1992). Cette approche permet de mettre en lumière et de comparer des régimes de politique scientifique, soit des « assemblages d’institutions et de croyances, de pratiques et de régulations politiques et économiques qui délimitent la place et le mode d’être des sciences » (Pestre, 2003,p. 36) à un endroit et à un moment donné.

2. La redistribution territoriale en matière de politique scientifique en Belgique Loin d’un système homogène et centralisé, la politique universitaire en Belgique plonge ses racines dans une tradition libérale de conciliation pour un enseignement supérieur profondément marqué par les clivages philosophiques et l’intervention d’acteurs privés : dès le XIXe siècle, l’État finance deux universités publiques alors que l’Église catholique et les industriels sou- tiennent leurs propres institutions. Après 1945, l’État, soucieux d’assurer la modernisation du pays, participe au financement de programmes de recherche dans toutes les universités. Les centres scientifiques directement organisés par l’État restent très limités dans des secteurs spé- cialisés (météorologie, santé publique, énergie nucléaire) et il faudra attendre 1956 pour voir émerger une véritable politique scientifique nationale. En matière de gestion, les universités belges jouissent alors d’un statut particulier, celui d’une liberté inconditionnelle et subsidiée : financées par l’État sur la base d’une allocation forfaitaire, elles décident souverainement de la distribution des ressources entre leurs différentes fonctions au sein des facultés, loin de toute influence gouvernementale. À côté de cette allocation forfaitaire, les chercheurs déposent des demandes de financement compétitif soit auprès des autorités nationales soit auprès du Fonds National de la Recherche Scientifique (FNRS), agence fondée en 1927 pour soutenir le finan- cement des recherches dans les universités (Fallon, 2011). Ce mode de régulation du système a longtemps préservé un compromis pragmatique conciliant un système politique unifié avec une pluralité de fait caractéristique d’une société fortement polarisée (Charlier et Moens, 2003) : il donnait un maximum de pouvoir et d’autonomie aux opérateurs tous supposés équivalents, en les protégeant tant des jugements du marché que des injonctions des décideurs politiques.

Les tensions linguistiques et crises économiques des années 1970 bouleversent l’agenda politique. Les universités voient leurs financements se réduire tandis que l’administration, en sous-effectif, leur laisse une grande autonomie. En 1988, le processus de régionalisation du pays transfère les institutions et moyens de la politique scientifique et de l’enseignement aux entités fédérées, régions et communautés3, suivant un mécanisme de « (dé)construction pacifique » : le niveau fédéral ne finance plus que les programmes de recherche en soutien aux politiques dont il a conservé la charge. Ce déplacement du centre de gravité de la politique scientifique crée les conditions d’une régulation multi-niveaux, asymétrique, gérée au nord et au sud du pays par des acteurs politiques qui s’ignorent et qui développent des visions très différentes sur de nombreux enjeux. Alors qu’au nord, la Communauté est l’élément nationaliste fédérateur qui absorbe la Région flamande, au sud, les compétences liées à la politique scientifique sont divisées entre deux

3 En simplifiant et sans tenir compte des entités germanophones, les régions exercent leurs compétences sur des territoires délimités (Flandre, Wallonie, et Région bilingue de Bruxelles-Capitale) tandis que les communautés néerlandophone et francophone qui traitent de matières personnalisables couvrent aussi les besoins des citoyens de la Région de Bruxelles Capitale en fonction de leur statut linguistique.

(6)

entités distinctes : la Région wallonne hérite du soutien à la recherche industrielle, tandis que la Communauté française est en charge de l’enseignement supérieur et de la recherche fondamentale.

Les universités gardent un rôle prépondérant en matière de recherche publique et jouissent d’un soutien politique en matière de financement : l’atteinte d’un niveau de « 3 % du PIB » en matière de recherche reste un objectif déclaré des autorités. Mais les régimes de politique scientifique flamand et wallon divergent, à la fois parce que les performances économiques de leurs territoires sont différentes et parce que les autorités posent des choix stratégiques différents en matière de politique scientifique et de gestion universitaire.

Dès les années 1980, la Flandre a lancé un processus politique mobilisant les secteurs scientifiques et industriels autour de l’idée de la « Troisième Révolution Industrielle en Flandre », se désolidarisant du modèle belge d’innovation que les responsables flamands qualifient d’obsolète (Larose, 2001). Jusqu’en 1995, les crédits de recherche fondamentale étaient, proportionnellement à la richesse produite, plus importants au sud, mais la situation s’est inversée après cette date : les crédits publics ont bondi dans le nord du pays, pour atteindre en 2014 un niveau trois fois supérieur à celui de 1989. Au contraire, le budget de la Communauté française est resté relativement stable tandis que la Région wallonne augmente son soutien à la recherche industrielle dans une proportion remarquable mais les chiffres absolus sont plus faibles. La Flandre se présente aujourd’hui comme une des régions les plus innovantes d’Europe que ce soit en termes de production scientifique (brevets, publications) ou ressources scientifiques (nombre de chercheurs par habitant) (Capron, 2007). Elle a choisi de concentrer des moyens de recherche importants dans des centres de dimension européenne, actifs dans des domaines stratégiques (IMEC en micro-électronique ; VITO en énergie-environnement ; VIB pour les biotechnologies), alors que la partie francophone du pays présente pour sa part un profil de production scientifique distribué entre centres universitaires indépendants.

Figure 1 : Aperçu des crédits budgétaires de R&D par autorité (en milliers d’euros, valeurs constantes) Source : http://www.stis.belspo.be

(7)

Ces différences de trajectoires se donnent à lire dans des discours politiques, des instru- ments de financement et des dispositifs administratifs très différents au nord et au sud du pays.

Charlier (2017) analyse les discours politiques de ces régions comme des imaginaires sociotechniques (Jasanoff, 2015) : une vision collective d’un futur désirable propre à une communauté politique à laquelle correspond un groupe social délimité doté d’une capacité d’action et d’organisation autonome. Orientés vers l’action, les imaginaires décrivent des futurs atteignables et désirables. Identifier ces imaginaires nécessite une analyse interpré- tative de ressources discursives telles que des programmes politiques, des motivations de décisions de justice, des allocutions politiques ou encore des interventions médiatiques. Son étude comparée de la Flandre et de la Wallonie montre « comment des discours politiques permettent de donner du sens à la politique de recherche et d’attribuer des rôles sociaux, économiques, politiques à la science. » (Charlier, 2017 : 59).

Les autorités politiques de Flandre et de Wallonie travaillent à l’élaboration et à la promotion d’une identité collective et d’un projet d’avenir mobilisant la recherche scien- tifique avec des objectifs et des temporalités différentes. Les Flamands ont fusionné leurs institutions politiques dès 1980, et la définition de l’identité flamande posait peu question.

Mais dans l’espace Wallonie-Bruxelles, les francophones ont d’abord dû définir quelle identité construire : celle basée sur la langue ou celle basée sur le territoire ? Les universités francophones ont longtemps souffert de cette incertitude sur les limites des compétences de la Communauté française et de la Région wallonne.

Les autorités flamandes annoncent l’ambition de faire de leur région une « top-région » performante au niveau mondial, y compris dans le domaine scientifique. Le recteur de la plus grande université du moment, la K.U.Leuven, engagé pleinement dans les travaux européens préparatoires au processus de Bologne, rédige un rapport au gouvernement flamand (Rapport Dillemans, 1997, cité par Charlier et Croché, 2004) : pour atteindre l’objectif ambitieux de placer les universités flamandes sur la scène internationale, il propose de passer d’un modèle d’universités complètes (volledige) à celui d’universités de haute qualité (volwaardige), et de mettre en place un processus de gouvernance orienté vers un modèle universitaire

« d’excellence ». Pour atteindre ces résultats, des choix ont été posés : d’une part renforcer les ressources à disposition des universités et des trois pôles d’excellence, et d’autre part investir dans la mise en place de bases de données permettant le suivi et le pilotage des activités scientifiques, au niveau de la force de travail, du nombre de publications et de citations et du nombre de doctorats. La compilation de ces données est organisée en fonc- tion des standards internationaux pour mieux comparer les performances de la production scientifique du territoire avec le reste du monde. Ces investissements dans une infrastructure statistique de grande ampleur permettent de déployer des modalités de régulation propres au déploiement d’un régime de politique scientifique, où une vision particulière de l’excellence est promue dans une logique de compétition permanente et mondiale pour la performance : les plus productifs sont davantage récompensés (Charlier, 2017).

Au sud du pays, les autorités politiques régionales ont tardé à élaborer un projet straté- gique pour leur territoire, hésitant à trancher entre une approche communautaire (comme en Flandre) ou régionaliste, c’est-à-dire renforçant l’indépendance des deux régions francophones (Wallonie et Bruxelles-Capitale). Du côté de la Communauté française, l’organisation des universités et de la recherche fondamentale reste assez stable, les discours politiques appe- lant à « l’excellence » de la recherche sans pour autant la définir au travers d’indicateurs,

(8)

et à une croissance de son financement malgré un déficit budgétaire chronique. De façon indépendante, les autorités régionales wallonnes ont d’abord créé de manière incrémentale une série d’instruments de soutien à la recherche appliquée et industrielle, avec le souci de soutenir le redéploiement industriel de leur région souffrant d’une désindustrialisation massive. Au milieu des années 2000, un discours orienté vers l’avenir de la région et un projet collectif ont été forgés avec le Plan Marshall, emblématique d’un imaginaire wallon résolument régionaliste (Accaputo et al., 2006) : il encourage universités et entreprises à mener d’ambitieux projets de recherche partenariale au sein de pôles de compétitivité. Les chercheurs des universitaires francophones sont dès lors confrontés à deux discours, celui du FNRS orienté vers le soutien de la recherche fondamentale et de l’excellence définie au travers du jugement des pairs et celui du Gouvernement régional, proposant des financements plus généreux dans le cadre de leurs priorités stratégiques industrielles.

3. Programmes politiques et dispositifs de régulation de la recherche

Dans les décennies qui suivent la régionalisation, les universités disposent de moyens croissants pour financer de façon stratégique la recherche dans leur institution, surtout en Flandre. Mais le maintien d’une recherche de haut niveau dans toutes les disciplines dans un environnement de plus en plus compétitif est devenu un défi pour les chercheurs, les universités et pour les gouvernements. La Commission européenne, pour sa part, encourage le recours à des mécanismes de répartition des financements publics plus concurrentiels et basés sur des facteurs de résultats et de performances, favorisant la recherche compétitive par projet (limitée dans le temps) et commanditée (limitée quant à l’objet) (Fallon, 2011).

La Flandre a pris les devants sur ces recommandations européennes, en soumettant la production scientifique à un système de pilotage orienté vers l’efficacité et l’excellence définies au moyen de critères de productivité internationale. Au sud du pays, les autorités maintiennent un discours de consensus pour limiter les tensions entre acteurs (chercheurs ou universités) considérés comme d’égale qualité (Charlier et Tallon, 2008). C’est à travers les dispositifs de financement que les universités et les chercheurs de Flandre et de Wallonie sont directement confrontés à ces rationalités et aux programmes d’action qui en découlent : leurs inscriptions dans des pratiques et dans des institutions se donnent aussi à voir par les stratégies de résistances des bénéficiaires eux-mêmes.

Un pilotage stratégique et compétitif en Flandre4

Dès la communautarisation de la recherche universitaire, la Flandre a renforcé les moyens à disposition des chercheurs et développé, avec les universités et des ressources gouvernementales, un système d’information sur la recherche et l’enseignement : aujourd’hui, l’administration de la recherche, en collaboration avec une agence interuniversitaire,

4 Cette section a été rédigée sur base des entretiens menés par N. Charlier dans le cadre de sa recherche doctorale « Gouverner la recherche entre excellence scientifique et pertinence sociétale. Une comparai- son des régimes flamand et wallon de politique scientifique » (Charlier, 2017) réalisée avec le soutien d’un projet de recherche du FNRS (TASTI : projet PDR - FRFC, 2012-2016).

(9)

ECOOM5, réalise un suivi annuel poussé de différents indicateurs portant sur la recherche dans chaque université, permettant aux autorités de comparer ces données à travers le temps, par disciplines ou encore entre universités flamandes.

Sur la base d’analyses bibliométriques, la Flandre aime à comparer avec des pays voi- sins les performances de la production scientifique, que ce soit en termes de nombres de publications ou de leur impact (Debackere et Veugelers, 2015).

When we benchmarked Flanders with other regions, when you see output from univer- sities, from research centres, it’s very good. When you look to publications, citations, even patents, we are doing very well, I think. So that’s a good thing and I think that’s thanks to the politics of Flanders to invest in universities, to make an output driven financing of universities, to have some strong strategic research centres and to continue this policy.

(Entretien avec une fonctionnaire d’un organe de concertation, Charlier, 2017)

Figure 2 : Évolution du nombre de publications par 10 000 habitants en Flandre et dans douze pays de référence (ECOOM, 2016)

Ces informations sur la recherche et la production scientifique (publications, citations, impacts) dans les bases de données d’ECOOM sont au cœur du dispositif de régulation du secteur. Elles ont permis l’instauration d’un système de financement fondé sur les performances ou Performance Based Research Funding6. Par exemple, la distribution d’une part significative des fonds de la recherche (BOF ou « Bijzonder Onderzoek Fonds ») entre les universités repose sur une clé d’attribution complexe « BOF-Index »

5 ExpertiseCentrum Onderzoek en Ontwikkelingsmonitoring, centre d’expertise en monitoring de la recherche et développement, un consortium interuniversitaire en charge d’établir une série d’indicateurs concernant la R&I en Flandre.

6 Aujourd’hui la Flandre est une des rares régions mobilisant un tel système dont les impacts sur l’activité scientifique sont encore peu évalués. OECD (2010), Performance-based Funding for Public Research in Tertiary Education Institutions. Workshop Proceedings, OECD Publishing.

(10)

intégrant pour chaque université la quotepart du nombre de diplômés (23 %) ; de doc- torats (35 %) ; puis sur la contribution de chaque université dans le nombre total de publications et citations (40 %)7. La subsidiation sur la base des performances renforce la mise en compétition entre universités et entre les départements au sein de celles-ci.

Pour augmenter leurs financements par les autorités régionales, les universités flamandes doivent aussi améliorer leur productivité scientifique (doctorats, publications, citations, brevets, revenus de financement externe, y compris de partenariats privés) ou plutôt celle de leurs chercheurs. Cela se traduit par le soutien au montage de projets, des primes aux promoteurs de doctorats, et l’installation d’un système de monitoring annuel de différents indicateurs portant sur les productions de recherche.

Dans les trois centres de recherche stratégique (par exemple, le VIB pour les biotechno- logies ou l’IMEC pour les technologies digitales), des évaluations par les pairs sont réalisées tous les cinq ans et les résultats de ces évaluations affectent la distribution des moyens entre départements. Chaque équipe fait l’objet d’une balanced scorecard intégrant leurs niveaux de publications, leurs citations, ainsi que les doctorats soutenus, les brevets, les revenus de financement externe, privés ou publics. Les responsables d’équipes de recherche (ou Principal investigators, PIs) peuvent se voir exclus si leurs résultats ne sont pas jugés au moins très bons ou excellents.

L’émergence d’un financement par les résultats en Communauté française.

Au niveau francophone, le financement direct de la recherche dans les universités8 est historiquement distribué entre les universités au prorata du nombre d’étudiants inscrits.

Cette stabilité historique est présentée comme le résultat du non-engagement politique de soutien à la recherche en Communauté française. Les universités francophones assument elles-mêmes une grande partie de l’administration de la recherche, ce que dénonce un rapport universitaire9 : le monde politique semble avoir abandonné les universités. En l’absence d’initiative des autorités de tutelle, comment est-il possible de dessiner une nouvelle gouvernance universitaire pour assurer la centralisation des informations, le renforcement des procédures d’évaluation et celui de la coopération entre universités ? C’est en ordre dispersé et sans référent politico-administratif que les universités réorganisent leurs struc- tures internes en matière de recherche et d’évaluation, soucieuses chacune de développer un modèle d’évaluation qui leur soit favorable (Fallon, 2011).

En 2011, un rapport de l’Académie Royale de Belgique10 appelle à un sursaut poli- tique : « Si les autorités veulent se positionner dans la compétition internationale, il faut se donner les moyens de renforcer le positionnement des institutions ». Faisant appel à des références internationales, le document proposait que les universités, en collaboration avec

7 Besluit van de Vlaamse Regering (21/12/2012) betreffende de financiering van de Bijzondere Onderzoeksfondsen aan de universiteiten in de Vlaamse Gemeenschap (vers.3/4/2015 MB.17/8/2015), Art.41. Valeurs valables pour l’année 2016

8 Les Fonds Spéciaux pour la Recherche et Actions de Recherche Concertées, sont les équivalents histo- riques des financements « BOF » évoqués pour la Flandre.

9 Bodson A, Berleur J, 1998, « Quelles urgences pour une politique universitaire en Communauté française de Belgique ? », Rapport commandité par le Ministre W. Ancion.

10 Académie royale de Belgique, 2011, Groupe de travail sur le financement de l’enseignement supérieur en Communauté française. Premier rapport intermédiaire. 15 juillet 2011, p. 35

(11)

les pouvoirs publics, travaillent « à la définition consensuelle d’une métrique plus riche qui intégrerait certes les inputs (nombre d’étudiants) mais aussi des outputs : nombre de diplômés, production scientifique, valorisation de la recherche, etc. Un tel système demande une mesure objective, systématique, transparente et consensuelle des indicateurs choisis. » Les autorités (Communauté et/ou Région) sont donc appelées à construire un dispositif métrologique comme en Flandre.

Des changements décrétaux récents traduisent depuis peu un nouvel engagement politique orienté en ce sens. En 2013 est installée l’ARES11 (Académie de Recherche et d’Enseignement supérieur), chargée d’assurer un renforcement de la coordination entre les universités. En 2014, les termes du décret « relatif au financement de la recherche dans les universités »12 présentent une seconde rupture, en modifiant la clé de répartition de certains fonds de recherche attribués directement aux universités pour intégrer une série de critères censés révéler leur différence de « productivité ». Le critère le plus important est le nombre de grades académiques délivrés (60 %) et le nombre de diplômés de troisième cycle (20 %), tandis que les 20 % restants sont attribués entre les universités suivant un calcul complexe intégrant différentes dimensions spécifiques à l’activité scientifique, proposés comme des marqueurs de « l’ampleur réelle des recherches » (article 7) : la part respective de chaque université dans le montant total du financement issu du programme-cadre européen ; la part de chercheurs postdoctoraux à durée déterminée qui sont pour la plupart subventionnés par des financements externes aux universités ; la part des membres du personnel académique qui aura soutenu sa thèse dans une autre université, indicateur de la lutte contre l’« endo- gamie » de l’université ; le nombre de publications scientifiques et de citations.

L’ARES est responsable du développement de ces indicateurs : elle doit gérer un sys- tème de collecte de données statistiques relatif à toutes les missions de l’enseignement supérieur et mettre en œuvre, en collaboration avec l’administration et les universités, les dispositions nécessaires pour produire les statistiques exigées par les instances européennes.

Cette mission de l’ARES pourrait à terme affaiblir le Conseil des recteurs des universités qui contrôlait jusqu’ici soigneusement l’étendue des données qui pouvaient être mises en commun et/ou publiées. Si certaines données sont directement disponibles (participation aux programmes européens, nombre de chercheurs et de doctorats), les données relatives à la mesure du « nombre de publications scientifiques » et du « nombre de citations » ne sont pas disponibles année par année pour chaque université francophone (Melon, 2013).

Il faudra investir dans un programme de gestion des données pour extraire ces informa- tions des bases de données bibliométriques disponibles au niveau international. Mais une première étape doit d’abord être franchie pour établir au niveau de l’ARES un accord entre les universités sur les bases de données à prendre en considération et les modèles à utiliser : mesurer le nombre de publications demande de se mettre d’accord sur ce qui compte comme publication et comme citation. Les universités doivent encore définir dans le cadre de l’ARES un mode de calcul commun pour, dans un second temps, confronter, à travers ces mesures, leurs niveaux de performance (Fallon, 2014), travail que les universités flamandes ont réalisé dès 1997.

11 Communauté française, 2013, Décret du 7/11/2013 définissant le paysage de l’enseignement supérieur et l’organisation académique des études en Communauté française.

12 Communauté française, 2014, Décret du 30/1/2014 relatif au financement de la recherche dans les universités

(12)

En attribuant des moyens supplémentaires aux universités qui démontrent des meilleures performances en matière de recherche, le Décret rompt avec l’approche antérieure qui mobilisait le principe d’égalité entre les universités : ici, il s’agit de récompenser les résul- tats en donnant davantage de moyens aux organisations qui réussissent à publier davantage ou à s’approprier plus de fonds européens. Aux termes du Décret, il devient légitime de mettre en avant des niveaux de performance d’universités ou de centres de recherche. Ce Décret indique à la fois un changement des rapports de pouvoir entre les différents acteurs et groupes concernés, et l’introduction de nouvelles logiques qui impliquent de nouveaux principes et de nouveaux objectifs, dont vont se saisir les universités et les chercheurs.

4. Transformation des pratiques et processus de subjectivation

Quantification et compétition sont deux mots clés des changements observés dans les dispo- sitifs de régulation : au nord comme au sud du pays, les politiques cherchent à objectiver leurs niveaux de performance scientifique en introduisant de nouvelles conventions pour les chiffrer et les comparer. L’attention est principalement focalisée sur les « outputs » des universités. Il s’agit d’encourager les organisations et les chercheurs à capter les ressources disponibles et à publier des articles scientifiques de niveau international. Ces informations sont, dans un second temps, utilisées pour délibérément mettre les opérateurs en compétition dans l’attribution des moyens.

Les indicateurs, en donnant une certaine prise à la réalité, permettent le bon fonc- tionnement des dispositifs de régulation (Thiry, 2012), et ils doivent donc toujours être analysés en liaison avec l’impact normatif de leur usage. Dans le cas précis de la politique scientifique, ces processus de mesure et d’objectivation de la production scientifique sont au service d’un objectif supérieur, qui est la compétition entre les entités. Ils établissent les bases d’une nouvelle logique de « benchmarking » ou de classement entre les universités, soit au niveau du territoire, soit au niveau mondial.

Les dispositifs constituent des formes de coopération entre acteurs (par exemple, cher- cheurs, fonctionnaires et sociétés d’édition scientifique) mais aussi des structures de contrôle et de responsabilisation. L’approche par les instruments comme construction et appropriation dans une perspective socio-historique est intéressante à condition d’y intégrer les processus de subjectivation : comment l’instrument, qui contribue à définir le rôle et donc l’identité professionnelle des chercheurs, est-il réapproprié par les acteurs, qui vont tantôt lui résister, tantôt en proposer une reformulation ? Dans le cas de la politique scientifique, les bases de données et les modèles statistiques qui produisent des indicateurs pour évaluer et classer des chercheurs ou des centres de recherche ainsi que les universités semblent jouer un rôle particulièrement important sur leurs pratiques et comportements. Les acteurs adaptent leurs pratiques pour induire une « politique d’amélioration des indices » (Fallon et Leclercq, 2014).

La mise en visibilité des universités

L’évaluation de la qualité de la recherche est le nouveau cheval de bataille des universités : il s’agit de mettre en évidence, à l’attention des bailleurs de fonds (privés ou institutionnels), les qualités des unités de recherche pour se positionner dans un espace concurrentiel en matière de financement. Les équipes doivent être les plus « performantes » possible pour avoir accès aux ressources. Avec la généralisation des mesures bibliométriques, les processus de quantification

(13)

de la production scientifique au niveau des universités ou des unités de recherche jouent un rôle primordial : les outils informatiques et les bases de données rendent visible l’activité des équipes de recherche et permettent, à peu de frais, une comparaison de la qualité scientifique dont la définition dépend du contenu même de ces bases de données.

Comme le signale un ancien recteur d’université (francophone) :

« Le concurrent de notre université, ce n’est pas Mons ni Nancy, c’est le monde. Donc, si une bonne université veut devenir une très bonne université, elle doit avoir de la recherche de très haut niveau. » (Fallon, 2011,121).

Mais comment faire pour le faire savoir ?

Au sud du pays, c’est l’ARES qui doit créer l’espace de coopération entre universités pour qu’elles établissent les conventions de quantification qui seront à la racine de la métrologie utilisée pour comparer leurs performances avec les secteurs d’autres pays et pour organiser les procédures de financement différencié en fonction des performances. La pression est encore très faible, l’ARES ne disposant pas de données fiables et précises pour mettre en évidence les performances que ce soit au niveau d’un secteur ou des universités. Les universités qui cherchent à mettre en évidence leurs activités de recherche peuvent mobiliser des indices qui sont autant de signaux reconnus au niveau européen ou international : par exemple, le nombre de boursiers ERC (European Research Council). Les universités contribuent aussi de leur côté à transformer les conditions de mise en visibilité de la qualité de leur recherche : par exemple, l’Université de Liège a mis en place un dépôt Open Access pour mettre en évidence les publi- cations de ses chercheurs sans passer sous les fourches caudines des éditeurs scientifiques.

Ce choix stratégique permet à cette université de renforcer la visibilité de l’ensemble de sa production scientifique dans une logique de « science ouverte » : il s’agit là d’un paradoxe, celui de la nécessité de prendre appui sur une approche collaborative propre à la « science ouverte » pour mieux se signaler dans un contexte mondial de plus en plus compétitif.

Les universités flamandes sont beaucoup plus avancées dans le processus de compa- raison et de production d’informations : le système développé par les autorités s’enrichit chaque année de nouveaux tableaux et indicateurs. Les universités les reprennent à leur compte, présentant sur leur propre site leurs performances et leurs positions relatives dans les classements internationaux et locaux. Les discours démontrent une compétition pour les ressources entre les universités ainsi qu’une certaine émulation dans la comparaison de la place de chacune dans les classements internationaux. Chaque université met en avant son positionnement dans les rankings internationaux, mobilisant un discours fondé sur le concept d’« excellence » en recherche, comme en témoigne par exemple le site de l’UGent13 : «Ghent University is a top 100 university and one of the major universities in Belgium.». Les discours et les réformes génèrent une pression institutionnelle sur les facultés, départements et individus pour qu’ils « produisent » plus de résultats de recherche sous diverses formes. Le nombre de publications de l’UGent a doublé, en 10 ans, tout comme le montant de son budget en matière de recherche. Cette évolution a pour effet d’augmenter le nombre de chercheurs et de projets en compétition pour les sources de financement dont

13 http://www.ugent.be/en/ghentuniv/presentation/research-numbers.htm : «The Belgian universities get a first-rate ranking on a global scale. The largest Belgian institutes, including Ghent University, are ever present in the top-200 of more than 15 000 institutes for higher education of the world. Each year, Ghent University occupies a more prominent place.»

(14)

le taux de succès ne peut que décroitre en conséquence. La compétition entre universités, entre départements et entre chercheurs est exacerbée.

“If you look into the scientific output of the Flemish university, we were able to double that in ten years. (…) we were able to convince, ten years ago, the minister of education to change the subsidy system, and the subsidy system in Flanders, it is one of the only system in Europe, is based on output. (…) there are of course drawbacks to that, but it’s also based on the quality, the amount and the quality of the output. And of course universities compete, then, because it’s a constant sum divided over universities, depending on their output. (…) Competition is good, you know. Worldwide, you know, if you’re looking into the top researchers, they are always competing in research” (Entretien avec un académique, ancien recteur (Charlier, 2017)

Les processus d’évaluation sont pour une grande part fondés sur des indicateurs quan- titatifs, avec une prédominance pour le niveau de publication, et particulièrement les publications dans des revues à haut impact, comme en témoigne le rapport annuel du VIB :

“We are proud to say that 2015 was an excellent year. We pushed the boundaries of science with 206 scientific breakthroughs, published in the top journals in the field (top Tier 5 %). This is about four papers a week. In 2015 five VIB group leaders received an ERC grant, illustrating the international recognition of the quality and level of ambition of our research.” (VIB, 2016,p3)

Une référence aux critères d’excellence pour tous les chercheurs publiants

En Flandre, le dispositif régional de pilotage est mobilisé par tous les acteurs, depuis les universités, les départements et les laboratoires jusqu’au niveau de l’administration flamande : le dispositif tisse un réseau d’information et d’évaluation, à partir des bases de données inter- nationales de l’ISI (Institute for Scientific Information) utilisées par le consortium interuniver- sitaire ECOOM pour construire les indices de performance des universités, des laboratoires et des chercheurs. Sans disposer de dispositif local d’évaluation de la qualité ni de dispositif de régulation par rétroaction, les chercheurs francophones ont néanmoins eux aussi modifié leurs comportements pour s’aligner sur les attentes de leurs communautés disciplinaires au niveau mondial : ils ne peuvent pas modifier le modèle de statistique international mais ils vont tirer parti de ses caractéristiques et s’aligner sur les attentes de leurs communautés disciplinaires au niveau mondial, particulièrement quant à la qualité des publications.

Au nord et au sud du pays, les chercheurs adaptent leurs comportements de publica- tions. En effet, le scientifique inscrit son activité dans un système professionnel en principe collégial et piloté par les pairs, y compris en matière de publications et d’évaluation : c’est l’engagement des pairs qui légitime les procédures et les résultats. Les chercheurs ne sont pas des agents passifs : ils se réapproprient les instruments pour les inscrire dans leur propre répertoire d’action. S’ils choisissent de s’inscrire dans une logique de compétition mondiale, ils doivent en accepter les contraintes telles que les publications en anglais, l’accélération du rythme de recherche et de la concurrence, autant d’effets de la globalisation de la recherche.

Les statistiques présentées par Melon (2013) montrent une évolution dans les trois régions en termes de qualité de la production scientifique14 : à titre d’exemple, le gra-

14 Melon (2013) a reconstitué à titre expérimental, au cours d’un séjour de recherche à l’Université de Leyden (NL), une base de données bibliométriques de la production scientifique des universités belges francophones complémentaire à celle existant pour la partie néerlandophone.

(15)

phique 3 présente l’évolution du MNCS ou « Mean Normalized Citation Score » qui entend représenter une estimation de l’impact moyen de l’article, comparé au niveau moyen de la discipline.

Les statistiques montrent que la production est de plus en plus anglophone : entre 1980 et 2010, les publications en anglais sont passées de 90 à 99 % du total (toutes disciplines confondues) au nord du pays, et de 71 à 95 % au sud. Il est statistiquement démontré que les publications en anglais présentent un indice d’impact moyen beaucoup plus important : cet effet contribue à renforcer la généralisation des publications en anglais, dans des revues internationales à haut facteur d’impact. D’autres caractéristiques évoluent et particuliè- rement l’internationalisation de la recherche : alors que les publications portées par des équipes internationales ne représentaient que 15 % de l’activité en 1980, elles atteignent 40 % en 2010. La production portée par une coopération internationale augmente alors que la coopération entre universités belges a tendance à diminuer. Cette évolution dénote un décloisonnement du système national et régional de la recherche et la modification du territoire de référence qui devient le territoire international.

Figure 3 : Évolution de la valeur de l’estimation de l’impact moyen des publications « Mean Normalized Citation Score » en fonction de la région où est localisée l’université (Melon, 2013)

Une productivité contrainte pour les chercheurs flamands

Les bases de données de publication (Melon, 2013) démontrent une augmentation de la production scientifique (nombre d’articles publiés) entre 1981 et 2010, surtout en Flandre. En Wallonie, peu de statistiques sont disponibles, ce qui limite les possibilités de comparaison15.

15 CPS, 2008, « Evaluation de la politique scientifique de la Région wallonne et de la Communauté fran- çaise en 2006 et 2007 », CESRW, Mai 2008. Quant à l’effort global des dépenses de recherche, toutes sources de financement confondues, la Wallonie avec 1,99 % du PIB en 2003, se situe au niveau de la moyenne européenne (EU15) (1,89 % du PIB ) mais derrière la Flandre (2,08 %).

(16)

Figure 4 : Évolution de la production d’articles dans les trois régions (Melon, 2013)

Les règles ont stimulé la productivité en imposant aux chercheurs flamands de concentrer leurs publications dans des revues à haut facteur d’impact. Certains chercheurs dénoncent des dérives du système : risques d’exclusion pour des chercheurs qui consacrent une partie de leur temps pour l’enseignement. D’autres craignent des effets stérilisants à terme : les chercheurs peuvent être amenés à prendre moins de risque, voire à frauder leurs résultats et voir leurs papiers rétractés. Si le principe d’évaluation en soi n’est pas remis en ques- tion, les chercheurs appellent à un meilleur équilibre entre les dimensions évaluées et à un allègement des contraintes et pressions exercées sur les chercheurs (Charlier, 2017) :

as PIs, we try to agglomerate a little bit and to send this message to management at VIB level, not to increase the pressure all the time because at a certain moment people will break and burn out and things like that, which in the long term, is not a good idea of course. So it’s finding the right balance between this five-year evaluation and the personal interest, motivation while you do that.

Les chercheurs ne remettent pas en question l’évaluation de la recherche, mais ils s’inquiètent néanmoins des modalités d’évaluation de plus en plus ciblées sur les seules publications et de la sévérité des sanctions. En effet, dans les centres d’excellence, les chercheurs disposent de moyens très supérieurs à ceux des universités, mais les évalua- tions quinquennales y sont très sévères : des chercheurs évalués comme « bons » mais pas

« excellents » peuvent se voir exclus du centre. Les scientifiques ne s’opposent pas à des processus de mesures de performance : ils souhaitent les voir tempérées avec une attention pour le contexte ou vis-à-vis de l’engagement dans d’autres missions. La construction des indicateurs a déjà fait l’objet d’ajustements, tantôt pour affiner les modèles, tantôt pour tenir compte de critiques spécifiques. Ce fut le cas pour les sciences humaines et sociales qui refusaient d’être évaluées à l’aune des sciences de la nature : les autorités ont mis en place un dépôt spécifique des publications/citations et une évaluation propre à la discipline (ECOOM, 2015,p. 45) parce que la moitié des publications ne sont pas disponibles via le Web of Science. Par ailleurs, l’Université de Gand a choisi de distribuer les ressources

(17)

dans le secteur des sciences sociales suivant une clé de répartition spécifique, pour éviter un effet de marginalisation qui pourrait résulter de leur mise en concurrence directe avec les autres disciplines.

Une contrainte émergente pour les chercheurs wallons

Une récente enquête auprès des académiques de l’Université de Liège (une des trois grandes universités wallonnes) a fait émerger de nombreuses questions sur les modifications de leurs activités de recherche et sur les modalités d’évaluation de ces dernières. Les acti- vités de recherche sont de plus en plus nombreuses : elles se font en équipe, en s’intégrant dans des programmes internationaux. Mais l’obtention de crédits est très compétitive et requiert de s’engager dans la recherche quasi à temps plein, au détriment de l’enseignement.

Les ressources par chercheur diminuent et cette carence de moyens limite les possibilités de publications. De plus en plus, seules les plus grosses équipes qui sont actives dans les domaines de pointe arrivent encore à capter les financements : faut-il dès lors rationaliser l’offre et concentrer les moyens de financement de la recherche ?

Le professeur doit partager ses savoirs par exemple en enseignant et en publiant. Depuis quelques années, l’évaluation des carrières et de l’activité de recherche reprend comme données un comptage de publications et une comparaison des index bibliométriques. Publier devient alors une affaire d’État… ce que dénoncent certains académiques :

« Il n’y a donc aucune recherche qui ne doive “rendre des comptes” à son bailleur de fonds. Si le financement est public, alors il faut publier… c’est-à- dire partager avec le plus grand nombre, le résultat de sa recherche… C’est un fait. Il ne faut donc pas comparer les profils sur base de la seule bibliométrie !

« Pour évaluer l’activité d’un professeur d’université, j’estime qu’il est tout aussi important de regarder son rayonnement international (ex. responsabilité dans des sociétés scientifiques diverses…) ou le développement de son équipe (doctorants, projets de recherche, “chiffre d’affaires”). » (Fallon et al. 2017,p. 45).

Cette contrainte à la publication dans un souci de répondre aux exigences d’évaluation n’est pas sans conséquence sur la façon d’organiser la recherche : quand les chercheurs s’adaptent pour améliorer leurs scores (nombre de publications et facteurs d’impact), cela peut encourager les publications « salami » voire pousser à la fraude… et aller jusqu’à diminuer les partages entre chercheurs quand la concurrence est très forte. La pression à la productivité impose de se concentrer sur des publications dans des revues en anglais avec un haut facteur d’impact, en se pliant aux nouveaux canons : formatage plus étroit et articles plus courts.

L’environnement international de plus en plus compétitif met sous pression la qualité du travail des chercheurs universitaires qui s’épuisent à intégrer des exigences de plus en plus sévères dans leurs multiples tâches. Les académiques mettent en avant comme un défi majeur la révision des méthodes d’évaluation de la recherche et la redéfinition des exigences des autorités universitaires qui cherchent à placer leur institution haut dans les rankings.

« Il est légitime de vouloir devenir Harvard, mais il faut être conscient des enjeux. Il est irresponsable de passer la patate aux enseignants, et de leur dire — comme on nous le dit, en quelque façon, par certaines mesures institutionnelles et dans certaines communi- cations institutionnelles — : “publiez comme vos collègues américains !” Eh bien, il fau- drait avoir alors les assistants des collègues nord-américains, et les budgets des collègues nord-américains, et les heures de cours des collègues nord-américains, et les congés de

(18)

recherche des collègues nord-américains. Et puis… faut-il publier comme les collègues nord-américains ? Notre université… doit favoriser une recherche mûre, hardie et reposée (moins partielle, provisoire et redondante que celle que nous voyons dans nombre de CV actuels). » (Fallon et al., 2017,p. 47).

Conclusion

La production des bases de données et des chiffres a contribué, en Flandre, à l’instaura- tion d’un dispositif de production d’informations en vue d’assurer un « modèle objectif de répartition qui serait basé sur la qualité ». Mais qui définit le cadre statistique ? Comment construire les catégories ? Avec qui ? Dans quel cadre de coopération ? Le mécanisme de construction de ces indicateurs n’est que rarement analysé, alors que dans de nombreux cas, que ce soit pour les indicateurs utilisés pour les chercheurs individuels (h index) ou pour les universités (classement de Shanghai, par exemple), voire les pays engagés dans les dynamiques de benchmarking (Bruno et Didier, 2013), les modalités de mesures qui les fondent sont dénoncées comme peu fiables (Gingras, 2014). Pourtant, le classement social qui en résulte est présenté comme incontournable (Dujarier, 2010). La valeur sociale du chiffre ne tient pas tant à ce qu’il est une représentation certifiée et concise d’une réalité objective, mais à l’importance dont il est doté par les participants.

Le Recteur d’une université déclare : « On peut discuter à perte de vue sur la validité des rankings et sur leurs aberrations méthodologiques, il n’en reste pas moins vrai qu’ils sont pris en compte par beaucoup de monde (le public, les parents, les décideurs, les bailleurs de fonds, les universités étrangères, etc.), l’enjeu n’est donc pas négligeable »16.

Au cœur des dispositifs de régulation, les indicateurs sont le résultat fragile et transitoire d’une série de mises en équivalence (Desrosières, 1993 : 2014) dont il faut aussi recon- naître le poids politique : en proposant des catégorisations et un cadrage, ils contribuent activement à structurer les termes du débat public. Les dispositifs métrologiques fournissent une mise en chiffre qui produit à la fois un reflet du monde et une prise pour le modifier.

Le processus modifie aussi les acteurs, leurs comportements et leurs postures puisqu’ils doivent prendre part à ce nouveau monde et en mobiliser le cadre cognitif en même temps que les instruments d’intervention : les actions sont « orientées par des indicateurs et ces classifications qui deviennent des critères d’action et d’évaluation de celle-ci » (Desrosières, 2008, p. 29). Les instruments contribuent à mettre en action le programme politique, « dans tous les maillons de cette chaîne circulaire de la description, de l’action et de l’évaluation » (Desrosières, 2003, p. 219). L’indicateur n’est pas une représentation neutre de la réalité mais un vecteur de performativité : parce que la mesure a une vocation pragmatique, elle

« performe » le monde en conduisant les acteurs à redéfinir leurs schèmes d’action dans le cadre métrologique qui leur est donné (Vatin, 2009).

Ces mécanismes se donnent à lire dans les dispositifs d’évaluation de la qualité en Flandre : évaluation de la qualité de la recherche, pour une mise en concurrence internationale ; dispositif de mise en compétition (locale) pour affecter des ressources supplémentaires aux groupes plus performants et sanctionner les moins performants en termes de productivité

16 Rentier B., 2009, Projet pour l’Université de Liège.

(19)

et de reconnaissance scientifique internationale. Ce dispositif de pilotage, loin d’être un simple outil mathématique, constitue un outil de gouvernement et sert de guide à l’action publique. Dans le cas de la recherche, ce sont les catégories de revues (classement par dis- ciplines) qui jouent un rôle clé, ainsi que les bases de données en matière de citations : ces éléments structurent le paysage d’information et contribuent à modifier les déterminants des comportements des chercheurs en matière de stratégie de publication, et ce, malgré toutes les critiques que subissent ces systèmes statistiques.

En Flandre les bases de données sont publiques, construites et légitimées par les travaux d’un consortium interuniversitaire avec le soutien de l’administration, mais ce n’est pas le cas de l’ARES en Wallonie, laquelle peine à produire un système de données statistiques en matière d’enseignement supérieur et de recherche. En attendant, les chercheurs désireux d’obtenir une reconnaissance internationale pour leurs travaux sont laissés à eux-mêmes et développent leurs trajectoires propres, centre par centre, en prenant appui sur les bases de données internationales et les dispositifs de rankings y afférents (Thomson Reuters et Elsevier) : ces données ont été construites par des acteurs économiques, elles sont la pièce centrale d’un système de signalement facilitant l’accès rapide aux ressources scientifiques nécessaire au déploiement d’une économie fondée sur la connaissance (Pontille et Torny, 2013). La mobilisation d’une autre source, Google Scholar, gratuite mais non contrôlée, a de son côté renforcé le climat d’anarchie évaluative au cœur des facultés (Gingras, 2008).

Ces mécanismes conçus pour un marché international de la connaissance – ou pour un réseau social ouvert dans le cas de GS - sont aujourd’hui appliqués par les chercheurs sans dispositif critique de mise à distance, ni filtration intermédiaire, quitte à bousculer les codes universitaires locaux, en mettant violemment sous tension les comités d’évaluation locaux et interuniversitaires : les scientifiques se lancent leur « facteur h » au visage tandis que les universités font de même avec leur position au classement de Shanghai (Gingras, 2008,p.1).

En Flandre, les chercheurs mobilisent aussi une telle logique de compétition internationale mais en prenant appui sur un cadre prescrit par les autorités universitaires et administratives.

Les deux territoires comparés ont connu des transformations très différentes en termes de politique universitaire et des processus d’évaluation. Recourir à une approche comparée permet de mettre en évidence des mécanismes d’ajustement différents. Les deux régions se positionnent dans l’espace européen de la recherche, en ligne avec les déclarations de la Commission européenne qui impose un certain « ordre moral » comme cadre de pensée et d’action pour les réformes politiques en matière de recherche en Flandre comme en Wallonie. Dans les deux régions, le discours de référence des chercheurs et des universités soutient la recherche d’excellence qu’il inscrit dans un cadre international.

Mais la politique de soutien à la recherche est articulée très différemment dans les deux régions. En Wallonie, les ressources évoluent beaucoup plus lentement et les autorités en charge du financement travaillent en ordre dispersé. En Flandre, les chercheurs sont entraî- nés dans une spirale de mise en compétition et d’obligation de performance qui contribue à précariser leur position. En Flandre, les autorités politiques ont investi dans la politique scientifique et dans son dispositif de pilotage qui est mobilisé par tous les acteurs, depuis le laboratoire jusqu’au niveau de l’administration flamande. Elles attribuent des ressources croissantes aux universités et construisent des bases de données bibliométriques complexes pour mettre en évidence les performances de la production scientifique : ces données sont utilisées pour faire pression sur les chercheurs et les inciter à ces comportements productifs

(20)

(de publication) pour assurer au laboratoire et à l’université une part plus large des ressources.

Par ce dispositif, les acteurs politiques et administratifs ont créé un espace normatif propre au projet flamand et encadrant les changements des démarches des universités et des cher- cheurs, dans une logique collective d’augmentation du niveau de production scientifique répondant à des critères de qualité internationaux.

La comparaison met en évidence à travers ces instruments deux modalités de régulation.

Le modèle de gouvernance est davantage prescriptif au nord, mobilisant un dispositif de régulation orienté dans une logique managériale et par un souci de productivité autant que d’excellence : ce souci se traduit dans la mise en place d’un système de redevabilité et de mise en concurrence particulièrement exigeant aux yeux des chercheurs. En Wallonie, par contre, les chercheurs ne disposent pas d’un tel cadre de référence administratif et leurs pratiques reposent avant tout sur leurs qualités professionnelles propres, en termes d’expertise dans leurs activités, d’autonomie dans leurs orientations et de collégialité dans leur régulation.

Les dispositifs de régulation restent encore marqués par une longue histoire institutionnelle, pendant laquelle le collectif définissait lui-même les conditions de mise en concurrence sans mettre en danger les relations de collégialité : cet équilibre est aujourd’hui mis à l’épreuve par l’adhésion volontaire des chercheurs à de nouvelles exigences et modèles d’évaluation qui bousculent les ordres universitaires locaux.

Après trois décennies de trajectoire indépendante en matière d’investissement dans la recherche, Flandre et Wallonie présentent des régimes de politiques scientifiques dif- férenciés. Les instruments de régulation et de financement modifient les possibilités de choix d’engagement pour les chercheurs et les universités, en reformulant les valeurs et les normes qui les légitiment : les acteurs sont amenés à inscrire leurs travaux sur la même scène scientifique internationale, mais en référence à des logiques d’engagement distinct en termes de productivité. Dans les deux régions du pays, la mise sous pression et la pré- carisation des chercheurs sont des réalités quotidiennes, avec des modalités de contraintes différentes. Les chercheurs flamands sont engagés dans une logique de compétition inter- nationale en Flandre, alignant reconnaissance et accès aux financements ; en Wallonie, le processus de reconnaissance international est davantage découplé de la compétition pour les ressources, par ailleurs limitées. Néanmoins, les discours de résistance (Le Bourhis et Lascoumes, 2011) mobilisés par les chercheurs présentent des arguments assez semblables dans les deux régions. En témoignent les débats dans les couloirs des universités dénonçant l’absurdité de ces dispositifs et algorithmes d’évaluation (Stengers, 2015). De telles initia- tives apparaissent en Communauté française (telles que le « LAC, L’Atelier des Chercheurs pour une désexcellence des universités » à l’Université libre de Bruxelles 17), ainsi qu’en Flandre (telles que « De Jonge Academie » 18). Les chercheurs demandent de travailler à une nouvelle approche de l’évaluation, mobilisant des critères en références aux principes fondamentaux de la recherche scientifique : éthique, rigueur, coopération… Autant de discours de résistance d’où pourraient germer des pratiques de réforme des dispositifs de régulation et partant du régime de production scientifique.

17 Un débat est repris dans la revue : FNRS News, 2015, L’évaluation de la recherche en question(s) 102, .8-21.

18 Un débat entre deux membres est publié dans la revue : FWO Annual 2013, Publication pressure, 43-48.

Références

Documents relatifs

1- Depuis janvier 2012, le site Persee.fr permet d’accéder gratuitement à toute la collection des numéros de la revue « Politiques et Management Public » entre les années

Fondé sur une perspective méta-analytique, l’article intitulé « Les technologies de pro- duction automatisée de données comme instruments d’action publique : de la production des

Nous nous référons à cette littérature dans une perspective d’analyse des politiques publiques (et non pas de police science) pour mettre en lumière l’importance des

Les instruments utilisés au quotidien par les cadres afin de coordonner et piloter l’action leur permettent d’une part d’avoir une vision des activités éducatives financées dans

Suite à une vérification des antécédents et un entretien avec un officier de l’agence dans un centre d’adhésion, les voyageurs déclarés « dignes de confiance » ne sont pas

Les décideurs publics assument ainsi la responsabilité de processus auxquels ils associent aussi bien le secteur privé (présenté comme plus innovant car davantage doté en

Le processus de changement suggéré par l’analyse qui précède est le suivant : la prégnance d’un nouveau modèle international, ou bien des incohérences entre

Au lieu d’étudier l’action publique elle-même, et d’évaluer rétrospectivement son degré d’implantation, nous portons l’attention sur les dynamiques locales en rapportant