• Aucun résultat trouvé

PARTIE I. CADRAGE THEORIQUE ET METHODOLOGIE

1. La sûreté nucléaire analysée comme un régime de régulation des risques

1.1. La régulation des risques : éléments clés d’une politique publique

La prise en compte des risques dans les politiques publiques fait apparaître toute une série d’organisations, de pratiques, de discours, de règles…

Nous avons tenté d’opérer, un peu conventionnellement, une classification entre différentes thématiques centrales pour la régulation des risques, dont certains auteurs ont montré qu’elles constituaient un « succession d‘étapes » (Borraz, 2008) dans une politique de gestion des risques. Nous traiterons successivement de

- le fonctionnement et les relations de l’expertise scientifique et de la décision politique ; - les différents modèles de contrôle et de pratiques associées au contrôle ;

- l’élaboration des règles et normes.

1.1.1. Construire le cadre d’une activité à risque : problématisation et mise sur agenda des risques Il est maintenant largement admis que l’on ne peut « naturaliser » le risque mais que sa problématisation, son périmètre ou la temporalité de son traitement sont largement construits par des mécanismes que différents auteurs se sont employés à théoriser.

Dans un premier temps, nous allons revenir sur une notion créée par Cobb et Elder (1971) et largement reprise depuis dans le champ de l’analyse des politiques publiques, notamment pour rendre compte des transformations ou des évolutions subies par ces dernières : la notion de mise à

l’agenda.

Cette notion désigne à l’origine l’étude et la mise en évidence de l’ensemble des processus qui conduisent des faits sociaux à acquérir un statut de « problème public » étant entendu que la mise à l’agenda d’un problème appelle et justifie généralement une intervention d’une autorité publique légitime. Il est important de souligner, à la suite de Garraud (1990), que « l’émergence et la

promotion d’un problème sont inséparables de processus cognitifs et normatifs de définition et de qualification qui donnent sens à ce problème et conditionnent les termes des débats, du mode de traitement et des éventuelles décisions ». De plus, l’attention des pouvoirs publics ne peut pas se

focaliser sur tous les problèmes, il s’agit donc d’en sélectionner certains, au détriment d’autres : «

l’attention publique est une ressource rare, dont l’allocation dépend de la compétition au sein d’un système d’arènes publiques (…). Les problèmes doivent lutter pour occuper un espace dans les arènes publiques. Cette compétition est permanente ; [ils] doivent à la fois lutter pour entrer et pour rester sur l’agenda public » (Garraud, 1990).

Pour John Kingdon (1984), ce mécanisme de sélection des problèmes est conceptualisé par l’idée de fenêtre d’opportunité, qui permet d’expliquer pourquoi un problème public est mis à l’agenda. Selon Kingdon, la fenêtre d’opportunité est constituée de trois flux qui se rencontrent : le flux des problèmes (la formulation d‘un problème auxquels les autorités publiques prêtent attention), le flux des politiques -au sens de « policies »- (les stocks des solutions disponibles pouvant être mobilisés par les pouvoirs publics) et le flux de la politique (qui correspond au moment où les acteurs politiques sont disponibles).

Cobb et Elder (1971) distinguent deux types d’agendas : l’agenda général ou systémique qui renvoie aux agendas dans lesquels la trajectoire d’un problème et sa publicisation se développent pour une large part dans des espaces ouverts, notamment médiatiques ; et les agendas institutionnels ou gouvernementaux qui vont se définir et se négocier dans des espaces plus « discrets » pour reprendre l’expression de Gilbert et Henry (2012). En effet, certains auteurs ont mis en évidence un modèle « silencieux » où la controverse publique est quasi-inexistante, la médiatisation très faible et les actions visibles très limitées. Les espaces de négociations sont alors discrets (Gilbert & Henry, 2009) et le « huis clos est recherché par les acteurs concernés » (Hassenteufel, 2010). Baumgartner et Jones (1991) parlent en effet (à propos du nucléaire américain, mais cela pourrait être transposé au cas français) de monopole de politique publique et soulignent le nombre extrêmement restreint des acteurs qui règnent sur ce monopole.

Gilbert et Henry (2012), par ailleurs, s’intéressent à la question de la mise à l’agenda des risques, en mettant l’accent sur le fait que les problèmes publics, loin d’émerger spontanément, font l’objet d’une construction, à travers un processus «définitionnel », qui met en jeu un travail à la fois cognitif, social et politique des différents acteurs. Ils montrent comment se transforment les périmètres et les positions des acteurs dans de véritables « luttes définitionnelles », selon qu’elles prennent place dans des espaces « publics » ou « discrets ». Ils avancent que ces luttes peuvent se développer au point d’aboutir à la mise en œuvre par certains acteurs de stratégies de « déconfinement » d’un problème depuis les espaces discrets où ils seraient confinés vers des espaces publics. Cette mise en tension de logiques (logiques de publicisation et logiques de confinement) et d’espaces (publics vs discrets) provoquerait des reconfigurations dans les relations entre acteurs et, par suite, des transformations dans la manière de problématiser la question en cours. Les auteurs évoquent également la question des instruments et leur rôle dans les processus de problématisation et de fabrication du compromis. Ces derniers peuvent en effet imposer un cadre durable de définition des problèmes. Nous reviendrons sur cet aspect plus loin.

A ce stade, nous retiendrons que pour devenir public, un problème doit faire l’objet d’une mise à l’agenda, mais que cette dernière est conditionnée par l’apparition d’une fenêtre d’opportunité. En outre la qualification d’un problème public est l’objet d’un processus définitionnel, résultant de luttes entre acteurs, qui cherchent à s’assurer ainsi une emprise sur le problème. Cette qualification peut se faire dans des espaces de négociations publics ou discrets, qui font intervenir des acteurs différents. Ces idées seront importantes pour notre travail, car les problèmes de sûreté nucléaire que nous allons analyser dans notre thèse, ont fait l’objet d’une mise à l’agenda spécifique, et de

passages dans des arènes de négociations discrètes et publiques, ce qui va avoir des conséquences importantes sur les choix effectués en matière de régulation.

1.1.2. Expertise scientifique et décision politique

La démarche d’analyse des risques, développée et formalisée aux États-Unis depuis les années 1980, est « la procédure qui consiste à fonder les mesures de gestion des risques sur une évaluation

scientifique des risques, en s’assurant que les actions d’évaluation et de gestion soient simultanément distinguées les unes des autres et réalisées en interaction » (Boudia & Demortain, 2014). Les mêmes

auteurs précisent que « la gestion des risques correspond au processus de décision et aux politiques

mis en œuvre pour réduire et éradiquer un risque, sur la base de la caractérisation scientifique du risque ». La distinction ainsi réalisée entre expertise et décision est au cœur de nombreux travaux de

recherche. Elle interroge à la fois la nature et la spécificité de ces deux activités, mais surtout questionne leurs relations, et à travers cette question, les relations entre science et politique.

Tout au long de la seconde moitié du siècle dernier, les politiques des risques dans plusieurs pays européens ont été légitimées par le discours technocratique et incorporées dans un mode de fonctionnement qui lui correspondait (Zwanenberg & Millstone, 2005). Dans ce mode de fonctionnement de la régulation du risque, les conseillers scientifiques, aux États-Unis, jouaient le rôle de puissants co-décideurs (Jasanoff, 1999) alors qu’en France, l’expertise était intégrée dans l’administration par l’intermédiaire de corps techniques (Corps des Mines et des Ponts notamment) (Garçon & Belhoste, 2012). En ce sens, l’expertise et la décision était fortement imbriquées.

Dans les années 1980-1990 ce modèle technique commença à être largement remis en question suite à une série d'échecs politiques majeurs. D'une part, les expériences négatives associées à la gestion des crises sanitaires, telles que la gestion de la crise de la vache folle et les affirmations trop confiantes des experts au sujet de la contamination post-Tchernobyl ont contribué à une érosion de l’autorité et de la crédibilité de l’approche scientifique, ainsi que des institutions qui l’incarnaient. L’idée va naitre, d’abord aux États-Unis, que de nouvelles structures et de nouveaux processus devraient être en mesure de fournir une plus grande légitimité scientifique et démocratique. Suite à ces crises, et depuis les années 1980, on observe un mouvement de séparation fonctionnelle entre l’évaluation scientifique et la gestion politique des risques (Boudia & Demortain, 2014; Demortain, 2006). Le point de départ de cette séparation est symbolisé par la publication, aux États-Unis, en 1983, par le National Research Council, du Red Book (intitulé « Risk Assessment in the Federal

la séparation plus claire mais aussi l’articulation plus construite entre, d’une part, l’évaluation des risques, liée aux travaux scientifiques et, d’autre part, la gestion du risque, liée à la prise de décision politique. Cet instrument aurait donné lieu à une généricité des pratiques en matière d’analyse des risques, dans de nombreux domaines d’activités, l’idée directrice étant qu’une bonne gouvernance des risques résiderait dans l’articulation et le découplage entre une expertise scientifique indépendante et une décision politique transparente, même si de nombreux travaux ont montré en pratique l’imbrication de ces deux processus (Borraz, 2008; Boudia & Demortain, 2014; Roqueplo, 1997).

Sur le plan institutionnel, ce mouvement, qui apparaît plus lent à se mettre en place en France qu’aux Etats-Unis, donne naissance à des agences qui, souvent en interne, séparent évaluation et gestion des risques (Borraz, 2008). David Demortain parle de « Regulatory agency »6 pour définir ces agences dont une partie du travail réside dans la production d’une science réglementaire (Borraz & Demortain, 2015; Jasanoff, 1990; Joly, 2016), « présentée comme un régime d’activité scientifique

produisant des connaissances qui ne visent ni l’élucidation de phénomènes fondamentaux ni même l’innovation mais l’identification des dangers et l’évaluation des risques et des bénéfices, que ceux-ci soient liés à des phénomènes naturels ou à l’action de l’homme » (Joly, 2016). Cette science

réglementaire aurait pour fonction de légitimer l’adoption de mesures politiques de gestion des risques (autorisation de mise sur le marché, étiquetage, retrait, définition des seuils exposition, conditions d'utilisation ...) (Demortain, 2017). La production d ‘expertise serait alors au centre de cette science réglementaire. Certains auteurs ont montré que cette expertise serait de plus en plus standardisée à l’international, où des collèges et des communautés d’experts élaborent des normes (Demortain, 2011) mais que l’expertise porte encore la marque des histoires nationales ce qui entrave les efforts d’harmonisation internationale (Joly, 2016). Cette standardisation serait également marquée par une bureaucratisation de l’expertise avec des processus d’expertise de plus en plus standardisés qui reproduiraient des caractéristiques formelles de l’administration, mais également par une scientifisation de l’expertise qui exclurait du champ de l’expertise les autres dimensions de l’activité expertisée (et notamment les dimensions politiques) (Borraz, 2008).

6

Par exemple, La « Food and Drug Administration » (FDA) aux États-Unis, compétente en matière de sécurité sanitaire des aliments et des produits de santé, se reconnait elle-même comme une « Regulatory agency » produisant de la science réglementaire.

1.1.3. Les modèles de contrôle

Dans une perspective de régulation des risques, la thématique du contrôle des activités à risques est évidemment centrale, ce qui ne préjuge pas de la forme de contrôle adoptée, car les modèles de contrôle et les pratiques qui en découlent sont divers. Dans la littérature, nous identifions plusieurs modèles de contrôle, basés sur des oppositions variées entre leviers sous-jacents (contrainte ou incitation ; objectif ou moyen ; origine culturelle, économique ou règlementaire), que nous présentons succinctement. Nous évoquerons ensuite un modèle particulier de contrôle, l’audit. Une première opposition générale entre deux idéaux types de régulation apparaît, notamment en sciences politiques : un modèle plutôt basé sur l’incitation, et un modèle plutôt basé sur la contrainte par le régulateur. On la retrouve dans des travaux sur la régulation des risques qui opposent les stratégies basées sur le « command and control », par l’intermédiaire de règles imposées par les régulateurs aux régulés, à des techniques plus incitatives et plus souples (Baldwin, Cave, & Lodge, 2012). Ces deux idéaux types ont été ensuite complétés et nuancés par une vision présentant une gradation de la coercition. (Figure 1).

Figure 1 : Stratégies de régulation (Baldwin & Cave, 1999)

Les sciences de gestion, mais aussi les économistes, mettent volontiers l’accent sur l’opposition entre une régulation par objectifs ou par orientations, et une régulation par les règles et les normes (Wilpert, 2008). Le contrôle de la conformité aux règles et normes suppose une capacité à énoncer des prescriptions et à en vérifier l’application, ce qui peut être problématique. D’où le développement d’une régulation par objectifs, fixant des critères de performance, mais laissant au

problématique dans le domaine de la sécurité industrielle au travail, par exemple, des auteurs comme (Hale & Borys, 2013a, 2013b; Weichbrodt, 2015) ont bien identifié les différences entre un modèle top down basé sur un contrôle strict imposé aux opérateurs, et une approche bottom-up, où l’opérateur, apte à s’adapter aux situations rencontrées, est aussi vu comme un expert.

Proche de notre sujet et pour étudier l’expertise sur les questions de sûreté nucléaire, Grégory Rolina (2009) utilise pour sa part les modèles de contrôle de Ouchi (1979) qui identifie trois modes de contrôle dans les organisations : par les règles qui prescrivent le comportement, par les indicateurs, et par les traditions (le clan). Si les deux premières formes de contrôle peuvent être associées aux deux modèles fondés respectivement sur la contrainte et l’incitation, déjà évoqués, la troisième forme, par les traditions, est basée sur l’idée que l’organisation compte fortement sur des formes de contrôle ritualisées, cérémoniales, reflets des valeurs intériorisées par les individus (Ouchi, 1979). Rolina postule que c’est bien ce mode de contrôle qui correspond au modèle de contrôle français en matière de sûreté nucléaire et qui sert de base à ce que l’auteur nomme le « dialogue technique ». Nous y reviendrons.

Enfin, une autre forme que peut prendre le contrôle serait celle de l’audit, qui correspond « à la

vérification qu’une activité a été effectuée d’une manière efficace et qu’elle a bien atteint ses objectifs » (Power, 2005). Mais le modèle de l’audit, tel qu’il est développé par Power, va bien au-

delà des modèles de contrôle que nous venons d’évoquer car il ne se contente pas de spécifier la nature du contrôle. Il s’appuie notamment sur le principe d’une indépendance du contrôleur (auditeur) par rapport au sujet contrôlé (audité), sur la mise en place d’une technologie de contrôle, et sur l’idée que l’auditeur doit déclarer une opinion fondée sur des preuves. D’après Power, on assisterait à une « explosion de l’audit » (Power, 2005) depuis les années 1980, l’audit financier constituant un mode de référence, notamment à travers l’utilisation des indicateurs de performance quantifiables, ceci influençant la vision même de la performance. Pour Power, l’audit est bien plus qu'une pratique, c’est avant tout une conception du contrôle et de l’exercice des responsabilités. Le développement de l'audit reposerait alors plus sur le contrôle des systèmes que sur le contrôle des activités. Par ailleurs, selon Power, l’audit s’appuie sur un certain nombre d’outils et de dispositifs qui le rendent légitime socialement. Il s‘agit notamment de méthode d’échantillonnage, du choix d’experts « crédibles » ou encore du choix du cadrage de l’audit. Sur ce dernier point, Power met en évidence que l’audit est un contrôle de second ordre. Dans l’impossibilité de tout contrôler, on audite le système de contrôle interne d’une organisation. En ce sens, l'autocontrôle exercé par l’organisation sur elle-même devient une clé pour mener l'audit externe. Ainsi la portée de l'audit dépend de la qualité du contrôle mené en interne et l'audité devient un acteur actif de son propre

audit. L’audit constituerait une forme de contrôle du contrôle dans un mécanisme beaucoup plus vaste où l'autorégulation serait la règle. Comme l’explique Power : « L'explosion de l'audit est liée au

besoin de créer une entité d'auto-vérification susceptible d'être auditée, qui tente d'associer l'idéal de responsabilité à celui d'auto-apprentissage » (Power, 2005).

A partir de cette vision de l’audit, Power théorise un processus de construction de l’auditabilité qui répond à la «nécessité de rendre les entreprises et leurs pratiques routinières auditables » (Power, 2005). Plus qu’un mode de contrôle, Power met en évidence que l’auditabilité est devenue une norme de fonctionnement des organisations publiques et privées, qui mettent en place des systèmes de contrôles internes eux-mêmes auditables, sources de légitimité pour ces organisations. Pour Power, la recherche d’auditabilité devient une clé d’interprétation de l’action de « l’audité » qui doit « rendre l’audit possible », même si celui-ci n’est pas nécessairement réalisé.

Nous retiendrons d’abord de cette section que les activités de contrôle peuvent prendre des formes multiples plus complexes qu’une simple opposition entre l’incitation et la contrainte. Nous avons également noté que l’audit semble associé à un changement dans le style et la philosophie du contrôle, plutôt qu’une simple forme que peut prendre le contrôle. Ce modèle, et le concept d’auditabilité qui y est associé, nous semblent particulièrement féconds pour interpréter l’histoire de la régulation des risques nucléaires que nous avons étudiée.

Cela dit, quel que soit le modèle de contrôle, la question des règles et des normes joue un rôle essentiel. En matière de régulation des risques, de nombreux travaux ont donc cherché à théoriser le processus de leur élaboration.

1.1.4. La production de règles et de normes

Cette thématique est centrale dans la littérature, et l’accent est mis généralement sur la variété des modalités de production des normes. Certains (Hood, 1983) opposent par exemple un processus technocratique (appuyé par exemple sur des études techniques, ou empruntant par mimétisme à d’autres pays ou d’autres domaines), à un processus de négociation. Selon d’autres auteurs, la production de ces règles et normes serait, en France, déléguée aux acteurs de terrain eux-mêmes et notamment aux industriels (Borraz, 2008), sous couvert des pouvoirs publics. Sans aller jusqu’à la thèse de la délégation de cette production, de nombreux chercheurs notent que l’élaboration de ces

règles et normes donne lieu à des compromis et des négociations7 : « que l’on se situe au plan des

opérateurs ou de l’ensemble des organisations (des « systèmes d’action ») en charge d’un domaine à risques, des contraintes et des impératifs multiples se conjuguent, donnent lieu à chaque fois à des compromis » (Gilbert, 2001). C’est ce que notent différents auteurs, qui mettent en avant le

caractère négocié des règles et normes environnementales par les acteurs de terrain qui doivent les appliquer (Lascoumes, 1993; Lascoumes & Le Bourhis, 1996; Martinais, 2010). Lascoumes met en évidence l’existence d’un droit environnemental négocié (Lascoumes, 1993; Lascoumes & Le Bourhis, 1996), peu contraignant, et qui ne comporte pas d’objectifs quantitatifs précis (Lascoumes, 1995). Les travaux d’Emmanuel Martinais sur l’écriture des règlements, et notamment les Plans de Prévention des Risques Industriels (PPRI) (Martinais, 2010) fournissent une analyse qui, si elle n’est pas contradictoire avec cette thèse de la négociation, mettent en évidence des mécanismes un peu différents. Ce travail montre en effet que si les plans de prévention sont le prolongement de la loi, ils sont surtout issus du travail d’une « sous-administration » très autonome, en dépit d’une forte pression politique. Les jeux de pouvoir à cette échelle micro participent alors activement à la production des règlements, dont les résultats ne sont pas prédéterminés par le cadrage initial. Pour l’auteur, « cela illustre le caractère non planifié et plus ou moins aléatoire de la fabrication des

règlements administratifs » (Martinais, 2010).

Enfin, même dans le domaine juridique, on peut également citer quelques travaux en droit qui ont notamment mis en évidence un certaine flexibilité du droit environnemental (Carbonnier, 2001), et la prolifération du « droit souple ». Quelques chercheurs ont notamment mis l’accent sur un recours important au « droit souple » concernant la sûreté nucléaire au niveau européen et international (Ahoulouma & Chapotet, 2014; Boustany, 1998).

Par ailleurs, la production des règles et des normes a une dimension matérielle sur laquelle certains chercheurs attirent l’attention. Le Bourhis montre par exemple comment la cartographie des risques