• Aucun résultat trouvé

Les dimensions considérées dans l’analyse des crises et des systèmes

CHAPITRE 2 : REVUE DE LA LITTÉRATURE

2.2 L’analyse des crises

2.2.3 Les dimensions considérées dans l’analyse des crises et des systèmes

L’une des branches de la théorie des organisations, la science du complexe, qui se propose d’analyser les systèmes dans leur complexité et sans dénaturer tant l’interdépendance des composantes internes des systèmes et leur ouverture et influence extérieures, a fortement influencé la notion contemporaine de crise : « En effet, si on veut, pour concevoir la crise, au-delà de l’idée de perturbation, d’épreuve, de rupture d’équilibre, il faut concevoir la société comme système capable d’avoir des crises » (Morin 1976, 149).

Pour pouvoir analyser la crise, les chercheurs ont conçu des modélisations analytiques qui intègrent les composantes cognitives du risque et ses composantes structurelles ou systémiques (Kervern 1995, Gilbert 2002; Lengnick-Hall & Beck 2003). Ils ont également modélisé la crise comme la conjonction de plusieurs facteurs simultanés (Reason 1997) et la résultante non-anticipée de « chemins critiques » (Perrow 1984). Deux courants de recherche particulièrement importants en matière de gestion de crise et du risque ont contribué à un dialogue enrichissant sur les manières dont les crises émergent et les manières de les contenir. Chacun de ces courants s’intéressait à un ensemble de dimensions quelque peu complémentaires, l’une expliquant les conditions d’une (relative) fiabilité opérationnelle dans les systèmes complexes, et l’autre, les processus et caractéristiques propres aux systèmes complexes rendant inévitables et difficilement décelables les sources du danger.

La théorie de la haute fiabilité ne s’inscrit pas en faux avec la théorie des accidents normaux, mais elle s’interroge plutôt sur les raisons pour lesquelles des systèmes complexes, comme les infrastructures essentielles, par exemple, sont en mesure de défier les probabilités en évitant, sur de très longues périodes, l’échec système (De Bruijne et van Eeten 2007).

Le courant de recherche sur les accidents normaux (Perrow 1984, 1999; 2006; Freudenburg 1992a, Freudenburg et Gramling 1994, 2011; Freudenburg, Gramling Laska et Erikson 2009; Sagan 1993) analyse donc les crises a posteriori, en décrivant l’interdépendance des systèmes et les mécanismes organisationnels qui rendaient

37

inévitables l’émergence de catastrophes27, tandis que le courant sur les organisations à

haute fiabilité (HRO) analyse la méthode de gestion de l’incertitude dans les organisations à haut risque. Ce second courant s’intéresse plus particulièrement aux conditions qui favorisaient la fiabilité des systèmes28.

Ces deux courants se rejoignent en ce qu’ils cherchent à comprendre les conditions d’émergence des catastrophes et les pratiques les plus susceptibles de prévenir les crises et de limiter leurs dégâts. Il s’agit pour l’une et l’autre d’étudier les conditions systémiques favorisant soit, pour la première, les crises, et pour la seconde, la fiabilité. Ces deux courants sont donc complémentaires (La Porte 2006) et ils ont enrichi le domaine de l’analyse du risque avec des traditions d’analyses issues des sciences sociales (Roe et Schulman 2008).

Il émerge de ces analyses empiriques et théoriques que des conditions favorisent les accidents ou leur évitement et que certaines caractéristiques organisationnelles peuvent expliquer le caractère prompt aux accidents de certains systèmes techniques (Roberts 1993a; Rosenthal, Hart et Kouzmin 1991, Frederickson et La Porte 2002, Longstaff 2005). Nous définirons certains des concepts importants de cette littérature.

A- La pleine conscience (Mindfulness)

Roe et Schulman (2008) décrivent comment certains mécanismes dans les organisations dites « à haute fiabilité », génèrent des processus variés (et souvent non routiniers ni établis) pour maintenir un haut degré de vigilance (mindfulness). Ces auteurs expliquent que le personnel de ces organisations, particulièrement les reliability professionals, fait tout pour rester en alerte et éviter les raccourcis qui proviennent du succès antérieur, des stratégies ou des plans (wishful thinking) et il tente de réduire l’influence de la hiérarchie dans les décisions afin de les faire reposer essentiellement sur l’expertise et la proximité technique (Weick et Sutcliffe 2007). Les gens au sein des systèmes HRO, tels que les systèmes de contrôle du transport aérien, spatial ou d’électricité, savent que ce sont les « croyances acceptées » qui

27 La routinisation, l’atrophie de la vigilance, la planification et la simplification de l’analyse du risque,

perçu essentiellement comme un facteur humain plutôt qu’organisationnel et systémique aggrave le danger. Le déni de la complexité qu'opère une vision "fermée" du système (organisation), niant son interdépendance avec l'environnement favorise l'émergence des conditions propices aux crises.

28 L’implication des parties prenantes dans la formulation des risques, l’auto-évaluation qui permet

l’anticipation et la mitigation des problématiques potentielles, la confrontation de ce qui est planifié avec les opérations réelles (La Porte 1996).

38

produisent les normes de précaution et donc que ces croyances doivent ainsi faire l’objet de vigilance constante. Étant donné la nature imprévisible et instable de l’environnement dans lequel évoluent ces organisations dans les HRO, les gens :

 priorisent l’objectif de sécurité;  construisent en redondance;  décentralisent la prise de décision;

 investissent beaucoup en formation et en simulation;  apprennent des situations réchappées de justesse;  cherchent à savoir ce qu’ils ignorent sans relâche;

 accordent énormément d’importance à communiquer l’orientation générale ou l’état général du système (big picture) et le rôle de chacun vis-à-vis celui-ci;  félicitent ceux qui rapportent leurs échecs ou les disfonctionnements;

 sont préoccupés par les conséquences indues de la réussite ou du succès (liaibilities of succes) tels que la complaisance;

 se méfient de la tentation de réduire les marges de sécurité et du dérapage de l’automatisation;

gardent le focus sur les pratiques (operational process) qui produisent un fonctionnement fiable, prudent et lucide et flexible plutôt que sur les résultats (outcomes) (Synthèse des idées développées par Roe et Schulman 2008). Or, il est absolument crucial pour une organisation, un réseau ou un ensemble géographique dont les composantes sont interdépendantes et étroitement liées, d’être dotée d’une structure fluide et ouverte de communication afin de lui permettre de remettre en question sa lecture des évènements et de se réajuster avant que cette lecture projective l’ait berné. De plus, quelque soient les circonstances, il est préférable de s’en remettre à l’expertise plutôt qu’à l’autorité (Weick et Sutcliffe 2007). Enfin, dans les HRO, l’information est riche et elle arrive aux décideurs en temps réel, ce qui permet le maintien d’une structure cognitive stable29.

B- Adaptation de la structure de communication pour permettre l’efficacité d’adaptation

Afin de maintenir un système fiable dans la mesure du possible, la décision des stratégies d’action, qui sont constamment à renouveler, repose sur une structure informationnelle très fiable et très adaptée à ce contexte riche en changements (Comfort 2007). C’est le dynamisme (vélocité du changement) de la technologie qui en appelle à une prudence accrue et constante et des structures et des processus

29 Comme l’explique Rochlin (1993) : « Les [organisations à haute fiabilité -HROs] visent un idéal de

perfection mais elles ne s’attendent jamais à l’atteindre. Elles requièrent une sécurité absolue mais ne s’y attendent jamais. Ils redoutent la surprise mais l’anticipent toujours. Elles livrent de la fiabilité mais elles ne la prenne jamais pour acquise. Elles opèrent dans les règles mais ne sont pas prêtes à mourir pour elles » (Rochlin 1993, 24).

39

flexibles30 (Roe et Schulman 2008). Dans le même ordre d’idées, Katleen Eisenhardt

(1989b;1993) tisse un parallèle entre les organisations à haute fiabilité et celles qui doivent prendre des décisions rapidement dû à la vélocité des changements et la pression qu’exerce sur elles l’environnement dans lequel elles évoluent. Les points de convergence sont, notamment, l’importance accordée à la spécialisation et le fait que la performance de l’organisation est vue comme une fonction de l’efficacité d’adaptation (Idem). Le niveau de compréhension mutuelle au sein des systèmes est crucial :

Tant les organisations à haute fiabilité que les organisations à prise de décision rapide dépendent de réseaux [webs] de communication denses et riches vis-à-vis les questions opérationnelles. Ces réseaux sont rapides parce qu’ils donnent l’avertissement [early warning]. Ils sont fiables parce qu’ils permettent à l’intuition sophistiquée de se développer et parce qu’ils cultivent un climat de confiance et d’équipe essentiel dans la gestion et dans l’évitement des crises (Eisenhardt 1993, 132, traduction libre, emphase ajoutée).

Effectivement, les organisations qui évoluent dans un environnement très instable doivent constamment rester à l’affut de leurs ignorances. Cet élément est très important tant dans la littérature sur les accidents normaux (Perrow 1984) que sur la haute fiabilité (Eisenhardt 1993, Roberts 1993a).

Il y a donc une certaine contingence entre les caractéristiques de l’environnement externe, notamment, et la rapidité avec laquelle l’évolution des conditions, les échanges et transactions qui ont lieu à l’externe. Autrement dit, l’environnement influence les opérations internes de l’organisation. Cette efficacité d’adaptation repose donc sur des facteurs itératifs et des conditions spécifiques que nous avons explorées dans des recherches antérieures (Therrien, Beauregard et Valiquette L’Heureux 2015). et auxquelles nous reviendrons à la section 2.3

C- Le doute systémique et la réflexivité

La notion d’autocritique est importante en ce qui concerne une gestion du risque efficace car elle est au cœur même de la recherche du sens dans le système. Le fait d’accepter l’ignorance de certains phénomènes et faits ou encore, d’aborder ce qui pourrait sembler être « de mauvaises nouvelles » pour l’organisation permet l’amélioration des connaissances et une meilleure anticipation. En termes analytiques,

30 Cette flexibilité signifie que les opérations sont menées par des gens qui ont en tête que les règles et

protocoles sont faits pour des situations prévues et que tous les scénarios qu’ils rencontreront ne seront pas nécessairement prévus. Il y a donc une flexibilité dans la façon dont les règles sont appliquées parce que les situations changent et les contextes évoluent.

40

le système de gouvernance accordera de l’importance aux interprétations contradictoires permettant ainsi aux dissonances perçues d’être exprimées et de négocier un nouveau consensus sur les façons appropriées de réagir à des sources évolutives du risque. La communication et le doute y permettent une stabilité cognitive tout en diminuant les effets pervers de la socialisation (groupthink voir Boin 2005; Busby 2006).

L’attitude organisationnelle de sagesse permet aux systèmes de composer avec les paradoxes plutôt que de les réprimer. Ainsi, Weick et Sutcliffe (2007) conçoivent-ils la sagesse comme la force d’un certain pragmatisme lié à une volonté éthique de prévenir les crises. À cet égard, Achtenhagen et Melin (2003) insistent sur l’importance, pour favoriser un climat organisationnel sain et propice à l’apprentissage, d’un espace où les conflits peuvent être abordés ouvertement. Cela implique une transformation du rôle de la figure autoritaire vers un rôle de soutien et de conciliation des cultures, intérêts et visions divergentes. Permettre le doute impliquera également d’adapter les normes culturelles à cette posture :

« ...il est évident que les normes culturelles peuvent avoir un impact énorme sur comment une organisation appréhende les questions de sécurité. (...) l’on ne peut s’attendre à ce qu’une mesure statique puisse refléter des caractéristiques dynamiques. Une mesure de la sécurité est essentiellement un portrait instantané des orientations en termes de sécurité en tant qu’aspect normatif culturel des organisations engagées envers l’accroissement de la fiabilité. Cela ne dépeint pas l’aspect dynamique qui pourrait être lié à l’amélioration de la fiabilité. » (Koch 1993, 93-94 en référence à (Roberts 1992) traduction libre).

Weick et Sutcliffe (2007) soutiennent également qu’il serait important, pour prévenir les accidents, que l’organisation développe un système permettant de remettre en question une décision dangereuse31. La présence « ressentie » de dissonances dans le

système de gouvernance du risque suscite la recherche d’une connaissance partagée qui dépasse les connaissances de chacun des membres d’un système, mais des espaces doivent être disponibles pour détecter les dissonances et créer de l’ordre, que ce soit la hiérarchisation de valeurs, la réconciliation de perceptions divergentes, la clarification des tâches ou le partage des responsabilités.

31 Ils citent en exemple cette possibilité qu’ont les officiers sur les porte-avions de la marine

américaine: « Les responsables d’une unité d’aviation qui connait les caprices de ses propres pilotes saura momentanément passer outre les officiers de niveau supérieur de la tour de contrôle et décider comment les avions atterriront si l’un des membres de son escadron perd des liquides en tentant d’atterrir » (Weick et Sutcliffe 2007, 39). Ils expliquent qu’une réunion a lieu avec les superviseurs immédiatement après qu’une décision ait été renversée, afin de clarifier pourquoi les ordres ont été rejetés et s’il y a des apprentissages à tirer de cette situation.

41

De plus, lors d’une crise, selon Weick, les individus « prennent conscience subitement et profondément que l’univers n’est plus un système ordonné et rationnel » (Weick 1993a, 633 cité par Roux-Dufort 2000, 38). Les individus n’arrivent plus à donner un sens à l’expérience qu’ils vivent. Un groupe d’individus ou d’organisations est moins vulnérable à la perte de sens s’il adopte une communication franche et ouverte permettant la remise en question (Eisenhardt, 1993 :132 cité par Weick 1993a). Bref, l’un des piliers fondamentaux à une culture de sécurité est la capacité pour une organisation de faire preuve de sagesse et de réflexivité. Cette attitude décloisonnera les structures de manière à permettre une compréhension plus intégrée des façons de prendre en charge les opérations dans le but de les harmoniser et d’en réduire les incohérences (Adler et al. 2008).

Une attitude empreinte de sagesse est l’une des quatre sources qui permettent aux groupes d’être moins vulnérables à la rupture du sens (rupture de sensemaking), donc à cette déstabilisation propre à la crise (Weick 1993a). Les autres sources sont : le bricolage (l’improvisation, la créativité), l’intelligence projective (virtual role system) et l’interaction respectueuse, qui dépendra, en l’occurrence, de l’intersubjectivité, la réalité qui est négociée par l’interaction (Ibid).

L’interaction entre les membres d’une organisation est la clé d’une gestion proactive du risque, car d’une part, la socialisation crée des rationalisations dangereuses, et d’autre part, l’ouverture au dialogue et à l’autocritique rend possible la détection de ces rationalisations, de dissonances et de paradoxes. Une culture de sécurité est capable de favoriser la recherche des erreurs en stimulant le désir de comprendre leurs sources sans blâmer. Elle favorisera la compréhension des risques inhérents à la vie organisationnelle et valorisera la créativité dans les manières de combattre les sources systémiques de risque. La réflexivité est essentielle car elle implique un espace de remise en question, elle est liée au doute, mais elle fait un pas de plus vers une certaine affirmation de soi. Le point de départ de ce projet (l’organisation réflexive) est de reconnaître la pluralité de perceptions des faits scientifiques et de la science (Wallerstein 2004).

D- Construire un sens (sensemaking)

Le sensemaking est la génération de sens par l’organisation à partir de faits. Weick et Sutcliffe (2007) constatent également que de façon générale, les gestionnaires

42

génèrent le sens qu’ils donnent aux activités de leur organisation, en projetant une réalité souhaitée plutôt que de poser un regard objectif sur la situation réelle de leur environnement interne et externe. Par exemple, à force de porter trop attention au succès souhaité, à la stratégie, à l’atteinte de quotas ou de marges irrationnels, le système peut être en proie à la simplification.

« Notre compréhension (…) doit toujours rester modeste car chacun d’entre nous « doit appliquer des conceptions limitées à des interdépendances illimitées » [La Porte 1975]. L’application de ces conceptions limitées se produit au moment où les discontinuités activent le sensemaking afin de reconstituer un présent en évolution. » (Weick 2013, 106, citant La Porte T. R. 1975)

En études des crises, la notion de sensemaking est éminemment importante parce qu’elle réfère au fait que la réalité est un accomplissement continu : elle émerge d’efforts pour se représenter le monde, y créer de « l’ordre » par des moments de rétrospection permettant à l’individu de « prendre » ce qui arrive (Weick 1998, Klein 1993).

Pour gérer le risque efficacement, le système de gouvernance doit s’intéresser à la manière dont le risque est porté à la conscience de chacun et comment l’humain génère un sens sur la source de ce risque (ou crise) et génère des pistes d’actions permettant de composer avec ce risque. Le fait de bien connaître l’organisation et les individus aide à fédérer les efforts de sensemaking tant au niveau de la manière d’interagir que du contenu qui est le fruit de l’interaction, c’est-à-dire la réalité commune générée par l’interaction des interprétations individuelles.

La présence « ressentie » de dissonances dans le système de gouvernance du risque signifie essentiellement qu’en termes de méthodes analytiques, nous devons nous attarder à l’heuristique du risque qui fait partie intégrante du processus de « sensemaking ». L’heuristique signifie la manière dont un phénomène est apporté à la conscience de chacun et peut générer l’action. Il faut savoir « pressentir beaucoup avec peu » selon Lesca et Lesca (2013) et comprendre la manière dont les risques et les manières d’agir sur eux sont internalisés : « l’interprétation d’un signal faible requiert des heuristiques plutôt que des algorithmes, c’est-à-dire des processus de réflexion plutôt proches de ceux mobilisés pour la créativité et plutôt éloignés de ceux mobilisés pour la modélisation mathématique » (Lesca et Lesca 2013, 269). Les HRO ont intégré cette leçon et cherchent à voir toute anomalie comme un signe précurseur de défaillances systémiques (Roe et Schulman 2008).

43

L’efficacité de mitigation et de réaction aux crises est relative à un contexte et des habiletés organisationnelles et culturelles données car la planification des mesures d’urgence est avant tout le développement d’une capacité de réponse au moment de la catastrophe (Denis, 1998). Le sensemaking ou génération d’un sens, est donc avant tout un processus collectif car la cognition et l’heuristique sont socialement ancrées. Ainsi, les meilleures pratiques en ce qui concerne la gestion du risque ont trait non seulement à des pratiques au sens strict du terme, mais font également appel à un contexte culturel qui favorise la capacité d’organisations ou de réseaux d’organisations à faire preuve de réflexivité, d’autocritique et de sagesse. La réflexivité d’un système est sa capacité à mettre en doute ses certitudes, et à considérer les impacts négatifs directs et indirects de ses activités.

L’interprétation du risque, comme base à l’action est la première phase de la prise de décision d’un système de gestion de crise (Gasson 2005). Bref, la réflexivité, la sagesse, la rétroaction et le doute quant au caractère infaillible des systèmes techniques est au cœur des stratégies de construction d’un sens partagé et cohérent des HRO (Roe et Schulman 2008).

E- Les rationalisations dangereuses

Comme Weick (1993) l’indiquait, le fait même de connaître est un processus qui repose sur un certain nombre de croyances : « les gens ont tendance à s’intéresser davantage à ce qui confirme leurs attentes qu’à ce qui les réfute ou les contredit » (1993, 145). Beaucoup d’emphase est donc mise, en littérature sur les crises, sur les antécédents de la crise et ses modes de préparation (Mitroff et Pauchant 1995, 163). Selon ces auteurs, les habiletés professionnelles et organisationnelles peuvent être améliorées, testées et entraînées32.

« Puisque la complexité et l’incertitude apparaissent évoluer à l’unisson, la gestion tente de limiter de plus en plus les réalités par de nouvelles contraintes. Cependant, la complexité confond généralement notre compréhension de tels systèmes [économiques et autres systèmes complexes non-linéaires] et puisque notre compréhension est incomplète, cela limite notre potentiel de contrôle managérial » (Kiel 1994, 129, traduction libre).

Mitroff (2002) appelle de tels mécanismes de défense organisationnels l’intellectualisation, le déni ou l’idéalisation : à la vue d’anomalies dans les processus,

32 Telles que la gestion du stress, la préparation à la communication médiatique de même que la

44

par exemple, des relations de cause à effet sont dégagées par analogie, sans fondements réels.

Ainsi, la fiabilité des systèmes repose sur des stratégies qui stabilisent la structure cognitive (la rendent moins vulnérable aux chocs) en combattant les rationalisations dangereuses. Pauchant et Mitroff (1995) qualifient les rationalisations de « suppositions de base qui influencent les membres de l’organisation à propos d’eux- mêmes, de leur entreprise, de leur environnement ou même de la nature des gens ou de la vie en général. Ces croyances sont largement inconscientes et rarement formulées » (1995, 103).

Les rationalisations sont des mécanismes qui sont décrits dans la théorie de la vigilance en tant que facteurs individuels ou organisationnels de l’échec des systèmes, tels que la complaisance, la diffraction des responsabilités, l’altération bureaucratique de l’information, etc. (Freudenburg 1992). L’annexe 4 comprend une liste de 32