PARTIE II : CADRE THEORIQUE
Chapitre 3. De la réduction des erreurs au développement de la culture de sécurité
1.3. Vers la compréhension des erreurs humaines et des violations
En tant que discipline et domaine d’intervention, la fiabilité humaine s’organise autour des
notions d’erreurs et de violations et les efforts d’analyse et d’action du courant
psychologique/ergonomique sont souvent orientés vers la caractérisation et la catégorisation
de ces actes risqués, ainsi que vers leur éradication (De Montmollin, 1997).
1.3.1.Les erreurs et les violations comme des écarts par rapport à une norme, mais
laquelle ?
La différence entre l’erreur humaine et la violation est faite à travers le caractère volontaire –
ou non – de l’action. De manière générale, l’erreur est définie comme un écart involontaire
par rapport à une norme, provenant soit d’un raté lors de l’exécution de l’action, soit d’une
intention inexacte. Les violations, elles, sont considérées comme des écarts volontaires,
intentionnels par rapport à un comportement attendu/une norme (Leplat, 1985 ; Norman, 1981
; Rasmussen, 1982). Ces définitions supposent l’existence d’un domaine de référence,
vis-à-vis duquel l’on pourra parler d’écart.
La norme : quel domaine de référence ?
L’approche classique consiste à classifier les erreurs et les violations comme des écarts par
rapport à une norme (Leplat, 1985 ; Norman, 1981 ; Rasmussen, 1982 ; Villemeur, 1988).
Néanmoins, comme le souligne Leplat (1999, p. 32), « cette notion de norme a donné lieu à
beaucoup d’ambiguïté et soulève de nombreuses questions […]. - Qui fixe la norme ? La
norme est-elle la même pour tous : pour le concepteur, l’organisateur, le responsable ? Ce qui
est un écart pour l’un, le sera-t-il encore pour l’autre ? La norme est-elle étroitement définie
ou est-elle floue ?».
La norme peut prendre des formes variables et il n’existe donc pas de référentiel univoque
pour classifier les écarts. Citons les quatre référentiels souvent distingués dans la littérature.
Ils peuvent être internes ou externes à l’opérateur. Selon le référentiel que l’on prend, l’écart
peut se constituer comme une erreur pour le sujet ou comme une erreur pour l’expert.
o Le référentiel prescrit par l’organisation ou la réglementation : la référence est externe
à l’opérateur. Le comportement ou état attendu est prescrit par les concepteurs,
organisateurs, responsables. L’écart est défini comme un non-respect de cette
prescription et constituera une erreur pour l’expert.
o Le référentiel de la tâche attendue : la référence est une tâche attendue officieusement
par l’organisation, généralement non écrite. Elle existe malgré l’existence d’une tâche
officiellement prescrite, et c’est la tâche qu’il faut appliquer compte tenu des aléas
techniques et organisationnels (Chabaud, 1990). Pour Chabaud (1990), la tâche
attendue fait partie de la tâche prescrite, celle-ci étant la somme de la « tâche
affichée », officiellement prescrite et de la tâche attendue. Dans ce sens, l’écart à la
tâche attendue peut être considéré comme une erreur pour l’expert.
o Le référentiel des opérateurs de la profession : la référence est l’ensemble des tâches
effectuées par un opérateur-type du domaine. La tâche de référence est alors une
adaptation de la tâche prescrite, la tâche réelle. On peut la rapprocher des règles de
Chap. 3 : De la réduction des erreurs au développement de la culture de sécurité
métier (Cru, 1995), non réductibles à la prescription. L’écart à la tâche réelle peut être
considéré comme une erreur pour les sujets de la profession.
o Le référentiel de l’opérateur qui exécute l’action : la référence est interne à celui-ci. Le
comportement ou état est souhaité par l’opérateur lui-même. L’écart est défini comme
un non accomplissement de l’intention de l’opérateur. Cette définition se rapproche de
celle de Reason (1993), qui consiste à donner comme norme subjective l’intention de
l’opérateur. Cet auteur affirme par ailleurs que l’erreur est inséparable de la notion
d’intention. Leplat (1997) classifie d’erreur pour le sujet ce type d’écart entre ce que
le sujet souhaitait faire et ce qui a été réellement accompli. Cellier (1990) parle de
l’activité habituelle de l’opérateur comme une norme de référence. L’idée sous-jacente
est que l’écart entre celle-ci et l’activité réelle représente une source d’erreur
additionnelle.
Une fois associés le référentiel de la tâche attendue à celui de la tâche prescrite, voici les trois
grandes classes de référentiels, représentées dans la figure 4.
Figure 4 : Décomposition de l'erreur en fonction des trois référentiels possibles (Cellier, 1990)
La définition d’erreur en termes d’écart à une norme externe à l’opérateur trouve ses limites
lors de l’absence d’un domaine de référence : c’est le cas des normes inexistantes ou
incomplètes.
La norme inexistante ou incomplète
« Concernant la norme comme référence, une première difficulté est liée à son existence, ou
tout au moins à son explicitation en tant que norme » (Cellier, 1990, p. 196) Cellier souligne
encore que la norme n’est pas toujours un énoncé explicite. Il suffit d’examiner certains
cahiers de procédures dans des domaines différents pour se rendre compte des divergences.
Le niveau de précision de la prescription peut varier d’une tâche à une autre, allant d’une
procédure à appliquer de façon stricte à une consigne plus ou mais vague.
TP TR AR AH Performance ee es variation TP : Tâche Prescrite TR : Tâche Réelle AR : Activité Réelle AH : Activité Habituelle ee : erreur pour l'expert es : erreur pour le sujet
Leplat et Hoc (1983 cités par Toupin, 2008) considèrent que la prescription d’une tâche est
complète quand elle permet à un sujet donné d’exécuter cette tâche immédiatement, sans
avoir besoin de nouvelles acquisitions. Inversement, une tâche dont la prescription est
incomplète nécessite du sujet une activité d’élaboration de la procédure en plus de l’activité
d’exécution.
L’incomplétude des normes peut être liée au type de domaine d’activité d’une part, et sera
toujours associée à la variabilité des situations de travail, d’autre part, dans le sens où les
comportements attendus ne peuvent pas tous être anticipés.
D’un côté, certains domaines d’activités sont moins prescriptifs que d’autres en termes de
procédures de travail bien décrites. Ceci ne semble pas toujours être en lien avec le niveau de
sophistication du système technique (Cellier, 1990), mais plutôt avec le niveau de culture de
sécurité. La comparaison de la radiothérapie, technique médicale hautement sophistiquée,
avec le secteur du nucléaire en témoigne : le deuxième est contraint à une très forte
réglementation depuis une trentaine d’années tandis que le premier voit une montée des
exigences réglementaires depuis l’accident survenu en 2005 à Epinal (cf. chapitre 1).
D’un autre côté, les comportements face aux variations des situations de travail, à
l’imprévisible, à l’imprévu ne peuvent pas tous être décrits dans les procédures. Cette
caractéristique peut être associée au type de travail où les conditions d’exécution de la tâche
sont très variables, en raison de la complexité du système. Dans ces situations il n’est pas
possible de définir exactement la tâche et il revient à l’opérateur de déterminer les «
sous-buts » à atteindre et d’élaborer une procédure pour le faire (Flageul-Caroly, 2001).
En sociologie, de Terssac (1992, cité par Leplat, 1997) parle de « mission » pour définir les
tâches vagues, avec des objectifs généraux. Les missions complètent les normes officielles
issues de l’encadrement, mais ne sont pas assimilées à des principes à prendre en compte pour
l’élaboration de la procédure (Leplat, 1997).
Dans ces situations de « non-norme » externe, la norme, la référence à priori, ne peut être que
celle interne à l’opérateur ou celle du métier. Comme le souligne Leplat (1997), dans ces cas,
la notion d’erreur pour l’expert ne sera pas facile à établir. Parfois, le bon comportement « ne
peut alors être décrit comme tel qu’à posteriori » (De Montmollin, 1997, p. 152), en fonction
des conditions présentes lors de l’action et des résultats de l’écart. Subséquemment, d’autres
définitions vont dans le sens de l’évaluation de l’erreur par le résultat.
1.3.2.De la norme aux résultats : « la limite de tolérance », « la valeur de l’écart » et
l’acceptabilité des écarts
Pour Reason (1993, p. 31), « le terme erreur sera pris en un sens générique, qui couvre tous
les cas où une séquence planifiée d’activités mentales ou physiques ne parvient pas à ses fins
désirées, et quand ces échecs ne peuvent pas être attribués à l’intervention du hasard ». De
même, Fadier (1983, cité par Artigny et al., 1993) caractérise l’erreur comme « un résultat
non acceptable d’une action humaine et/ou une absence d’action qu’un opérateur ou une
Chap. 3 : De la réduction des erreurs au développement de la culture de sécurité
équipe devaient réaliser pour atteindre un but précis dans des conditions données et durant
une durée déterminée ».
Leplat (1999) nous renvoie à la notion de « limite de tolérance » – en la rapprochant de celle
de limite de confiance, utilisée en statistique – pour exprimer l’idée qu’existent des erreurs qui
sont acceptables et d’autres qui ne le sont pas, selon un certain seuil fixé. « Ce qui constituera
l’erreur, c’est l’évaluation de ce résultat par rapport à un but visé, à une référence adoptée
pour l’activité » (p. 32).
Ainsi, « la valeur de l’écart » (Cellier, 1990) sera dépendante de la connaissance du but que se
donne chaque acteur. Comme pour la norme, le but/résultat devient le domaine de référence.
De ce fait, l’évaluation de l’erreur et de la violation en termes d’écarts à une norme/un but
souhaité(e) peut différer selon que l’évaluateur est celui qui a prescrit un
comportement/résultat donné, l’opérateur lui-même ou encore un groupe d’opérateurs de la
profession. « On comprend qu’un même écart aura pour un opérateur chargé de la conduite
d’un processus des significations différentes que celles d’un opérateur chargé de la
maintenance » (Cellier, 1990, p.199). Ce phénomène a été observé dans le domaine de la
radiothérapie, dans lequel il a été identifié que la variabilité d’acceptabilité d’écarts, en termes
de conduite ou de résultats, varie selon la profession des sujets (radiothérapeute vs
manipulatrice, par exemple) (Nascimento & Falzon, 2008a). Cette question fait l’objet du
chapitre 7 de la partie empirique de cette thèse.
1.3.3.Erreurs actives et erreurs latentes : vers une vision systémique de la sécurité
Les évolutions dans les études sur les mécanismes de production et manifestation des erreurs
ont amené Reason (1993) à faire une distinction entre les erreurs dont les effets se font
ressentir presque immédiatement, et celles dont les conséquences néfastes peuvent rester
longtemps en sommeil dans le système, ne se manifestant qu’en combinaison avec d’autres
facteurs. Les premières ont été nommées erreurs actives tandis que les secondes sont appelées
erreurs latentes.
Les erreurs actives découlent des actions humaines erronées commises par les opérateurs
finaux qui exécutent leur tâche le plus proche des dangers (opérateurs de conduite d’un
réacteur, pilotes aériens, personnels soignants, etc.). Ce type d’erreur a été largement étudié
par les scientifiques intéressés par la sécurité des systèmes. Bien que les opérateurs puissent
commettre fréquemment des erreurs, et ceci en grand partie pour essayer de récupérer l’état
dégradé des systèmes, bon nombre des causes premières de situations dégradées sont inscrites
dans le système longtemps avant que les erreurs actives ne soient commises (Reason, 1993).
Dans le sens d’une vision plus systémique de la sécurité, Reason théorise l’existence d’erreurs
latentes – qui sont ensuite activées que par les opérateurs finaux – qui relèvent de décisions
erronées au niveau managérial, de systèmes de gestion inadaptés, de matériels et de circuits
d’informations insuffisamment fiables, etc. Hollnagel (2004) fait référence à ce modèle
lorsqu’il parle de la dichotomie sharp end et blunt end, traduits respectivement par « en
première ligne » et « en retrait » (cf. figure 5).
Figure 5 : Les relations entre facteurs en retrait et facteurs de première ligne (Hollnagel, 2004)
Ainsi, on abandonne une ère de l’erreur d’un opérateur comme un facteur explicatif unique
des accidents, et ce malgré la persistance de cette approche dans de nombreux médias. Trois
raisons principales de cet abandon sont avancées dans la littérature scientifique (Daniellou,
Simard & Boissières, 2009) :
o la focalisation sur les erreurs humaines conduit à s’intéresser uniquement aux
événements ayant des conséquences négatives, sans prendre en compte toutes les
régulations humaines visant à assurer la sécurité au quotidien, notamment par le biais
de la prévention et de l’anticipation des erreurs. L’anticipation permet aux opérateurs
de prévoir le comportement du système ou les conséquences de sa propre action et de
celle des collègues, et de les corriger sans attendre qu’une erreur se produise (Leplat,
1997) ;
o les erreurs humaines sont très nombreuses mais la majorité d’entre elles est sans
conséquences car elles sont détectées et récupérées par la personne qui les a commises
ou par le collectif, avant que l’effet de l’erreur soit irréversible ;
o focaliser l’analyse sur les erreurs actives – et par conséquent sur le dernier maillon de
la chaîne – ne permet pas de tirer de leçons des événements (Cook, R. & Woods,
1994). Dans la logique de l’approche systémique, l’erreur est considérée, de manière
générale, comme un symptôme d’un dysfonctionnement du système : elle est vue
comme la manifestation d’un mauvais couplage entre l’Homme et son environnement
(Chesnais, 1990). Pour profiter des enseignements des événements, il faut orienter
l’analyse vers la compréhension des causes profondes, ainsi que du contexte
d’interaction entre l’opérateur, le système sociotechnique dans lequel il agit et les
caractéristiques de son activité de travail.
Chap. 3 : De la réduction des erreurs au développement de la culture de sécurité
nécessité de considérer la sécurité des systèmes de manière globale amène aux théories qui
prennent en compte les facteurs réglementaires, culturels, managériaux et organisationnels
dans les analyses et voies d’amélioration de la sécurité des systèmes à hauts risques. Les
catastrophes telles que Three Mile Island, Bhopal, Challenger et Tchernobyl ont été des
terrains d’analyse fructueux pour le développement de ces concepts et théories dans les
années 1980-90.
Dans le document
Produire la santé, produire la sécurité : développer une culture collective de sécurité en radiothérapie
(Page 54-60)