• Aucun résultat trouvé

Vers la compréhension des erreurs humaines et des violations

PARTIE II : CADRE THEORIQUE

Chapitre 3. De la réduction des erreurs au développement de la culture de sécurité

1.3. Vers la compréhension des erreurs humaines et des violations

En tant que discipline et domaine d’intervention, la fiabilité humaine s’organise autour des

notions d’erreurs et de violations et les efforts d’analyse et d’action du courant

psychologique/ergonomique sont souvent orientés vers la caractérisation et la catégorisation

de ces actes risqués, ainsi que vers leur éradication (De Montmollin, 1997).

1.3.1.Les erreurs et les violations comme des écarts par rapport à une norme, mais

laquelle ?

La différence entre l’erreur humaine et la violation est faite à travers le caractère volontaire –

ou non – de l’action. De manière générale, l’erreur est définie comme un écart involontaire

par rapport à une norme, provenant soit d’un raté lors de l’exécution de l’action, soit d’une

intention inexacte. Les violations, elles, sont considérées comme des écarts volontaires,

intentionnels par rapport à un comportement attendu/une norme (Leplat, 1985 ; Norman, 1981

; Rasmussen, 1982). Ces définitions supposent l’existence d’un domaine de référence,

vis-à-vis duquel l’on pourra parler d’écart.

La norme : quel domaine de référence ?

L’approche classique consiste à classifier les erreurs et les violations comme des écarts par

rapport à une norme (Leplat, 1985 ; Norman, 1981 ; Rasmussen, 1982 ; Villemeur, 1988).

Néanmoins, comme le souligne Leplat (1999, p. 32), « cette notion de norme a donné lieu à

beaucoup d’ambiguïté et soulève de nombreuses questions […]. - Qui fixe la norme ? La

norme est-elle la même pour tous : pour le concepteur, l’organisateur, le responsable ? Ce qui

est un écart pour l’un, le sera-t-il encore pour l’autre ? La norme est-elle étroitement définie

ou est-elle floue ?».

La norme peut prendre des formes variables et il n’existe donc pas de référentiel univoque

pour classifier les écarts. Citons les quatre référentiels souvent distingués dans la littérature.

Ils peuvent être internes ou externes à l’opérateur. Selon le référentiel que l’on prend, l’écart

peut se constituer comme une erreur pour le sujet ou comme une erreur pour l’expert.

o Le référentiel prescrit par l’organisation ou la réglementation : la référence est externe

à l’opérateur. Le comportement ou état attendu est prescrit par les concepteurs,

organisateurs, responsables. L’écart est défini comme un non-respect de cette

prescription et constituera une erreur pour l’expert.

o Le référentiel de la tâche attendue : la référence est une tâche attendue officieusement

par l’organisation, généralement non écrite. Elle existe malgré l’existence d’une tâche

officiellement prescrite, et c’est la tâche qu’il faut appliquer compte tenu des aléas

techniques et organisationnels (Chabaud, 1990). Pour Chabaud (1990), la tâche

attendue fait partie de la tâche prescrite, celle-ci étant la somme de la « tâche

affichée », officiellement prescrite et de la tâche attendue. Dans ce sens, l’écart à la

tâche attendue peut être considéré comme une erreur pour l’expert.

o Le référentiel des opérateurs de la profession : la référence est l’ensemble des tâches

effectuées par un opérateur-type du domaine. La tâche de référence est alors une

adaptation de la tâche prescrite, la tâche réelle. On peut la rapprocher des règles de

Chap. 3 : De la réduction des erreurs au développement de la culture de sécurité

métier (Cru, 1995), non réductibles à la prescription. L’écart à la tâche réelle peut être

considéré comme une erreur pour les sujets de la profession.

o Le référentiel de l’opérateur qui exécute l’action : la référence est interne à celui-ci. Le

comportement ou état est souhaité par l’opérateur lui-même. L’écart est défini comme

un non accomplissement de l’intention de l’opérateur. Cette définition se rapproche de

celle de Reason (1993), qui consiste à donner comme norme subjective l’intention de

l’opérateur. Cet auteur affirme par ailleurs que l’erreur est inséparable de la notion

d’intention. Leplat (1997) classifie d’erreur pour le sujet ce type d’écart entre ce que

le sujet souhaitait faire et ce qui a été réellement accompli. Cellier (1990) parle de

l’activité habituelle de l’opérateur comme une norme de référence. L’idée sous-jacente

est que l’écart entre celle-ci et l’activité réelle représente une source d’erreur

additionnelle.

Une fois associés le référentiel de la tâche attendue à celui de la tâche prescrite, voici les trois

grandes classes de référentiels, représentées dans la figure 4.

Figure 4 : Décomposition de l'erreur en fonction des trois référentiels possibles (Cellier, 1990)

La définition d’erreur en termes d’écart à une norme externe à l’opérateur trouve ses limites

lors de l’absence d’un domaine de référence : c’est le cas des normes inexistantes ou

incomplètes.

La norme inexistante ou incomplète

« Concernant la norme comme référence, une première difficulté est liée à son existence, ou

tout au moins à son explicitation en tant que norme » (Cellier, 1990, p. 196) Cellier souligne

encore que la norme n’est pas toujours un énoncé explicite. Il suffit d’examiner certains

cahiers de procédures dans des domaines différents pour se rendre compte des divergences.

Le niveau de précision de la prescription peut varier d’une tâche à une autre, allant d’une

procédure à appliquer de façon stricte à une consigne plus ou mais vague.

TP TR AR AH Performance ee es variation TP : Tâche Prescrite TR : Tâche Réelle AR : Activité Réelle AH : Activité Habituelle ee : erreur pour l'expert es : erreur pour le sujet

Leplat et Hoc (1983 cités par Toupin, 2008) considèrent que la prescription d’une tâche est

complète quand elle permet à un sujet donné d’exécuter cette tâche immédiatement, sans

avoir besoin de nouvelles acquisitions. Inversement, une tâche dont la prescription est

incomplète nécessite du sujet une activité d’élaboration de la procédure en plus de l’activité

d’exécution.

L’incomplétude des normes peut être liée au type de domaine d’activité d’une part, et sera

toujours associée à la variabilité des situations de travail, d’autre part, dans le sens où les

comportements attendus ne peuvent pas tous être anticipés.

D’un côté, certains domaines d’activités sont moins prescriptifs que d’autres en termes de

procédures de travail bien décrites. Ceci ne semble pas toujours être en lien avec le niveau de

sophistication du système technique (Cellier, 1990), mais plutôt avec le niveau de culture de

sécurité. La comparaison de la radiothérapie, technique médicale hautement sophistiquée,

avec le secteur du nucléaire en témoigne : le deuxième est contraint à une très forte

réglementation depuis une trentaine d’années tandis que le premier voit une montée des

exigences réglementaires depuis l’accident survenu en 2005 à Epinal (cf. chapitre 1).

D’un autre côté, les comportements face aux variations des situations de travail, à

l’imprévisible, à l’imprévu ne peuvent pas tous être décrits dans les procédures. Cette

caractéristique peut être associée au type de travail où les conditions d’exécution de la tâche

sont très variables, en raison de la complexité du système. Dans ces situations il n’est pas

possible de définir exactement la tâche et il revient à l’opérateur de déterminer les «

sous-buts » à atteindre et d’élaborer une procédure pour le faire (Flageul-Caroly, 2001).

En sociologie, de Terssac (1992, cité par Leplat, 1997) parle de « mission » pour définir les

tâches vagues, avec des objectifs généraux. Les missions complètent les normes officielles

issues de l’encadrement, mais ne sont pas assimilées à des principes à prendre en compte pour

l’élaboration de la procédure (Leplat, 1997).

Dans ces situations de « non-norme » externe, la norme, la référence à priori, ne peut être que

celle interne à l’opérateur ou celle du métier. Comme le souligne Leplat (1997), dans ces cas,

la notion d’erreur pour l’expert ne sera pas facile à établir. Parfois, le bon comportement « ne

peut alors être décrit comme tel qu’à posteriori » (De Montmollin, 1997, p. 152), en fonction

des conditions présentes lors de l’action et des résultats de l’écart. Subséquemment, d’autres

définitions vont dans le sens de l’évaluation de l’erreur par le résultat.

1.3.2.De la norme aux résultats : « la limite de tolérance », « la valeur de l’écart » et

l’acceptabilité des écarts

Pour Reason (1993, p. 31), « le terme erreur sera pris en un sens générique, qui couvre tous

les cas où une séquence planifiée d’activités mentales ou physiques ne parvient pas à ses fins

désirées, et quand ces échecs ne peuvent pas être attribués à l’intervention du hasard ». De

même, Fadier (1983, cité par Artigny et al., 1993) caractérise l’erreur comme « un résultat

non acceptable d’une action humaine et/ou une absence d’action qu’un opérateur ou une

Chap. 3 : De la réduction des erreurs au développement de la culture de sécurité

équipe devaient réaliser pour atteindre un but précis dans des conditions données et durant

une durée déterminée ».

Leplat (1999) nous renvoie à la notion de « limite de tolérance » – en la rapprochant de celle

de limite de confiance, utilisée en statistique – pour exprimer l’idée qu’existent des erreurs qui

sont acceptables et d’autres qui ne le sont pas, selon un certain seuil fixé. « Ce qui constituera

l’erreur, c’est l’évaluation de ce résultat par rapport à un but visé, à une référence adoptée

pour l’activité » (p. 32).

Ainsi, « la valeur de l’écart » (Cellier, 1990) sera dépendante de la connaissance du but que se

donne chaque acteur. Comme pour la norme, le but/résultat devient le domaine de référence.

De ce fait, l’évaluation de l’erreur et de la violation en termes d’écarts à une norme/un but

souhaité(e) peut différer selon que l’évaluateur est celui qui a prescrit un

comportement/résultat donné, l’opérateur lui-même ou encore un groupe d’opérateurs de la

profession. « On comprend qu’un même écart aura pour un opérateur chargé de la conduite

d’un processus des significations différentes que celles d’un opérateur chargé de la

maintenance » (Cellier, 1990, p.199). Ce phénomène a été observé dans le domaine de la

radiothérapie, dans lequel il a été identifié que la variabilité d’acceptabilité d’écarts, en termes

de conduite ou de résultats, varie selon la profession des sujets (radiothérapeute vs

manipulatrice, par exemple) (Nascimento & Falzon, 2008a). Cette question fait l’objet du

chapitre 7 de la partie empirique de cette thèse.

1.3.3.Erreurs actives et erreurs latentes : vers une vision systémique de la sécurité

Les évolutions dans les études sur les mécanismes de production et manifestation des erreurs

ont amené Reason (1993) à faire une distinction entre les erreurs dont les effets se font

ressentir presque immédiatement, et celles dont les conséquences néfastes peuvent rester

longtemps en sommeil dans le système, ne se manifestant qu’en combinaison avec d’autres

facteurs. Les premières ont été nommées erreurs actives tandis que les secondes sont appelées

erreurs latentes.

Les erreurs actives découlent des actions humaines erronées commises par les opérateurs

finaux qui exécutent leur tâche le plus proche des dangers (opérateurs de conduite d’un

réacteur, pilotes aériens, personnels soignants, etc.). Ce type d’erreur a été largement étudié

par les scientifiques intéressés par la sécurité des systèmes. Bien que les opérateurs puissent

commettre fréquemment des erreurs, et ceci en grand partie pour essayer de récupérer l’état

dégradé des systèmes, bon nombre des causes premières de situations dégradées sont inscrites

dans le système longtemps avant que les erreurs actives ne soient commises (Reason, 1993).

Dans le sens d’une vision plus systémique de la sécurité, Reason théorise l’existence d’erreurs

latentes – qui sont ensuite activées que par les opérateurs finaux – qui relèvent de décisions

erronées au niveau managérial, de systèmes de gestion inadaptés, de matériels et de circuits

d’informations insuffisamment fiables, etc. Hollnagel (2004) fait référence à ce modèle

lorsqu’il parle de la dichotomie sharp end et blunt end, traduits respectivement par « en

première ligne » et « en retrait » (cf. figure 5).

Figure 5 : Les relations entre facteurs en retrait et facteurs de première ligne (Hollnagel, 2004)

Ainsi, on abandonne une ère de l’erreur d’un opérateur comme un facteur explicatif unique

des accidents, et ce malgré la persistance de cette approche dans de nombreux médias. Trois

raisons principales de cet abandon sont avancées dans la littérature scientifique (Daniellou,

Simard & Boissières, 2009) :

o la focalisation sur les erreurs humaines conduit à s’intéresser uniquement aux

événements ayant des conséquences négatives, sans prendre en compte toutes les

régulations humaines visant à assurer la sécurité au quotidien, notamment par le biais

de la prévention et de l’anticipation des erreurs. L’anticipation permet aux opérateurs

de prévoir le comportement du système ou les conséquences de sa propre action et de

celle des collègues, et de les corriger sans attendre qu’une erreur se produise (Leplat,

1997) ;

o les erreurs humaines sont très nombreuses mais la majorité d’entre elles est sans

conséquences car elles sont détectées et récupérées par la personne qui les a commises

ou par le collectif, avant que l’effet de l’erreur soit irréversible ;

o focaliser l’analyse sur les erreurs actives – et par conséquent sur le dernier maillon de

la chaîne – ne permet pas de tirer de leçons des événements (Cook, R. & Woods,

1994). Dans la logique de l’approche systémique, l’erreur est considérée, de manière

générale, comme un symptôme d’un dysfonctionnement du système : elle est vue

comme la manifestation d’un mauvais couplage entre l’Homme et son environnement

(Chesnais, 1990). Pour profiter des enseignements des événements, il faut orienter

l’analyse vers la compréhension des causes profondes, ainsi que du contexte

d’interaction entre l’opérateur, le système sociotechnique dans lequel il agit et les

caractéristiques de son activité de travail.

Chap. 3 : De la réduction des erreurs au développement de la culture de sécurité

nécessité de considérer la sécurité des systèmes de manière globale amène aux théories qui

prennent en compte les facteurs réglementaires, culturels, managériaux et organisationnels

dans les analyses et voies d’amélioration de la sécurité des systèmes à hauts risques. Les

catastrophes telles que Three Mile Island, Bhopal, Challenger et Tchernobyl ont été des

terrains d’analyse fructueux pour le développement de ces concepts et théories dans les

années 1980-90.

Outline

Documents relatifs