• Aucun résultat trouvé

Chapitre 2 : Conscience de la Situation

2.3 Synthèse du modèle d’Endsley et adaptation à la problématique

2.3.1 Conscience de la situation propre aux pilotes

Wickens (2009) reprend les différents niveaux de la conscience de la situation d’Endsley en les confrontant à l’activité de pilotage dans l’aéronautique. Il considère le pilote comme « un système de traitement de l’information » (figure 21).

Figure 21 : Le pilote comme système de traitement de l’information (d’après Wickens, 2009)

Pour Wickens (2009), une conscience de la situation efficace « repose sur le déploiement d’une attention sélective et du traitement d’un modèle mental précis de l’espace aérien, de la structure de l’avion et des procédures, dans lesquelles l’information attendue peut être aisément incorporée ».

Autrement dit, des informations de l’environnement vont devoir être perçues par le pilote. Ce dernier va, avec l’expérience, développer une attention sélective afin de filtrer les informations, pour en limiter la quantité et ne traiter que celles qui se trouvent être pertinentes. En effet, la conscience de la situation est contrainte par les capacités limitées des ressources attentionnelles (Endsley, 1996 ; Wickens, 2002). Or, ces ressources attentionnelles sont largement sollicitées dans les systèmes automatisés. Plusieurs types d’attention sont en effet impliquées (Durso, 2011), notamment la capacité à sélectionner l’information et les tâches à réaliser, la capacité à gérer ces différentes sources d’information ou encore la capacité à maintenir l’attention sur l’information importante au moment t. Cette gestion de l’attention (autrement dit, l’allocation dynamique de l’attention) est une tâche importante dans le domaine aéronautique (Sarter, 2001).

Une fois l’information jugée pertinente sélectionnée, le pilote interprètera ces informations via ses connaissances antérieures stockées en MLT. Ces informations traitées, le pilote aura une compréhension de la situation en cours. Il doit à ce moment-là être en mesure de se projeter dans le futur (que ce soit la position future de l’avion ou encore l’effet qu’auront ses actions dans un avenir plus ou moins proche) afin d’avoir une conscience de la situation complète et de pouvoir prendre des décisions adaptées.

Plus précisément, les trois composants de la conscience de la situation pour les pilotes sont la conscience spatiale de la 3D, la conscience du système et la conscience de la tâche (Wickens, 2002) définies comme suit :

· La conscience spatiale revoie à la tâche de déplacement dans un espace en trois dimensions. Le pilote doit prendre en compte six variables. Celles-ci comportent trois variables concernant l’orientation de l’axe de l’avion (tangage, roulis, lacet) ainsi que trois variables relative à la position (altitude, dérive latérale et position par rapport à la trajectoire). La difficulté pour le pilote pour évoluer dans cet espace réside dans le fait que ces six variables évoluent constamment dans le temps et s’influencent entre elles. · La conscience du système renvoie aux actions qui sont aujourd’hui, dans les avions

modernes, réalisées par les systèmes automatisés, comme le changement de mode de vol. La difficulté pour le pilote est de maintenir une bonne conscience du système (Sarter & Woods, 1995) du fait de la complexité de ces systèmes.

· Enfin, la conscience des tâches renvoie à la priorisation des quatre tâches qui sont, dans l’ordre de priorité : piloter, naviguer, communiquer et gérer les systèmes. Cette hiérarchisation des tâches doit garder une certaine flexibilité et la difficulté pour le pilote consiste à être toujours conscient des tâches qui doivent être réalisées et quelles sont leur priorité (Adams, Tenney, & Pew 1995).

Cette conscience de la situation, une fois construite, va devoir être réactualisée en permanence du fait de l’évolution constante de l’environnement et des paramètres du système (Pastorelli, 2007). Les buts que suivent les opérateurs permettront de réajuster cette CS car « ils permettent de sélectionner un modèle mental (processus top-down) qui sera utilisé afin de sélectionner les informations pertinentes dans l’environnement puis de les interpréter en fonction du modèle mental et de ces buts (processus bottom-up) » (Bailly, 2004, p.20). C’est cette réactualisation constante qui permettra de « prendre les décisions appropriées » (Hoc, Amalberti, Plee, 2000).

2.3.2 Les erreurs de conscience de la situation

Jones et Endsley (1996) présentent une taxonomie des erreurs de CS à la suite d’analyses des rapports de la base de données de l’ASRS (Aviation Safety Reporting System). Ils en dégagent trois niveaux. Pour eux, le premier niveau d’erreurs de la conscience de la situation correspond à l’échec des pilotes à percevoir l’information ou à une mauvaise perception de l’information. Cela est dû à la mauvaise ou indisponibilité des informations, à la difficulté à discriminer ou détecter des données, à l’échec dans la surveillance ou l’observation des données, à la mauvaise perception des données, ou encore, à la perte de mémoire. Le deuxième niveau concerne l’intégration incorrecte des données ou à la mauvaise compréhension de l’information. Ces

erreurs peuvent être le produit d’un modèle mental incomplet, voire absent, ou de l’utilisation d’un modèle mental incorrecte, ou encore de la sur-confiance en les valeurs par défaut. Enfin, un troisième niveau réfère à la projection incorrecte des futures actions du système. Ce niveau est lié à un modèle mental incomplet ou absent, ainsi qu’à une sur-projection des tendances actuelles.

Jones et Endsley (1996) ont montré que c’est pendant le premier niveau (« Echec à percevoir l’information ou mauvaise perception de l’information ») qu’il y a le plus d’erreurs (76,3%) ; tandis qu’il y a 20,3% d’erreurs pour le deuxième niveau (« Intégration ou compréhension incorrecte de l’information »), et seulement 3,4% d’erreurs pour le troisième (« Projection incorrecte des actions futures du système »). En d’autres termes, les taux d’erreurs montrent un échec des pilotes à percevoir l’information ou du moins l’information correcte. Jones et Endsley ont proposé trois pistes d’explications.

· La première est que les données sont présentées mais qu’il est difficile de les trouver à cause du design du système.

· La deuxième explication concerne l’omission des données due à une vision tunnel ou à une importante charge de travail.

· Enfin, l’information est perçue mais pas vraiment comprise ou ce n’est pas la bonne information qui est surveillée.

Autrement dit, la complexité des systèmes automatisés et leur opacité génèrent des modèles mentaux pauvres ou faux (Amalberti, 2002 ; Kaber & Endsley, 2004 ; Sarter, Mumaw & Wickens, 2007). De plus, leurs feedbacks limités ou inadéquats, autant que leur haut degré d’autonomie, n’aident pas les pilotes dans leur interprétation de l’état du système (Corwin, 1992) et, bien sûr, entrainent une perte de la conscience de la situation (Kaber & Endsley, 2004 ; Billings, 1997). Le crash du vol 401 de la « Eastern Airlines » le 29 décembre 1972 illustre bien cet aspect. La lumière verte signalant que le train d’atterrissage était sorti ne s’est pas allumée. Cela a inquiété tous les membres d’équipage qui se sont alors focalisés sur la recherche d’explication et n’ont pas perçu l’information relative à la perte importante d’altitude de l’avion.

La conscience de la situation est restreinte par la capacité limitée des ressources attentionnelles ainsi que celles de la mémoire de travail (Kaber & Endsley, 2004 ; Endsley, 1999 in Garland, Wise & Hopkin, 1999). Ainsi, afin de maintenir une bonne conscience de la situation, plusieurs études utilisant la simulation de vol montrent qu’une tâche importante dans le domaine de l’aviation est la gestion de l’attention : c’est-à-dire la priorité dynamique et l’allocation des ressources attentionnelles (Sarter, 2001). Plus exactement, il y a plusieurs opérations mentales et comportementales impliquant l’attention dans les systèmes automatisés : la capacité à

sélectionner l’information et les tâches, la capacité à gérer plusieurs sources d’information, et également la capacité à maintenir l’attention sur les informations (Durso et al., 2011). Il est important de noter que, pendant une condition multitâches, il y a une diminution de l’attention et une augmentation des erreurs de surveillance des informations (Duley, Westerman, Molloy, & Parasuraman, 1997, in Durso & al., 2011).

Ainsi, le pilote doit réaliser plusieurs tâches pendant un vol qui est composé lui-même de plusieurs phases. Il doit être conscient de la situation actuelle afin de prendre la décision correcte si besoin, et d’agir en conséquence. Cependant, il n’est pas facile d’atteindre une conscience de la situation efficace du fait de :

· l’évolution de l’avion dans un environnement 3D, · la présence de plusieurs tâches et buts mal définis, · la complexité réelle du système.

Il faut particulièrement garder à l’esprit que l’erreur principale de conscience de la situation concerne la difficulté pour les pilotes de percevoir l’information, et plus précisément, l’information correcte. Dans ce cas, la conception d’un nouveau système ayant pour but d’aider les pilotes dans la réalisation de leurs tâches devrait prendre en considération le besoin d’améliorer la conscience de la situation pour les pilotes sans ajout de charge de travail.

Ainsi, la première étude a pour triple objectif :

· Identifier les phases de vol pour les pilotes volant en IFR : correspondent-elles aux sept phases décrites dans la littérature ? (New FM pilot’s guide Thales, 2008 ; Corwin, 1992 ; Tenney, et al., 1998 ; Schvaneveldt, et al., 2001).

· Identifier la charge de travail des pilotes selon les phases de vol : est-elle plus importante en début et en fin de vol (Corwin, 1992 ; Tenney et al., 1998) ? Le risque encouru est plus grand lors des phases où la quantité importante d’information à traiter est la plus importante (Schvaneveldt et al., 2001).

· Vérifier si pour les pilotes, il y a quatre méta-tâches qui sont Aviate, Naviguer, Communiquer et Gérer les systèmes (Billings, 1997 ; Wickens, 2007 ; Schutte & Trujillo, 1996).

Dans le prochain chapitre, nous présentons notre première étude qui consiste en une analyse cognitive de la tâche. Cette première analyse nous permet d’appréhender la tâche de pilotage (en son sens générale) afin d’avoir une base de connaissances suffisante et stable pour la suite de ce travail de thèse.