• Aucun résultat trouvé

Le son 3D en aéronautique : applications et contraintes

N/A
N/A
Protected

Academic year: 2021

Partager "Le son 3D en aéronautique : applications et contraintes"

Copied!
22
0
0

Texte intégral

(1)

HAL Id: hal-01255309

https://hal.archives-ouvertes.fr/hal-01255309

Submitted on 13 Jan 2016

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Le son 3D en aéronautique : applications et contraintes

Guillaume Andeol, Anne Guillaume

To cite this version:

Guillaume Andeol, Anne Guillaume. Le son 3D en aéronautique : applications et contraintes. Médecine aéronautique et spatiale, 2010, 51 (189), pp.5-12. �hal-01255309�

(2)

1. Page de titre et auteurs

Titre :

Le son 3D en aéronautique : applications et contraintes individuelles

3D sound in aeronautics: applications and individual contraints

Auteurs :

- Médecin Principal G. Andéol (auteur correspondant)

Institut de Recherche Biomédicale des Armées- Antenne IMASSA-Brétigny sur Orge.

Département Action et Cognition en Situation Opérationnelle. BP 73

91223 Brétigny sur Orge

guillaume.andeol@irba.fr

- Mme Anne Guillaume

Directrice du Laboratoire d’Accidentologie et de Biomécanique 132, rue des Suisses

(3)

2. Résumé et mots clefs

Résumé en français :

Le son 3D appartient aux nouvelles technologies en cours d’introduction dans les équipements de tête des pilotes d’aéronefs militaires, destinées à faciliter l’interface homme-système. La technologie son 3D vise à restituer sous casque les indices acoustiques utilisés par le système auditif pour localiser une source sonore dans l’espace. L’intérêt de cette technologie est de redonner à l’opérateur le plein usage de ses facultés auditives.

En pratique, spatialiser les informations sonores optimise leurs traitements tout en épargnant la charge cognitive du sujet grâce à l’intuitivité de la perception auditive. Ainsi, en restituant la direction et la distance de sources sonores virtuelles, le son 3D favorise la détection et l’interprétation des alarmes mais aussi l’intelligibilité et la gestion des communications radio.

Après un rappel sur les indices physiques permettant la localisation auditive, la technologie son 3D ainsi que ses applications sont présentées. Les questions importantes que soulèvent les différences individuelles dans la perception spatiale des sources sonores sont ensuite décrites. Face à ces différences individuelles, la solution d’un apprentissage perceptif spécifique est analysée. Enfin, les pertes auditives ayant une fréquence particulière parmi le personnel naviguant, leur impact sur la perception sonore spatiale est discuté.

Résumé en anglais :

3D sound belongs to new technologies being introduced in military pilots’ helmet, dedicated to facilitate human-system interface.

3D sound aims to reproduce, in the headset, the acoustic cues used by the auditory system to localize a sound source in space. Thanks to 3D sound technology, the operator can use his/her full auditory functions. In practical terms, spatializing sound data optimises their processing while relieving the cognitive load of the pilot, due to the intuitiveness of auditory perception. Thus, by restoring the direction and distance of virtual sound sources, 3D sound aids the detection and interpretation of alarms but also improves the intelligibility and the management of radio communications.

After reminding the acoustic cues involved in sound localization, we introduce 3D sound technology and its potential applications. Then, the important issues raised by

(4)

individual differences in spatial perception of sound sources are described. Given these individual differences, the solution of a specific perceptual learning is analyzed. Finally, because noise-induced hearing loss are frequent among aircrew, the impact of hearing loss on spatial sound perception is discussed.

Mots clefs en français : - Localisation sonore - Son 3D

- Interface homme-système / interface homme-machine

- HRTF (Head Related Transfer Function – Fonction de Transfert de Tête) - Differences individuelles

- Apprentissage Mots clefs en anglais:

- Sound localization - 3D sound

- Human-system Interface

- HRTF (Head Related Transfer Function) - Individual differences

(5)

Introduction

Au sein de son cockpit, le pilote interagit avec un environnement complexe aux évolutions rapides, sollicitant fortement sa charge de travail cognitif. Les nouvelles technologies comme la commande vocale, le visuel de casque et le son 3D visent à améliorer l’interface homme-machine en facilitant la tâche de l’opérateur, renforçant ainsi sa sécurité.

Lorsqu’une avancée technique est amenée à faire partie du quotidien des personnels opérationnels, il est fondamental d’en connaître non seulement sa pertinence, ses applications et son rôle dans la sécurité des vols mais également ses limites.

Dans cet article, nous focalisons notre intérêt sur la technologie son 3D. L’intérêt de cette technologie est de redonner à l’opérateur la possibilité d’utiliser toutes les potentialités de l’audition. Concrètement, il s’agit de restituer l’espace sonore dans un casque stéréophonique. Ainsi, le son 3D favorise la perception et l’interprétation des alarmes sonores et des communications.

Dans un premier temps, nous rappellerons les mécanismes physiologiques de la localisation sonore et les bases théoriques sous-jacentes à la technique du son 3D. Nous évoquerons ensuite les applications du son 3D avant de porter notre attention sur les différences individuelles dans la perception en son 3D afin de déterminer les avantages et les limites de cette technologie.

1. Localisation sonore

Le système auditif permet de localiser des sources sonores dans tout l’espace. Pour s’orienter, il est nécessaire de se repérer. Plusieurs systèmes de coordonnées

(6)

permettent de désigner la direction d’une source dans l’espace. Le système « tripolaire » possède l’avantage de pouvoir associer à chaque dimension de l’espace le ou les types d’indices acoustiques utilisés par le système auditif pour localiser une source sonore. Dans le système tripolaire(1) l’azimut (repérage dans le plan horizontal) est décomposé en deux dimensions : droite/gauche (angle de la source avec le plan vertical médian), et avant/arrière (angle avec le plan frontal), l’élévation est décrite par la dimension haut/bas (angle avec le plan horizontal) (figure1).

Ainsi, les indices binauraux codent la dimension droite gauche, les indices spectraux codent la dimension haut/bas, et les indices spectraux et les indices dynamiques codent la dimension avant/arrière.

En restituant ces indices sous casque, le son 3D crée un espace sonore virtuel.

1.1. La dimension droite/gauche : les indices binauraux

Une source sonore située latéralement par rapport à un sujet, produit des ondes acoustiques atteignant :

- l’oreille homolatérale avec une plus grande intensité que l’oreille controlatérale. Il en résulte une différence interaurale d’intensité ou DII (exprimé en décibel),

- l’oreille homolatérale dans un laps de temps plus court par rapport à l’oreille controlatérale du fait d’une distance plus courte à parcourir. Il en résulte un délai acoustique entre les deux oreilles ou différence interaurale de temps, DIT (exprimée en microseconde).

(7)

Pour les sources situées en face du sujet (azimut 0°), les DII et les DIT sont nulles. En dehors de cette situation, les DII et les DIT varient selon l’azimut de la source et sont maximales pour les sources positionnées au niveau de l’axe interaural soit d’azimut 90° ou 270°. Il est d’ailleurs possible de déterminer la valeur maximale de la DIT. Cette valeur dépend de la taille de la tête. Plus précisément, la DIT maximale est égale au rapport entre la distance du parcours entre les deux oreilles et la vitesse du son, soit 690 microsecondes pour une tête « moyenne » (20 cm de diamètre). Ce délai acoustique correspond à la période d’un son de fréquence d’environ 1500 Hz. Au-delà de 1500Hz, un son ne peut donc théoriquement pas être localisé par la DIT.

En effet, la capacité du système auditif à pouvoir utiliser les indices binauraux, DIT et DII, varie selon la fréquence du son (duplex theory((2)). Pour les sons de fréquence inférieure à 1500 Hz, la localisation dans la dimension droite/gauche repose sur la DIT ; la DII n’intervient pas du fait de la taille de la tête petite par rapport à la longueur d’onde qui la « contourne » facilement. Pour des sons de fréquence supérieure à 1500 Hz, alors que la DIT n’est plus utilisable, une DII apparaît grâce à l’effet d’ « ombre acoustique » de la tête permettant au système auditif de localiser la source sonore.

Notre système auditif est très efficace pour localiser des sources dans la dimension droite/gauche. En effet, sa résolution est de 1° pour des sources sonores situées face à l’auditeur, elle est de 10° pour des sources situées sur le côté. Cependant, si l’on considère les autres dimensions, le codage de la position par les indices binauraux peut parfois être mis en défaut : à deux positions spatiales peuvent correspondre les mêmes indices binauraux. Par exemple, sur la figure 3, la source A et la source B ont les mêmes indices binauraux car elles possèdent le même écartement par rapport au plan vertical médian, cependant leurs positions spatiales

(8)

diffèrent dans les autres dimensions. Ainsi, Mills note que l’ensemble des positions spatiales possédant les mêmes indices binauraux décrit un cône centré sur l’axe interaural appelé cône de confusion(3).

Donc les indices binauraux permettent de déterminer la latéralité d’une source (droite/gauche) mais n’apportent pas d’information pour la localisation dans les autres dimensions (avant/arrière et haut/bas). D’autres indices vont être utilisés pour localiser un son dans les dimensions avant/arrière et haut/bas.

1.2. La composante avant/arrière : les indices dynamiques et les indices spectraux

Considérons les sources sonores A et B de la figure 3 : alors que l’une est devant l’auditeur et l’autre derrière, leurs indices binauraux sont identiques et l’auditeur ne peut pas se décider : c’est l’ambigüité avant/arrière. Pour lever cette ambigüité, le système auditif a recours aux indices dynamiques et aux indices spectraux. 1.2.1 Les indices dynamiques

Reprenons l’exemple de la figure 3 : Si l’auditeur tourne la tête, les différences interaurales liées à la source A se réduisent jusqu’à s’annuler puisque l’auditeur se retrouve face à la source A. Pour la source B (figure 4) c’est l’inverse ; les différences interaurales s’accentuent puisque la source B se rapproche de l’axe interaural: L’évolution dynamique des indices binauraux fournit une information suffisante pour localiser correctement les deux sources A et B (4).

Ainsi les mouvements de la tête en augmentant ou en diminuant les indices binauraux selon la position de la source (avant/arrière) permettent de lever les ambigüités avant/arrière. Cependant, les indices dynamiques ne sont utilisables qu’à

(9)

condition que le stimulus sonore ait une durée suffisante (à partir de 350 ms) pour que le sujet puisse bouger la tête dans l’intervalle de temps.

1.2.2 les indices spectraux

Les indices spectraux sont disponibles également pour lever l’ambigüité avant/arrière, en particulier pour un son de courte durée. Avant de parvenir au tympan, le spectre d’une onde sonore est modifié, selon son angle d’incidence, par les reliefs anatomiques de la partie supérieure du corps. Cet effet s’apparente à un filtrage spectral. La reconnaissance par le système auditif de ce filtrage spectral dépendant de la direction, permet de juger de l’orientation de la source sonore. Les parties du corps à l’origine de ce filtrage sont principalement les oreilles externes, mais également la tête et le torse. Du fait de leurs dimensions, ces reliefs anatomiques n’interagissent qu’avec des ondes de fréquences supérieures à 3 kHz. Le spectre d’une source sonore doit donc s’étendre au-delà de 3 kHz pour être localiser correctement. Ainsi, pour des sources situées en arrière, le pavillon de l’oreille agirait comme un obstacle acoustique provoquant une sorte d’entaille dans le spectre autour de 3-6kHz (5).

Dans la vie courante, il est possible de mettre en évidence le rôle des indices spectraux sur la détermination de la position avant/arrière : face à une source sonore émettant une large gamme de fréquence (ventilateur), le fait de former avec ses mains posées devant ses oreilles une coquille ouverte vers l’arrière modifie la position perçue de la source qui semble « sauter » derrière soi.

1.3. La dimension haut/bas : les indices spectraux

Les indices spectraux interviennent aussi dans le codage de la dimension haut/bas. Ce sont les seuls indices disponibles pour cette dimension, d’où l’importance de la

(10)

richesse du spectre en hautes fréquences (>3kHz) pour déterminer l’élévation d’une source sonore (figure 5).

Notre système auditif est moins efficace pour déterminer la localisation d’une source dans la dimension haut/bas que droite/gauche. L’imprécision dans la dimension haut/bas est en moyenne de 10° mais elle peut atteindre 20° pour des cibles situées en arrière et à haute élévation (6).

En référence aux indices binauraux, les indices spectraux sont également nommés indices monauraux car une seule oreille suffit à apprécier l’élévation d’une source sonore (7).

2. Le son spatialisé ou son 3D

Le son spatialisé ou son 3D est une technologie visant à présenter sous casque une stimulation acoustique de telle façon que l’auditeur la perçoive comme issue d’un point précis de l’espace. Il s’agit d’une technique beaucoup plus écologique que la stéréophonie classique pour laquelle lors d’une écoute au casque, le son, bien que latéralisé, semble provenir de l’intérieur de la tête.

La spatialisation sonore est basée sur la reproduction des indices de localisation, essentiellement les indices binauraux et les indices spectraux. Ces indices sont établis en statique lors de la mesure des fonctions de transfert de la tête ou HRTF (Head Related Transfer Function).

Les HRTFs sont mesurées en plusieurs étapes.

1/D’abord, un petit microphone est introduit au fond du conduit auditif externe des deux oreilles d’un auditeur.

(11)

2/Puis, un son est délivré à distance de l’auditeur par un haut parleur ; son spectre, ses caractéristiques temporelles et d’intensité sont calibrés.

3/L’HRTF est calculée en comparant l’onde sonore recueillie par les microphones au niveau des tympans avec l’onde produite par le haut parleur (figure 5). Enfin le haut parleur décrit une sphère autour du sujet, permettant de recueillir les HRTFs codant pour un ensemble de position de l’espace.

Dès lors, pour reproduire via des écouteurs, la perception d’une source sonore située à proximité de l’auditeur, il suffit d’appliquer l’HRTF mesurée sur le sujet à un bruit présenté sous casque. Le sujet perçoit alors virtuellement une source localisée dans l’espace.

Cependant pour des raisons de coût, de disponibilité, de niveau d’expertise des équipes, de la complexité des matériels et des infrastructures mis en jeu, fournir à chaque auditeur des HRTFs personnalisées est peu réaliste. Pour diffuser la technologie du son 3D au plus grand nombre, la solution réside dans l’utilisation des HRTFs dites non personnalisées ou génériques, habituellement fabriquées à partir d’un mannequin équipé de microphones.

Or la comparaison entre les performances de localisation des auditeurs avec leurs propres HRTFs et leurs performances avec des HRTFs mesurées sur mannequin ou sur une autre personne (ce qui revient à écouter avec les oreilles de quelqu’un d’autre), révèle que les performances obtenues avec leurs propres HRTFs sont bien meilleures (8).

Comme en condition d’écoute naturelle, la perception en son 3D est facilitée par la présence d’indices dynamiques. La mesure des HRTFs étant statique, les indices dynamiques doivent être introduits a posteriori. L’incorporation des indices

(12)

dynamiques est rendu possible par un suivi des mouvements de la tête du sujet à l’aide d’un appareil approprié (Polhemus Fastrack par exemple). Le gain est très appréciable en terme de réalisme et de précision dans la dimension avant/arrière si le temps de latence lors l’actualisation des signaux pendant le mouvement de la tête est suffisamment court(9).

3. Applications de la technologie son 3D en aéronautique

Actuellement, le pilote acquiert la majorité des informations sur son environnement (les instruments de bord et le milieu extérieur) par la vision. Dans le but de faciliter la tâche du pilote dans un environnement complexe à forte pression temporelle, il est nécessaire de diversifier les modes de présentation de l’information : grâce à son caractère intuitif, donc peu contraignant sur le plan cognitif, la spatialisation des informations sonores est apparue comme une solution de choix pour potentialiser l’interface homme-système (10).

Deux types d’applications opérationnelles découlent directement de la capacité du son 3D à orienter l’attention du pilote dans n’importe quelle direction de l’espace, et en particulier en dehors du champ visuel : la spatialisation des alarmes sonores et l’aide à la gestion des systèmes de communication multicanaux.

3.1. Spatialisation des alarmes sonores

La gestion correcte d’une alarme quelconque demande une représentation de la situation optimale. Spatialiser une alarme pourrait renforcer la représentation de la situation.

Par exemple, dans un système d’alarme anti collision, la position du danger apparaît sur un écran du cockpit, l’alarme sonore n’ayant qu’un rôle d’avertisseur. Pour

(13)

actualiser la position de son avion par rapport à l’autre avion. La spatialisation de l’alarme pourrait l’informer directement de la position du danger lui épargnant des ressources cognitives et autorisant une réaction plus rapide.

Plus largement, la pertinence de l’utilisation du son 3D est renforcée dans des conditions où la vision du pilote est mise à mal ou sollicitée par une autre tâche (limitation du champ visuel par le cockpit, éblouissement, consultation des instruments de vol, haute charge de travail visuelle, hypoxie, accélération +Gz) (11).

3.2. Gestion des systèmes de communication multicanaux

Au sein du cockpit, le pilote gère simultanément plusieurs canaux de communication radio au travers d’une écoute monophonique au casque. Le son 3D permettrait de séparer spatialement ces différents canaux (par exemple la VHF à l’avant gauche et l’UHF à l’avant droit). L’avantage est double : d’une part, le pilote identifie sans erreur son interlocuteur grâce à la localisation ; d’autre part, il peut focaliser son attention sur un canal radio parmi d’autres et ainsi en améliorer l’intelligibilité (recréant une situation dite de « cocktail party »(12) où lorsque plusieurs personnes parlent en même temps, le fait de se focaliser sur un locuteur en particulier facilite la compréhension de son discours).

De plus, actuellement pour différencier les canaux radios entre eux, le pilote utilise un pré réglage du volume (S. Hourlier, communication personnelle, 2008). La gamme de volume étant réduite, il arrive souvent que des niveaux potentiellement dangereux pour l’oreille soient atteints. Ainsi le son 3D apporte une alternative qui ne menace pas la fonction auditive.

Pour profiter pleinement du gain en termes d’efficacité et de sécurité qu’apporte le son 3D, il est nécessaire de prendre en compte l’existence de contraintes liées à

(14)

l’auditeur telle que ses capacités de localisation sonore, sa faculté à s’adapter au son 3D, et l’existence d’éventuelles lésions auditives.

4.2. Son 3D et contraintes individuelles

4.2.1. Les différences individuelles en localisation sonore

Dans la plupart des expériences psychoacoustiques les différences individuelles sont souvent négligées au profit d’une mise en avant de la performance moyenne (13). Les différences individuelles sont cependant présentes aussi bien pour des tâches auditives dites basiques, comme la discrimination fréquentielle, (14) que pour les tâches plus complexes, comme la compréhension du langage (15).

De même, plusieurs travaux montrent que les différences individuelles, déjà présentes lors de la localisation de sources réelles (16), augmentent lors de l’utilisation d’HRTFs personnalisées (17) et sont maximales avec des HRTFs non personnalisées (8).

D’après les données disponibles, qui sont à considérer avec précaution du fait du faible effectif de ces études, il existe des groupes de « bons » et des « mauvais » localisateurs de sources sonores réelles. Avec des sources virtuelles, les « bons » localisateurs conservent une partie de leur performance par contre les « mauvais » localisateurs ont leurs performances encore diminuées (8).

Il est intéressant de noter que lorsqu’un « bon » localisateur utilise les HRTFs d’un autre « bon » localisateur, sa performance reste correcte mais elle se dégrade s’il utilise les HRTFs d’un « mauvais » localisateur. Par contre, un « mauvais »

(15)

localisateur n’améliore pas sa performance s’il utilise les HRTFs d’un « bon » localisateur (17).

L’origine des différences individuelles reste soumise à discussion. Elles pourraient résider dans les informations contenues dans les HRTFs des individus. Shaw (18) a pu mettre en évidence que les différences entre les HRTFs d’un participant à l’autre se trouvent en particulier dans la bande de fréquence 5 kHz -11 kHz . Or d’après Wightman et Kistler (17) et Wenzel (8), la performance en localisation semblent corréler avec la présence ou l’absence de certains traits acoustiques dans la région 5 kHz - 10 kHz. Cela laisserait supposer qu’une partie des différences individuelles en localisation provient des caractéristiques anatomiques de l’auditeur. Par exemple, d’après Middlebrooks, une partie des différences individuelles dans les performances de localisation avec HRTFs non personnalisées dépendraient de la distance entre la taille de la tête du participant et la tête du mannequin sur lequel ont été mesurées les HRTFs (19).

Néanmoins si l’on considère deux individus aux HRTFs très proches, il n’est pas rare que leurs performances en localisation soient très différentes. Cela pourrait être dû à une différence de capacités d’analyse spectrale du système auditif - compétence mise en jeu dans le décodage des indices spectraux (20). En effet, les différences individuelles s’observent principalement dans la précision en élévation et dans la distinction avant/arrière (6). Ces deux dimensions étant codées par les indices spectraux, il est raisonnable de penser que la saillance et/ou le traitement des indices spectraux rendent compte d’une part des différences individuelles.

Ainsi les différences individuelles semblent être à la fois liées à l’anatomie de l’individu et à ses capacités de traitement sensoriel.

(16)

Face à ces différences individuelles, une procédure d’entraînement perceptivo-cognitif pourrait permettre d’amener le maximum de sujets à un niveau compatible avec une utilisation optimale du son 3D.

4.2.2. La sensibilité à l’apprentissage en localisation sonore

Les individus semblent pouvoir apprendre à localiser tout au long de leur vie. Clifton souligne la persistance de la capacité à localiser de l’enfance à l’âge adulte malgré les variations de la taille de la tête (indices binauraux) et de la forme des oreilles (indices monauraux) (21).

Certaines études se sont attachées à analyser spécifiquement l’adaptation des indices binauraux et d’autres celle des indices spectraux.

En 1998, Van Opstal et son équipe (22) rapportent avoir modifié le relief des oreilles externes (conque) de 4 participants par des moulages en plastique. Ils avaient pour hypothèse d’altérer ainsi leurs indices spectraux (cette situation est proche de celle d’un individu utilisant des HRTFs non personnalisées). Après la pose des moulages, ils observent une dégradation des performances de localisation en élévation, tandis que la performance dans le plan horizontal reste correcte. Pendant plusieurs jours (19 à 39 jours selon les participants), les participants conservent leur moulage tout en interagissant normalement avec leur environnement, sans suivre d’entraînement particulier. Après plusieurs semaines de port des moulages, leur performance en élévation redevient équivalente à celle avant la pose des moulages. De plus, une fois les moulages ôtés, les auteurs n’observent pas « d’effet secondaire » c'est-à-dire que les participants ont conservé leur capacité de localisation initiale sans effet délétère lié au port du moulage. D’après les auteurs, les participants ont acquis un deuxième « jeu » d’indices de localisation (un « second » ensemble d’HRTFs) tout en

(17)

conservant le premier comme si deux cartes spatiales auditives cohabitaient. Cela incite à penser qu’un apprentissage avec des HRTFs non personnalisées ne risque pas de perturber la localisation du participant avec ses « oreilles naturelles ».

Le traitement des indices binauraux est également sensible à un apprentissage comme l’a montré Savel en étudiant la localisation sonore subaquatique (23). Dans son expérience elle compare les performances de localisation dans le plan horizontal de plongeurs néophytes et de plongeurs expérimentés. En milieu subaquatique, la faible différence d’impédance entre l’eau et la tête du sujet, rend cette celle-ci quasi transparente acoustiquement d’où la perte de la différence interaurale d’intensité. Le sujet ne dispose plus que d’un seul indice binaural : la différence de temps interaurale. Cet indice est modifié dans le milieu aquatique par rapport au milieu aérien du fait d’une vitesse du son 5 fois plus élevée dans l’eau (1500 m/s versus 350 m/s). En conséquence, la DIT maximale dans l’eau est d’environ 100 microsecondes. Cette DIT max aquatique correspond dans le milieu aérien à un azimut d’environ 10°. Théoriquement, cette contrainte devrait entraîner une compression de la perception de l’espace sonore autour de l’axe médian. On observe bien cette compression chez les plongeurs néophytes, mais chez les plongeurs expérimentés, la localisation des sons redevient comparable celle du milieu aérien : ils ont appris à utiliser ces très faibles DIT (figure 6).

Très récemment, quelques équipes ont entrepris de tester l’efficacité d’un entraînement en localisation en son 3D.

Honda et ses collaborateurs (24) sont parvenus à améliorer la performance en localisation de leurs participants via des séances quotidiennes d’une sorte de jeu audio (le tape-taupe ou wack-a-mole game) dans lequel le participant cherche à

(18)

atteindre une cible sonore présentée en HRTFs non personnalisées. Le participant a les yeux fermés ; un feedback auditif et vibratoire lui est donné lorsqu’il atteint la cible. Rendre le sujet « acteur », c'est-à-dire inter agissant avec son environnement via le son 3D semble particulièrement efficace pour l’apprentissage (25). Cependant il est dommage que plusieurs éléments n’aient pas été évalués : notamment les différences individuelles et l’effet de l’apprentissage sur les confusions avant arrière. Ces question sont abordés par Zahorik (26). Dans son expérience, les participants effectuent une tâche de pointage en positionnant leur tête en direction de stimulus sonores présentés avec des HRTF non personnalisées. Ils bénéficient d’une courte période d’apprentissage de 2 fois 30 minutes au cours de laquelle des feedbacks visuo-auditif et proprio-vestibulaire sont utilisés. La portée de l’apprentissage paraît se limiter à la réduction des confusions avant/arrière avec des différences individuelles très marquées. Le jugement en élévation reste médiocre. Du fait d’un temps d’apprentissage très court, et du caractère contre intuitif des résultats (la détermination avant/arrière est souvent jugée « plus difficile » que la détermination de l’élévation (20)), il est possible que les résultats observés proviennent en grande partie d’un apprentissage procédural, c'est-à-dire que l’amélioration proviendrait d’une familiarisation avec l’interface de recueil de réponse et non pas d’une adaptation au traitement des HRTFs non individualisées par le système sensoriel des participants.

Si toutes ces études mettent en avant la sensibilité des individus à un apprentissage en localisation sonore, il faut souligner les importantes différences individuelles dans l’efficacité et le décours temporel des apprentissages mentionnés. Ainsi les différences individuelles s’exprimeraient à la fois dans la performance en localisation mais sans doute aussi dans la capacité à améliorer cette performance.

(19)

4.2.3. Localisation sonore et perte auditive

L’exposition à des niveaux de bruit élevés et prolongés constitue un facteur de risque de perte auditive neurosensorielle chez le personnel navigant. D’après l’étude de Raynal, Kossowski et Job (27) portant sur 521 pilotes militaires français, seul 71% d’entre eux ont une audiométrie tonale normale ; plus précisément 38% des pilotes âgés de 30 à 40 ans ont une perte auditive de plus de 20 dB HL au niveau des hautes fréquences (4, 6 et 8 kHz). Concernant les pilotes civils américains, près de 70% des pilotes de plus de 35 ans auraient une perte auditive supérieure à 20 dB HL à 6 et 8 kHz (28). La perception sonore spatiale repose en partie sur le traitement d’indices présents dans les signaux sonores au niveau des hautes fréquences (indices spectraux). Cependant, peu d’études se sont intéressées à l’impact de la perte auditive sur les capacités de localisation. A leur lecture, il apparaît que la perte auditive a des conséquences différentes selon la dimension étudiée : droite/gauche ou haut/bas.

Pour la dimension droite/gauche, dans une population de sujets présentant le même type, le même degré, la même configuration et la même étiologie de perte auditive, il est observé une très grande variabilité dans la performance de localisation, supérieure à celle observée chez les normo-entendants (29). Si globalement les sujets souffrant de perte auditive localisent avec moins de précision que les sujets normo-entendants, les auteurs s’accordent sur l’absence de relation directe entre les données audiométriques et les performances de localisation (30).

Pour la dimension haut/bas, Noble et Byrne(31) ont mis en évidence une nette altération des capacités de localisation en élévation chez les sujets souffrant de perte auditive neurosensorielle ayant atteint les hautes fréquences. Les sujets présentant une élévation du seuil de perception dans les hautes fréquences tendent à percevoir

(20)

tous les signaux auditifs comme provenant de la ligne d’horizon quelque soit leur position réelle.

Il découle de ces études que les pertes auditives rencontrées chez les pilotes pourraient avoir certaines conséquences sur la perception de sources sonores spatialisées. Un système de son spatialisé embarqué prenant en compte la perte auditive du pilote pourrait alors être envisagé.

Conclusion

L’apport du son 3D en terme de sécurité et d’efficacité opérationnelle rend très souhaitable son intégration au sein des cockpits des appareils civils ou militaires à court terme. Un premier pas vient d’être franchi par l’armée de l’air danoise qui a équipé plusieurs de ses avions de combat d’un système de spatialisation des communications radio.

Pour faciliter le transfert de la technologie son 3D depuis les laboratoires vers les théâtres d’opération, plusieurs solutions sont envisageables telles qu’un entraînement perceptivo-congitif adapté, et éventuellement l’utilisation d’HRTF personnalisées avant que les caractéristiques de l’entraînement ne soient déterminées avec précision.

Au sein de l’IRBA-antenne IMASSA, des travaux sont en cours de développement pour mettre en place un entraînement à l’utilisation du son 3D et en définir au mieux les modalités.

(21)

3. Références

1. Wightman F, Kistler D. Measurement and Validation of Human HRTFs for Use in Hearing Research. Acta Acustica united with Acustica. 2005;91(3):429-39.

2. Rayleigh L. On our perception of sound direction. Philos Mag. 1907;13:214-32. 3. Mills AW. Auditory localization(Binaural acoustic field sampling, head movement and echo effect in auditory localization of sound sources position, distance and orientation). Foundations of modern auditory theory. 1972;2:303-48.

4. Perrett S, Noble W. The contribution of head motion cues to localization of low-pass noise. Percept Psychophys. 1997 Oct;59(7):1018-26.

5. Carlile S, Pralong D. The location-dependent nature of perceptually salient features of the human head-related transfer functions. The Journal of the Acoustical Society of America. 1994;95:3445.

6. Middlebrooks JC, Green DM. Sound localization by human listeners. Annu Rev Psychol. 1991;42:135-59.

7. Wightman FL, Kistler DJ. Monaural sound localization revisited. J Acoust Soc Am. 1997 Feb;101(2):1050-63.

8. Wenzel EM, Arruda M, Kistler DJ, Wightman FL. Localization using nonindividualized head-related transfer functions. J Acoust Soc Am. 1993 Jul;94(1):111-23.

9. Wenzel EM, editor. Effect of increasing system latency on localization of virtual sounds. Audio Engineering Society 16th International Conference on Spatial Sound Reproduction; 1999.

10. Guillaume A. Le facteur humain dans la mise en oeuvre des nouvelles technologies en milieu militaire. Rapport technique présenté au Comité Consultatif du Service de Santé des Armées. 2006.

11. Bronkhorst AW, Veltman JA, Vreda LV. Application of a Three-Dimensional Auditory Display in a Flight Task. Human Factors. 1996;38(1).

12. Yost WA. The cocktail party problem: Forty years later. Binaural and spatial hearing in real and virtual environments. 1997:329–48.

13. Hirsh IJ, Watson CS. Auditory psychophysics and perception. Annu Rev Psychol. 1996;47:461-84.

14. Johnson DM, Watson CS, Jensen JK. Individual differences in auditory capabilities. I. J Acoust Soc Am. 1987 Feb;81(2):427-38.

15. Drennan WR, Watson CS. Sources of variation in profile analysis. I. Individual differences and extended training. J Acoust Soc Am. 2001 Nov;110(5 Pt 1):2491-7. 16. Makous JC, Middlebrooks JC. Two-dimensional sound localization by human listeners. J Acoust Soc Am. 1990 May;87(5):2188-200.

17. Wightman FL, Kistler DJ. Headphone simulation of free-field listening. II: Psychophysical validation. J Acoust Soc Am. 1989 Feb;85(2):868-78.

18. Shaw EAG. Acoustical features of the human external ear. Binaural and spatial hearing in real and virtual environments. 1997:25-48.

19. Middlebrooks JC. Individual differences in external-ear transfer functions reduced by scaling in frequency. J Acoust Soc Am. 1999 Sep;106(3 Pt 1):1480-92. 20. Wightman FL, Kistler DJ. Resolution of front-back ambiguity in spatial hearing by listener and source movement. J Acoust Soc Am. 1999 May;105(5):2841-53. 21. Clifton RK. Growth in Head Size during Infancy: Implications for Sound Localization. Developmental Psychology. 1988;24(4):477-83.

22. Hofman PM, Van Riswick JG, Van Opstal AJ. Relearning sound localization with new ears. Nat Neurosci. 1998 Sep;1(5):417-21.

(22)

23. Savel S. Localisation auditive subaquatique : de l’identification des mécanismes impliqués à la démonstration de la plasticité du système auditif et à l’application sur les plongeurs [Thèse ]. Paris: University of Paris V; 2001.

24. Honda A, Shibata H, Gyoba J, Saitou K, Iwaya Y, Suzuki Y. Transfer effects on sound localization performances from playing a virtual three-dimensional auditory game. Applied Acoustics. 2007;68(8):885-96.

25. Aytekin M, Moss CF, Simon JZ. A Sensorimotor Approach to Sound Localization. Neural Computation. 2008;20(3):603-35.

26. Zahorik P, Bangayan P, Sundareswaran V, Wang K, Tam C. Perceptual recalibration in human sound localization: learning to remediate front-back reversals. J Acoust Soc Am. 2006 Jul;120(1):343-59.

27. Raynal M, Kossowski M, Job A. Hearing in military pilots: one-time audiometry in pilots of fighters, transports, and helicopters. Aviat Space Environ Med. 2006 Jan;77(1):57-61.

28. Begault DR, Wenzel EM, Tran LL, Anderson MR. Survey of commercial airline pilots' hearing loss. Percept Mot Skills. 1998 Feb;86(1):258.

29. Koehnke J, Besing J. Binaural performance in listeners with impaired hearing: aided and unaided results. Binaural and Spatial Hearing Gilkey R Anderson, T(Eds). 1995.

30. Durlach NI, Thompson CL, Colburn HS. Binaural interaction of impaired listeners. A review of past research. Audiology. 1981;20(3):181-211.

31. Noble W, Byrne D, Lepage B. Effects on sound localization of configuration and type of hearing impairment. J Acoust Soc Am. 1994 Feb;95(2):992-1005.

Références

Documents relatifs

[r]

L’objectif d’un système de piste préférentielle est d’éloigner les aéronefs des zones sensibles au bruit pendant les phases initiales du décollage et de l’atterrissage

Entoure en rouge les animaux qui se dirigent vers

L'objectif d'un système de piste préférentielle est d'éloigner les aéronefs des zones sensibles au bruit pendant les phases initiales du décollage et de l'atterrissage

Madame Zed a fait mener une étude visant à déterminer le nombre d'acheteurs potentiels de son nouveau rouge à lèvres selon

Illustrer avec des images découpées, le texte de l'histoire utilisant un vocabulaire spatial Associer chaque image au texte correspondant à la direction surveillée. e place les

[r]

Elle décide de faire des cadeaux à ses soeurs et à sa mère : elle achète 6 tee-shirts et 2 jupes et paie 173,56 e.. Quel est le prix d’un tee-shirt et quel est le prix d’une