• Aucun résultat trouvé

Le but de cette étude était de comprendre le rôle respectif de la surdité précoce profonde et de la pratique de la langue des signes dans les processus superordinaux et subordinaux de traitement des visages. Le niveau superordinal a été testé avec une tâche de catégorisation de visages censée refléter la première étape du traitement d’un visage. Cette étape initiale est considérée comme étant robuste à l’âge et à l’expérience. Le niveau subordinal a été testé avec une tâche de reconnaissance des visages qui peut être considérée comme un des niveaux les plus subordonnés. Ces niveaux subordinaux sont connus pour être sensibles à l’expérience visuelle et peuvent être influencés par la surdité et/ou la pratique de la langue des signes. En effet, des études ont observé des différences

entre signeurs et non-signeurs dans ce niveau de traitement (Arnold & Murray, 1998; Arnold & Mills, 2001; Bettger, Emmorey, Mccullough, & Bellugi, 1997).

En accord avec nos hypothèses, nous n’avons pas observé de différences significatives entre les signeurs et non-signeurs ou entre les sourds et les entendants sur la tâche de catégorisation de visages. Les trois groupes avaient des performances similaires pour catégoriser visages humains et non-humains- un processus à priori non lié aux contraintes de la langue des signes. Les temps de réponse courts associés à une proportion de réponses correctes très élevés (entendants non-signeurs 96.8%, entendants signeurs 96.8%, sourds signeurs 97.2%) pourraient refléter un effet plafond de la tâche. La catégorisation de visages humains parmi des non-humains est une tâche ne demandant que très peu de ressources cognitives et la tâche a été utilisée dans le but d’écarter la possibilité d’une différence importante dès la première étape du traitement des visages entre nos groupes expérimentaux et également dans le but de contrôler qu’un pan plus général du traitement visuelle n’est affecté ni par la surdité, ni par la langue des signes ou une combinaison des deux.

Au contraire, nous avons observé que les signeurs (quel que soit leur statut auditif) étaient plus lents mais plus précis pour reconnaître correctement un visage que les (entendants) non-signeurs. Ces différences ne peuvent être probablement que très peu expliquées par les différences d’âge observées entre les groupes puisque les régressions entre l’âge et les TR et l’âge et la précision des réponses étaient toutes deux non significatives. De même, ces différences sont très peu probablement liées à des changements cognitifs plus généraux comme la perception visuelle, la mémoire de travail ou l’attention visuelle puisque les études antérieures n’ont pas observé d’augmentation des temps de réponse chez les (sourds) signeurs pour la détection de cible (Loke & Song, 1991), la recherche visuelle (Rettenbach, Diller, & Sireteanu, 1999; Stivalet et al., 1998), ou dans les mécanismes d’orientation de l’attention (Heimler et al., 2015; Parasnis & Samar, 1985) dans le champ visuel central.

Le trade-off obervé entre vitesse et précision de la réponse a été analysé plus précisément tout d’abord en calculant un score d’efficacité -IES (Bruyer & Brysbaert, 2011) puis en modélisant les données de nos participants avec un modèle bayésien hiérarchique de prise de décision –HDD (Wiecki et al., 2013). L’analyse IES a montré qu’aucun groupe ne

semblait plus efficace qu’un autre alors que les paramètres estimés par le modèle HDD reflétaient une différence dans la stratégie adoptée par les signeurs. Ces derniers, bien que plus efficaces pour extraire les informations pertinentes du signal (i.e., drift-rate plus élevé), avaient besoin d’accumuler plus d’informations pour répondre (i.e., threshold plus élevé) que les entendants non-signeurs. Cette stratégie de prise de décision plus « précautionneuse » a donc entrainé un temps de réponse plus long chez les signeurs. Contrairement à d’autres études (Arnold & Murray, 1998; Arnold & Mills, 2001; Bettger, Emmorey, Mccullough, & Bellugi, 1997) nous n’observons pas de hausse dans les performances de reconnaissance des visages pour les participants signeurs mais plutôt une différence dans la stratégie adoptée pour effectuer cette reconnaissance. Cette différence pourrait s’expliquer par le fait que ces précédentes études n’ont jamais enregistré à la fois les temps de réponse et la précision de la réponse ou encore par la nature de la tâche utilisée pour évaluer les performances de reconnaissance. Les études d’Arnold et al. (1998, 2001) se sont focalisées sur un temps de réalisation de tâche complexe, et Bettger et al. (1997) n’ont analysé que la précision des réponses. De plus, nous avons testé les capacités de reconnaissances de visages dans une tâche de type 2-AFC alors que les études d’Arnold et al. (1998, 2001) ont utilisé une tâche d’appariement différé de visages et Bettger et al. (1997) ont utilisé une tâche d’appariement simultané de visages.

Notre étude suggère que la pratique de la langue des signes pourrait influencer au moins un niveau subordinal du traitement des visages (ici la reconnaissance), quel que soit le statut auditif et ce malgré la légère différence de niveau estimé en LSF entre les participants sourds et entendants (voir encart x pour plus de détails). Les processus cognitifs nécessaires à la tâche de reconnaissance des visages utilisée ici pourraient également être nécessaires à la communication signée puisque dans les deux cas, il est nécessaire de porter attention aux petits détails et changements sur un visage pour prendre une décision et agir de manière adéquate.

Il est également intéressant de noter que cette modulation n’est pas due à un apprentissage précoce de la langue des signes, mais plutôt à une pratique régulière sur du long terme. En effet, les personnes entendantes ont toutes (sauf une participante CODA) appris la langue des signes à l’âge adulte (M=27 ans) avec une pratique régulière de la LSF depuis en moyenne une quinzaine d’années. Avoir un niveau de pratique élevé de la langue

des signes semble être la condition nécessaire à l’observation d’une différence en reconnaissance des visages puisque ni l’âge d’acquisition, ni la fréquence de pratique de la LSF ne sont significativement liés au temps de réponse ou à la proportion de réponses correctes.

Au moins trois hypothèses peuvent être avancées pour expliquer cette modulation fonctionnelle pour la reconnaissance des visages chez les signeurs. La première hypothèse serait que l’activité motrice inhérente à la langue des signes affecterait la cognition visuelle. Certaines études ont montré qu’une motricité particulière dans l’espace pouvait moduler la perception visuelle (Dupierrix, Gresty, Ohlmann, & Chokron, 2009; Herlihey, Black, & Ferber, 2013). Cette hypothèse est peu probable, car les changements observés portaient soit sur des changements dans la perception visuelle spatiale (Dupierrix et al., 2009) soit dans des étapes précoces de la perception visuelle (Herlihey et al., 2013) et non sur des traitements complexes impliqués qui pourraient être impliqués dans la reconnaissance de visages.

La seconde hypothèse avancée s’inspire d’une récente étude effectuée auprès d’entendants monolingues et bilingues (Kandel et al., 2016). Cette étude suggère que l’acquisition d’une seconde langue (orale) influencerait les processus de reconnaissance des visages. Les auteurs ont observé que, comme les signeurs de notre étude, les bilingues étaient plus lents et légèrement plus précis pour reconnaître des visages que les monolingues. Ces résultats s’inscrivent dans une perspective développementale, suggérant que l’apprentissage précoce d’une seconde langue induirait une organisation cérébrale et une sensibilité perceptive différente des monolingues qui ne se restreindrait pas aux seuls processus langagiers. Il serait donc possible que le traitement des visages des bilingues de notre étude (LSF-français) ait été influencé par des mécanismes d’affinage perceptif similaires. Cependant, les signeurs sourds ou entendants ont pour la plupart appris la langue des signes après cette période d’affinage perceptif qui s’opère dans les premières années de la vie (Maurer & Werker, 2014). Par conséquent, il serait plus probable qu’une pratique régulière et fréquente de la langue des signes soit suffisante pour induire une modulation dans la stratégie cognitive de la reconnaissance des visages. Il serait donc intéressant de savoir à quel moment dans le processus d’apprentissage et d’expertise en langue des signes cette modulation s’opère- c’est-à-dire quel niveau et quelles expériences sont nécessaires pour voir apparaître un trade-off entre le temps de réponse et la précision. Il est ici

impossible d’estimer ce niveau minimum puisque tous les signeurs ont été recrutés car ils avaient un bon niveau en LSF. Il n’est pas non plus possible de tester l’existence d’une corrélation entre le niveau de LSF et nos résultats puisque l’échelle de niveau utilisée ici était totalement arbitraire, basée sur de l’auto-évaluation et donc peu informative.

Enfin, la troisième hypothèse est une hypothèse de modulation fonctionnelle liée aux exigences de la langue des signes (Emmorey, 2001). Comme évoqué précédemment, le visage joue un rôle indispensable dans la communication signée. Il délivre des marqueurs linguistiques, syntactiques et émotionnels donnant sens ou nuances aux gestes de paroles (Brentari & Crossley, 2002; Liddell, 2003; Reilly et al., 1992). Le signeur doit donc être capable de porter une attention particulière aux changements de certains détails ou de configuration du visage pour comprendre correctement les gestes de paroles. Cette nécessité forcerait peut-être les signeurs à extraire et analyser différemment des non-signeurs les informations contenues sur un visage. Les non-signeurs pourraient passer plus de temps à analyser un visage, mais pour un résultat plus performant, et notamment dans une tâche de reconnaissance de visages. Cette différence ne se reflèterait pas sur une tâche comme la catégorisation de visages, car ce genre de processus (1) n’est pas impliqué dans la communication signée et (2) ne nécessite qu’un traitement superficiel du stimulus qui permet de rapidement faire la distinction entre un visage humain et non-humain (ex., forme générale, texture, couleur…).

Il serait également intéressant d’étendre cette recherche auprès d’une population d’enfants sourds et/ou signeurs puisqu’il est possible que le développement des capacités de traitement des visages suive une trajectoire différente selon le statut auditif ou l’expérience linguistique de l’enfant. Dans leur étude sur la reconnaissance des visages dans la tâche du Benton Test chez les adultes sourds signeurs (study 2), Bettger et al. (1997) n’ont pas observé de différence de performances entre les sourds signeurs de parents sourds et de sourds signeurs de parents entendants (i.e., avec un apprentissage plus tardif de la langue des signes), les deux groupes ayant de meilleures performances que les entendants non-signeurs. Mais dans la version développementale de cette étude (avec des enfants entre 6 et 9 ans, study 4), les enfants sourds de parents sourds avaient de meilleures performances que les enfants (sourds et entendants) de parents entendants. Ces résultats suggèrent que même si l’âge d’acquisition ne semble pas affecter les performances de reconnaissance de

visage à l’âge adulte, il pourrait tout de même affecter certains processus cognitifs en particulier chez les enfants.

Pour conclure, le premier niveau de traitement des visages, le niveau superordinal, permettant notamment de discriminer des visages humains des visages non-humains ne semble affecté ni par la surdité profonde précoce ni par la pratique de la langue des signes renforçant l’idée d’un processus résistant à l’expérience. Au contraire, un traitement subordinal et complexe d’un visage comme la reconnaissance, diffère chez les personnes pratiquant la langue des signes depuis des années qu’elles soient sourdes ou entendantes. Bien que cette étude apporte de nouvelles informations sur le rôle respectif de la surdité et de la langue des signes sur différents processus de traitement des visages, il reste encore de nombreux aspects à explorer. La seconde étude de ce chapitre de thèse s’inscrit dans la continuité des résultats observés. Grâce à l’enregistrement des mouvements oculaires pendant l’observation de visages et à l’utilisation de paradigmes expérimentaux originaux développés au Eye and Brain Mapping Lab par l’équipe du professeur Roberto Caldara à l’Université de Fribourg (Suisse), il est possible de récolter des informations quantitatives et qualitatives et d’ainsi approfondir les connaissances sur le processus de reconnaissance de visages chez les personnes sourdes et signeuses.

Etude 5 : Stratégie d’exploration visuelle pour

la reconnaissance d’un visage chez les sourds signeurs

Communication scientifique associée:

Lao, J., Stoll, C., Dye, M., Pascalis, O., Caldara, R. (2017). Deafness Amplifies Visual Information Sampling during Face Recognition, Annual Meeting of the Vision Science Society, May 19-24, St. Pete Beach, Florida

Abstract

Research has shown that early profound hearing loss enhances the sensitivity and efficiency of the visual channel in deaf individuals, resulting into a larger peripheral visual attention compared to the hearing population. However, whether such perceptual bias extend to visual sampling strategies deployed during the biologically-relevant face recognition task remains unclear. To this aim, we recorded the eye movements of deaf signers and hearing non-signers while they performed a delayed matching task with upright and inverted faces. The deaf observers were not impaired by the face inversion and did not change their sampling strategy unlike hearing observers. To assess whether this particular fixation strategy in the deaf observers was paired with a larger information intake, the same participants performed the identical experiment with a gaze-contingent design parametrically and dynamically modulating the quantity of information available at each fixation – the Expanding Spotlight. Visual information reconstruction with a retinal filter revealed an enlarged visual field in deafness. Unlike hearing participants, deaf observers used larger information intake from all the fixations. Altogether, our data show that the face system is flexible and might tune to specific strategies as a function of experience.

Problématique et hypothèses

Certaines parties du visage sont plus saillantes que d’autres pour fournir les informations pertinentes pour traiter un visage. De plus, la saillance des parties du visage est relative à l’information que l’on cherche sur le visage ou de la localisation de la première saccade oculaire sur le visage (Miellet, Caldara, & Schyns, 2011; Schyns, Bonnar, & Gosselin, 2002). Par exemple, s’il faut déterminer l’identité d’un visage, le participant regardera à la fois les yeux et la bouche ; s’il faut déterminer le genre du visage, un œil sera diagnostique alors que la bouche sera centrale pour déterminer une expression faciale (Schyns et al., 2002). La culture d’un individu va également jouer sur la stratégie d’exploration d’un visage, mais pas sur les performances de reconnaissance. Les populations asiatiques auraient tendance à fixer davantage le nez alors que les populations caucasiennes fixeraient plutôt les yeux (e.g., Miellet et al., 2013). La stratégie d’exploration et de reconnaissance des visages est donc un processus qui se modèle notamment selon la tâche et la culture du participant.

Le but de cette étude est d’explorer si la stratégie de reconnaissance des visages (présentés dans leur orientation canonique ou inversée) chez les personnes sourdes signeuses est modulée par une expérience visuelle et linguistique atypique. Plus précisément et en utilisant une méthode de contingence visuelle, il est possible d’estimer les informations quantitatives et qualitatives nécessaires pour reconnaître un visage. La méthode de contingence visuelle, l’expanding spotlight, permet de moduler la quantité d’informations visuelles péri-fovéolaires disponibles pour le participant en fonction du temps de fixation oculaire. Plus la fixation oculaire est longue, plus le champ perceptif d’informations disponibles est large. Si la surdité précoce associée à la pratique de la langue des signes modifie les informations qualitatives nécessaires à la reconnaissance des visages, les sourds signeurs devraient avoir des zones diagnostiques de reconnaissance différentes des entendants non-signeurs. De plus, si la surdité précoce associée à la pratique de la langue des signes modifie les informations quantitatives nécessaires à la reconnaissance des visages, la taille des zones diagnostiques devrait différer entre sourds signeurs et entendants non-signeurs. Si comme suggéré par l’étude sur la reconnaissance des visages de He et al. (2016), les sourds signeurs possèdent un champ réceptif plus grands que les entendants non-signeurs, ils devraient avoir besoin de plus d’informations péri-fovéolaires pour reconnaître un visage et cela quelle que soit son orientation.

Cette étude a également pour but de tester si la présentation inversée d’un visage impacte de manière différente les sourds signeurs et les entendants non-signeurs tant d’un point de vue comportemental que dans les mouvements oculaires. En effet, une analyse comportementale permettra de mieux comprendre le face inversion effect chez les sourds signeurs puisque les études de de Heering et al. (2012) et de He et al. (2016) trouvent des résultats contradictoires (i.e., une augmentation de l’effet dans la première étude vs une diminution de l’effet dans la seconde). Enfin et à notre connaissance, il n’existe pas d’étude en oculométrie sur le face inversion effect chez les sourds signeurs. Cette étude a été réalisée en collaboration avec l’IBM Lab de l’Université de Fribourg (Suisse) et avec le National Technical Institute for the Deaf du RIT (USA).

Méthode

Participants

Trente et un étudiants sourds du NTID (Mâge = 22.14, ETâge = 3.1, étendu = 18-32 ans, 18 femmes) ont participé à cette étude. Ils étaient tous atteints de surdité sévère à profonde (perte auditive supérieure à 70dB), et avaient appris l’ASL (ou une autre langue des signes) au plus tard à 5 ans (Mâge aquisition = 24.18 mois, ETâge aquidition = 19.0 mois). Ils ont estimé leur niveau d’ASL à en moyenne 3.8/4 (Meniveau ASL = 4, ETniveau ASL = 0.38). Aucun des 31 participants n’a rapporté avoir d’antécédents neurologiques ou de troubles visuels non corrigés à la normale. Chaque participant délivrait un consentement de participation écrit et était payé en échange de sa participation. L’étude a été approuvée par le comité d’éthique local du Rochester Institute of Technology et les participants de ce groupe ont été testés au RIT/NTID.

Cinquante et une personnes sans trouble de l’audition constituant le groupe contrôle (Mâge = 21.46, ETâge = 2.43, étendu = 18-33 ans, 35 femmes) ont également participé à cette étude. Aucun d’entre eux ne connaissait une quelconque langue des signes, avait des antécédents neurologiques ou des troubles visuels non corrigeables à la normale. Chaque participant délivrait un consentement de participation écrit et était payé en échange de sa participation. L’étude a été approuvée par le comité d’éthique local de l’Université de Fribourg et les participants de ce groupe ont été testés à l’Université de Fribourg.

Matériel et Procédure

Stimuli. Les 56 visages caucasiens utilisés dans cette étude ont été sélectionnés dans la base de données KDEF (Lundqvist et al., 1998) avec autant d’hommes que de femmes. Pour chaque identité, 3 photos différentes ont été sélectionnées : la première avec une expression neutre et les deux autres avec une émotion différente parmi les six émotions de base. Chaque émotion était représentée un nombre équivalent de fois sur la totalité des stimuli. Les images ont été modifiées avec Adobe Photoshop pour s’assurer que la position des yeux et de la bouche était bien alignée et pour normaliser la luminance de chaque visage et expression. Les contours des visages ont été supprimés en ajoutant un contour uniforme

et identique sur toutes les images. Les visages couvraient un angle visuel de 15° (800 x 600 pixels) et étaient présentés sur un fond blanc.

Oculométrie et présentation des stimuli. Les mouvements oculaires de l’œil directeur du participant étaient enregistrés avec un SR Research Desktop-Mount EyeLink 2K eye-tracker® (résolution spatiale moyenne de 0.01° et une erreur moyenne de la position du regard de 0.25° avec un taux d’échantillonnage de 1000 Hz). La tête du participant était stabilisée par une mentonnière et l’exploration des stimuli était binoculaire. La présentation des stimuli était programmée avec la Psychtoolbox Psychophysics & Video Toolboxes (Brainard, 1997; Pelli, 1997); de Matlab® (R2010a, The MathWorks, Natick, MA, USA), sur un écran BenQ XL2720Z 1920 x 1080 pixels (27 pouces, taux de rafraichissement de 120 Hz) disposé à 70 cm du participant.

Expanding spotlight. Le expanding spotlight est une méthode de contingence du regard

développée par Miellet, Vizioli, He, Zhou et Caldara (2013) pour mesurer la quantité d’informations extra-fovéolaires nécessaires au participant durant une tâche de traitement des visages. Ce paradigme de contingence du regard utilise une ouverture dynamique de type gaussienne centrée sur la fixation du participant. Pendant l’observation d’un visage avec l’expanding spotlight, seuls les détails du visage se trouvant à l’intérieur de l’ouverture sont disponibles pour le participant. L’espace visuel non-fixé par le participant (i.e., l’espace