• Aucun résultat trouvé

68 enfants scolarisés dans une école à Genève ont participé à notre étude. Six enfants ont été exclus de l’échantillon : cinq présentaient des performances d’appariement déviantes à plus de deux écarts-types de la moyenne ; un présentait un score à deux écarts-types de la moyenne au test de vocabulaire. L’échantillon final se compose de 62 enfants de trois groupes d’âge différents : 15 enfants de 4-5 ans (5 filles, 10 garçons ; M = 58.7 mois, ET = 3.97) ; 28 enfants de 7 ans (13 filles, 15 garçons ; M = 83.9 mois, ET = 6.75) et 19 enfants de 9-10 ans (10 filles, 9 garçons ; M = 116.7 mois, ET = 3.81). Certains enfants ne sont pas de langue maternelle française, mais tous ont de bonnes compétences en français. Ils ont tous été testés individuellement par une des deux expérimentatrices dans une salle calme de leur école. La présente étude a été conduite en accord avec le comité d’éthique de l’Université de Genève et avec le Département de l’Instruction Publique.

Afin de contrôler les aptitudes verbales des enfants, le sous-test vocabulaire de la batterie WPPSI-III (Wechsler, 2002) pour les enfants âgés de 4-5 ans et de la batterie WISC-IV (Wechsler, 2003) pour les enfants dès 7 ans leur a été administré individuellement avant la phase de test. Le score se situait dans la norme standard pour les enfants de 4-5 ans (M = 8.53, ET = 5.04), de 7 ans (M = 9.5, ET = 2.17) et de 9-10 ans (M = 9.74, ET = 2.49). Cette tâche de contrôle a pour but de s’assurer que les performances dans la reconnaissance des émotions ne sont pas dépendantes du niveau langagier des enfants.

2.2. Matériel et procédure

Avant la phase de test, les enfants ont réalisé un entraînement d’appariement avec des images d’animaux. L’enfant avait pour consigne de retrouver parmi un choix de trois animaux celui qui avait été présenté précédemment soit sous la modalité visuelle d’une image figurative (« Tu vas voir une image, puis tu vas voir 3 images, choisis celle qui ressemble le plus à la première image ») ; soit sous la modalité visuelle et auditive du mot correspondant à l’animal (« Tu vas voir et entendre un mot, puis tu vas voir 3 images, choisis celle qui ressemble le plus au mot que tu as entendu »). Chaque image a été choisie dans un panel trouvé sur Internet (Annexe I). L’expérimentateur s’assurait de la compréhension des enfants quant à la consigne et au déroulement avant de passer à la tâche principale.

Lors de la phase de test, l’enfant devait réaliser un appariement d’images d’expressions faciales émotionnelles selon deux conditions. La première consiste en un appariement visage-visage ; la deuxième en un appariement label-visage.

Dans la première condition (Figure 3), une expression faciale émotionnelle apparaît à l’écran d’ordinateur pendant une durée de 3000 ms, suivie d’un écran réponse composé de trois expressions faciales émotionnelles. Dans cette condition, la tâche de l’enfant est d’apparier le visage qui ressent la même chose que le visage cible : « Tu vas voir 1 visage, puis tu vas voir 3 visages. Choisis celui qui se sent pareil, qui ressent la même chose que le premier visage ». Les expressions faciales émotionnelles ont été construites via le logiciel FACSGen (Roesch et al., 2010), lequel a été inspiré du « Facial Action Coding System » (FACS), technique de codification des expressions faciales mise au point par Ekman et Friesen (1978). Nous avons choisi dans le FACSGen l’image d’un visage masculin statique, prédéfini dans la base de données et qui correspond au visage 149. Quatre expressions émotionnelles, choisies parmi les expressions statiques du logiciel ont été présentées en visage cible : la peur (« fear 04 »), la colère (« anger 04 »), la tristesse (« sadness 01 ») et le dégoût (« disgust 01 »), à une intensité prédéfinie de 75% sur le logiciel (Annexe II). Le tableau 1 présente les unités d’action activées ainsi que leur intensité d’activation pour chaque émotion cible. Les émotions cibles sont toutes de valence négative.

L’écran réponse est composé de trois expressions faciales émotionnelles. Pour la moitié des items, le sujet a le choix entre l’expression faciale émotionnelle (EFE) cible, une EFE de valence positive (joie « SmileClosed », choisie parmi les expressions statiques du FACSGen à construire) et une EFE de valence négative (choix inter-valence). Pour l’autre moitié des items, le sujet a le choix entre l’EFE cible et deux EFE de valence négative (choix intra-valence). La position des EFE réponses et des EFE à choix a été randomisée au sein des sujets. Nous avons construit des images composées de trois visages selon une répartition alternée des EFE autour de la cible, de façon à ce qu’elles ne soient pas deux fois dans la même position. Ainsi, pour chaque cible, nous avons obtenu six positions d’EFE différentes.

Chaque EFE étant proposée une fois à une intensité de 50% et une fois à 100%, nous avons obtenu 12 conditions différentes par cible. De ce fait, pour la totalité des cibles, nous avons 48 possibilités de choix. Les images ont été construites sur Powerpoint. Chaque image mesure 650x302 pixels. Pour faire son choix, l’enfant devait appuyer sur la touche réponse correspondant à l’item choisi à l’aide des touches 1, 2 et 3 du clavier. L’écran réponse disparaissait automatiquement après la réponse du sujet.

Tableau 1

Unités d’action pour chaque émotion en fonction de l’intensité choisie.

UA choisir le visage parmi les trois qui correspond à l’émotion donnée par un label : « Tu vas voir et entendre un mot, puis tu vas voir 3 visages. Choisis celui qui se sent pareil, qui ressent la

même chose que le mot que tu as entendu ». Dans cette condition, le mot écrit en Calibri, taille 96, correspond à l’une des quatre émotions cibles (peur, colère, tristesse et dégoût) et apparaît sur l’écran d’ordinateur à une dimension de 650x205 pixels, durant 3000 ms. Puis, un écran réponse composé de trois expressions faciales émotionnelles apparaît. La configuration de cet écran est identique à celle de la condition précédente.

Figure 3. Modalité de présentation pour la condition visage (à gauche) et pour la condition label (à droite).

Les deux conditions expérimentales étaient présentées par bloc via le logiciel E-Prime 2 (Schneider, Eschman, & Zuccolotto, 2002). Les deux conditions ont été contrebalancées afin de contrôler un éventuel effet de l’ordre des conditions. Pour chacun des trois groupes d’âge, la moitié des sujets débute par l’appariement label-visage et la seconde moitié commence par l’appariement visage-visage. Pour chaque condition, les 48 items apparaissent de façon aléatoire. La totalité de la tâche (les deux conditions) comprend 96 items pour chaque enfant. Nous avons également limité le temps d’exposition de la cible (label et visage) à 3000 ms. Toutefois, le temps de réponse n’a pas été limité ; ainsi l’item suivant apparaissait suite à la réponse de l’enfant.

A la fin de la phase test, nous avons posé quatre questions afin de contrôler le niveau de compréhension des émotions cibles de notre recherche, soit la peur, la tristesse, la colère et le dégoût. La question utilisée pour chaque émotion était : « Peux-tu me dire ce que c’est (la peur, la tristesse, la colère, le dégoût) ? Peux-tu me donner un exemple, une situation ? ».

Nous avons retranscrit les dires des enfants mot pour mot et nous avons procédé à un accord juges en cotant les dires comme « compris » vs « non compris » (1-0). L’accord inter-juges a montré une fiabilité de 100% (Annexe III). La durée moyenne totale de l’expérience pour un enfant était d’environ 30 minutes.

3000 ms 3000 ms

Documents relatifs