• Aucun résultat trouvé

. . . . Expressions spontanées : Le Questionnaire d’Expressivité de Berkeley (BEQ) Le questionnaire d’expressivité de Berkeley (BEQ ; Gross & John, ) vise à mesurer l’expressivité de la personne, c’est-à-dire sa tendance à extérioriser ses émotions (visage, gestualité, langage). Dans sa version originale, le BEQ est complété par le participant lui-même (auto-rapporté). Il est composé de items sous forme d’affirmation à évaluer selon un degré d’accord (échelle de Lickert en points « pas du tout d’accord » à « tout à fait d’accord »). Les scores peuvent s’étendre de à . L’outil permet d’appréhender trois facettes de l’expressivité : l’intensité des expressions (Impulse Strength), l’expressivité positive (Positive Expressivity) et l’expressivité négative (Negative Expressivity). Les résultats au questionnaire donnent un score d’expressivité générale, ainsi qu’un score aux trois sous-échelles correspondant aux trois facettes.

L’outil fait preuve de bonnes qualités psychométriques puisque les trois sous échelles sont toutes inter-corrélées au-delà de . . L’outil dispose d’une bonne validité corrélationnelle avec les autres outils d’évaluation de l’expressivité, mais également une bonne discrimination avec des comportements de type agressifs et impulsifs. L’outil semble par ailleurs peu affecté par les biais liés à l’auto-évaluation. En effet, la version hétéro-rapportée (les items ont été édités à la troisième personne du singulier) corrèle à . avec la version auto-rapportée, ce qui renforce la validité du questionnaire. La cohérence interne et la structure factorielle de la version francophone du BEQ (Séguin, ) ont été vérifiées par Ouellet, Provencher et Langlois ( ). Elles sont comparables à celles de la version originale. Actuellement la fidélité et la validité du BEQ-F n’ont pas été testées.

90

Malgré tout, cet outil reste le plus intéressant étant donné son ancrage théorique en trois facettes et sa bonne corrélation entre la version auto-rapportée et hétéro-rapportée. Ainsi la version française a été utilisée et transformée en hétéro-questionnaire. Il est donc destiné à évaluer l’expressivité des enfants par leurs parents.

. . . . Expressions spontanées : réactions face à une vidéo (« EMORéa »)

Cette tâche a été créée pour appréhender l’expressivité émotionnelle des enfants en observation directe. Elle consiste à faire visionner à l’enfant une vidéo sans consigne particulière, et de filmer son visage simultanément. L’objectif est donc d’appréhender les réactions faciales spontanées de l’enfant face à la vidéo.

Les vidéos sont celles utilisées dans l’étude de Famelart et Guidetti ( ). Les trois vidéos ont une durée similaire (en moyenne secondes) et sont sensiblement proches dans leur contenu et leur format. Chacune représente un extrait d’un spectacle de clownerie - de nature humoristique - mettant en scène deux personnages réalisant des actions répétitives et absurdes, et se terminant par une chute marquante.

L’enregistrement du visage de l’enfant est effectué par la webcam de l’ordinateur sur lequel la vidéo est diffusée.

Méthode d’analyse et codage : Les vidéos d’enregistrement des réactions faciales des enfants ont été analysées avec le logiciel FaceReader (Noldus, ). Ce logiciel est spécifiquement conçu pour l’analyse automatique des expressions faciales émotionnelles. Basé sur le système FACS (Ekman & Friesen, ), il analyse sept émotions de base (i.e. surprise, joie, peur, tristesse, dégout et colère) en calculant des scores de probabilité et d'intensité des expressions émotionnelles sur une échelle continue de à . De plus, FaceReader analyse la valence des expressions faciales (résultante des émotions, valeur entre - et + ), la direction du regard et d’autres informations par exemple l’état d’ouverture des yeux (ouverts/fermés), de la bouche (ouverte/fermée), et des sourcils (levées/froncés). Le logiciel prend en charge les images, mais également les vidéos. Pour ces dernières, l’analyse s’effectue par une méthode d’analyse image par image. Par ailleurs, dans la version , il est possible de spécifier l’origine ethnique, le sexe et l’âge de l’individu, mais également de calibrer manuellement le visage avant l’analyse. Dans notre cas, ce dernier point s’est avéré particulièrement intéressant.

L’outil fait preuve d’une très bonne validité corrélationnelle et démontre une précision au-delà de % (par rapport à des annotateurs manuels). Dans la version , l’outil a l’avantage de développer une méthode supplémentaire : deux analyses des expressions s’effectuent en parallèle selon deux méthodes différentes (i.e. Active Appearance Model (AAM) et deep artificial neural network), celles- ci sont ensuite combinées pour donner une classification finale.

91

. . . . Expressions volontaires : production d’expressions sur demande (« EMOMime »)

Cette tâche a été créée pour évaluer la capacité de l’enfant à exprimer volontairement les émotions de base (i.e. joie, colère, tristesse et peur) en observation directe. Elle consiste à demander à l’enfant de produire/mimer chaque émotion.

L’enfant est en position debout face à une caméra sur trépied et est filmé entièrement.

Méthode d’analyse et codage : L’objectif étant d’appréhender l’expression émotionnelle sous son aspect multimodal, une grille de codage a été créée de manière à analyser les expressions faciales, les expressions corporelles et les expressions vocales. Le codage de chacune des modalités est issu d’un système de codage distinct6 (voir Annexe , p. ) :

- Expressions faciales : codage issu du système MAX / AFFEX (Izard, ; Izard, Dougherty, & Hembree, ) et du système FACS (Ekman & Friesen, )

- Expressions corporelles : codage issu du système BEEOS (Behavior and Emotion Expression Observation System ; Johnson, Finlon, & Izard, )

- Expressions vocales : codage issu des travaux de Juslin et coll. (Juslin & Laukka, ; Juslin & Scherer, )

Le codage des enregistrements vidéos s’est effectué via le logiciel d’assistance à l’annotation et à l’analyse de vidéos ELAN (version . . - alpha, ; Lausberg & Sloetjes, ). Le principe de base du codage consiste à relever toutes les unités d’action mobilisées par l’enfant dans chacune des modalités, et ce, pour chacune des conditions. Les vidéos ont été analysées par la méthode du double codage en aveugle qui consiste à faire analyser les vidéos par deux codeurs naïfs indépendants. La concordance entre leur codage respectif est ensuite examinée par des analyses corrélationnelles. Cette méthode permet ainsi d’atténuer les biais liés à l’observation (subjectivité, attention, perception, etc).

Pour pouvoir interpréter les résultats, les données brutes issues du codage ont ensuite fait l’objet d’un traitement permettant d’extraire le taux de correspondance entre les productions des enfants et une combinaison attendue (pour chacune des modalités). Plus exactement, pour chaque émotion et pour chaque modalité, une combinaison théorique a été élaborée, correspondant aux patterns expressifs des émotions (issus de la littérature). Ainsi, la combinaison produite par l’enfant sera rapportée à la combinaison théorique. Par exemple pour l’expression faciale de la peur, la combinaison théorique correspond à l’agrandissement de l’ouverture des yeux et une remontée des sourcils (surtout les coins internes) associés à l’ouverture de la bouche et l’étirement des lèvres vers l’extérieur. L’enfant qui produit une expression montrant l’agrandissement des yeux et la remontée des sourcils, mais

6 A notre connaissance, aucun système de codage des expressions émotionnelles ne prévoit une analyse

92

conserve la bouche fermée a généré une expression qui n’est composée que de la moitié de la combinaison théorique.