• Aucun résultat trouvé

2. Méthodologie

2.2. Méthodologie de l’exploration

2.2.2. Matériel

Tâche de segmentation de vidéos et entretien clinique d’évaluation de la segmentation d’événements

Nous avons administré à nos participants les deux tâches que nous avons élaborées et qui sont décrites ci-dessus.

Tâche de rappel des vidéos

La tâche de rappel des vidéos est la première des deux tâches que nous avons utilisées pour évaluer la mémoire des événements contenus dans les vidéos. Elle est basée sur les tâches de rappel de vidéos que Zacks et collaborateurs utilisent dans leurs études (Bailey et al., 2013 ; Sargent et al., 2013).

Concrètement, suite à l’administration de la tâche de segmentation de vidéos, nous avons demandé aux participants de nous raconter avec le plus de détails possible tout ce que la personne avait fait dans la vidéo de préparation du petit-déjeuner, puis dans la vidéo de préparation de la fête. Nous avons laissé un minimum de deux minutes et un maximum de quatre minutes aux participants pour rappeler le contenu de chaque vidéo. Cette consigne a été élaborée sur la base des consignes des tâches de rappel de vidéos utilisées dans les études de Zacks et collaborateurs, ainsi que sur les données de la littérature qui suggèrent que, lorsque nous segmentons l’activité d’un individu, nous segmentons en particulier les actions de cet individu (i.e., les mouvements effectués en vue de réaliser un but ; Hard, Recchia, &

Tversky, 2011 ; Zacks, 2004).

Afin de pouvoir évaluer les performances de nos participants à cette tâche, nous avons construit deux grilles d’évaluation pour chacune des vidéos. La première grille contient la liste de toutes actions les plus grossières exécutées par les acteurs des vidéos (e.g., Il met la table.). La seconde grille contient la liste de toutes les actions les plus fines exécutées par les acteurs des vidéos (e.g., Il pose une assiette.). Ces listes ont été établies comme suit : les deux expérimentateurs de cette étude ont chacun de leur côté visionné les deux vidéos d’intérêt et ont identifié pour chacune de ces vidéos toutes les actions les plus grossières et les plus fines exécutées par les acteurs. Ensuite, les deux expérimentateurs ont mis en commun leurs listes et ont construit les grilles d’évaluation pour chacune des vidéos. Pour la vidéo 1, la première grille d’évaluation contient 11 événements (ou actions) généraux et la deuxième grille d’évaluation contient 143 événements détaillés. Pour la vidéo 2, la première grille d’évaluation contient 8 événements généraux et la deuxième grille d’évaluation contient 161 événements détaillés. Nous avons choisi de construire deux grilles d’évaluation par vidéo afin

d’obtenir un score de rappel général et un score de rappel détaillé pour chacune des vidéos d’intérêt.

Dans les grilles d’évaluation du rappel des événements détaillés, un point est attribué pour chaque événement détaillé correctement rappelé. Dans les grilles d’évaluation du rappel des événements généraux, un point est attribué lorsqu’un événement général est correctement rappelé ou lorsqu’un événement détaillé faisant partie d’un événement général est correctement rappelé. En cas d’erreur de rappel (e.g., « elle s’est versée un verre de lait » pour

« elle s’est versée un verre de jus d’oranges »), un point est attribué à l’événement correct correspondant dans les deux grilles d’évaluation et une erreur est comptabilisée dans la grille d’évaluation du rappel des événements détaillés. En cas d’ajout (i.e., rappeler un événement/une action qui ne peut pas être associé à un événement montré dans les vidéos), un point est ajouté dans la case « ajouts » de la grille d’évaluation du rappel des événements détaillés. Pour chacune des quatre grilles, un score total de rappel d’événements est calculé en additionnant tous les points obtenus dans ces grilles. Pour les deux grilles d’évaluation du rappel des événements détaillés seulement, un score total d’erreurs est calculé en additionnant toutes les erreurs et tous les ajouts. Cette cotation nous a donc permis d’obtenir quatre scores de rappel (i.e., un général et un détaillé pour chaque vidéo) et deux scores d’erreurs (i.e., un pour chaque vidéo). Les consignes complètes de la tâche de rappel des vidéos, les grilles d’évaluation associées à cette tâche et un exemple de rappel d’un de nos participants sont disponibles en Annexes V, VI et VII.

Tâche de reconnaissance d’images

La tâche de reconnaissance d’images est la seconde des deux tâches que nous avons utilisées pour évaluer la mémoire des événements contenus dans les vidéos. Elle est identique aux tâches de reconnaissance d’images que Zacks et collaborateurs ont utilisé dans leurs études (Bailey et al., 2013 ; Sargent et al., 2013 ; Zacks, Speer et al., 2006).

Concrètement, la tâche de reconnaissance d’images était présentée en utilisant une procédure programmée à l’aide du logiciel E-Prime 2 sur le même ordinateur que la tâche de segmentation de vidéos. Elle était administrée à la suite de la tâche de rappel des vidéos. Dans la tâche de reconnaissance d’images, nous avons d’abord présenté à nos participants 20 paires d’images en rapport avec la vidéo 1, puis 20 paires d’images en rapport avec la vidéo 2.

Chaque paire d’images était composée d’une image tirée directement d’une des deux vidéos (i.e., l’image vue) et d’une image montrant aussi un plan de la scène mais n’ayant jamais été vue par les participants (i.e., l’image leurre ; voir Figure 4). Tout au long de cette tâche, les participants devaient identifier les images qu’ils avaient vues dans la tâche de segmentation

de vidéos en appuyant sur la touche « x » lorsque les images vues étaient situées sur la gauche de l’écran et en appuyant sur « n » lorsque les images vues étaient situées sur la droite de l’écran (consigne complète en Annexe VIII). Afin d’alléger la mémoire de travail des participants, la question « Laquelle de ces images avez-vous vue ? » et des indications concernant la touche sur laquelle appuyer une fois l’image vue identifiée apparaissaient sur l’écran à chaque essai. Un score de reconnaissance d’images était calculé pour chaque vidéo en comptant les réponses correctes (i.e., les images vues correctement identifiées) des participants. Un score total de reconnaissance était également calculé en additionnant toutes les réponses correctes obtenues à cette tâche pour les deux vidéos.

Pour chaque vidéo, la moitié des images vues se situaient à droite de l’écran et l’autre moitié à gauche de l’écran. Par ailleurs, chaque image vue était associée de manière fixe à une image leurre sur la base d’une liste que nous avons téléchargée sur le site personnel de J. M.

Zacks. L’ordre de présentation des paires d’images pour chaque vidéo était le même pour tous les participants mais a été établi de manière aléatoire.

Figure 4. Exemples de stimuli utilisés dans la tâche de reconnaissance d’images.

Mémoire Logique I et II de la MEM-IV

La MEM-IV est un outil psychométrique utilisé pour évaluer les performances mnésiques générales. Elle est composée de plusieurs sous-tests dont la Mémoire Logique I et la Mémoire Logique II qui permettent d’évaluer la mémoire de récits (Wechsler, 2012). Nous avons décidé d’utiliser ces deux sous-tests de la MEM-IV car les stimuli à mémoriser dans ces sous-tests ont un contenu segmentable (voir Annexe IX) et parce que la MEM-IV a l’avantage d’être normée sur une population âgée de 65 à 90 ans. La passation des deux sous-tests de la MEM-IV que nous avons sélectionnés se déroule comme suit : une première histoire est lue à haute voix par l’expérimentateur au participant qui doit immédiatement après

en répéter le contenu. Cette procédure est réitérée une fois pour cette même histoire, puis une fois encore pour une seconde histoire. Après un délai de rétention de 20 à 30 minutes, le participant doit rappeler le contenu des deux histoires une nouvelle fois et est ensuite soumis à un test de reconnaissance oui/non. La passation des sous-tests de Mémoire Logique I et II permet d’obtenir trois scores reflétant la performance des participants aux tâches de rappel et de reconnaissance des deux histoires : un score de rappel immédiat, un score de rappel différé et un score de reconnaissance.

Echelle d’évaluation de la démence de Mattis

L’Echelle d’évaluation de la démence de Mattis (Mattis, 1976) a été élaborée pour évaluer le fonctionnement cognitif des patients atteints de maladies neurodégénératives et est couramment utilisée pour déceler la présence potentielle de troubles cognitifs chez des personnes âgées. Cette échelle évalue cinq domaines de la cognition : l’attention, l’initiation, la construction, la conceptualisation et la mémoire. Basé sur les cinq sous-scores qui correspondent à ces domaines cognitifs, un score global de fonctionnement cognitif est calculé. Le score global maximal est de 144 points et, d’après le manuel de l’échelle, le seuil clinique à deux écarts-types en-dessous de la moyenne de la population générale est fixé à 122 points. La validité et la sensibilité de chacune des sous-échelles de l’Echelle d’évaluation de la démence de Mattis ont été montrées par Marson, Dymek, Duke et Harrel (1997). Dans notre étude, nous avons utilisé cette échelle pour pouvoir exclure les participants présentant des signes de vieillissement problématique et également afin de pouvoir tenir compte du niveau de fonctionnement cognitif général des participants dans nos analyses.

Echelle de Préférence de Routinisation

L’Echelle de Préférence de Routinisation (EPR ; voir Annexe X ; Bouisson, 2002) est un questionnaire auto-reporté utilisé pour évaluer à quel point un individu préfère adopter des routines dans la vie quotidienne. Il est composé de 10 items (e.g., « En général, je fais les mêmes choses chaque jour ») auxquels les participants répondent sur une échelle de Likert en 5 points allant de « pas du tout vrai » à « tout à fait vrai ». Un score élevé à ce questionnaire indique une préférence de routinisation élevée dans la vie quotidienne. L’échelle a été validée auprès d’une population âgée (65 à 96 ans) et présente une consistance interne satisfaisante (α de Cronbach = .73), une bonne fidélité test-retest à deux semaines (r = .84) et une bonne validité prédictive pour la répétition dans les activités de la vie quotidienne.

Hospital Anxiety and Depression scale

Le Hospital Anxiety and Depression scale (HAD ; voir Annexe XI ; Zigmond &

Snaith, 1983) est un questionnaire auto-reporté utilisé pour évaluer la présence d’une

symptomatologie anxieuse et/ou dépressive. Il est composé de deux sous-échelles : une évaluant la symptomatologie anxieuse et l’autre la symptomatologie dépressive. Un score élevé sur une de ces échelles indique un haut niveau de symptomatologie dans la dimension évaluée. Ce questionnaire a été originellement adapté pour des patients en milieu hospitalier, mais il est depuis couramment utilisé dans divers contextes. La fidélité test-retest à deux semaines de ce questionnaire est supérieure à .80 et une revue de littérature de Bjelland, Dahl, Haug et Neckelmann (2002) a reporté une moyenne de .83 pour sa consistance interne (i.e., moyenne des α dans 15 études). La validité concurrente du HAD est considérée bonne à très bonne.

Questionnaire d’Auto-évaluation de la Mémoire

Le Questionnaire d’Auto-évaluation de la Mémoire (QAM ; Van der Linden, Wyns, Von Frenkell, Coyette, & Seron, 1989) est un questionnaire auto-reporté qui évalue la fréquence des difficultés mnésiques dans la vie quotidienne. Le questionnaire complet comporte une question générale (i.e., « Pensez-vous avoir des problèmes de mémoire dans la vie quotidienne ? ») et 10 rubriques, chacune évaluant un domaine spécifique de la vie quotidienne (e.g., la mémoire des conversations). Chaque rubrique contient plusieurs items.

Les réponses à ce questionnaire sont données sur une échelle de Likert en 6 points allant de

« jamais » à « toujours ». Un sous-score élevé à une des rubriques du QAM ou un score global élevé indique une haute fréquence auto-reportée de difficultés mnésiques. La fidélité test-restest de ce questionnaire varie de .69 à .84 selon la rubrique.

Dans cette étude, nous avons seulement utilisé trois rubriques et la question générale de cet outil car la passation du questionnaire complet aurait été excessivement longue au sein de notre procédure déjà chargée. Nous avons sélectionné deux rubriques portant sur des contenus que nous avons jugés segmentables : mémoire des conversations (6 items) et mémoire des films/livres (4 items). Nous avons également inclus une rubrique portant sur des contenus estimés non-segmentables : mémoire des personnes (7 items ; voir Annexe XII).