• Aucun résultat trouvé

I.3 P ARADIGMES MESURANT LA CONTRIBUTION DE LA RECOLLECTION ET DE LA FAMILIARITE

I.3.4 M ODALITE DES STIMULI Mots

Les premières tâches expérimentales évaluant la mémoire de reconnaissance ont utilisé des stimuli verbaux, partant du principe que la modalité verbale du matériel avait un effet moins variable que la modalité visuelle, ce qui entraînait des biais dans les résultats (Clark, 1973). Depuis, ce postulat a été démenti, et les effets des différentes caractéristiques linguistiques des mots sur la mémoire de reconnaissance ont été décrits (Freeman et al., 2010).

Bien qu’ils soient plus rapidement dénommés et identifiés dans les tâches de jugement lexical, et alors qu’ils sont mieux rappelés, les mots avec une fréquence haute sont moins bien reconnus. Cet effet de fréquence sur le rappel et sur la reconnaissance est observé pour les items uniques (mot seul) comme dans les tâches de reconnaissance associative (paires de mots) (Yonelinas, 2002). Peut-être parce qu’ils requièrent moins de ressources attentionnelles (Glanzer & Adams, 1985).

Une autre hypothèse avance un effet de densité : les mots à basse fréquence auraient des représentations épisodiques plus distinctes du fait d’un environnement lexical moins bruité

39 que les mots à haute fréquence dont les contextes d’utilisation associés sont plus nombreux et favorisent ainsi les erreurs d’interférence (Cf. Figure 16) (Freeman et al., 2010, Dennis & Humphreys, 2001). A cela s’oppose le postulat d’une représentation lexicale unitisée pour chaque mot (Dennis & Humphreys, 2001).

Selon Yonelinas l’augmentation des fausses alarmes associée à une fréquence de mots haute est expliquée par le fait que les mots communs et fréquents sont nécessairement jugés familiers (Yonelinas, 2002). Guttentag et Carroll proposent que le mécanisme de l’effet de la fréquence des mots est médié par un phénomène de recollection puisque le sujet allouerait plus de ressources cognitives à chaque mot à basse fréquence (charge attentionnelle, stratégie d’association sémantique) (Guttentag & Carroll, 1997). Une dernière cause possible propose que comme les mots à basses fréquences ont par définition été moins expérimentés, ils sont moins sujets aux fausses alarmes.

L’effet de fréquence inversé entre rappel et reconnaissance reste difficile à expliquer. Guttentag et Carroll avancent qu’il s’agit là d’un effet de la tâche plutôt qu’un effet de fréquence. Selon les auteurs une tâche de reconnaissance serait spécifique d’un traitement des items uniques alors qu’une tâche de rappel relèverait davantage d’un traitement de mémoire associative ou relationnelle. Ils ajoutent que le traitement des items uniques serait plus performant en condition basse fréquence alors que le traitement de la mémoire associative serait amélioré par la condition haute fréquence (Guttentag & Carroll, 1997).

Figure 16. Schéma des représentations des items verbaux à haute et basse fréquence et de l’effet de densité pour les mots à haute fréquence (Reder et al., 2002).

40 Un pattern récurrent dans les tâches de reconnaissance de mots correspond à un taux de hits plus important et un taux de fausses alarmes moindre pour les mots à basse fréquence (Glanzer & Adams, 1985).

Les effets de fréquence peuvent être expérimentalement répliqués, donc contrôlés.

Mots versus Images

L’utilisation des images comme stimuli est plus compliquée car les effets à prendre en compte sont beaucoup plus subjectifs : saillance, mémorabilité, similarité ou des effets de bas niveaux (contraste visuel, luminance…). Sur un set de 600 stimuli, Shepard (1967) a comparé les réponses de sujets à une tâche de reconnaissance de mots, phrases et images et a trouvé une performance respectivement de 90, 88 et 98%. Les résultats d’une étude comparant la performance à une tâche de décision lexicale versus décision d’objet versus combinée (plus écologique) ne montrent pas de différence en exactitude ni en temps de réponse entre les deux modalités, mais observent un temps de réaction accru dans la tâche combinée, ce qui confortent les auteurs dans une hypothèse d’effet de modalité sur la performance. Cela est corroboré par la modélisation du traitement des mots versus des images de Snodgrass (1984), qui comporte des niveaux conscients et inconscients au sein desquels le traitement des modalités est respectivement dissocié et commun.

Le modèle du traitement des mots et des images de Snodgrass, un système de reconnaissance en somme, permet de prédire des effets en fonction de la modalité du matériel utilisé (cf. Figure 17).

41

Figure 17. Modèle du traitement des mots et des images de Snodgrass (1984).

D’abord, les caractéristiques physiques de l’objet (mot ou image) sont traitées (premier niveau), puis ces traits physiques analysés sont confrontés et appariés à des traits prototypiques, stockés et connus (second niveau). Le troisième niveau est une sorte de stock sémantique, composé de nœuds de catégorisation et de propriétés, permettant l’identification. Snodgrass pointe en revanche deux différences entre mots et images. D’abord il note une plus grande variabilité dans la façon dont apparaissent les objets visuels en tant que stimuli, et ainsi une plus grande variabilité dans les images prototypiques visuelles par rapport aux représentations acoustiques. Par ailleurs, il note une moins grande ambiguïté sémantique pour les objets que pour les noms.

42

Conclusion de la partie I

Dans cette partie nous avons vu que la mémoire de reconnaissance qui nous permet de déterminer si un stimulus a déjà été rencontré implique 2 processus : la recollection et la familiarité. Les définitions des processus de recollection et de familiarité varient selon les différents modèles et notamment s’articulent autour de l’indépendance ou ou de la dépendance des processus. Certains auteurs soutiennent que la recollection et la familiarité correspondent aux deux zones d’un même continuum qui reflète la force de la trace mnésique (Dunn, 2004, Squire, 2004). D’autres soutiennent que les deux processus seraient indépendants (Mandler, 1980, Jacoby, 1991, Yonelinas, 1994).

Des paradigmes ont été développés pour tester ces hypothèses. Mais les résultats des études semblent être tâche-dépendants. Au-delà des effets à contrôler lors de l’encodage et de la récupération (apprentissage incident ou explicite, délai,…), et des effets liés à la nature des stimuli (verbal/visuel, concrétude, fréquence…), Yonelinas identifie un autre problème : les tâches utilisées pour estimer les processus ne se réfèrent pas au même modèle (Yonelinas et al., 1998). En ce sens il propose le modèle hybride dual-process signal detection (DPSD) où la familiarité est une fonction continue, en accord avec la SDT et la recollection une fonction à seuil en référence à la threshold theory (Yonelinas, 1994). Et il montre la convergence des paradigmes d’estimation des processus en référence avec le modèle DPSD (Yonelinas et al., 1998). Les trois grands paradigmes d’estimation des processus convergents en référence au modèle DPSD sont le paradigme RKG, basé sur le rapport subjectif du sujet, le paradigme ROC basé sur les indices de confiance dans la réponse et enfin la procédure PDP, objective (Tulving, 1985, Jacoby, 1991, Yonelinas, 1994).

Nous verrons dans le chapitre II que de nombreuses études ont montré chez l’animal, chez le sujet sain et chez le patient une dissociation possible avec altération du rappel/recollection et reconnaissance/familiarité préservée (Holdstock et al., 2002, Mayes et al., 2004, Bastin et al., 2004). Le pattern inverse n’a cependant été rapporté que dans quelques études de cas (Bowles et al., 2007).

43

II. SUBSTRATS NEURO-ANATOMIQUES DE LA RECOLLECTION ET DE LA

FAMILIARITE

Ce chapitre est consacré au rôle du lobe temporal médian dans la mémoire déclarative et passe en revue les résultats majeurs des études questionnant les substrats anatomiques de la recollection et de la familiarité chez l’humain essentiellement.