• Aucun résultat trouvé

Les années 80s-90s : étude de la vitesse de la mémoire de reconnaissance

Dans le document The DART-Europe E-theses Portal (Page 147-151)

spécialisation fonctionnelle de l’hippocampe et du cortex périrhinal ?

4. Approche temporelle des processus de la mémoire de reconnaissance

4.2. Les années 80s-90s : étude de la vitesse de la mémoire de reconnaissance

L’approche temporelle de la mémoire de reconnaissance est donc à l’origine de la première dissociation des deux processus de la mémoire de reconnaissance. Si les premières études s’intéressent à la mesure du temps de réaction moyen des réponses données lors de la phase de reconnaissance de tâches classiques de reconnaissance, de nouveaux paradigmes furent introduits pour investiguer plus finement les propriétés temporelles de la mémoire de reconnaissance.

4.2.1. Le paradigme SAT

Un paradigme majeur développé pour étudier le décours temporel des réponses comportementales de la mémoire de reconnaissance est le paradigme SAT, pour ‘Speed-Accuracy Tradeoff’ (signifiant ‘Compromis vitesse/précision’ en anglais). Ce paradigme consiste à introduire différentes contraintes temporelles pour répondre, permettant de distribuer la performance à la tâche en fonction du temps de réaction. En pratique, le participant a pour consigne de répondre dès la survenue d’un lag (signifiant ‘décalage temporel’ en anglais) indiqué par un signal sonore. Plusieurs lags sont utilisés dans ce paradigme, permettant l’analyse du tracé de la courbe SAT représentant la performance de l’ensemble des réponses associées à chaque valeur de lag en fonction du temps de réaction (Figure 43). La courbe obtenue montre alors trois phases. Lors de la première phase, la performance est au niveau de la chance, le temps du lag est trop court pour pouvoir répondre correctement. Puis, lors d’une seconde phase, les réponses correctes deviennent possibles et la performance décolle du niveau de chance, pour rejoindre une performance-limite, troisième phase, qui correspond à la performance obtenue sans contraintes temporelles.

δ δ δ δ

Figure 43. Illustration de courbes SAT (extrait et modifié de Dosher et al., 1984). Chaque point (triangles et ronds) représente l’ensemble des réponses faites pour un lag donné ; son abscisse est définie par le temps du lag

additionné de la moyenne du temps de réaction séparant les réponses du lag ; son ordonnée correspond à la performance moyenne de ces réponses. La courbe du haut (triangles) correspond à une condition de reconnaissance d’item (E+ vs E-), tous sémantiquement distincts (S-) : la tâche devient possible à partir d’un

certain moment (la courbe de sépare du niveau de la chance) avant d’atteindre son seuil de possibilité (la courbe atteint son asymptote). La courbe du bas (ronds) correspond à une condition de distinction de leurres

sémantiquement reliés (S+ vs S-). Temporellement, deux phases peuvent être observée : d’abord le temps ne suffit pas et les items leurres sont pris pour des items anciens (la courbe se sépare au-dessus du niveau de la chance) ; puis, la tâche devient possible (et la courbe redescend dessous le niveau de la chance, qui est la performance attendue). Le paramètre x-intercept (δ, en orange) est une estimation (voir texte) et correspond au

moment à partir duquel la performance commence de dépasser le niveau de la chance.

Cette courbe est bien modélisée par une fonction de croissance exponentielle rejoignant une limite (Dosher, 1976), mais aussi par le modèle de la marche aléatoire (Ratcliff, 1978, 1980 ; Gronlund & Ratcliff, 1989, etc.). Ces modèles dépendent en particulier de trois paramètres qui décrivent ces courbes : le x-intercept, temps de réaction auquel la performance commence à dépasser le niveau de la chance, la pente, qui correspond à la pente de la courbe SAT au point x-intercept, et la performance-limite qui correspond à la performance obtenue sans contraintes temporelles. Dans une approche temporelle de la vitesse des processus, le x-intercept indique une valeur particulièrement intéressante. En effet, cette valeur correspond au temps théorique à partir duquel la tâche est possible. Dans les tâches de reconnaissance d’items, cette valeur est entre ~350 ms et ~600 ms (Dosher, 1984; Gronlund & Ratcliff, 1989

; Hintzman & Curran, 1994, Mulligan & Hirshman, 1995 ; 1997; Hintzman & Caulton, 1997;

Gronlund, Edwards, & Ohrt, 1997 ; Hintzman, Caulton, & Levitin, 1998; McElree, Dolan, &

Jacoby, 1999 ; Rotello & Heit, 2000 ; Boldini, Russo, & Avons, 2004; Boldini, Russo, Punia,

& Avons, 2007; Goëthe & Oberauer, 2007; ).

Afin d’estimer les effets de différentes manipulations sur le décours temporel du processus de recollection, le paradigme SAT a été aussi appliqué à des tâches de mémoire de reconnaissance de source ou de paires d’items. Dans ces tâches, la valeur du x-intercept est entre ~460 ms et ~650 ms (Dosher, 1984; Gronlund & Ratcliff, 1989; Hintzman & Curran, 1994 ; Mulligan & Hirshman, 1995 ; Gronlund et al., 1997; Hintzman & Caulton, 1997;

Hintzman et al., 1998; McElree, Dolan, & Jacoby, 1999; Rotello & Heit, 2000). Ces résultats suggérent que la recollection serait plus lente que la familiarité.

Néanmoins, il est à noter que ces intervalles de valeurs représentent une grande variabilité. De plus, certaines limites sont inhérentes à cette méthode : la courbe SAT, correspond à une distribution en ‘paquet’ des performances (un paquet par réponses suivant un lag donné), et non à une distribution continue des valeurs, et le x-intercept, est une valeur estimée à partir d’un modèle et correspond à une valeur de temps à laquelle la performance est toujours au niveau de la chance. Enfin, à notre connaissance, aucune étude utilisant le paradigme SAT n’a utilisé de stimuli visuels. Ces données mériteraient d’être au moins étendues à des stimuli visuels, et déterminer une valeur du premier temps de réaction à laquelle la performance est fiable, serait particulièrement intéressante.

4.2.2. Expérience avec TR (90s)

Opposer les performances aux tâches de reconnaissance d’item à celles obtenus dans des tâches de mémoire associative ou de source pour évaluer respectivement la familiarité et la recollection a montré ses limites (voir plus haut, p. 135). Une stratégie particulièrement intéressante au regard de l’approche temporelle des processus de la mémoire de reconnaissance a par conséquent été de dissocier les contributions respectives de la familiarité et de la recollection, tout en enregistrant le temps de réponse des participants (Yonelinas &

Jacoby, 1994).

Dans la première expérience de cette étude, la phase d’encodage consistait à apprendre une liste de mots, un mot sur deux étant présenté dans la modalité visuelle, le reste des mots dans la modalité auditive. Lors de la phase de reconnaissance, pour la première moitié de la liste (cible et distracteurs), la tâche consistait alors à répondre oui ou non à la question «

Avez-correctes sur le mot et sur la modalité dans laquelle il avait été présenté (réponses affiliées à la condition inclusive ; voir p. 95 et suivantes pour la description du paradigme PDP), les réponses correctes sur le mot mais pas sur la modalité dans laquelle il avait été présenté (condition exclusive), et les réponses incorrectes (condition nouveauté). Au total 480 mots étaient à reconnaître parmi 240 distracteurs pour chaque participant.

En agrégeant toutes les réponses par intervalles ou ‘bin’ de 200 ms, il était alors possible de calculer pour chaque bin la probabilité de familiarité et celle de recollection utilisant les équations de la PDP (Jacoby, 1991) et ainsi tracer ces deux courbes en fonction du temps (Figure 44). Les résultats ont alors révélé un avantage de la familiarité sur la recollection à être utilisée pour les réponses les plus rapides. En revanche, les deux processus contribuaient autant sur toute l’échelle de temps et en particulier autant à partir de ~1000 ms.

Figure 44. Distribution de la familiarité et de la recollection estimés sur des bins de 200 ms dans un paradigme PDP (d’après Yonelinas et al., 1994). Ces résultats montrent un avantage de la familiarité sur la recollection

pour les réponses les plus rapides. Les deux processus contribuent autant sur toute l’échelle de temps et en particulier autant à partir de ~1000 ms.

Ces données toutefois souffrent d’une faible résolution temporelle (précision à 200 ms et premier point correspondant à toutes les réponses inférieures à 600 ms). Pourtant, cette méthode originale et prometteuse n’a que très peu été utilisée par la suite (ces résultats sont toutefois répliqués dans la deuxième expérience de la même étude), et mériterait d’être approfondie.

4.3. Les années 90s-2000s : paradigme RDP et combinaison avec le paradigme

Dans le document The DART-Europe E-theses Portal (Page 147-151)