• Aucun résultat trouvé

4.4 Au-delà des réponses moyennes correctes

4.4.2 Analyse par position sérielle chez les modèles

Les modèles SOB-CS, TBRS* et TBRS*laf ont été simulés avec les valeurs par défaut présen-tées dans le chapitre 2, excepté pour la valeur du paramètre θ du modèle SOB-CS que nous avons fixé à 0.05, comme dans le modèle TBRS*, afin d’autoriser les erreurs d’omission.

SOB-CS

Globalement, SOB-CS ne reproduit pas très bien les courbes de position sérielle des participants. Premièrement, les prédictions de SOB-CS sont assez similaires que l’on trace les courbes selon la position d’entrée ou la position de sortie. Ce constat peut être observé sur les graphiques de la figure 4.19 représentant les pourcentages de rappel correct non ordonné, les pourcentages d’erreurs d’omission et les pourcentage d’erreurs de transposition. En effet, contrairement aux participants, les erreurs d’omission produites par SOB-CS n’augmentent pas avec la position de sortie. Ce résultat pourrait s’expliquer par le fait que, lors de la phase de rappel, SOB-CS n’inclut pas de déclin temporel. Ainsi, le temps qui s’écoule entre le premier item et le dernier item à rappeler n’a pas d’impact délétère sur les liens d’activation des items à rappeler. Au contraire, à mesure que l’on avance dans le rappel, SOB-CS efface les items rappelés et donc amoindrit la déformation de la MDT. Il semblerait donc que le modèle SOB-CS, en l’état actuel, ne soit pas capable de générer une courbe d’erreur d’omission selon la position de sortie similaire à celle des participants. Cependant, cette proposition reste à tester à travers des simulations

Correct non ordonnée Omission Transposition 0.4 0.6 0.8 1.0 1 2 3 4 5 6 Position % mo y en 1 2 3 4 5 6 Position 1 2 3 4 5 6 Position

Entrée Sortie Participants SOB−CS

FIGURE4.19 – Résultats de simulation du modèle SOB-CS de l’expérience 2.1 uniquement. Les résultats de simulation des expériences 2.2 et 2.3 sont quasiment identiques.

incluant différents paramètres. En effet, l’augmentation du bruit No à la sortie pourrait peut être permettre d’augmenter les erreurs d’omission à mesure que la position de sortie augmente sans avoir besoin d’ajouter un déclin temporel. Également, l’ajout, dans SOB-CS, d’un déclin temporel des traces mnésiques au moment du rappel permettrait-il de mieux rendre compte de la courbe des omissions ?

De plus, SOB-CS prédit un nombre d’erreurs d’intrusion trop important (18%) par rapport aux participants (1.5%). Ce pourcentage d’intrusions est même supérieur aux erreurs de transpo-sition (10% selon la potranspo-sition de sortie et 7% selon la potranspo-sition d’entrée) produites par le modèle. Selon ce modèle, les erreurs de transposition sont dues à la fois au recouvrement entre les posi-tions et aux similarités entre la version déformée et les candidats encodés en MDT. Les erreurs d’intrusion sont, quant à elles, uniquement dues aux similarités entre les candidats potentiels et la version déformée lors de la phase de rappel. Au vu de ces résultats, il semblerait donc que SOB-CS prédise que la confusion via la similarité entre les candidats est plus importante que la confusion via le recouvrement des positions. Une manière d’améliorer le modèle SOB-CS serait peut être de diminuer la similarité entre les candidats ou d’amoindrir le nombre de candidats qui s’élève à 81 vecteurs dans la version par défaut du modèle SOB-CS. Cependant, ce nombre

de candidats est arbitraire et ne représente pas une réalité psychologique, il est donc peut être surestimé.

Enfin, SOB-CS prédit 15 fois plus d’erreurs de répétition (3%) que les participants (0.2%). Nous notons que les erreurs de répétition produites par SOB-CS ne dépendent pas de la position de sortie. Toutefois, l’item le plus répété est celui qui a été encodé à la première position. Il paraît cependant étonnant d’observer des erreurs de répétition sachant que les items, une fois rappelés, sont effacés de la matrice. Une possibilité serait qu’un item i, encodé à la position i, a pu déformer les items qui suivent et/ou les items qui précèdent car les positions ne sont pas totalement indépendantes les unes des autres de par leur recouvrement. Ainsi, même si le lien « position i-item i » est effacé lors du rappel, des traces de l’item i peuvent encore exister sur les positions contiguës. Ainsi, une erreur de répétition est possible. Toutefois, comme nous l’avons remarqué plus haut, les participants ne produisent quasiment aucune erreur de répétition.

TBRS*

Pour commencer, le modèle TBRS* sous-estime les performances de rappel correct non ordonné selon la position d’entrée, et par conséquent, il surestime les erreurs d’omission ainsi que les erreurs de transposition selon la position d’entrée. Ensuite, nous avons constaté que le modèle TBRS* reproduit mieux l’allure des courbes de position sérielle de sortie que SOB-CS. En effet, TBRS* prédit l’augmentation des erreurs d’omission avec la position de sortie, comme chez les participants (voir le graphique central de la figure 4.20). Cette augmentation peut être due au déclin temporel. En effet, au moment du rappel sériel, à mesure que l’on rappelle les items en position 1, puis en position 2, ainsi de suite jusqu’au dernier item de la liste, l’activation des autres items, qui n’ont pas encore été rappelés, décline. Toutefois, nous avons constaté que, même en neutralisant le déclin lors du rappel (c’est-à-dire en fixant le paramètreD à 0), les proportions d’omissions, certes, diminuaient mais la forme de la courbe restait inchangée. Il semblerait donc que le déclin temporel, pendant la phase de rappel, ne soit pas la seule cause de l’observation d’une augmentation des erreurs d’omission avec la position. Des recherches plus approfondies seraient donc nécessaires pour mieux comprendre pourquoi TBRS* prédit une augmentation des erreurs d’omission sur les dernières positions de rappel.

Correct non ordonnée Omission Transposition 0.4 0.6 0.8 1.0 1 2 3 4 5 6 Position % mo y en 1 2 3 4 5 6 Position 1 2 3 4 5 6 Position

Entrée Sortie Participants TBRS*

FIGURE4.20 – Résultats de simulation du modèle TBRS* de l’expérience 2.1 uniquement. Les résultats de simulation des expériences 2.2 et 2.3 sont quasiment identiques.

De plus, le modèle TBRS* parvient mieux que SOB-CS à modéliser la forme en U inversé pour les erreurs de transposition selon la position de sortie (voir le graphique situé à droite de la figure 4.20). Cependant, bien que la forme en U inversé soit bien reproduite, le pourcentage d’erreurs de transposition sont surestimées par rapport aux participants. Également, même si TBRS* prédit 4% en moyenne d’erreurs d’intrusion (1.5% chez les participants),il reste meilleur que SOB-CS qui surestime largement ce type d’erreur (18% pour rappel). Pour finir, le modèle TBRS* montre à nouveau un avantage par rapport à SOB-CS vis à vis de sa capacité à produire des courbes distinctes selon la position d’entrée et la position de sortie comme c’est le cas chez les participants (voir la figure 4.20).

Cependant, le modèle TBRS* a une limite importante concernant les erreurs de répétition. En effet, 80% des erreurs de transposition que l’on observe sur le graphique de droite de la figure 4.20 sont, en fait, des erreurs de répétition. Par exemple, supposons que le participant ne rappelle que des A (« AAAAAA »). On notera qu’il y a eu une erreur de transposition en position 2, 3, 4, 5 et 6. Les erreurs de répétition permettent d’indiquer que ces erreurs de transposition sont également des erreurs de répétition. Nous constatons que TBRS* ne permet pas, en l’état actuel, de rendre compte réellement des erreurs de transposition produites par les participants humains.

En effet, pour TBRS*, une erreur de transposition est presque toujours accompagnée d’une erreur de répétition alors que chez les participants, les erreurs de transposition sont souvent des inversions entre deux items ou des décalages de tout un groupe d’items (Henson, 1998).

Nous avons essayer de comprendre pourquoi le modèle TBRS* produisait autant d’erreurs de répétition. Nous proposons une explication à l’aide d’un exemple qui décortique, pas à pas, le comportement du modèle. Supposons que la liste à mémoriser soit « ABCDEF ». Après avoir encodé l’item « A » et pendant les phases de temps libre, le modèle va rafraîchir l’item en posi-tion 1 afin de le maintenir en mémoire. Pour cela, l’item en posiposi-tion 1 doit être récupéré avant de réactiver le lien entre l’item et la position 1. L’item « A » est récupéré et le lien « position 1-ItemA » est réactivé si le modèle ne fait pas d’erreur. À ce stade de l’expérience, il est peu probable de faire une erreur, sauf si la tâche distractrice est suffisamment longue pour que l’acti-vation entre l’item et la position décline considérablement. Ensuite, l’item « B » en position 2 est présenté et encodé. Pendant toute la phase d’encodage de ce second item, les liens d’activation entre l’item « A » et la position 1 vont décliner. Une fois l’item « B » encodé, vient la phase de temps libre où le modèle va pouvoir rafraîchir, cumulativement et séquentiellement, l’item en position 1 puis l’item en position 2 puis à nouveau l’item en position 1 puis l’item en position 2 etc. Imaginons que le modèle fasse une erreur et rappelle l’item « B » en position 1 au lieu de l’item « A ». Alors, l’item « A » qui était déjà trop faible face à l’item « B » pour être rappelé en position 1 va décliner encore davantage pendant le rafraîchissement de l’item « B » en position 1. Lorsque le modèle récupérera l’item en position 2, il est beaucoup plus probable que l’item « B » soit récupéré en position 2 plutôt que l’item « A » qui avait déjà perdu face à l’item « B ». Non seulement l’item « B » a été encodé en position 2 mais, en plus, certains liens entre la po-sition 2 et l’item « B » ont été renforcés lorsque l’item « B » a été rafraîchi en popo-sition 1 car les vecteurs de positions conjointes partagent certaines valeurs. Il est donc très peu probable que l’item « A » soit récupéré en position 2 car non seulement il a déjà perdu le combat en position 1, et, en plus, ses liens avec la position 1 (qui partage certains noeuds avec la position 2) ont dé-cliné pendant que « B » était erronément rafraîchi à cette position. On comprend à l’aide de cet exemple comment le modèle va principalement générer des erreurs de répétition qui pourraient être interprétées comme des erreurs de transposition. Cet exemple montre que non seulement les erreurs de répétition sont majoritairement contiguës mais qu’en plus il sera très peu probable de faire des erreurs de transposition similaires à celles des participants telle que l’inversion entre

deux items contigus.

Des recherches futures visant l’amélioration de TBRS* pourront se baser sur ces données. Qu’en est-il des erreurs de transposition et de répétition lorsque le rafraîchissement est non-cumulatif ? La production d’erreur de transposition / répétition par le modèle TBRS*laf est-elle améliorée par un mécanisme de rafraîchissement alternatif adaptant l’ordre de rafraîchissement au niveau d’activation de chaque item ?

TBRS*laf

Selon le modèle TBRS*laf(Lemaire et al., 2017), l’effet de récence observé sur les performances de rappel correct est bien plus marqué que celui du modèle TBRS* qui semblait déjà être trop important comparé aux participants (voir graphique à gauche de la figure 4.21). On constate même que l’item encodé en position 6 n’est quasiment jamais omis et est mieux rappelé que l’item encodé en position 1.

Correct non ordonnée Omission Transposition

0.4 0.6 0.8 1.0 1 2 3 4 5 6 Position % mo y en 1 2 3 4 5 6 Position 1 2 3 4 5 6 Position

Entrée Sortie Participants TBRS*laf

FIGURE 4.21 – Résultats de simulation du modèle TBRS*laf de l’expérience 2.1 uniquement. Les résultats de simulation des expériences 2.2 et 2.3 sont quasiment identiques.

Par ailleurs, les erreurs de répétition sont toujours trop élevées avec le modèle TBRS*laf par rapport aux participants. En effet, TBRS*laf prédit que 60% des erreurs de transposition sont des erreurs de répétition. Cela suppose que le décours temporel du rafraîchissement n’est pas la

cause principale d’un taux d’erreurs de répétition très élevée. Des recherches ayant pour objectif de réduire ces erreurs de répétition et de reproduire des erreurs de transposition plus semblables à celles des humains semblent nécessaires pour la viabilité de ce modèle.

4.4.3 Conclusion

L’analyse des différents types d’erreurs a montré certaines limitations des modèles TBRS*9 et SOB-CS. En conclusion, nous souhaitons reprendre deux limitations majeures qui nous sem-blent intéressantes à explorer pour des recherches futures.

Premièrement, TBRS* simule beaucoup trop d’erreurs de répétition. À première vue, ce modèle simule très bien les erreurs de transposition des participants. Cependant, si l’on observe en détail ce que représente ces erreurs de transposition, on constate que le modèle TBRS* si-mule principalement des erreurs de répétition. Une perspective serait donc de trouver un moyen d’empêcher ces erreurs de répétition, et de voir si TBRS* est alors capable de reproduire des erreurs de transposition plus probables telles que des inversions entre des items. Nous pensons qu’une amélioration en ce sens serait une piste intéressante. En effet, Lewandowsky et Oberauer (2015) ont constaté que l’ajout du mécanisme de récapitulation subvocale dans TBRS* augmen-tait dramatiquement les erreurs de répétition (plus de 50% des réponses étaient des erreurs de répétition) et, par conséquent, abaissait les performances de rappel. D’après le titre de leur ar-ticleRehearsal in serial recall : An Unworkable Solution to the Nonexistent Problem of Decay, c’est l’hypothèse du déclin temporel qui rendrait ce problème de répétition insoluble. Cepen-dant, la question reste ouverte : les erreurs de répétition sont-elles réellement un problème sans solution dû à l’hypothèse du déclin temporel ? Et, au contraire, pouvons-nous trouver un modèle computationnel permettant de combiner déclin et rafraîchissement sans nécessairement créer des erreurs de répétition ? Dans ce cas, en trouvant une solution face au problème de génération de répétitions, nous pourrions à nouveau tester le modèle TBRS* avec les deux mécanismes de maintien proposés par TBRS.

Deuxièmement, le modèle SOB-CS ne parvient pas à reproduire la manière dont les par-ticipants rappellent. Notamment, le pourcentage d’erreurs d’omission en fin de liste est moins important que celui en milieu de liste, contrairement aux données des participants. Ce résultat

9. Nous ne distinguerons pas TBRS* et TBRS*laf dans cette conclusion, car les résultats ont montré que ces deux modèles se comportaient de manière très semblable pour ce qui concerne la production d’erreurs.

nécessite de plus amples explications. En effet, cette allure de courbe, très bien représentée par TBRS*, serait-elle due, justement, au déclin temporel lors du rappel, mais aussi lors de la tâche ? Une investigation en ce sens pourrait peut-être apporter également des réponses sur le débat dé-clin/interférence en MCT. L’analyse des erreurs selon la courbe de position sérielle est une piste de recherche qui semble intéressante à suivre pour la suite afin de tester en détail un modèle computationnel et ses mécanismes.