• Aucun résultat trouvé

2.3 ATHENA : a fractal model of human memory

3.1.1 Rappel indicé

Cette simulation reprend les capacités basiques attendues d’un modèle de mémoire : (i) la mémoire doit permettre l’émergence d’un souvenir complet à partir d’informations incomplètes, et (ii) la capacité de faire émerger un souvenir doit s’améliorer avec la répé- tition d’informations.

Simulation originelle. Dans le premier article où est exposé le modèle MINERVA2,

Hintzman (1984) présente la simulation du rappel indicé de manière simplifiée : lors de la perception d’un visage, la mémoire permet de se souvenir du nom de la personne (bilatéralement, il est aussi possible de se souvenir d’un visage à l’évocation d’un nom). Cette récupération devient de plus en plus efficace à mesure que nous sommes confrontés à l’association visage-nom d’un individu. Pour cette simulation, il faut présenter au modèle plusieurs associations visage-nom différentes afin qu’il puisse démontrer sa capacité à choisir l’information pertinente en fonction du visage perçu. La simulation sera reproduite avec plusieurs présentations de la même association visage-nom afin de tester l’influence de la répétition sur l’efficacité du souvenir.

Procédure de simulation. Pour cette simulation, Hintzman a proposé l’emploi de

20 composantes : les dix premières étant réservées aux informations liées aux visages (in- formations visuelles), les dix dernières aux informations liées aux noms (informations au- ditives). Aucune distinction n’est faite pour délimiter les catégories de composantes, elles sont censées émerger en situation. Ainsi, aussi bien pour MINERVA que pour ATHENA, les deux modèles peuvent apprendre une association visage-nom en leur présentant une sonde où les 20 composantes ont une activité signifiante (activations et inhibitions aléa- toires mais stables dans l’activité qui les lient aux caractéristiques visuelles et auditives). Par exemple une première association visage_A (présenté en gras pour faciliter la lec- ture) et nom_A (non gras) sera la sonde (1, -1, -1, 1, -1, -1, 1, 1, 1, -1, -1, -1, -1, 1, 1, -1, 1, 1, 1, 1). La présentation d’un visage seul s’effectue à l’aide d’une sonde où les composantes visuelles ont une activité signifiante, ainsi qu’une activité nulle pour les composantes auditives. Par exemple, le visage_A sans le nom sera la sonde (1, -1, -1, 1,

-1, -1, 1, 1, 1, -1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0).

Nous employons ici une instance de chaque modèle comme un sujet auquel nous faisons passer une expérience. Chaque simulation est reproduite 5000 fois pour pouvoir analyser statistiquement les résultats comme s’ils provenaient d’autant de participants. Dans la tâche d’apprentissage, chaque sujet apprend une liste de plusieurs associations visage- nom. Dans cette liste il y a trois associations aléatoires de remplissage qui ne sont pas l’objet de l’expérience, et une association cible que le sujet doit être capable de rappeler. Il y a cinq groupes de sujets pour lesquels l’association cible est présentée 0, 1, 2, 3 ou 4 fois dans la liste d’apprentissage. Dans la tâche de rappel, nous présentons aux sujets le visage de l’association cible et nous observons dans l’écho le nom rappelé.

Simulations 3.1. ATHENA et MINERVA2

Hintzman n’a pas présenté les résultats de cette expérience, certainement parce que l’aspect aléatoire des sondes complique l’analyse des résultats de l’écho. Pour faire passer l’expérience aux deux modèles, nous avons dû mettre au point une méthode d’évaluation de la réponse pour quantifier la qualité de réponse des modèles. Celle-ci évalue la distance moyenne inversée et recentrée entre les composantes des vecteurs étudiés (vecteur attendu et écho produit) par l’équation .!1

m

Pm

j D1jxj ! yjj/ C 1 (où xj est la composante j du

premier vecteur, yj est la composante j du second vecteur, et m le nombre total de

composantes). Nous sommes ainsi en mesure de comparer les résultats des sujets entre eux. Cette équation donne une valeur comprise entre -1 (pour deux vecteurs opposés) et 1 (pour deux vecteurs identiques). En comparant des vecteurs aléatoires, l’espérance de cette équation est de 0.33 (et non pas 0 car il existe statistiquement plus de sondes semblables que différentes), et son écart-type est de 0.13. Cette équation prend alors une marge d’erreur entre 0.20 et 0.46 où la distinction entre vecteurs semblables et différents est floue (ce qui permet une meilleure relativité des résultats).

Prédictions. Cette simulation doit donner des comportements similaires pour les

deux modèles : ils doivent être capables de retrouver efficacement le nom associé au visage cible, et ce de manière plus efficiente avec la répétition perçue des associations cibles. Si apprendre des covariances entre la perception et la production mnésique plutôt que des représentations de visages et de noms est aussi efficace que le prétend l’énactivisme radical, le modèle ATHENA doit être capable de reproduire les capacités du modèle MINERVA2.

Figure 5 – Rappel indicé : Similarité entre écho et cible selon le nombre de présentations de la cible pour MINERVA2 et ATHENA

Simulations 3.1. ATHENA et MINERVA2

eu aucune occurrence de l’association cible dans la phase d’apprentissage, le modèle MI- NERVA2 répond dans l’écho un nom dont la distance au nom cible (0.33(0.14)) correspond à l’espérance de la fonction de comparaison. Ceci signifie que le modèle ne peut pas rappe- ler un nom qu’il ne connaît pas et que sa réponse est aléatoire. Le modèle ATHENA, quant à lui, n’est pas capable de rappeler un nom qu’il n’a pas appris non plus, mais sa réponse se différencie plus du nom cible que ce que donnerait une réponse aléatoire (0.21(0.16)). La différence de valeur entre les deux modèles est significative (T(9998) = 39.465 ; p < 0.001). Cette particularité est due au fait que le modèle ATHENA tente de reconstruire un souvenir à partir de ce qu’il connaît déjà (les associations apprises d’autres visages et d’autres noms), ce qui diffère forcément plus du nom cible qu’une réponse aléatoire. Tandis que MINERVA2 compare la sonde avec du contenu représentationnel (des sondes apprises), et comme la nouvelle sonde est différente des sondes précédentes de manière aléatoire, la différenciation que ce modèle en fait suit la même loi statistique aléatoire. ATHENA tente de reconstruire un souvenir là où MINERVA2 tente de le récupérer.

En second lieu, les courbes des deux modèles augmentent au fur et à mesure du nombre de fois auquel ils ont été confrontés à l’association cible. Le modèle MINERVA2 suit une courbe longiligne et son évolution est statistiquement significative comme le montre un test de Pearson à r(25000) = 0.556 ; p < 0.001. Chacun des groupes a un résultat différent du suivant, et la présentation s’améliore à chaque présentation supplémentaire de l’association cible :

Test de Student entre les positions 1 et 2 : T(9998) = 27.224 ; p < 0.001 Test de Student entre les positions 2 et 3 : T(9998) = 25.231 ; p < 0.001 Test de Student entre les positions 3 et 4 : T(9998) = 23.02 ; p < 0.001 Test de Student entre les positions 4 et 5 : T(9998) = 19.901 ; p < 0.001

L’évolution du modèle ATHENA est tout autant significative avec un test de Pearson à r(25000) = 0.575 ; p < 0.001. La distinction entre chaque groupe est aussi significative :

Test de Student entre les positions 1 et 2 : T(9998) = 63.759 ; p < 0.001 Test de Student entre les positions 2 et 3 : T(9998) = 26.846 ; p < 0.001 Test de Student entre les positions 3 et 4 : T(9998) = 12.895 ; p < 0.001 Test de Student entre les positions 4 et 5 : T(9998) = 7.527 ; p < 0.001

Enfin, il convient de remarquer que si les résultats sont conformes aux attentes pour les deux modèles, leurs courbes n’ont pas la même forme. La courbe de MINERVA2 est une droite où chaque nouvelle occurrence supplémentaire apprise améliore les résultats de la même manière. La courbe de ATHENA suit une progression logarithmique où chaque nouvelle occurrence supplémentaire apprise améliore les résultats relativement à ce que le modèle serait déjà capable de faire (la progression est rapide pour les premières occur- rences et diminue selon le nombre de répétitions effectuées). Cette courbe d’apprentissage est typique de l’expérience humaine (Ebbinghaus, 1913 ; Bills, 1934) et est due au fait que la présentation d’un nouvel item améliore son souvenir relativement au nombre de fois

Simulations 3.1. ATHENA et MINERVA2

où l’item a déjà été présenté. Un item non fluent a besoin de moins de répétitions pour augmenter sa fluence comparativement à un item déjà connu et fluent. Conformément à l’apprentissage humain, l’apprentissage du modèle ATHENA suit une logique de contex- tualisation avec une normalisation des informations apprises. Ce que l’on peut observer dans les résultats de cette simulation par la forme logarithmique de la courbe d’appren- tissage du modèle.

Cette simulation nous a permis de nous assurer que le rappel indicé et l’améliora- tion par répétitions ne nécessitent pas d’apprendre des représentations pour pouvoir être efficace, mais aussi que la courbe d’apprentissage est plus pertinente pour un modèle énactiviste que pour son équivalent représentationnaliste. En effet, pour un sujet humain l’apprentissage est logarithmique et non pas linéaire.