• Aucun résultat trouvé

3.3. Limites des mesures concourantes

3.3.3. Précautions à prendre dans l’utilisation et l’analyse des mesures concourantes

Le précédent point fait déjà état des hypothèses explicatives des jugements métacognitifs mais le mode de calcul peut amener à mettre en avant des différences dans les résultats des mesures utilisées. Lorsqu’il est question d’évaluer la relation entre la qualité de la métamémoire et la qualité de la mémoire, les mesures d’exactitude (prédiction de performance) posent des difficultés. Les corrélations calculées entre les 2 mesures sont particulièrement sensibles au fait qu’un des éléments (la performance) appartienne aux 2 variables et entraîne ainsi un risque de corrélation partie / tout. De plus, Hasselhorn et Hager (1989) ont démontré que la relation entre exactitude (mesurée par la différence simple « prédiction – performance ») et performance dépend essentiellement de 2 paramètres : la corrélation entre performance et prédiction et le rapport entre leurs variabilités respectives. Il existe des biais systématiques jouant sur le signe du coefficient de corrélation entre exactitude et performance. L’analyse critique de la méthodologie permet de comprendre une partie du manque de cohérence dans le test de l’hypothèse de métamémoire, qui est tantôt confirmée, tantôt réfutée.

Il est également mis en avant un certain nombre de conditions à prendre en compte dans l’exercice des prédictions globales de performance. Ainsi, les prédictions nécessitent que les sujets prennent différents éléments en considération : la difficulté de la tâche, les conditions dans lesquelles elle est réalisée et l’éventuel effet des facteurs situationnels sur la performance, sa compétence personnelle et l’interaction entre sa compétence et les éléments situationnels. Le manque d’exactitude peut ainsi provenir d’un échec d’appréciation dans l’un de ces domaines (Combe-Pangaud, 2001).

D’après la littérature, les évaluations globales mesureraient plus l’auto-efficacité personnelle ou les théories naïves du sujet sur ses propres compétences (Lachman, Steinberg & Trotter, 1987 ; Bandura, 1989 ; Hertzog et al., 1990) alors que les jugements item-par-item seraient basés sur une analyse (analytique ou implicite) des variables influençant la

performance (Koriat, 1997). Les estimations globales sont plus hypothétiques que les estimations item-par-item et plus sensibles à l’effet des croyances et des stéréotypes sociaux. Cela s’explique en partie par le manque d’expérience et par le manque de données normatives sur la performance (quelle est la performance moyenne d’un sujet moyen dans cette tâche ?).

Une revue de littérature réalisée par Hertzog et Dixon (1994) synthétise les résultats des études utilisant les prédictions globales. Il s’avère que les sujets ne sont pas sensibles aux caractéristiques de la tâche dans leurs prédictions, aussi, vont-ils par exemple se surestimer quand la tâche est difficile (rappel libre), se sous-estimer quand la tâche est facile (reconnaissance) et ne pas tenir compte des effets de différentes opérations d’encodage déterminantes pour l’efficacité mnésique. De plus, les jugements de prédiction sont fortement influencés par des heuristiques telles que la croyance qu’une performance moyenne correspond à la moitié de bonnes réponses ; ce biais se manifestera d’autant plus que la situation est peu familière et que le sujet ne possède pas d’expérience spécifique avec la tâche de mémoire qu’il doit résoudre (ce qui est le cas en laboratoire). Ce type d’évaluation présente donc une limitation méthodologique importante : si les sujets se basent sur une telle heuristique et que, par les hasards de la procédure expérimentale, leur performance s’approche de la moitié du nombre total d’items à mémoriser, on sera tenté de conclure, trop rapidement, que leur perception métamnésique est juste.

Les jugements dits de postdiction (estimation globale du nombre d’items rappelés ou reconnus) sont plus conformes à la performance réelle, bien que sensibles également au type d’épreuve de mémoire (les sujets continuent à se sous-estimer dans les tâches de reconnaissance). Nous pouvons établir ici un parallèle avec les résultats mis à jour concernant les jugements item-par-item prospectifs (FOK, JOL) et rétrospectifs (certitude). A l’issue d’un test, le sujet est plus apte à évaluer objectivement la qualité de sa performance, probablement parce que le jugement émis et le processus mnésique reposent sur des bases informationnelles similaires. De même, des prédictions réalisées après une simple description de la tâche sont moins objectives que des prédictions réalisées entre la phase d’encodage et le test de mémoire (Hertzog & Dixon, 1994). Soulignons donc l’importance de l’expérience et de la familiarisation du sujet avec le matériel et les conditions expérimentales sur l’exactitude des jugements.

C’est ce que l’on retrouve avec la mesure de sentiment de confiance qui est améliorée, notamment lorsque le sujet doit procéder avant l’épreuve à une évaluation générale de sa compétence dans le domaine de la question. Granhag, Stromwall & Allwood (1999) présentent des expérimentations dans lesquelles les sujets doivent répondre à des questions de culture générale lors d’un test de reconnaissance à choix forcé (2 alternatives). Avant de

répondre, ils évaluent ou non (contrôle) leur niveau de connaissance soit dans le domaine de la question (groupe « relié »), soit dans un autre domaine (groupe « non-relié »). Après chaque question, ils estiment leur certitude sur une échelle allant de 50% (réponse au hasard) à 100%.

Par rapport aux conditions contrôle et « non-relié », les sujets, qui doivent procéder à une auto-évaluation globale de leur compétence dans le domaine des questions, font preuve d’une meilleure calibration, surestiment moins leur performance et présentent ainsi une meilleure performance.

De ce fait, le monitoring de la mémoire peut être amélioré (plus réaliste) si l’attention du sujet est dirigée, par auto-examen volontaire, sur ses propres connaissances.

Documents relatifs