• Aucun résultat trouvé

Paramétrage et simulations

Unités de la lecture

7.2. Paramétrage et simulations

Nous présentons dans la suite de ce chapitre une série d'études de simulations réalisées avec le FUM et avec l'ensemble de paramètres présenté dans le Tableau 7.3. Ce tableau est composé de quatre colonnes. La première colonne contient le nom de chaque connexion se trouvant dans le FUM. La deuxième colonne donne les valeurs des seuils d'activation que les unités se situant en amont de la connexion doivent dépasser pour envoyer une activation à l'unité se situant en aval de la connexion. On voit que les unités graphèmes doivent atteindre un seuil de 0.25 pour activer les unités phonèmes. En choisissant un tel seuil d'activation, on permet au processus de compétition/segmentation au niveau des unités graphèmes de se dé-rouler avant tout envoi d'activation (qui pourrait être encore bruitée) au niveau phonologique. La troisième colonne donne les valeurs des connexions excitatrices entre deux niveaux de représentations. La quatrième colonne fournit les valeurs des connexions inhibitrices. L'en-semble de ces paramètres fixent la dynamique interne du modèle.

Tableau 7.3. : Paramètres utilisés pour les seuils d'activation des connexions entre les différents types d'uni-tés, pour le poids excitateur (Alpha) ou inhibiteur (Gamma) de ces connexions. Trait = Détecteur de traits ; Graph. = Graphème ; Graph. D. = Graphème Dominant ; Phon. = Phonème ; Mot Phon. = représentation lexicale phonologique ; Mot Orth. = Représentation lexicale orthographique.

Connexion Seuil Alpha Gamma Trait -> Graph. 0 0.002 0.15 Graph.-D. -> Graph. 0 0 0.3 Graph. -> Graph. 0 0 0.1 Graph. -> Phon. 0.25 0.2 0 Graph. -> Mot Orth. 0.2 0.13 0.08 Phon. -> Phon. 0 0 0.2 Phon. -> Graph. 0 0 0 Phon. -> Mot Phon. 0 0.17 0.09 Mot Phon. -> Phon. 0.15 0.2 0.2 Mot Orth. -> Graph. 0 0 0 Mot Orth. -> Mot Phon. 0.1 0.2 0 Mot Phon. -> Mot Orth. 0.15 0.2 0 Mot Orth. -> Mot Orth. 0 0 0.2 Mot Phon. -> Mot Phon. 0 0 0.2

Nous présentons maintenant une série de simulations réalisées avec cet ensemble de para-mètres où nous testons le FUM avec différents effets expérimentaux (effet de

pseudohomo-phonie, effet de consistance, effet du nombre de graphèmes) dans différents protocoles expé-rimentaux (TDL, tâche de prononciation, LIP). Pour chaque étude de simulation, un ensemble de stimuli est présenté au modèle et des mécanismes propres à chaque protocole expérimental sont appliqués pour générer des prédictions du modèle. Nous détaillons ces principes pour chaque simulation.

7.2.1. Coltheart et al. (77)

La première étude de simulation vise à tester le FUM avec l'effet de pseudohomophonie obtenu par Coltheart et al. (1977) dans une tâche de décision lexicale. Il s'agit ici de prédire les latences de réponse pour des non-mots dans la TDL. Nous choisissons donc les mêmes processus de réponse que ceux proposées précédemment dans d'autres études de simulation (i.e., Grainger & Jacobs, 1996 ; Jacobs et al., 1998), c'est-à-dire que la latence de réponse des non-mots est déterminée par l'activité lexicale totale générée au niveau orthographique. Ainsi, la Figure 7.3 présente les courbes d'activation moyennes obtenues pour le groupe de non-mots pseudohomophones et le groupe de non-non-mots contrôles utilisés dans l'expérience de Coltheart et al. (1977). On peut voir ici que tant au niveau du lexique orthographique qu'au niveau du lexique phonologique, l'activité lexicale globale générée en moyenne par les pseu-dohomophones est plus importante que celle générée par les contrôles orthographiques. De même, la Figure 7.4, donne le résultat en temps de réponse (i.e., en nombre de cycles) de ces simulations avec le résultat des données empiriques (critère sigma(15) = 0.45, Tmax = 23, Tmin = 20, lecture au niveau orthographique seulement). Ce premier test est donc concluant puisque le modèle parvient à reproduire le désavantage des pseudohomophones sur les pseu-domots contrôles dans la TDL.

0 5 10 15 20 25 0 5 10 15 20 25 Temps (Cycles) Seuil T

A

Activation 0 5 10 15 20 25 0 5 10 15 20 25 30 35 Seuil T

B

Activation Temps (Cycles) Pseudohomophones Contrôles Orthographiques

Figure 7.3. : Courbes d'activation moyennes correspondant à l'activité orthographique totale générée dans le FUM à la suite de la présentation des deux groupes de stimuli employés dans l'expérience de Coltheart et al. (1977). Le graphe [A] représente l'activité lexicale orthographique globale moyenne pour le groupe des pseu-dohomophones (trait plein) et le groupe des contrôles orthographiques (trait pointillés). Le graphe [B] corres-pond à l'activité lexicale phonologique globale.

560 580 600 620 640 TR (ms) Pseudohomophone Control Coltheart et al. (1997) 20.4 20.6 20.8 21 21.2 21.4 Pseudohomophone Control FUM Cycles

Figure 7.4. : Données empiriques de Coltheart et al. (1977) (à gauche) et latences de réponse (en cycles) pour les données simulées par le FUM (à droite).

7.2.2. Seidenberg et al. (1996) - TDL

Pour le même ensemble de paramètres nous testons le FUM, dans un deuxième temps, avec les données empiriques présentées par Seidenberg et al. (1996). Ces données rapportent également un effet de pseudohomophonie avec toutefois un groupe de stimuli différent de celui de Coltheart et al. (1977). La Figure 7.5 présente le résultat des simulations réalisées avec le FUM en utilisant les deux groupes de stimuli : pseudohomophones et contrôles or-thographiques. Ici encore, le modèle est en mesure de reproduire l'effet observé dans cette expérience. Les pseudohomophones génèrent, en effet, une activité lexicale (tant au niveau orthographique que phonologique) plus importante que les contrôles orthographiques.

Seuil T 0 5 10 15 20 25 0 10 20 30 40 50 Temps (cycle) Activation

A

0 5 10 15 20 25 0 20 40 60 80 Activation Temps (cycle)

B

Seuil T

Pseudohomophones Contrôle Orthographique

Figure 7.5. : Données empiriques de Seidenberg et al. (1996) (à gauche) et latences de réponse (en cycles) pour les données simulées par le FUM (à droite). Le graphe [A] représente l'activité lexicale orthographique globale moyenne pour le groupe des pseudohomophones (trait plein) et le groupe des contrôles orthographiques (trait pointillés). Le graphe [B] correspond à l'activité lexicale phonologique globale.

7.2.3. Seidenberg et al. (1996) : prononciation

Dans cette troisième étude de simulation, nous testons les performances du FUM avec les données de Seidenberg et al. (1996) obtenues avec les mêmes stimuli que ceux de l'expé-rience précédente mais dans une tâche de prononciation. Dans cette expél'expé-rience, Seidenberg et al. obtiennent un avantage des pseudohomophones sur les pseudomots contrôles. Afin de simuler ces résultats, il nous faut implémenter des mécanismes de réponses spécifiques à la tâche de prononciation. Nous faisons l'hypothèse qu'une prononciation est générée par le FUM pour des non-mots lorsque la somme de l'activité générée au niveau des unités phonè-mes dépasse un seuil de réponse fixé à 2.0. C'est-à-dire que nous faisons l'hypothèse que le système est capable de générer une réponse lorsque l'ensemble des unités phonèmes a dépas-sé un certain seuil d'activation. La Figure 7.6 présente le résultat des simulations obtenues avec les deux groupes de stimuli. On voit ainsi que le FUM est en mesure de simuler l'avan-tage des pseudohomophones dans la tâche de prononciation. L'activité phonémique générée par les pseudohomophones atteint effectivement plus rapidement le seuil de réponse que celle générée par les contrôles orthographiques.

570 580 590 600 610 Seidenberg et al. (96) Pseudohomophone Control TR (ms) Cycles FUM 18 19 20 21 22 23 Pseudohomophone Control

Figure 7.6. : Données empiriques de Seidenberg et al. (1996) (à gauche) et latences de réponse (en cycles) pour les données simulées par le FUM (à droite).

7.2.4. Stone et al. (1997)

La quatrième étude de simulation porte sur l'effet de consistance ortho-phonologique et phono-orthographique rapporté par Stone et al. (1997). Dans une tâche de décision lexicale, ces auteurs obtiennent des latences de réponse plus élevées lorsque le mot est inconsistant vis-à-vis des relations ortho-phonologiques mais également lorsqu'il est inconsistant vis-à-vis des relations phono-orthographiques. Pour simuler ces résultats, nous faisons l'hypothèse qu'une réponse pour les mots est générée dans la TDL lorsque l'activation d'une unité lexicale orthographique dépasse un seuil d'identification fixé à 0.67 (pour une même procédure voir Jacobs & Grainger, 1992 ; Jacobs et al, 1998 ; Grainger & Jacobs, 1996). La Figure 7.7 pré-sente le résultat de ces simulations réalisées avec les stimuli de Stone et al. (1997) (exception faite des mots ayant un nombre de lettres supérieur à 5). On constate ainsi que, tout comme le MROM-p, le FUM prédit un effet de l'inconsistance grapho-phonémique et phono-graphémique sur les latences de réponse. Toutefois, le modèle prédit un effet cumulé de ces deux facteurs (condition 4), effet qui n'apparaît pas dans les données expérimentales (voir cependant les données de Ziegler et al., 1997, en Français, pour un effet similaire à celui pré-dit par le modèle).

720 740 760 780 800 Stone et al. (1997) 1 2 3 4 TR (ms) 15 16 16 16 17 18 FUM 1 2 3 4 Cycles

Figure 7.7. : Données empiriques pour les quatre conditions expérimentales de Stone et al. (1997) (à gauche) et latences de réponse (en cycles) pour les données simulées par le FUM (à droite). Les quatre conditions expé-rimentales sont : 1. OP consistant et PO consistants ; 2. OP consistant et PO inconsistant ; 3. OP inconsis-tant et PO consisinconsis-tant ; 4. OP et PO inconsisinconsis-tants (OP = relation ortho-phonologique ; PO= relation phono-orthographique).

7.2.5. Rastle et Coltheart, 1998

La cinquième étude de simulation porte sur les données rapportées récemment par Rastle et Coltheart (1998). Ces données, obtenues dans une tâche de prononciation, indiquent que les sujets produisent des latences de prononciation plus longues pour des non-mots compo-sés de 3 graphèmes que pour des non-mots compocompo-sés de 5 graphèmes. Pour simuler ces résultats, nous gardons les mêmes paramètres que ceux utilisés jusqu'à maintenant et utilisons la même procédure de réponse que celle employée pour la troisième simulation. La Figure 7.8 présente les données et simulations obtenues avec le FUM. On remarque ici que le modèle parvient à prédire de manière assez marquée l'effet du nombre de graphèmes observé par Rastle et Coltheart (1998). TR (ms) FUM Cycles 560 570 580 590 600

Rastle & Coltheart (1998)

3 5 Nombre de Graphèmes 15 20 25 3 5 Nombre de Graphèmes

Figure 7.8. : Données empiriques de Rastle et Coltheart (1998) (à gauche) et latences de réponse (en cycles) pour les données simulées par le FUM (à droite).

7.2.5. Rey et al. (1998)

La sixième et dernière simulation est réalisée avec les données présentées au chapitre 6 (Expérience 2). Ces données sont obtenues dans la tâche de LIP en Anglais et indiquent un effet graduel du nombre de graphèmes sur les temps d'identification. Les mots composés de 5 graphèmes sont identifiés plus rapidement que les mots composés de 4 et 3 graphèmes. Pour simuler ces données, nous utilisons la même procédure que celle employée dans la quatrième simulation ; une réponse est générée par le modèle lorsque l'une des unités lexicales ortho-graphiques dépasse un seuil d'activation de 0.67. La Figure 7.9 présente les résultats

com-portementaux et les résultats des simulations. Ici, encore, avec le même ensemble de paramè-tres, le FUM réussit à produire l'effet des graphèmes observé dans une tâche d'identification perceptive. 2200 2210 2220 2230 2240 Rey et al. (1998) 3 4 5 Nombre de Graphèmes 14 16 18 FUM 3 4 5 Nombre de Graphèmes Cycles TR (ms)

Figure 7.8. : Données empiriques de Rey et al. (1998) (à gauche) et latences de réponse (en cycles) pour les données simulées par le FUM (à droite).

7.3. Discussion

La série de simulations que nous venons de rapporter est encourageante du point de vue de la comparaison des données empiriques et des performances du FUM. Ce modèle semble être en mesure de rendre compte d'un grand nombre d'effets rapportés dans la littérature expé-rimentale, dans différents protocoles expérimentaux. De même, le FUM semble être en me-sure de résoudre les deux principaux problèmes des modèles de la perception des mots écrits en utilisant les outils descriptifs des modèles connexionnistes localistes (Grainger & Jacobs, 1998). Il reste donc à tester ce modèle sur un ensemble plus large de données expérimentales.

7.3.1. Amélioration du modèle

Avant cela, plusieurs questions mineures restent cependant à résoudre (questions que la présente version du modèle ne résout pas encore). Tout d'abord, la question des E placés en fin de mots. Comme nous l'avons décrit lors de la présentation du modèle, nous avons décidé de coder le E final comme lié à la consonne qui le précède. Or, il apparaît que le E final a une fonction quant à la prononciation de la voyelle centrale. Il s'agit là typiquement d'un effet de contexte, ou de ce que Coltheart et al. (1993) appellent une règle contextuelle. Une manière d'intégrer un tel effet contextuel est non pas d'introduire une règle de combinaison particu-lière, comme le suggèrent Coltheart et al. (1993), mais une connexion excitatrice de l'unité

graphème contenant le E final vers l'ensemble des phonèmes voyelles généralement actifs lorsqu'un E final est présent dans un mot.

Ensuite, notre codage du E final nous amène à créer des unités graphèmes TE comme dans MATE (M-A-TE). Or cette unité n'est fonctionnelle que lorsqu'elle se trouve en position fi-nale. Ainsi, dans des mots comme TEETH, cette unité est active en première position, ce qui ne correspond pas à la segmentation recherchée. Aussi peut-on coder ce type d'unité en spéci-fiant la fin du mot (ex. : TE_). Cette unité ne devient alors active que lorsqu'elle est en der-nière position dans une séquence de lettres.

Un autre point important concerne la dynamique du modèle. Les simulations présentées ici utilisent un ensemble particulier de paramètres. Il est important maintenant d'effectuer des simulations similaires à celles décrites au chapitre 4 afin de tester l'importance de chaque pa-ramètre dans la dynamique globale du modèle. Ceci nous permet de mieux définir les limites fonctionnelles de ce modèle et de mieux saisir sa dynamique globale.

Ce modèle ne contient pour le moment qu'un niveau d'unités graphèmes. Or, comme nous l'avons vu au chapitre 3, plusieurs études indiquent que d'autres unités semblent également guider les processus de reconnaissance des mots écrits, par exemple la rime des mots (Bo-wey, 1990, 1993 ; Gattuso, Smith, & Treiman, 1991 ; Peereman & Content, 1997 ; Treiman, 1989, 1994 ; Treiman & Chaftez, 1987 ; Treiman, Goswami, & Bruck, 1990 ; Treiman, Mul-lenix, Bijeljac-Babic, & Richmond-Welty, 1995 ; Treiman & Zukowski, 1988, 1996 ; Wise, Olson, & Treiman, 1990). Il est donc possible d'étendre le niveau des unités graphèmes à d'autres unités (Norris, 1994). On peut ainsi tester différentes versions de ce même modèle incluant différents types d'unités à un niveau que l'on pourrait appeler "niveau des unités or-thographiques fonctionnelles".

7.3.2. La notion d'unité dynamique

Récemment, Mandelblit et Zachar (1998) ont ouvert un débat sur la notion d'unité. Ils montrent comment ce type de concept a déjà été utilisé dans des sciences comme la physique et comment ce concept a évolué sur le plan théorique au sein de ces sciences. Ces auteurs suggèrent de suivre le même mouvement dans des sciences comme la psychologie en revisi-tant le concept d'unité. Ils proposent notamment de remplacer le concept d'unité tel qu'il est utilisé traditionnellement (une unité étant décrite comme représentation statique correspondant

à une entité extérieure au système cognitif) par un concept d'unité dynamique. C'est vers ce type de concept que nous souhaitons tendre en employant la notion d'unité et de niveau de représentation des unités orthographiques fonctionnelles. En effet, ces groupes de lettres ont a priori le statut de représentations symboliques statiques dans notre modèle. Or, il faudrait plutôt imaginer ces unités comme le résultat d'interactions entre des information visuelles et des informations phonologiques. Ces unités symboliseraient la dynamique des interactions entre visuel et phonologique qui ont eu lieu au cours de l'acquisition de la lecture, et repré-senteraient donc "le lieu" où ces informations se soudent et s'associent.

7.3.3. Vers un consensus empirique pour tester les modèles

Un dernier point à discuter concerne les données empiriques qui contraignent l'élaboration des modèles de la perception des mots écrits. Comme nous l'avons dit au chapitre 4, il n'existe pas à l'heure actuelle de consensus sur un ensemble de données empirique robustes, consen-sus autour duquel les différents modèles proposés peuvent se rencontrer et être évalués. Un tel consensus pourrait regrouper un ensemble d'études critiques qui auraient été répliquées plusieurs fois, afin de valider leur robustesse, et également la taille des effets observés. Ces études devraient présenter des effets marqués, avec des analyses statistiques par sujet et par item toutes deux significatives. De telles données permettraient ainsi de spécifier très préci-sément le domaine de performance dans lequel doit se situer un modèle. En effet, face aux modèles computationnels, qui sont des outils théoriques puissants, il faut également des don-nées empiriques fortes afin de délimiter avec précision le domaine des combinaisons théori-ques possibles.

7.3.4. De nouvelles contraintes empiriques

Les modèles computationnels sont en mesure de fournir des prédictions sur les perfor-mances d'identification de sujets pour des mots pris individuellement. En effet, chaque sti-mulus, présenté à un modèle computationnel donné, génère certaines activités à différents niveaux dans le modèle, et la combinaison dynamique de ces activités conduit à une latence d'identification (mesurée en cycles de traitement) spécifique pour chaque mot. Récemment, certaines études se sont proposé de fournir des données empiriques se situant au niveau des mots, pris individuellement, afin de tester la dynamique fine des modèles disponibles (Spieler

& Balota, 1997). Nous exposons au chapitre suivant une étude empirique se situant dans la lignée de ces investigations expérimentales visant à mieux contraindre les modélisations dé-veloppées en les soumettant à des tests empiriques de plus en plus précis.