• Aucun résultat trouvé

Des limites des évaluations institutionnelles du point de vue didactique

Chapitre  II.   Les lecteurs en difficulté

84   Comprendre et accompagner les élèves en difficulté de lecture au début du secondaire 2.1.3.3 L’influence des facteurs contextuels sur le degré de réussite

2.1.4. Des limites des évaluations institutionnelles du point de vue didactique

Les objectifs visés par cette tentative de synthèse des résultats de quelques évaluations institutionnelles se rapportant au public étudié dans le cadre de cette recherche concernent l’identification des difficultés rencontrées par les élèves dans la pratique de l’activité de lecture. Si les résultats mis en évidence par les évaluations institutionnelles contribuent à cette identification, d’une part, ils n’y suffisent pas et, d’autre part, ils exigent d’être considérés avec prudence. Rappelons succinctement quelques-unes des limites et des insuffisances de ces épreuves du point de vue didactique.

Tout d’abord, la majorité des évaluations de la lecture débouchent, comme on l’a vu, sur un score indiquant le niveau de performance atteint par un élève ou par une classe, mais l’information obtenue ne permet en général pas d’identifier les éventuelles difficultés d’un élève (Rémond, 2001 : 115) : le diagnostic reste limité et partiel (voir partie II de la thèse). De plus, « de telles évaluations n’informent pas sur les obstacles à la compréhension, ne fournissent pas d’éléments de connaissance des stratégies mises en œuvre » par le lecteur (Rémond, 2001 : 115).

Ensuite, une interrogation sur les exigences auxquelles devrait satisfaire tout dispositif d’évaluation de la lecture à fonction formative conduit trois didacticiens, Daniel Bain,

Comprendre  et  accompagner  les  élèves  en  difficulté  de  lecture  au  début  du  secondaire

  87  

Serge Erard et Monique Séchaud, à rappeler trois critères fondamentaux de toute évaluation (de la lecture) et à se demander dans quelle mesure les évaluations internationales sont à même de les rencontrer (Bain, Erard et Séchaud, 1994). La validité, premier critère, implique selon eux de se donner un modèle « convenable » des actes de lecture : de ce point de vue, beaucoup d’évaluations institutionnelles ne placent pas les élèves dans un projet de lecture, guidé par une intention, et évaluent sans doute davantage la capacité à réussir une évaluation via questionnaire que la compréhension elle-même (du moins l’activité de compréhension telle qu’elle s’exerce le plus couramment ou le plus quotidiennement). La fiabilité, deuxième critère, implique de rechercher la diversité des types de textes pour accroitre la représentativité des résultats ; mais ce faisant, les évaluations institutionnelles conduisent les élèves à lire des documents nombreux et parfois très disparates en très peu de temps (cela affaiblit la validité externe du dispositif). La pertinence par rapport aux utilisations faites de l’instrument, troisième critère, concerne l’adéquation entre l’épreuve et l’objectif de la mesure : de ce point de vue, les évaluations externes en Communauté française ont une visée diagnostique et formative, servent à « piloter » le système éducatif, mais font aussi figure de « modèle » d’évaluation aux yeux de nombreux enseignants. Si l’on comprend que les enseignants s’efforcent d’aider leurs élèves à réussir ces épreuves (qui leur sont imposées) et mettent donc tout en œuvre pour les y entrainer, il reste que l’épreuve en elle-même subit ainsi un changement de finalité qui n’est pas innocent. Il n’est pas à exclure que la fiabilité d’un instrument à des fins de diagnostic et de pilotage ne puisse s’appliquer en situation de formation et d’apprentissage. Les chercheurs rappellent par ailleurs le risque important, inhérent aux évaluations institutionnelles, de « stigmatiser les lecteurs précaires » au lieu de les aider (Bain, Erard et Séchaud, 1994 : 105). Le risque est d’autant plus grand que cette qualification de « mauvais lecteurs » provient « d’un instrument prétendument scientifique (puisque c’est un test !), dont la fiabilité reste cependant toujours sujette à caution au niveau individuel » (Bain, Erard et Séchaud, 1994 : 105-106). Sans compter que la multiplication d’épreuves et d’évaluations externes risque peu à peu de déposséder ou de déresponsabiliser le maitre par rapport à l’analyse et à la compréhension des difficultés de lecture de ses élèves. Il y aurait lieu de former et d’inciter davantage les enseignants à repérer et à analyser les difficultés des élèves pendant les activités de classe qui sollicitent de diverses manières des conduites de lecture, l’analyse « clinique » des enseignants pouvant être ensuite située par rapport aux résultats des évaluations institutionnelles.

88  

Comprendre  et  accompagner  les  élèves  en  difficulté  de  lecture  au  début  du  secondaire

 

Enfin, prolongeant la liste – déjà longue – des limites des évaluations institutionnelles, Elisabeth Bautier, Jacques Crinon, Patrick Rayou et Jean-Yves Rochex ont démontré, dans un article consacré aux « Performances en littératie, modes de faire et univers mobilisés par les élèves », que les évaluations institutionnelles évaluent bien plus que les seules compétences de lecture et de compréhension de l’écrit (Bautier, Crinon, Rayou et Rochex, 2006). Ces épreuves évaluent aussi des compétences de production d’écrit fondées sur des processus de secondarisation et de reconfiguration : les élèves doivent adopter et mettre en œuvre un travail leur permettant de « savoir » ce qu’il est nécessaire et pertinent de mobiliser, de tenir à l’écart ou de reconfigurer – cela présuppose d’identifier les registres de référence potentiellement sollicités, de situer leurs modes de faire par rapport à ces registres et en relation avec les tâches scolaires. En outre, au vu de la diversité des performances, des postures et conduites d’un même sujet d’une épreuve à l’autre (selon les thèmes, la nature des tâches attendues…), on peut se demander s’il est possible « d’évaluer des compétences de compréhension de l’écrit comme si celles-ci étaient stables et/ou mobilisées de manière systématique pour une classe de tâches considérées comme équivalentes par les concepteurs des enquêtes à large échelle » : l’étude des modes de faire des élèves montre que ceux-ci « varient en fonction des textes et des contextes, des thématiques et des formats de tâches, autant voire plus qu’en fonction de leurs seules compétences de traitement des textes et de l’écrit » (Bautier, Crinon, Rayou et Rochex, 2006 : 97- 98).

Outline

Documents relatifs