• Aucun résultat trouvé

Chapitre 3 : Méthodologie

3.6 Forces et limites de la méthodologie

La multidimensionnalité de notre recherche constitue assurément sa plus grande force. En effet, nous avons étudié l’impact des TIC non seulement sur le produit, mais sur les déterminants du processus scriptural. Nous avons donc envisagé les liens entre la technologie et l’écriture dans des perspectives variées. Dans la même veine, le déploiement d’une méthodologie mixte a présenté des avantages indéniables. La variété des outils que nous avons employés (observations vidéographiées, entrevues de groupe, évaluation de textes, échelles de motivation) nous a permis d’appréhender plus exhaustivement le phénomène étudié (Johnson & Onwuegbuzie, 2004). Dans le volet quantitatif, nous avons mesuré certains phénomènes le plus précisément possible; partant, nous avons recherché de potentiels liens de cause à effet impliquant les TIC. Avec l’approche qualitative, nous avons poursuivi un but tout autre : décrire comment interviennent les technologies dans les processus cognitifs de traduction et de révision.

La communauté scientifique juge communément la rigueur d’une entreprise de recherche selon cinq critères : le rapport des inscriptions au réel, le rapport des inscriptions aux concepts, la consistance programmatique, le rapport des conclusions à la réalité ainsi que l’indépendance de la démarche à l’égard des biais subjectifs et techniques (Van der Maren, 2004). Les deux premiers concernent la méthodologie à proprement parler. Nous avons mis de l’avant toutes les mesures que nous pouvions raisonnablement prendre afin de les respecter.

Selon le principe de la fidélité des données, les inscriptions produites par la recherche doivent représenter la réalité avec vraisemblance. Pour y arriver, le chercheur doit trianguler les données en prenant plusieurs mesures ou en étudiant les variables concernées à partir de plusieurs points de vue. C’est précisément ce que nous avons tenté de faire en mesurant trois fois la compétence scripturale et en évaluant deux fois la motivation à écrire. Or, « une répétition identique dans ses conditions n’est pas un gage de fidélité » (Van der Maren, 2004, p. 113). De plus, compte tenu de contraintes matérielles, nous n’avons procédé qu’à une série d’observations vidéographiées. Pour pallier cet inconvénient et nous assurer de la fidélité des données, nous avons recouru à une source de données complémentaires, transversales aux trois objectifs spécifiques : les entrevues de groupe. Elles nous ont permis de confronter notre point de vue de chercheur au point de vue des élèves.

Le second impératif concerne plutôt la validité des inscriptions : « la validité se

préoccupe du fait qu’en assumant une erreur technique minimale, la trace obtenue se réfère bien à la caractéristique de l’objet que l’on veut étudier, et non pas à une autre caractéristique » (Van der Maren, 2004, p. 388). En d’autres mots, il s’agit de savoir si les

diverses techniques de données mesurent ou décrivent adéquatement les concepts étudiés. Afin d’atteindre cet objectif, nous avons élaboré le protocole des analyses vidéographiées en tenant compte des modèles du processus d’écriture (Flower & Hayes, 1981; Fortier, 1995; Hayes, 1995). Il en va de même pour la mesure de la compétence scripturale : tant le ministère de l’Éducation, du Loisir et du Sport (2006) que les auteurs de plusieurs

grammaires (Bosquart, 1998; Chartrand, et al., 1999; Riegel, et al., 2001) admettent les critères qualitatifs retenus. La preuve en est que les enseignants-collaborateurs connaissaient ces critères et s’y fiaient déjà, à quelques nuances près. Leur utilisation n’allait donc pas à contresens des pratiques antérieures. Finalement, nous avons conçu et validé l’ÉMEF, un instrument de mesure de la motivation à écrire. Cette échelle découle directement des travaux de Deci et Ryan (Deci, 1975; Deci & Ryan, 2002). La validation statistique de l’échelle a montré que sa cohérence interne convient aux normes communément admises.

Néanmoins, notre étude comporte des failles. Compte tenu des particularités contextuelles, il a été difficile de contrôler les variables parasites pouvant influencer la qualité de l’écriture. En effet, l’étude du PIRS (2003a) dénombre quelque 39 variables potentiellement liées à la performance scolaire, parmi lesquelles figurent le sexe de l’élève, la scolarité de la mère, le fait d’envisager des études universitaires, la rédaction d’un journal personnel, l’intérêt porté à l’écriture, l’intérêt envers l’école, la compréhension de l’utilité de l’écriture et le nombre de pages rédigées en classe de français! Il aurait été impensable de briser les groupes préalablement formés par la direction d’établissement afin de contrôler ces variables; par contre, nous avons veillé à standardiser le contexte d’écriture d’une classe à l’autre. Aussi, les ressources dont nous disposions nous ont empêché de contrôler d’autres variables significatives. Par exemple, un questionnaire aurait pu mesurer le niveau initial de compétence technologique ou la fréquence d’utilisation des TIC à l’extérieur de l’école. Dans un autre ordre d’idées, il aurait été souhaitable de contrôler la sévérité des correcteurs afin d’harmoniser les mesures de la compétence scripturale. Toutefois, ces contrôles auraient alourdi une collecte de données déjà ambitieuse; ils auraient également supposé que nous profitions de ressources temporelles et matérielles plus grandes que celles dont nous disposions en réalité.

Dans un autre ordre d’idées, deux choix méthodologiques pourraient réduire la portée de nos résultats : le genre textuel utilisé dans le volet quantitatif de même que l’âge des participants. En ce qui concerne le genre textuel, l’expérience de Snyder (Snyder,

1993a) montre que l’utilisation du traitement de texte n’améliore pas la qualité des textes narratifs. Toutefois, elle influence la qualité des textes informatifs. La production d’un texte descriptif, par exemple, nous aurait peut-être permis d’observer des effets plus importants. Malheureusement, cela était impossible : comme notre étude était effectuée sur le terrain, il fallait nous adapter à la planification annuelle des enseignants collaborateurs, qui travaillaient le récit narratif lors de notre passage. Nous avons donc dû nous accommoder de ce choix. Cette limite, par contre, ne porte pas sur le deuxième objectif de cherche. Les observations vidéographiées tenues dans le cadre de ce volet ont eu lieu à l’extérieur du cours de français. Par conséquent, peu de contraintes pesaient sur le choix du genre textuel. Nous avons donc tenu compte des conclusions de Snyder en veillant à faire produire des textes descriptifs lors de ces séances d’écriture.

Dans leur méta-analyse, Goldberg, Russell et Cook (2003) rapportent que les scripteurs technologiques plus âgés performent mieux. Ainsi, l’effet du traitement de texte serait plus prononcé chez les élèves plus âgés. Encore une fois, nous avons dû nous adapter à cette contrainte : les enseignants qui ont accepté de collaborer au projet de recherche travaillaient auprès d’élèves de la première secondaire. Cette contrainte ne constitue pas une faille majeure, toutefois : elle appelle de la prudence dans l’interprétation des résultats. Nous avons dû garder en tête qu’un impact jugé faible auprès d’élèves plus jeunes aurait pu être plus important dans un échantillon d’élèves plus âgés.

Finalement, notons que la première phase d’écriture en contexte scolaire a été effectuée en plusieurs séances. Puisque les postes informatiques étaient limités, les élèves du groupe quasi expérimental y ont eu accès en rotation. Les trois heures de rédaction octroyées se sont échelonnées sur une semaine, dans plusieurs locaux.