• Aucun résultat trouvé

Chapitre 3 : Méthodologie

3.4 Analyse des données

3.4.2 Analyse des données qualitatives

Contrairement aux objectifs spécifiques un et trois, l’objectif spécifique deux appelait l’utilisation d’une approche qualitative. Par conséquent, des méthodes différentes ont été employées pour décrire les processus cognitifs de traduction et de révision. Aussi, nous avons analysé les entrevues de groupe, qui répondent aux trois objectifs spécifiques, dans une perspective qualitative. Nous présentons ici ces procédures.

3.4.2.1 Description de l’influence des TIC sur les processus cognitifs de traduction et de révision

Considérant que les pauses dans le processus scriptural témoignent d’une activité cognitive intense (Fortier, 1995), nous y avons accordé une importance particulière. Nous nous sommes surtout intéressé aux pauses brèves, lors desquelles le scripteur corrigeait des erreurs de surface, pour reprendre la terminologie de Faigley et Witte (1981). Aussitôt qu’une erreur était commise et diagnostiquée, le scripteur interrompait l’écriture pour une durée plutôt brève. Ces occasions nous ont fourni une occasion privilégiée de décrire comment les TIC servent à travailler le texte. Par le fait même, cette description nous

renseigne sur le rôle de l’ordinateur dans les processus cognitifs de traduction et de révision.

En effet, le traitement de texte fournit divers outils d’aide à l’écriture, qui simplifient la rédaction, la gestion éditoriale ou la mise en forme du texte. D’autres permettent d’améliorer la qualité même du texte, en fournissant une rétroaction ou en simplifiant les échanges (Anis, 1998). De toute vraisemblance, parmi toutes ces fonctionnalités, c’est le réviseur orthographique qui influence le plus directement la traduction et la révision. Nous avons donc voulu décrire l’utilisation qu’en fait le scripteur pour résoudre les problèmes diagnostiqués. Lorsqu’un scripteur considère la rétroaction proposée par le réviseur orthographique, celle-ci interfère nécessairement avec la cognition, en l’entravant ou en la facilitant. En observant les comportements tangibles, nous avons pu décrire l’utilisation des technologies pendant l’écriture. De là, nous avons envisagé le rôle de l’outil sur les processus cognitifs de traduction et de révision.

Compte tenu des moyens et du temps dont nous disposions, nous n’avons pu décrire l’usage du traitement de texte pour améliorer la grammaire textuelle. Cela aurait été possible, mais aurait exigé que nous relevions tout déplacement de texte, toute reformulation, tout réagencement d’une partie de la phrase : cette tâche aurait généré une quantité de données, que nous n’aurions pu traiter que superficiellement. Nous avons donc limité le champ de notre analyse.

Codage des observations vidéographiées

Compte tenu du choix méthodologique que nous venons d’exposer, nous avons analysé les séances d’écriture vidéographiées selon une procédure rigoureuse, que nous décrivons en en décortiquant bien les étapes. Cette procédure a été effectuée à deux reprises; la première fois, nous avons élaboré et fixé la méthodologie. La seconde fois, nous avons recodé les vidéos selon le protocole définitif. Ce double codage intracodeur nous a permis de contrôler la vraisemblance des données (Van der Maren, 2004).

1) Repérage et inscription des erreurs

Chaque fois que l’élève commettait une erreur, nous la transcrivions dans un registre, tenu sur un fichier Excel. Ensuite, nous l’avons associée à un code, qui précise l’ordre d’apparition de l’écart linguistique ainsi que l’identité de son auteur. Par exemple, le code « EL11-037 » signifie que l’erreur est attribuable à l’élève 11; de plus, il s’agissait de sa trente-septième erreur. Nous avons également marqué le début et la fin du segment vidéo concerné.

Tous les écarts ont été notés, qu’ils concernent la frappe (« tr`s »), l’orthographe grammaticale (« Les plages son […] »), l’orthographe d’usage (« contampler »), la ponctuation (« la mer est calme mais parfois […] ») ou la syntaxe (« Un des aspects qui

m'a le plus convaincu est celui : »). Nous avons également consigné les erreurs qui

touchent le lexique (« Mon nom est »). Même si elles relèvent de la grammaire textuelle, elles pourraient être diagnostiquées par le correcteur orthographique : nous les avons donc notées. Si une séquence contenait plusieurs erreurs de nature différente, elles étaient toutes inscrites isolément au registre.

2) Codage des erreurs

Dès que nous avons repéré une erreur, nous lui avons associé un code générique (G; U; S; P; L), qui l’assimile à une des grandes dimensions du code orthographique. Nous avons créé le code FP, qui cible les erreurs de frappe. De plus, un code spécifique a été associé à chaque erreur, afin d’en préciser la nature. Par exemple, « GHOM » désigne les erreurs homophoniques, « GER » identifie les difficultés à orthographier le son –é, etc. L’Annexe 9 reproduit la liste des codes.

3) Codification du type de comportement adopté quant aux erreurs commises

Pour chacune des erreurs commises, les scripteurs ont adopté six comportements prototypiques : le Tableau XV les présente. Pour chaque inscription au registre, nous avons spécifié le comportement adéquat. À cette fin, les verbalisations des élèves nous ont été précieuses, puisqu’elles révélaient le raisonnement sous-jacent.

Tableau XV : Comportements prototypiques lors de la révision à l’ordinateur

L’erreur est corrigée. L’erreur n’a pas été corrigée.

Comportement 1 Comportement 2 Comportement 3 Comportement 4 Comportement 5 Comportement 6 L’élève a corrigé l’erreur après avoir consulté la recommandation du vérificateur orthographique. L’élève a corrigé une erreur diagnostiquée par le vérificateur orthographique, sans consulter la recommandation (clic droit). L’élève a corrigé l’erreur par lui-

même, sans obtenir d’aide du

vérificateur orthographique.

L’élève n’a pas corrigé l’erreur, bien qu’il ait consulté une recommandation

du vérificateur orthographique.

L’élève n’a pas corrigé l’erreur, bien qu’elle ait été diagnostiquée

par le vérificateur orthographique.

L’élève n’a pas corrigé l’erreur par lui-même et n’a pas obtenu de

rétroaction de la part du vérificateur orthographique.

4) Prise de notes complémentaires

Finalement, nous avons ajouté certaines notes au registre constitué. Premièrement, nous avons repéré les erreurs rétrocorrigées, c’est-à-dire celles que le scripteur a éliminées après un certain délai. Nous avons également isolé les segments vidéo lors desquels un élève supprimait un passage du texte : ce faisant, il pouvait éliminer certaines difficultés orthographiques non résolues. Comme cela pourrait constituer une façon d’éliminer une erreur diagnostiquée, nous avons inclus l’information au registre.

Analyse et interprétation des données

Au terme du codage, le registre comprenait quelque 688 entrées, toutes désignant des erreurs commises en cours de rédaction. Nous avons dû condenser ces données afin de pouvoir comprendre le rôle des TIC dans les processus cognitifs de traduction et de révision. Pour ce faire, nous avons exploré les informations à l’aide de la fonctionnalité

tableaux croisés dynamiques du tableur Excel. Ces tableaux ont permis d’approcher le

corpus de données sous plusieurs angles.

• Description de la rétroaction fournie par le traitement de texte;

• Croisement entre le moment de la correction (correction instantanée, correction non faite, rétrocorrection, suppression d’un passage) et le type d’erreur.

De plus, nous avons corrigé les textes produits par les élèves, classifiant les participants sur la base de leur rendement. Nous jugions intéressant de répartir ainsi les élèves, afin d’explorer de potentielles différences dans les stratégies de révision employées à l’ordinateur. L’Annexe 7 présente les opérations relatives à la classification des sujets : nous ne les relaterons pas dans l’actuel chapitre, afin de ne pas alourdir le texte. Cette catégorisation faite, nous avons pu procéder à d’autres croisements de données.

• Croisement entre le groupe et le moment de la correction (correction instantanée, correction non faite, rétrocorrection, suppression d’un passage);

• Croisement entre le groupe et le comportement quant au réviseur intégré;

• Croisement entre le groupe, le type d’erreur et le moment de la correction (correction instantanée, correction non faite, rétrocorrection, suppression d’un passage).

Les tableaux croisés dynamiques étaient rarement utilisables tels quels. Nous avons été contraint d’opérer des manipulations arithmétiques de base sur les données afin d’isoler certains phénomènes (comme le moment de la correction). Par exemple, pour dénombrer les erreurs corrigées sur-le-champ par le scripteur, il fallait additionner les erreurs qui relèvent des comportements un et deux, puis en retrancher les erreurs qui constituent une rétrocorrection. Afin de pouvoir repérer les tendances générales, nous avons représenté les données tantôt sous forme de graphiques, tantôt sous forme de tableaux. À cet effet, les options de mise en forme conditionnelle des cellules nous ont servi à faire ressortir des valeurs marginales, qui pointaient autant de phénomènes intéressants.

3.4.2.2 Analyse des verbalisations

L’analyse des observations vidéographiées nous a amené à décrire les utilisations des TIC pour traduire et réviser. La perspective que nous avons adoptée, toutefois, est quelque peu restrictive : compte tenu des ressources disponibles, nous n’avons analysé que les corrections apportées aux erreurs de surface. Les verbalisations des scripteurs participants nous ont permis de pallier cette limite. En effet, leurs pensées donnent un portrait global de leurs préoccupations. De là, elles nous laissaient entrevoir le rôle des TIC

dans la révision et la traduction, sans que ces données soient aussi précises que des observations. Afin d’analyser ce corpus de données, nous avons recouru à une analyse inductive générale. Nous avons suivi la démarche proposée par Blais et Martineau (2006), qui s’articule en quatre étapes.

1) Première étape : préparation des données brutes

Lors de cette première étape, le chercheur doit présenter les données de façon standardisée. Nous avons donc procédé à la transcription des propos verbalisés à l’aide du logiciel Transcriva, qui a pris en charge l’exportation des fichiers dans un format uniforme. Chaque entrée a été associée à un repère chronométrique facilitant le repérage des énoncés dans les vidéos. Ces transcriptions ont ensuite été transférées dans le logiciel d’analyse

NVivo.

2) Deuxième étape : procéder à une lecture attentive et approfondie

Cette deuxième tâche demande de lire le corpus de données « en détail à plusieurs

reprises jusqu’à ce que le chercheur soit familier avec son contenu et qu’il ait une vue d’ensemble des sujets couverts dans le texte » (Blais & Martineau, 2006, p. 6). Après avoir

transcrit le matériel, nous en avions déjà une bonne connaissance, mais nous l’avons relu complètement avant d’entreprendre le codage des onze séances d’écriture.

3) Troisième étape : procéder à l’identification et à la description des premières catégories

Cette étape, souvent présentée sous le nom de réduction des données, est cruciale. À ce moment, le chercheur doit représenter les propos par une catégorie, qui en synthétise l’essentiel.

Le chercheur identifie des segments de texte qui présentent en soi une signification spécifique et unique (unités de sens). Il crée une étiquette (un mot ou une courte phrase) pour nommer cette nouvelle catégorie à laquelle l’unité de sens est assignée. Il en fait de même pour les autres unités de sens. (Blais & Martineau, 2006, p. 7)

Lors du codage, nous avons étiqueté les segments de texte concernant l’objectif spécifique de recherche trois, soit ceux qui désignent un raisonnement ou une stratégie d’écriture mobilisée lors de la traduction des idées ou la révision du texte. L’unité de sens utilisée aux fins du codage était la phrase; si une même phrase contenait plusieurs idées, elle recevait alors de multiples codes.

4) Quatrième étape : poursuivre la révision et le raffinement

Après avoir codé les verbalisations émises lors des onze séances d’écriture, nous avions en main une grille de codification passablement élaborée, mais peu structurée. Nous avons éliminé certaines catégories redondantes, puis nous avons organisé les codes restants au sein de familles de codes. La grille fermée a servi à analyser une seconde fois les onze entrevues.

Après cette analyse inductive, la réduction du corpus de données était complète. Nous avons terminé notre étude en suivant les deux autres étapes proposées par Huberman et Miles (2003) : la condensation et la présentation des données. Le logiciel NVivo a dénombré le nombre d’occurrences de chaque code. Nous avons ainsi pu obtenir un portrait global des commentaires verbalisés. Afin de mener des analyses plus fines, nous avons également exprimé ce dénombrement en fonction du rendement des scripteurs (voir Annexe 7). Finalement, le tableur Excel a servi à préparer des tableaux et des représentations graphiques.

3.4.2.2 Analyse des entrevues de groupe

Les entrevues de groupe répondent à chacun des objectifs spécifiques; en mettant au jour les perceptions des scripteurs, elles ont éclairé les données quantitatives et qualitatives recueillies. Pour éviter les redondances, nous exposerons succinctement le mode d’analyse de ces entrevues, qui reposait aussi sur une analyse inductive générale. Nous avons d’abord transcrit les entrevues, puis nous les avons relues afin de prendre connaissance des réponses fournies par les élèves. Par la suite, nous avons résumé l’essentiel de chacune des réponses amenées par les divers répondants à l’aide de codes.

Encore une fois, l’unité d’analyse était la phrase; toutefois, plus d’un code pouvait décrire les idées exprimées en une seule et même phrase. À la fin du premier codage, nous avons éliminé les codes redondants avant d’organiser les codes restants. La grille fermée ainsi établie a servi au recodage des entrevues. Nous avons procédé ainsi pour chacune des questions d’entrevues. Par la suite, nous avons dénombré chaque catégorie d’occurrences. Nous avons exprimé leur poids relatif à l’aide d’un rapport (nombre total de codes attribués à une question donnée : nombre d’occurrences d’un code particulier). Notons que ces analyses n’ont pas été effectuées au moyen de NVivo, mais avec le logiciel FileMaker Pro. Dans les interprétations, la prudence est de mise : les entrevues de groupe reflètent la représentation sociale d’un phénomène (Van der Maren, 2004). Or, à l’adolescence, la pression des pairs joue un rôle important, particulièrement de 12 à 15 ans (Cloutier, 1996). Les réponses obtenues pourraient donc refléter cette désirabilité sociale.

3.4.3 Résumé

Notre recherche repose sur une méthodologie mixte, appelant des techniques analytiques variées; ainsi, les traitements statistiques et l’analyse inductive des données se sont éclairés réciproquement. Le Tableau XVI résume les principales méthodes d’analyse des données ainsi que leurs particularités, et cela, en fonction des trois objectifs spécifiques.

Tableau XVI : Lien entre les objectifs spécifiques et la collecte de données quantitatives

Techniques de collecte de données

Objectifs spécifiques

concernés Méthodes d’analyse des données Particularités

1 2 3

Évaluation de textes X ANOVA à deux facteurs Seuil de signification fixé à 0,05 (p < 0,05)

Échelle de motivation à

écrire en français X Test t pour échantillons indépendants Seuil de signification fixé à 0,05 (p < 0,05) Observations

vidéographiées

X • Repérage et transcription des erreurs;

• Codage de la nature des erreurs;

• Association des erreurs à un comportement prototypique; • Analyse des données à

l’aide de tableaux croisés.

• Les participants ont été

préalablement classés sur la base de leur rendement, pour faciliter l’analyse des données.

• Des opérations arithmétiques ont été effectuées afin d’éviter le double dénombrement de certains cas.

Verbalisations

concurrentes à la tâche X Démarche d’analyse inductive des données (Blais & Martineau, 2006)

• L’analyse de ces données, moins détaillée que celle des observations vidéographiées, nous a permis d’avoir une vue globale des préoccupations et des stratégies déployées pendant la traduction et la révision.

Entrevues de groupe X X X Démarche d’analyse inductive des données (Blais & Martineau, 2006)

La Figure 13 présente un aperçu synthétique des trois principales phases de la recherche, spécifiant les démarches préparatoires, les modes de collecte de données ainsi que les principales techniques d’analyse retenues. Nous y avons également inclus les informations relatives à l’échéancier du projet.

F igure 13 : Re pré se nt ati on s ché m ati que de s pri nc ipa le s é ta pe s du proj et de re che rc he 09