• Aucun résultat trouvé

Nous avons mentionné plus tôt que la théorie de l’activité a servi d’outil de sensibilisation pour la cueillette et l’analyse des données. Concrètement, la grille d’analyse a été conçue à partir des thèmes préconisés par la théorie de l’activité, auxquels nous avons ajoutés d’autres thèmes touchant plus spécifiquement aux aspects traités dans la recherche (voir Appendice E).

En somme, cette grille présente une liste de concepts permettant d’aborder le corpus en fonction des thèmes suivants :

o les constituantes du système d’activité (sujet, visée, outil, règles explicites et implicites, division du travail, communauté);

o les contradictions et la transformation du système d’activité;

o le transfert de la technologie des développeurs aux usagers et leurs interactions (incluant les stratégies d’ajustements mutuels et les modifications locales au code source de Moodle);

o les usages et pratiques des enseignants (incluant les besoins spécifiques des utilisateurs et les rapports de force entre les acteurs);

o l’influence d’autres systèmes d’activités et les interactions supra- organisationnelles;

o le code source ouvert (incluant les valeurs associées aux modèles d’innovation ouverte telles que la réutilisation et l’amélioration du travail des autres et le partage des connaissances).

Chaque concept associé à l’un de ces thèmes est identifié par un marqueur (mot-clé) et est explicité à travers quelques expressions définissant de manière plus précise à quoi il réfère, tel que montré dans l’exemple suivant :

SITUEES_SPECIFIQUES : Besoins particuliers des utilisateurs. Contexte d’usage particulier nécessitant beaucoup de flexibilité et d’adaptation du côté de l’outil. Différences entre les départements.

Ces marqueurs ont ensuite été utilisés pour coder et organiser le corpus, qui, rappelons-le, est composé du verbatim des entretiens, du journal d’observation et des documents institutionnels. Nous avons gardé la grille d’analyse ouverte afin de pouvoir l’enrichir au fil de la cueillette et de l’analyse des données. À force de travailler le corpus, de nouveaux thèmes et concepts ont fait surface et ont ainsi pu être ajoutés à la grille.

3.6.1 Le codage du corpus

Les 23 heures d’entretiens ont été retranscrites en entier. Nous avons étiqueté chaque segment des entretiens avec les marqueurs décrits précédemment, en insérant ceux-ci aux endroits appropriés dans les verbatim. Plusieurs marqueurs pouvaient être utilisés pour décrire un même segment, au besoin. Le journal d’observation et les documents institutionnels ont aussi été étiquetés avec les mêmes marqueurs.

Le codage s’est déroulé de façon itérative. L’étiquetage initial a été effectué au moment de la retranscription. Lorsqu’un premier travail d’analyse a permis d’établir une cartographie sommaire des contradictions systémiques, l’étiquetage du corpus s’est raffiné afin d’identifier de manière plus spécifique des segments liés aux contradictions déjà identifiées.

De plus, nous avons inséré des marqueurs de relation permettant d’identifier les passages où un participant fait référence à un autre participant ayant aussi été interviewé. Cette façon de procéder a permis de faire des liens entre les propos des participants ayant été amené à interagir, révélant ainsi les « deux côtés de la médaille ». Les marqueurs de relation venaient ainsi remplacer le nom mentionné par un code incluant la date de l’entretien avec l’autre participant :

Aussi, lorsque le participant montrait quelque chose à la chercheuse sur son écran d’ordinateur, par exemple, lorsqu’un enseignant faisait une démonstration de son cours sur Moodle, nous avons ajouté le marqueur suivant :

&demo=ecran

Finalement, nous avons utilisé la syntaxe propre au logiciel Semato (voir point suivant) pour insérer des commentaires (notes contextuelles) au sein des verbatim, tel qu’illustré dans l’exemple qui suit :

noteclo=l’enseignant fait ici référence à la version 1.6 de Moodle

3.6.2 L’utilisation du logiciel Sémato

Le codage que nous avons décrit au point précédent facilite la manipulation du corpus, à condition d’avoir un outil permettant de regrouper les passages identifiés avec les mêmes marqueurs. Pour ce faire, nous avions besoin d’un logiciel pouvant stocker les données textuelles étiquetées et permettant d’utiliser ces marqueurs comme critères de recherche pour repérer plus rapidement des passages en fonction de thèmes précis.

Nous avons eu recours à Sémato, un logiciel d'analyse qualitative des données textuelles. Toutefois, il importe de préciser que nous n’avons pas utilisé toutes ses fonctionnalités. En effet, ce logiciel est reconnu pour sa capacité d’automatisation de la catégorisation sémantique des données textuelles. Autrement dit, Sémato peut réaliser le codage à notre place, en assignant des marqueurs en fonction d’une analyse sémantique des textes qui lui sont soumis. Pour ce faire, le chercheur propose des concepts de départ et Sémato développe un réseau sémantique qui lui permet de catégoriser automatiquement une majorité de contextes textuels. Pour notre part, nous n’avons pas utilisé ce codage automatisé; nous avons plutôt importé nos textes dans Sémato après qu’ils aient déjà été étiquetés manuellement avec nos marqueurs. Nous avions pris la précaution d’utiliser la syntaxe de Sémato pour nos marqueurs, afin de

s’assurer qu’ils puissent être pris en charge par le logiciel. Nous croyons que le codage manuel a été très bénéfique pour l’analyse, puisque nous avons pu voir émerger de nouveaux thèmes et adapter notre catégorisation en conséquence. De plus, nous avions des doutes quant à la capacité de Sémato de proposer automatiquement des concepts tout en conservant le domaine sémantique apparenté à la théorie de l’activité.

Ce sont plutôt les puissantes fonctionnalités d’exploration du corpus (text mining) qui nous intéressaient plus particulièrement. Nous avons donc utilisé la fonction d’indexation du logiciel pour distinguer les segments de verbatim en fonction de nos marqueurs. La fonction « Analyse rapide » du logiciel permettait ensuite d’exporter tout le corpus indexé sous la forme d’un tableur de type Excel où chaque passage d’entrevue est présenté sur une ligne numérotée distincte avec les données de codage juxtaposées au sein de colonnes bien identifiées. Ce format permettait d’utiliser le logiciel Microsoft Excel et ses options de filtrage des colonnes de données pour pouvoir repérer facilement les verbatim en fonction de marqueurs, d’interlocuteurs ou de numéro de segment. Cela facilitait le repérage et la comparaison des segments indexés afin d’effectuer une analyse croisée des verbatim d’entretiens, journaux d’observation et documents institutionnels.

Cette fine analyse du corpus nous a permis de voir émerger des tendances qui nous ont servi à nommer les phénomènes à l’étude. Nous pouvions également conserver une vue d’ensemble du corpus afin d’établir des liens significatifs entre les composantes des phénomènes étudiés. En cartographiant chaque niveau de contradiction (voir chapitres IV à VI), cette démarche nous a également permis de mieux comprendre les dynamiques du changement et ce que les contradictions, en tant que modèle conceptuel, permettent d’expliquer à cet effet.