• Aucun résultat trouvé

Chapitre 3. Méthodologie : une approche mixte en trois temps

3.4. L’analyse qualitative des données : une étude approfondie du contenu des cadres

3.4.1. Objectifs de l’analyse qualitative

Après avoir étudié de manière approfondie l’émergence des cadres ayant historiquement balisé les débats sur l’enseignement de l’anglais au Québec, l’étape suivante vise à observer comment ces cadres se manifestent lors du débat contemporain entourant l’annonce de la mesure d’anglais intensif. Nous souhaitons alors identifier les mécanismes de cadrage et de raisonnement qui composent ces cadres, observer avec quels mythes sociaux ils résonnent et mieux comprendre les idéologies qu’ils véhiculent. Pour cette étape, la période circonscrite débute en juin 2010 avec la suggestion faite par Gérard Deltell, alors chef de l’Action démocratique du Québec, d’offrir un enseignement intensif de l’anglais à la fin du cours primaire. Cette suggestion constitue l’amorce d’un débat public qui s’intensifie considérablement lors de l’annonce par le gouvernement Charest, en février 2011, de la mise en place d’une telle mesure universelle pour tous les élèves francophones sur un horizon de cinq (5) ans. Les principales questions de recherche qui guident notre démarche pour cette phase d’analyse qualitative sont les suivantes :

Q1. Quels cadres sont mobilisés par les différents types d’acteurs sociaux afin de définir l’enjeu de l’intensification de l’enseignement de l’anglais ?

Q2. Quels mécanismes de cadrage et mécanismes manifestes de raisonnement composent ces cadres ?

Q3. Avec quels mythes sociaux ces cadres résonnent-ils ? Q4. Quelles idéologies sont véhiculées par chacun des cadres ?

3.4.2. Une méthode inspirée de la théorisation enracinée

Pour cette étape, nous nous appuyons sur la méthode d’analyse de données proposée par Pierre Paillé et Alex Mucchielli (2016). Celle-ci s’inspire de la méthodologie de la théorisation ancrée ou « enracinée » (Glaser et Strauss, 2009 ; Luckerhoff et Guillemette, 2012 ; Paillé, 1994). Comme le précisent eux-mêmes Paillé et Mucchielli, il ne s’agit toutefois pas de poursuivre l’objectif ambitieux de la grounded theory initiale qui visait à développer une théorie achevée ou formelle, mais plutôt de s’engager dans un processus de théorisation du phénomène à l’étude (Paillé et Mucchielli, 2016, sect. 675 à 680). L’analyse des documents se fait suivant une suite d’opérations récursives ou, comme nous l’avons dit plus tôt, dans un processus itératif qui consiste en un « aller-retour constant et progressif entre les données recueillies sur le terrain et un processus de théorisation » (Méliani, 2013, p. 436). Cette méthode s’apparente également à « l’approche générale inductive d’analyse de données qualitative », proposée par Thomas (2006), et dont l’objectif est de : « condenser des données brutes,

de faire des liens entre les objectifs de la recherche et les catégories issues de l’analyse des données brutes et d’offrir une théorie à partir des nouvelles catégories émergentes » (Blais et Martineau, 2006, p. 4 ; Isabelle F.-Dufour et Richard, 2017, p. 45). Selon Paillé et Mucchielli, l’analyse qualitative de données vise à « construire des descriptions et des interprétations. Elle est au service de la quête du sens des actions et expériences humaines ». Les auteurs en donnent la définition explicite suivante :

Nous définissons le terme d’« analyse qualitative » comme l’ensemble des opérations matérielles et cognitives – actions, manipulations, inférences – non numériques et non métriques qui, prenant leur source dans une enquête qualitative en sciences humaines et sociales, sont appliquées de manière systématique et délibérée aux matériaux discursifs issus de l’enquête, dans le but de construire rigoureusement des descriptions ou des interprétations relativement au sens à donner aux actions ou expériences humaines analysées, ceci en vue de résoudre une intrigue posée dans le cadre de cette enquête (Paillé et Mucchielli, 2016, chap. 3, sect. « L’analyse qualitative : définition et propriétés », paragr. 1).

3.4.3. Sélection du corpus par échantillonnage théorique

Toujours selon cette approche inspirée de la théorisation ancrée, le choix des documents à analyser se fait sur le principe de l’échantillonnage théorique : non pas dans l’optique d’une représentativité statistique, mais en fonction de leur potentiel de théorisation. Dans un premier temps, c’est sur la base des documents colligés lors de l’enquête historique que nous commençons à constituer le corpus de documents pour l’analyse qualitative. Certains textes sont ainsi d’emblée retenus pour leur pertinence historique à l’égard de l’enjeu. Dans un second temps, une recherche est effectuée sur la base de données Eureka pour la période spécifique allant de 2010 à 2015. Nous interrogeons la base de données pour toutes les sources canadiennes de langue française en recherchant les expressions « anglais intensif », « enseignement de l’anglais », « immersion anglaise » et « bains linguistiques 13».

Les indicateurs suivants guident notre sélection de documents à analyser :

- Textes ou acteurs reconnus par d’autres auteurs comme étant significatifs dans la définition de cet enjeu.

- Pertinence du texte à l’égard de l’enjeu. - Logique du contraste maximal des discours.

Tout au long de cette démarche d’assemblage du corpus, nous tentons de saisir le spectre complet des discours en suivant, dans un premier temps, la logique du contraste maximal, c’est-à-dire en

13 L'expression « bain linguistique » est utilisée comme synonyme de « programme intensif ». Les bains linguistiques sont

des formules intensives au sens où l'on augmente considérablement le nombre d'heures consacrées à l'anglais langue seconde (ALS) tout en diminuant le nombre d'heures allouées aux autres matières, dont le français langue maternelle. Ils sont à distinguer des classes d'immersion où l'ensemble des matières sont enseignées dans la langue seconde (SPEAQ, 2001; Gauthier, 2002;).

choisissant le plus possible des discours opposés (Keller, 2012, p. 111). Selon Keller, cette manière de procéder aide à explorer l’étendue possible des discours. Dans un second temps, selon une logique de contraste minimal, nous cherchons les documents les plus similaires afin de faire ressortir les nuances de chacun des cadres. Pour cette phase d’analyse qualitative, les documents de type suivant sont retenus au corpus : éditoriaux, chroniques, billets de blogues, lettres d’opinion, extraits de rapports ou mémoires, ainsi que de commentaires citoyens (en réaction aux articles). Le corpus est bonifié au fur et à mesure que progresse la théorisation. Au total, 573 textes sont ainsi codés et analysés qualitativement : 27 éditoriaux, 29 chroniques, 48 lettres d’opinion, 10 extraits de rapports, mémoires et conférences de presse et 459 commentaires citoyens.

3.4.4. Un processus d’analyse itérative en 6 étapes

Concrètement, pour effectuer cette analyse qualitative, nous suivons les 6 étapes détaillées par Paillé (1994) :

1) La codification initiale : l’objectif de cette étape est essentiellement descriptif. Elle vise à relever, aussi fidèlement que possible, tous les « thèmes » pertinents présents dans le corpus et liés à nos questions de recherche. Au cours de cette étape, nous codons les textes manuellement à l’aide du logiciel d’analyse qualitative NVivo. Il s’agit d’un codage « ouvert », c’est-à-dire que les thèmes ne sont pas déterminés d’avance, mais plutôt construits à partir des données au fur et à mesure de l’analyse. Dans la perspective théorique du cadrage, cette étape nous sert également à identifier les différents mécanismes rhétoriques et de raisonnement qui se manifestent dans le corpus :

a. Identification des métaphores et autres mécanismes de cadrage (exemples historiques, amorces, descriptions et images visuelles) ;

b. Identification des mécanismes manifestes de raisonnement (analyses causales, conséquences, appels aux principes moraux) ;

c. Identification des structures narratives qui relient les cadres (contexte, intrigue, personnage, morale) ;

2) La catégorisation : dans un second temps, nous reprenons la codification initiale dans un effort de catégorisation. Selon Paillé et Mucchielli (2016), les catégories se situent à un niveau conceptuel plus élevé que le code. Cette catégorisation est donc l’occasion d’organiser les codes selon des axes plus significatifs (certains parlent de codage axial), de rechercher certains « patrons » parmi l’ensemble de codes. Au cours de cette étape, nos « cadres » commencent à prendre forme. Sur la base des codes identifiés précédemment, nous tentons de les définir et d’en préciser les propriétés. Ces cadres sont ensuite répertoriés dans un tableau, ou matrice, où chaque ligne représente un cadre contenant différents mécanismes de cadrage et de raisonnement (Van Gorp, 2010).

3) La mise en relation : au cours de cette troisième étape, nous mettons en relation des catégories en comparant les différents cadres et en tentant d’expliciter ces différences (liens de ressemblance, de différences, oppositions, liens hiérarchiques, etc.). Pour nous aider dans cette mise en relation, nous procédons à la création de cartes conceptuelles (voir Annexe A), ce qui nous permet de mettre en évidence et de schématiser les différentes relations.

4) L’intégration argumentative : cette étape signe l’amorce d’un travail de resserrement analytique des relations entre les phénomènes. Il s’agit de cerner certains traits saillants de l’analyse, de limiter la quantité de catégories, de resserrer le corpus à analyser sous l’angle du principe de saturation théorique et enfin, de repréciser l’objet d’étude en fonction de l’avancement de l’analyse.

5) La modélisation : Le but est ici de tenter de comprendre l’évolution du phénomène et de sa dynamique ; de cerner les conditions qui favorisent son émergence ; d’envisager ses conséquences sur l’environnement, comme sur d’autres phénomènes ; et, comme l’affirme Paillé (1994), de « dégager les processus en jeu au niveau du phénomène » (p. 176). Cette étape est l’occasion de procéder à la création de schémas illustrant le processus de cadrage, ses liens avec le concept de mythe et les effets conjoints des deux phénomènes.

6) La théorisation : cette dernière étape consiste en un réexamen des données en lien avec le travail d’intégration et de modélisation, cela dans un ultime effort de théorisation et de validation. Pour ce faire, nous avons recours aux trois stratégies suggérées par Paillé : 1) nous nous assurons de la saturation théorique des catégories14 en revisitant notre échantillon

théorique au besoin ; 2) nous vérifions si les implications de notre théorisation se manifestent effectivement dans les données ; et 3) nous recherchons des « cas négatifs » pour confronter notre explication du phénomène aux cas qui le défient.

Chacune des étapes de cette analyse qualitative est donc répétée de manière itérative jusqu’à l’obtention d’une saturation des différentes catégories. Les résultats de cette étape sont synthétisés dans la matrice des cadres, qu’on pourra consulter au chapitre 6. Cette dernière a également servi de base à la création du dictionnaire de l’analyse de contenu automatisée dont nous détaillons les méthodes dans la prochaine section.

Outline

Documents relatifs