• Aucun résultat trouvé

Dans cette partie, je décris les opérations conduites au moyen du logiciel d’aide à l’analyse des données qualitatives, NVivo. La flexibilité de ce logiciel permet à la chercheuse de conduire ses propres opérations de recherche. La description de son exploitation est limitée dans mon travail au cadre de la théorisation enracinée.

109

Le choix de Nvivo

Je défends ici mon choix de ce logiciel parmi les nombreux outils qui existent à travers les réponses à ces deux questions : en quoi le logiciel adopté est-il adéquat pour l’analyse des types de données qui font l’objet de mon analyse? Dans quelle mesure le logiciel utilisé peut-il appuyer la démarche proposée par la théorisation enracinée? Pour aborder la première question, je souligne que le choix de NVivo répond essentiellement à mon besoin d’organisation et de coordination des données hétérogènes du corpus (enregistrements vidéo, verbatims, mémoires, mémos). Les documents constituant mon corpus sont importés dans un projet NVivo et convertis en cas. Si j’établis une analogie avec la méthode papier-crayon, un projet NVivo est le dossier ou le classeur dans lequel je range tous les éléments nécessaires à l’analyse.

Chaque audition analysée représente un cas. J’expose ces cas dans le tableau suivant

Figure 9 Liste des cas analysés

Cas 1 : Alain Pronklin

Cas 2 : Alliance des communautés culturelles pour l’égalité Cas 3 : Andréa Richard

Cas 4 : Association canadienne des libertés civiles Cas 5 : Association de droit Lord Reading

Cas 6 : Canadian council on american Islamic relations Cas 7 : Canadian Muslim Forum

Cas 8 : Coalition non au bill 94

Cas 9 : Commission des droits de la personne Cas10 : Jack Jedwab

Cas 11 : Ligue des femmes du Québec Cas 12 : Michel Fortin

Cas 13 : Somcynsky

Cas14 : Canadian counsil of muslim women Cas19 : Centre culturel Islamique du Qébec

110 Cas 20 : Claude Latour

Cas 21 : collectif citoyen pour l’égalité et la laïcité Cas 22 : Conseil des relations interculturelles

Cas 23 : Conseil orthodoxe juif pour les relations communautaires du Québec Cas 24 : Diane Guilbault Micheline Carrier Élaine Audet

Cas 25 : Djemila ben Habib

Cas 26 : Fédération des Canadiens musulmans

Cas 27 : Fédération des commissions scolaires du Québec Cas 28 : Fédération des femmes du Québec

Cas 29 : Gemma Gauthier Cas 30 : Gérard Lévesque Cas 31 : Gilles Guibord Cas 31 : Goerge karam

Cas 33 : Irene Dion, Pierre Leyraud Cas 34 : Keith Sheldon

Cas 35 : Carole Dionne

Cas 36 : Les intellectuels pour la laïcité Cas 37 : Louis-Philippe Lampron

Cas 38 : Louise Hubert et M. Ghyslain Parent

Cas 40 : Organisme de communication pour l’ouverture et le rapprochement culturel Cas 41 : Québec solidaire

Cas 42 : Rassemblement des chrétiens du Moyen-Orient Cas 43 : World Sikh Organization of Canada

Cas 44 : Cas Robert Talbot Cas 45 : Barreau du Québec

111

Cas 46 : Conseil du statut de la femme Cas 47 : Farid Chikhi

Cas 48 : Nadia Alexan Cas49 : Jean Tremblay Cas 50 : Michel Brunelle

Cas51 : Remarques préliminaires Cas 52 : Remarques finales`

Dans mon projet Nvivo, ces cas sont liés à des documents qui lui sont associés (verbatim de l’audition, enregistrement vidéo, mémoire déposé). Nvivo m’a également permis de connecter ces cas à des liens externes (lien vers des articles de presse, liens vers des sites de groupes qui me permettent d’avoir une idée sur la mission du groupe, etc.). La capture d’écran suivante rend compte des différentes composantes de mon projet Nvivo.

112

Figure 10 un aperçu sur les composantes de mon projet Nvivo

Cette structuration des données est en cohérence avec mon cadre conceptuel (voir chapitre 2) parce qu’elle permet de focaliser l’analyse sur les dynamiques de publicisation (comment s’identifier, comment argumenter, comment s’opposer à d’autres opinions). Une telle organisation des données permet de tenir compte en même temps de la forme par laquelle le discours est communiqué et des enjeux sociaux et politiques qui en découlent. L’évaluation des fonctionnalités du logiciel utilisé est fondée sur la base de ma logique d’analyse qui consiste à articuler l’analyse du volet sémantique avec d’autres aspects relevant de l’interactionnel (les dimensions verbales et non verbales des interactions). Le logiciel m’a permis également d’affecter des attributs, c’est-à-dire des caractéristiques, à chaque audition (les variables indépendantes dans le langage des méthodes quantitatives).

Par exemple, l’audition du 18 janvier 2011 du Centre culturel islamique de Québec est un cas d’audition d’un organisme musulman, impliquant des intervenants hommes et femmes qui s’expriment contre la loi n° 94. Ce cas comporte ainsi cinq attributs : le type d’intervenant, la religion déclarée, la date, le sexe, la position par rapport au projet de loi.

113

Pour répondre à la deuxième question, je souligne que l’exploitation de ce logiciel dans le cadre de ma démarche de théorisation enracinée semble apporter à cette démarche la rigueur qui lui manquait au tout début du processus. Comme le souligne Hamel, les logiciels d’analyse qualitative sont capables de traduire l’interprétation que l’analyste orchestre dans son esprit. En effet, « les rouages techniques qui, sous le mode informatique, commandent leur exploitation obligent à déterminer exactement les opérations et les règles qui donnent ici corps à l’analyse » (Hamel, 2010 : 174). Par ailleurs, ce logiciel, tout comme la méthode de théorisation enracinée, permet de mettre en valeur les activités de codage et le processus de mise en relations entre les codes.

À la différence d’un logiciel qui appartient à la catégorie des logiciels dont les fonctionnalités se limitent au dénombrement de mots ou au codage sémantique grâce à des dictionnaires sémantiques intégrés, ce logiciel est de la catégorie Computer-Aided Qualitative Data Analysis Software (CAQDAS). Les CASQDAS aident les chercheurs qui se réclament de la méthodologie de théorisation enracinée à découvrir le sens des données pour faire émerger une construction théorique, en les appuyant dans l’organisation, la comparaison et la mise en relation des éléments essentiels de leurs projets.

Les fonctionnalités de NVivo peuvent apporter à ma démarche de théorisation enracinée la capacité de mise en lien entre les données collectées et le processus de théorisation. La valeur ajoutée de cet outil informatique par rapport à l’analyse manuelle est la constitution de liens informatiques (avec mémos, entre sources de données, ajouts des définitions aux catégories émergentes).

Afin de tester la fiabilité des transcriptions disponibles sur le site de l’Assemblée nationale, j’ai révisé le contenu de chacun des verbatims en visionnant la vidéo de l’audition en question. Cet examen a permis d’apporter des corrections aux verbatims, par exemple, l’ajout de prises de prises de parole qui avaient été omises durant la transcription, ou l’amendement du contenu transcrit. Une fois que le traitement initial des données a été terminé, la codification des données a débuté. Comme le disent Corbin et Strauss, « It’s the fundamental analytic process used by the researcher » (1990 : 12), et comme ils le recommandent (1998), il faut accomplir trois processus analytiques : la codification ouverte, la codification axiale, et la codification sélective. L’utilisation de Nvivo est parfaitement adéquate à la réalisation de ce processus analytique parce qu’il permet de créer des nœuds libres pour la phase du codage ouvert et de convertir les nœuds libres en nœuds hiérarchisés pendant la phase de codage axiale.

Le codage ouvert et ses unités

Une des premières décisions a été la sélection de l’unité de codification (Crabtree et Miller, 1999) de mon corpus. Le corpus étant constitué à la fois par l’enregistrement vidéo et par sa transcription, je me suis demandé si les unités d’analyse seront les mêmes pour les deux types de données, surtout que je considère l’interaction dans sa forme à la fois verbale et non verbale.

114

Pour les enregistrements vidéo, il s’agit d’unités non verbales (un geste, un habit, un regard expressif, des façons de dire, des intonations…). Il faut par exemple ressortir le sens tout à fait important des traces de différences d’accent ou des différences dans la maîtrise de la langue. NVivo est sur ce point d’un apport considérable, car il permet d’analyser les vidéos directement et de créer des liens informatiques entre les vidéos et les codes. J’ai par exemple codé l’accent québécois de l’intervenante Nadia Al Ghandouri comme marque d’appartenance à la société québécoise. J’ai aussi codé le voile de l’intervenante Hachicha comme marque d’appartenance à la communauté musulmane.

Le problème des unités à analyser dans les vidéos en amène un autre, celui de la nature des unités à analyser dans les verbatims. C’est l’un des problèmes méthodologiques que l’on rencontre quand on fait de la théorisation enracinée à partir d’un corpus discursif. Il est ici question de rigueur méthodologique, car ce qui est à repérer dans les verbatims dépend des lunettes avec lesquelles on regarde les données. Et c’est justement là que le respect des paramètres de l’analyse par théorisation enracinée pose un nouveau défi. En effet, ce qui retient mon attention est bien différent selon que j’aborde l’analyse dans une perspective linguistique, interactionniste, phénoménologique, critique ou autre. En vue de garantir l’enracinement de l’analyse dans les données et qu’une perspective préexistante ne détermine pas l’analyse et la formation de la théorie par la suite, je n’ai pas choisi d’unité d’analyse.

J’ai commencé l’analyse par une codification phrase par phrase. C’est ce que Strauss et Gorbin appellent la codification ouverte qui permet de morceler le texte et la vidéo et faire émerger des concepts. Deux sortes de codes ont été utilisées : les codes in vivo et les codes conceptuels. Par exemple, j’ai constitué le code « crainte » parce que plusieurs intervenants aux auditions ont utilisé ce terme pour expliquer leur position par rapport au projet de loi. Par ailleurs, j’ai utilisé des codes conceptuels tels que « éthos discursif » sous lesquels j’ai regroupé toutes les données concernant les stratégies de présentation de soi.

Se pose alors la question de confirmer si mon analyse peut bien porter sur l’unité syntaxique qu’est la phrase. En effet, le codage phrase par phrase a donné une interprétation non précise de l’échange des points de vue sur le sujet de la consultation. Comment alors caractériser avec précision ce moment interactionnel qu’est la participation à une audition publique avec ce grand nombre de codes et de données? Comment parvenir à saisir la complexité de ce qui émerge de ces données avec cette multitude de voies d’interprétation? Est-ce avec un codage tous azimuts?

Découper le verbatim en phrases ne permet pas d’identifier des référents utiles comme les thèses et les thèses adverses, les justifications sur lesquelles les actants peuvent s’appuyer, etc. Est-il alors plus judicieux, dans une recherche dont l’objet est un problème social, de refaire le codage en choisissant des unités sémantiques comme les arguments? D’emblée, ce questionnement renvoie à l’objectif de recherche. Revenons à lui.

L’objectif de comprendre ce que « font » les acteurs avec le langage lors d’une audition publique en commission parlementaire va de pair avec la logique praxéologique de mon objet de recherche (chapitre 1 et 2). En d’autres mots,

115

lorsqu’il est question d’action, plusieurs dimensions sont à l’œuvre. C’est pourquoi quelques précisions sur les unités d’analyses s’imposent.

L’analyse est, à certain moment du processus, orientée vers la compréhension de ce qui se passe quand des citoyens et des élus échangent des points de vue, des questions, des justifications, débattent ou s’engagent dans des échanges. Une perspective pragmatique s’ouvre alors dans mon analyse : « les acteurs et les agents sont remplacés, dans la sociologie pragmatique, par les performances d’actants capables de construire et de déconstruire par leurs pratiques et leurs discours les qualifications des situations dans lesquels ils agissent » (Bénatouïl, 1999 : 298). En effet, dans cette quête du sens des occurrences des phrases par des acteurs, il convient de se tourner vers la pragmatique du discours qui pense que le discours est composé d’unités pragmatiques, à savoir les énoncés.

Il s’agira de ce fait d’étudier la fonction de ces énoncés. L’analyse semble se situer dans la pragmatique (les énoncés comme unités d’analyse) plutôt que dans la linguistique (les phrases comme unités d’analyse). Cette perspective pragmatique qui a émergé des données exige de se donner pour tâche de rendre compte de la diversité des actions accomplies dans cette situation de communication. Dans leurs travaux sur la pragmatique du discours, Reboul et Moeschler (1995; 1998) ont montré comment le sens se construit au gré des énoncés et non pas des phrases. Les énoncés sont en fait des phrases enrichies contextuellement. Voilà un exemple de mon corpus :

Phrase : Ce projet de loi est discriminatoire.

Énoncé : Le CCIQ croit que le projet de loi est discriminatoire

Les énoncés combinent donc de l’information linguistique et de l’information non linguistique (contexte, contenu sémantique, interaction). Les énoncés auront donc, dans cette analyse, un statut plus signifiant parce qu’ils rendent compte du pouvoir de la pratique qui produit, construit et reconstruit le sens intersubjectif. Ce choix de l’unité d’analyse est typiquement inductif parce qu’il est fondé sur des éléments provenant de l’univers empirique.

Je souligne à cet effet que mon analyse de la parole publique en contexte d’auditions publiques en commission parlementaire ne limite pas son champ d’examen à ces unités de discours que sont les énoncés. En s’inspirant de Harvey Sacks (1992), je propose que mon analyse ne se limite pas à ces unités qui peuvent être identifiées et fonctionner indépendamment du plus grand morceau dont elles font partie (les échanges, les interventions, etc.). Mon analyse inductive porte aussi sur les unités conversationnelles que sont l’échange, l’intervention et l’acte de langage. C’est en suivant ce point de vue que j’ai organisé mon analyse en alternant entre deux stratégies : observer chaque unité comme un objet autonome pour en comprendre la mécanique, puis relier cette analyse à celle des autres types unités.

116

Codage axial

C’est particulièrement à cette étape que j’ai senti que les fonctionnalités du logiciel permettent un niveau de familiarité avec les données ou de « closeness » (Gilbert, 2002) difficile à atteindre de façon manuelle. À cette étape de l’analyse, le niveau d’abstraction est aussi plus élevé. Les codes créés à l’étape du codage ouvert sont examinés pour vérifier s’ils sont vraiment liés à l’objectif de l’analyse. Il s’agit de vérifier si certains codes sont liés à des attributs du contexte dans lequel le phénomène est étudié ou à des stratégies discursives et des interactions que les acteurs accomplissent, s’ils sont liés à des conséquences de ces stratégies et interactions. « During axial coding the analyst tries to find out which types of phenomena, contexts, causal and intervening conditions and consequences are relevant for the domain under study » (Morgan et Duchscher, 2004).

Selon mes mémos méthodologiques, il faut prêter attention à l’analyse fonctionnelle des unités de discours. J’ai alors procédé à la description des types d’actes que les énoncés réalisent (Reboul et Moeschler 1994 : 30). À cet égard, la théorie des actes de langage m’a donné les outils pour assigner des fonctions aux différents énoncés. J’ai procédé à un codage en unités minimales que sont les actes de langage. Par acte de langage, j’entends l’énonciation qui réalise une action telle que la question ou la demande. Il s’agissait alors d’interroger les fonctions des énoncés (ça sert à quoi de dire ceci? dans quelle intention cela est dit?). L’analyse de l’acte non verbal s’illustre comme suit :

117

Figure 11 Exemple de codage d’un acte non verbal

Dans une logique pragmatique, on peut se poser la question suivante : quelle fonction illocutoire donner à cet acte non verbal qu’est le mouvement de la tête lors de la prononciation des noms des actants? Ce mouvement tel qu’abordé dans le chapitre 5 peut être compris comme un acte ayant une fonction illocutoire réactive. Le mouvement de la tête est employé à la place d’un énoncé verbal du type : « est-ce bien ça? », ou « si j’ai bien prononcé ». Il s’agit d’une demande de confirmation qui rapporte implicitement la réaction supposée des intervenants face à une mauvaise prononciation de leurs noms étrangers.

Comme je l’ai fait remarquer ci-dessus, l’analyse des données selon cette perspective ne m’a pas permis de dégager l’aspect sémantique. Il importe en effet de comprendre la signification des propositions émises par les actants. Cette lacune m’a incité à revenir aux extraits des vidéos et aux verbatims pour améliorer le codage, l’un des avantages de Nvivo étant de pouvoir reprendre ce dernier. Opérer un codage itératif des données est le gage de rigueur dans mon approche de la théorisation enracinée. Dans cette perspective, la rigueur est appréhendée en termes de consistance du codage : « it is certainly true that a range of tools within NVivo can facilitate the process (e.g. generating profile reports on nodes and documents, skilful use of the assay and show tools, matrix searching to generate coding tables,

118

viewing nodes and documents with coding stripes etc.) » (Johnston, 2006 : 385). Le retour aux données est effectué cette fois-ci avec les lunettes de l’argumentation. Il s’agit d’identifier les relations argumentatives entre les énoncés. Après va-et-vient constant entre les codes en émergence et les données observées, mes catégories d’analysent commencent à se raffiner. Pierre Paillé et Alex Mucchielli définissent une catégorie comme suit : on peut définir la catégorie comme une production textuelle se présentant sous forme d’une brève expression et permettant de dénommer un phénomène perceptible à travers une lecture conceptuelle d’un matériau de recherche. (…) À la différence de la « rubrique » ou du « thème », elle va au-delà de la désignation de contenu pour incarner l’attribution même de la signification (2003 : 147). La catégorie, une conceptualisation qui permet de nommer le phénomène analysé est alors mon principal outil analytique. Elle « se situe, dans son essence, bien au-delà de la simple annotation descriptive ou de la rubrique dénominative. Elle est l’analyse, la conceptualisation mise en forme, la théorisation en progression » (Paillé et Mucchielli, 2008 : 233).

J’ai pu ainsi relier des catégories comme des échanges rituels (ouverture de la séance, remerciements) ou des interventions (monologues, questions, réponse) à des propriétés correspondant à des types d’actes (justifier, réfuter, décrire).

La construction de relations entre ces codes a permis de faire émerger des prémisses théoriques. Bien que constituants dans une certaine mesure, un agir, il y a des énoncés qui, de point de vue interactionnel, ont des fonctions rituelles, interactives, ou autres. Ce qui a émergé, c’est que les énoncés ont souvent des fonctions plus argumentatives que strictement interactionnelles. Dans les schémas que j’utilise pour illustrer les représentations d’une catégorie et des sous-catégories qui lui sont associées, les lecteurs noteront que le sens des flèches va du bas vers le haut et indique ainsi, dans la logique du logiciel Nvivo, qu’une sous-catégorie nommée dans le langage de Nvivo « child node » est liée à une catégorie principale nommée « parent node ».

Pour améliorer la description du processus par lequel la parole des acteurs engagés dans l’audition se publicise, j’ai souvent recouru à l’outil de génération de sens qu’est la métaphore. Je donne ici l’exemple de la catégorie « diagnostic in vitro » (voir chapitre 5). Pour continuer la caractérisation de la pratique de communication que constituent les interactions en situation de commission parlementaire, j’ai continué l’analyse en identifiant des codes-parent, des codes-enfant ou en fusionnant des codes en une seule catégorie plus abstraite et plus large ou en reliant des catégories entre elles. Le processus d’analyse s’est progressivement orienté vers l’intégration.

J’ai ainsi été en mesure de réduire les catégories en quatre catégories principales : les contraintes des discours conversationnels, les modalités de fonctionnement de ces discours, les motivations qui sous-tendent ces formes de prises de parole et leur portée. Les lecteurs remarqueront que la discussion des résultats de l’analyse qui fait l’objet