• Aucun résultat trouvé

CHAPITRE 7. METHODOLOGIE D’ENQUETE

3. Le traitement des questionnaires

Le choix s’est porté sur un logiciel de traitement de données de QSR, NVIVO. La difficulté éprouvée au premier abord provenait du fait que le logiciel était en anglais et que nous n’avions pas reçu de formation préalable ; d’où une auto-formation, à l’aide de guides en ligne. La méthode qualitative préconisée consiste essentiellement en l’analyse de contenu.

3.1. L’analyse de contenu.

Après maintes recherches documentaires sur le sujet, nous avons finalement opté pour les explications de Quivy & Campenhoudt (1995), eux-mêmes principalement inspirés de Bardin (1993), Barthes (1981), ou encore Ghiglione, Matalon & Bacri (1985). En effet, il peut arriver que l’analyse de contenu soit distinguée de l’analyse de discours notamment. Il fallait donc se situer dans l’une ou l’autre de ces analyses.

Sans pour autant mentionner l’analyse de discours, Quivy & Campenhoudt semblent ne pas distinguer les deux méthodes. En décrivant l’analyse de contenu, les caractéristiques alors attribuées à l’analyse de discours apparaissent, à savoir la prise en compte d’une réalité interne à l’énoncé dégagée des éléments tels que l’argumentation, la stylistique, les enchaînements et la forme des unités de sens présents dans le discours, qu’il soit oral ou écrit. L’analyse de contenu est alors découpée en différents types d’analyses ou « variantes ».

De même, alors que l’on pourrait penser que l’analyse de contenu serait principalement, voire exclusivement, qualitative, Quivy & Campenhoudt rappellent qu’il existe différents méthodes d’analyses de contenu qu’on ne peut résumer « en

deux catégories : les méthodes quantitatives et les méthodes qualitatives » (1995 :

231). Et eux d’ajouter : « Ces distinctions ne sont valables que très globalement : les

caractéristiques propres des deux types de démarche ne sont pas aussi nettes et plusieurs méthodes font aussi bien appel à l’une qu’à l’autre » (idem). Ces auteurs

déclinent « trois grandes catégories de méthodes » subdivisées en principales variantes.

Ce découpage, qu’ils proposent « sans prétendre régler toutes les questions

de démarcation entre les différentes méthodes d’analyse de contenu », nous convient

dans la mesure où il prend en compte les principales préoccupations liées au traitement de données textuelles : le quantitatif en complémentarité au qualitatif, l’étude linguistique tout comme l’étude extralinguistique du discours, etc. Ces auteurs distinguent donc les analyses thématiques, les formelles et les analyses structurales.

Les premières comprennent l’analyse catégorielle (essentiellement quantitative, « consiste à calculer et à comparer les fréquences de certaines

caractéristiques », idem : 232) et l’analyse de l’évaluation. Celle-ci s’intéresse aux

représentations des locuteurs (Quivy & Campenhoudt parlent de « jugements »), leur fréquence, leur orientation et leur intensité.

Les analyses formelles comportent essentiellement l’analyse de l’expression,

« forme de la communication », et l’analyse de l’énonciation, à savoir que le discours

est considéré « conçu comme un processus dont la dynamique propre est en

elle-même révélatrice » (idem : 232).

Enfin, les troisièmes consistent, et en l’analyse de co-occurrences, où les thèmes seront mis en relation les uns aux autres, ces corrélations pouvant informer sur les constructions mentales opérées ; et en l’analyse structurale à proprement parler au cours de laquelle il s’agit de « mettre en évidence les principes qui

organisent les éléments du discours de manière indépendante du contenu même de ces éléments » (idem : 233).

Après ce bref exposé des différentes méthodes d’analyses de contenu, on aura compris que la présente recherche se situe davantage dans les analyses thématiques. Y sont alors combinées les analyses catégorielle et de l’évaluation puisque après l’élaboration de thèmes, les représentations mises au jour sont aussi étudiées en termes de fréquence du thème associé, mais aussi sous l’angle de critères tels que les attributs (âge, sexe, quartier habité, etc.). on aboutit donc en parallèle à un décompte fréquentiel. Le statistique est marié au qualitatif dans le but d’enrichir l’analyse.

L’analyse effectuée comprend donc des étapes essentielles dont l’ordre chronologique est le suivant :

- La préanalyse, en amont de l’enquête, comprend la pré-enquête – sous forme de questionnaires, d’entretiens ou d’observations –, la formulation des hypothèses et des objectifs de l’étude et une première élaboration des

« indicateurs » (Wanlin 2007 : 249) permettant une organisation des données

qui seront obtenues.

- L’exploitation du matériel (ici, questionnaires et entretiens retranscrits) consiste à l’élaboration plus fine de catégories (d’où un grille de catégories),

« rubriques rassemblant des éléments ayant des caractères communs sous un titre générique » (idem : 250), qui seront soumises à une classification, puis à

une opération de codage. Le chercheur s’engage à confronter les différents discours selon les mêmes critères. D’ailleurs, de la qualité des catégories dépendra la qualité de l’analyse de contenu. Ces catégories peuvent être liées au contenu du document (thèmes basés sur champs sémantiques) ou au contexte de sa production (source, date, sexe ou encore la caractérisation par la migration ou non de l’enquêté).

- Enfin, le traitement proprement dit où « les données brutes sont traitées de

manière à être significatives et valides » (idem : 251). Après la mise en relief

des résultats, ceux-ci sont interprétés en fonction des hypothèses et des objectifs de départ. La catégorisation servant de base, d’où son importance, le chercheur essaye de « fonder une lecture à la fois originale et objective du

corpus étudié » (Robert & Bouillaguet 1997 : 31 in Wanlin 2007 : 251). Il

teste ici la qualité des hypothèses et par conséquent la richesse de son analyse.

L’analyse de contenu réalisée dans cette étude aurait pu l’être manuellement, mais par souci de gain de temps et aussi par curiosité, nous avons décidé de nous aider d’un logiciel de traitement de données textuelles, NVivo 8, que nous verrons le fonctionnement au fil des pages suivantes.

3.2. Le logiciel NVIVO 8.

Logiciel de traitement de données textuelles, NVIVO 8 aide le chercheur dans sa démarche de catégorisation du contenu du corpus. D’abord en version 7, puis 8, NVIVO est principalement le logiciel utilisé dans cette enquête.

Ce logiciel privilégie l’analyse thématique car, polyvalente, elle permet de partir du corpus pour générer des thèmes (analyse inductive) ou bien d’analyser celui-ci à la lumière de thèmes préalablement définis (méthode déductive). C’est une méthode de travail qui oblige à la rigueur, à la précision, et donc à l’exhaustivité. Ce n’est pas un outil qui travaille à la place du chercheur, mais c’est un outil qui l’invite à aller au-delà des idées premières et à faire des relations entre des éléments, relations qu’ils n’auraient pas soupçonnées au départ.

Notre choix s’est porté sur ce logiciel parce qu’il présentait une facilité de prise en main et d’utilisation courante permettant d’approprier son fonctionnement de façon autodidacte. De plus, le classement des données devient aisé et le chercheur reste maître de ce qu’il cherche. Le logiciel privilégiant l’analyse de contenu, et non l’analyse statistique, le chercheur reste concentré sur ses données. Enfin, le coût de cet outil est plutôt avantageux pour un particulier, surtout pour un étudiant1.

L’analyse choisie a été l’analyse déductive. Nous avons au préalable inséré les données dans des fichiers Word. Ensuite, nous les avons importées dans le logiciel.

1 Wanlin (2007) compare deux logiciels d’analyse de données textuelles, Lexica (Le Sphinx) et Nvivo 7 (QSR).

Partant des thèmes liés aux questions du questionnaire, nous avons pu définir des nœuds (nodes),

base des arbres de nœuds (tree nodes) permettant la classification des données recueillies.

En parallèle à cela, il a fallu mettre en place des attributs (attributes) pour chaque enquêté (cases).

Il s’agit du sexe, de la date de naissance (plusieurs tranches de dates), de la nationalité (qui correspond davantage à la provenance), de l’origine des parents, du quartier ou de la ville habité, du nombre d’années dans ce quartier ou cette ville et, enfin, du nombre d’années dans la région (ces deux derniers attributs se déclineront en tranches d’années).

Les cinq tree nodes principaux sont les suivants : - La vision de la ville de Fort-de-France ;

- La ville en général ; - Les langues ;

- Les quartiers de Fort-de-France ; - Les métiers.

Ce dernier thème, qui aurait pu être un attribut, permettait de visualiser rapidement la mobilité des enquêtés. C’est pour cela qui nous avons préféré en faire un arbre de nœuds.

Une fois le codage réalisé, l’analyse s’est poursuivie par le croisement des nœuds et des attributs. Le logiciel contient l’onglet queries (requêtes) à partir duquel l’utilisateur peut procéder aux tris croisés souhaités.

Par exemple, si nous voulons savoir s’il y a incidence du quartier habité sur la conception que l’enquêté aura de la ville, dans la requête, nous choisirons l’attribut « quartier habité » en ligne (rows) et le nœud « description de la ville » en colonnes (columns). Sera alors obtenu un fichier regroupant toutes les réponses correspondant à la requête. Nous comparons ensuite les quartiers afin d’établir s’il y aune différence significative entre les avis d’enquêtés de quartiers différents.

En plus du guide Nvivo 8 de QSR, en anglais, nous nous sommes aidé du guide en français sur Nvivo 7 de l’Association pour la recherche qualitative (ARQ). Cela a facilité l’acquisition de termes techniques en anglais et une première prise en main, puisque les deux logiciels ne diffèrent que légèrement. On constate une différence d’interface et la possibilité, dans Nvivo 8, de répertorier des supports vidéos ou audios.

Abrégé sur le fonctionnement du logiciel

2) En haut à gauche, dérouler le menu File, en haut à gauche, et cliquer sur New

project ou, sans passer par ce menu, sur l’onglet New project situé en bas à gauche

de l’espace de travail. Lui donner un titre en en faire une description.

3) Si les données sont déjà stockées, les importer dans le logiciel en cliquant dans File (en haut à gauche) Import project, afin de les retrouver dans le fichier correspondant.

Si non, créer directement les fichiers.

4) Après avoir importé les données ou au fil de la création d’un nouveau fichier de données, procéder au codage. Celui-ci peut être pré-établi,

ou élaboré a posteriori. Le codage consiste en la création de « nodes ». Pour cela, sélectionner le texte à coder, faire clic droit et sélectionner « new node ». Si le nœud existe déjà, sélectionner « code at existing node ».

5) Après l’établissement des nœuds et arbres de nœuds, classer les enquêtés selon les attributs choisis en cliquant sur Classifications, en bas à droite :

6) par la suite, le chercheur procède aux requêtes en associant les nœuds ou des nœuds aux attributs.

Telles sont les grandes étapes de l’utilisation du logiciel. Est proposé en annexes un extrait de la notice en anglais. Nous avouons que l’interface en anglais peut freiner la prise en main au premier abord, mais la simplicité d’utilisation et le guide en français que l’on peut trouver sur Internet aide à l’usage de ce logiciel.

Les questions 15-a), 16-a) et 17-a) ont fait l’objet d’un traitement particulier. La première a donné lieu à la réalisation sur cartes de la synthèse des délimitations du centre de Fort-de-France. Concernant les deux autres, des cartes dont il faille faire la lecture, nous avons substitué à la carte un tableau comprenant tous les noms de quartiers et la « note » qui leur était attribuée. Au final, la moyenne de ces notes a permis d’obtenir un nouveau tableau récapitulatif donnant une vision synoptique des représentations des langues par quartiers. Nous avons ensuite reporté sur des cartes les résultats qui nous paraissaient pertinents.

Conclusion du chapitre 7 – Du protocole d’enquête au traitement des données, en

passant par des étapes de réalisation, la méthodologie, pour être efficace et pertinente, répond non pas à des règles strictes, mais à une stratégie propre à chaque enquête. Cette stratégie est basée sur des principes classiques assurant la cohérence de la démarche. Ainsi le chercheur ne se perd-il pas dans les méandres de sa recherche et gagne-t-il du temps. « Ce n’est pas en forant n’importe où que celui-ci

trouvera ce qu’il cherche » (Quivy & Campenhoudt 1995 : 3).

Il doit alors déterminer et délimiter la population à interroger, cibler les informations voulues, et donc les objectifs, et planifier la passation des questionnaires ou la réalisation des entretiens. Ces questionnaires, et entretiens, suivent alors un canevas préalablement établi et toute question, ou groupe de questions, répond à un objectif précis à atteindre. Les réponses aux questions ou données recueillies, alors brutes, sont soumises à une analyse rigoureuse. Celle-ci peut être de plusieurs ordres, mais pour la présente enquête, l’analyse de contenu, soutenue par un logiciel, NVIVO 8, a constitué une méthode pertinente.

Avant d’arriver à la synthèse des résultats, un aperçu de ceux-ci donnerait brièvement une idée des données brutes obtenues.