• Aucun résultat trouvé

Chapitre II : Options et approches méthodologiques

1. Des approches méthodologiques complémentaires

1.2 L’analyse de contenu

L’analyse de contenu se réfère à un ensemble de techniques visant à classer, indexer dans diverses catégories et analyser par thème ou catégorie de contenu une communication ou un ensemble de communications, afin de mieux en comprendre le sens, et de pouvoir ainsi les décrire et les interpréter, puis les traiter par la comparaison ou d’autres opérations (Bardin, 1991 ; Bardin, 2003 ; L’Ecuyer, 1988 ; Van der Maren, 1996). Pourtois et Desmet (1997) décrivent ainsi ce qu’ils appellent l’analyse par catégories :

Il s’agit d’opérations de découpage du texte en unités et de classification de ces dernières dans des catégories. La catégorisation a pour but de condenser les données brutes pour en fournir une représentation simplifiée. Il existe diverses techniques de catégorisation (les unités d’enregistrement pouvant être le mot, le thème, le personnage, l’événement, etc.). L’analyse prenant le thème comme unité est très souvent retenue car elle est rapide et efficace pour des discours directs et simples. Le thème est l’unité, le « noyau de sens », qui se dégage du texte lorsqu’on été choisies les catégories sur base d’une théorie permettant la lecture des informations. L’analyse thématique s’effectue le plus souvent dans le cas d’études sur les opinions, croyances, valeurs, motivations, […] (p. 201)

Un autre aspect important à définir pour la recherche est le niveau d’analyse et sa nature :

Une autre balise qui oriente le chercheur est la clarification du niveau d’analyse qu’il désire atteindre, ce qui permettra de déterminer entre autres le niveau d’inférence approprié à utiliser.

S’agit-il de décrire les caractéristiques d’un phénomène (aspect descriptif) et/ou de découvrir sa nature (réflexion, but interprétatif) ? Dans le même ordre d’idée, veut-on faire une analyse structurale, une analyse thématique, une analyse par théorisation ancrée, etc. (Demazière, 1997 ; Mucchielli, 1996 ; Paillé, 1996 ; Paillé & Mucchielli, 2003). (Mukamurera, 2006, p.

115)

En ce qui concerne les contenus sur lesquels peut porter l’analyse, Van der Maren (1996) distingue entre l’analyse des contenus latents (visant le dévoilement d’une signification ou d’une structure cachée) et celle des contenus manifestes, qui « présuppose que les énoncés d’un discours sont des unités complètes en elles-mêmes sur lesquelles des opérations peuvent porter » ; parmi ces opérations, l’analyse de contenu au sens restreint s’attache à « condenser, résumer ou éclairer, systématiser le contenu de la pensée d’un ou plusieurs énonciateurs ou encore examiner l’évolution et l’importance relative de différentes énonciations réparties dans le temps ou dans l’espace » ; une des formes de l’analyse de contenu, toujours selon Van der Maren, est l’analyse thématique, qui « cherche à identifier de quoi parle un document par le repérage, le comptage et la comparaison des thèmes, des idées directrices, et des termes pivots » (p. 414). C’est à ce niveau de l’analyse de contenu thématique que nous situons notre analyse.

Toutefois, Bardin (1991) souligne que la fonction d’inférence de l’analyse de contenu lui est essentielle, sans quoi elle se limiterait à l’analyse documentaire, qui vise à « la représentation condensée d’information pour stockage et consultation », alors que l’objectif de l’analyse de contenu « est la manipulation de messages (contenu et expression de ce contenu)

pour mettre à jour des indicateurs permettant d’inférer sur une réalité autre que celle du message » (p. 51), c’est-à-dire « proposer des inférences et avancer des interprétations à propos des objectifs prévus ou concernant d’autres découvertes imprévues » (p.132).

La procédure de l’analyse de contenu, dans son ensemble, consiste à déconstruire (ou déstructurer) le corpus de données, puis à le reconstruire (ou le restructurer) :

La déconstruction des données se réfère au découpage et à la réduction des informations en petites unités comparables, en noyaux de sens pouvant être rassemblés. Lors de l’étape de reconstruction, il s’agit pour le chercheur de reconsidérer les catégories et les éléments qui y sont contenus, de les éprouver et de les ratifier afin de dégager un sens et de pouvoir décrire adéquatement la réalité. (Deslauriers, 1991, cité par Mukamurera et al, 2006, p. 121)

Deschenaux (2007) décrit ce même processus comme la restructuration du corpus, obtenue en amalgamant les catégories préalablement déstructurées pour en faire un tout intelligible et porteur de sens. Il résume le principe fondamental de ce processus d’analyse par le graphique suivant :

Graphique # 1

Représentation graphique du principe de déstructuration-restructuration d'un corpus

Source : Deschenaux, 2007.

Pour leur part, Huberman et Miles (1991, 1994) décrivent globalement le processus d’analyse qualitative en trois flux parallèles et reliés entre eux, consistant : 1) à condenser les données (réduction, codage), 2) à présenter les données et 3) à formuler et vérifier les conclusions. Ces auteurs présentent aussi ces trois courants de l’analyse comme des pôles reliés entre eux de manière cyclique et interactive, et entre lesquels le chercheur se déplace, dès la récolte de données et durant tout le processus d’analyse.

Comme l’explique Mukamurera (2006), le codage est l’opération qui permet de gérer les opérations de déconstruction, puis de reconstruction des données, par le découpage et l’étiquetage au moyen de codes, de segments significatifs de ces données (p. 122). Dans le modèle de Huberman et Miles (1991), le codage est une des opérations possibles de la condensation des données, qui inclut les processus d’analyse visant à trier, élaguer et organiser les données, à les transformer et à les intégrer dans des configurations plus larges de manière à pouvoir en tirer des conclusions et les vérifier (p. 35).

A propos des codes, ces auteurs notent que ce sont des symboles, qui peuvent être des mots-clés, attribués à des segments de texte pour les classer. Les codes sont des catégories, des outils qui permettent au chercheur d’identifier, d’extraire puis de regrouper tous les segments liés à un thème donné, ou à une question donnée, afin de rendre possible leur analyse (Huberman & Miles, 1991, p. 96-97). Ces codes peuvent ensuite être regroupés et triés en utilisant ce qu’Huberman et Miles nomment les « codes thématiques », dont la « fonction est de rassembler une grande quantité de matériels dans des unités d’analyse plus significatives et économiques. […] Le codage au premier niveau est un moyen de résumer des segments de données. Le codage thématique est une façon de regrouper ces résumés en un nombre plus réduit de thèmes ou d’éléments conceptuels plus synthétiques » (1991, p. 117-118).

Par ailleurs, Van der Maren (1996) souligne le lien entre le codage et le cadre conceptuel de la recherche, la définition de la problématique et les questions de recherche :

La recherche des thèmes, de ce qu’on en dit et de la manière dont on les présente, suppose que l’analyste aborde les textes à analyser avec des questions plus ou moins explicites à leurs propos. Que la recherche soit exploratoire ou vérificative, ces questions devraient avoir été explicitées dans le cadre conceptuel de la recherche lors de la phase de délimitation du problème. (p. 415)

En ce qui concerne la définition des codes, Huberman et Miles (1991) indiquent que, dans la mesure où les codes sont généralement représentés par un seul mot, ils peuvent suggérer des sens différents. Il est donc nécessaire d’établir une définition opérationnelle claire de chaque code « de telle sorte qu’un seul chercheur puisse les attribuer de façon uniforme tout au long de son étude, et que de nombreux chercheurs aient en tête les mêmes phénomènes au moment du codage » (p. 104). La définition opérationnelle d’un code doit permettre au chercheur « d’identifier rapidement un segment répondant à la définition » (p. 111) et le faire de manière stable tout au long du processus de codage de son corpus.

Dans l’analyse de contenu, c’est à travers l’examen des ensembles de données codées que le sens émerge, par la mise en relations de différents éléments (Mukamurera, 2006), en utilisant certaines stratégies et techniques de présentation, qui font partie de l’analyse même.

Ceci correspond au courant de l’activité analytique que Huberman et Miles (1991) désignent comme la présentation des données, en différents formats de présentation qui permettent de comprendre une situation et d’en faire quelque chose.

Pour les données qualitatives, le texte narratif est le format de présentation le plus fréquent, mais pas forcément toujours le plus maniable. Mais ces auteurs mettent en évidence l’importance, pour la validité de la recherche, de l’utilisation d’autres formats de présentation, tels que schémas, graphiques, matrices ou tableaux, « conçus pour rassembler de l'information et l'organiser sous une forme compacte immédiatement accessible, qui permet à l'analyste d'embrasser d'un coup d'œil la situation et, soit d'en tirer des conclusions justifiées, soit de

passer à une étape suivante d'analyse si besoin est » (p. 36). De même, Mukamurera et al, (2006) met l’accent sur des stratégies de présentation des données codées telles que « le comptage, la représentation graphique des données, la construction de matrices, le recours aux analogies et aux théories extérieures à la formulation du problème et enfin la confrontation avec le cadre conceptuel » (p. 126).

L’utilisation de techniques d’analyse quantitatives, dans la démarche globalement qualitative de l’analyse de contenu, est aussi soulignée par L’Ecuyer (1988). Pour Bardin (1991), l’analyse de contenu ne rejette pas totalement l’utilisation de tests, ou de techniques, quantitatives, mais son fondement est l’inférence, sur la base de la présence d’indices (mots, thèmes,…) dans le texte, plutôt que de la fréquence de leur apparition. Elle ajoute que

« L’événement, l’accident, le rare ont quelquefois un sens très fort qu’il ne faut pas étouffer » (p. 149).

L’élaboration de conclusions est un processus qui commence au début de la recherche, et va en s’affirmant au fur et à mesure que le chercheur note les régularités, les configurations et ou les explications au cours de l’analyse (Huberman & Miles, 1991). La vérification et la validation de ces conclusions est aussi fondamentale. Selon Huberman et Miles : « les significations qui se dégagent des données doivent être testées quant à leur plausibilité, leur solidité, leur "confirmabilité", en un mot leur validité. Sinon on se retrouve avec des récits intéressants, dont on ignore la véracité et l’utilité » (1991, p. 37). Sur cette question de la validité de l’analyse de contenu, Mukamurera et al, (2006) rappelle que la scientificité de la démarche de l’analyse de contenu dépend de la rigueur avec laquelle elle est menée, ainsi que d’un souci constant de vérification, pour lequel le chercheur dispose d’un large éventail de procédures de validation décrites par plusieurs auteurs et dont l’utilisation combinée permet de renforcer la validité de l’analyse. Nous reviendrons sur les procédures de validation que nous avons utilisées au moment de décrire notre propre démarche d’analyse de contenu, au point 4 de ce chapitre.

Pour l’analyse de contenu de notre corpus d’entretien, nous avons eu recours au logiciel NVivo (programme d’analyse qualitative de données) afin de faciliter le travail de codification et la procédure de déconstruction/reconstruction d’un large corpus. Notre travail a été rendu plus systématique, et sous cet angle plus rigoureux (Savoie-Zajc, 2000, p. 112) : « le chercheur, tout en décontextualisant ses données, préserve les liens avec l’entrevue intégrale. Le chercheur n’a plus, non plus, à élaborer des systèmes de classification et de repérage complexes pour s’y retrouver ». Toutefois, comme le souligne Mukamurera et al, (2006), l’utilisation de ce genre de programmes informatiques, qui peuvent offrir beaucoup d’avantages en tant qu’outils, requiert, tout autant que l’analyse de contenu classique, d’établir une stratégie d’analyse permettant d’interroger le corpus. Utilisés sans méthode, ces programmes informatiques peuvent aussi devenir de vrais labyrinthes.

Parmi les avantages offerts par NVivo, nous soulignons la gestion progressive facilitée de la codification et de la manipulation d’un large corpus, le classement des données, la mise en lien des thèmes ou des catégories, ainsi que la possibilité d’annoter les opérations effectuées au cours du processus d’analyse. Par ailleurs, ce programme permet aussi de faciliter le repérage de la présence d’un code dans les diverses parties du corpus, les techniques de comptage, ainsi que la préparation de formats de présentation de données tels que les matrices et les arbres thématiques qui, comme nous l’avons vu plus haut, permettent d’organiser l’information sous

une forme compacte, immédiatement accessible, et de tirer des conclusions ou de faire progresser l’analyse (Mukamurera, 2006).

NVivo, comme n’importe quel autre logiciel, ne remplace par ailleurs pas l’ingéniosité et la créativité humaines (Savoie-Zajc, 2000). De plus, comme le souligne Wanlin :

Les possibilités offertes par ce logiciel sont multiples puisqu’il y a moyen de changer les unités de comptage et qu’il nous indique la portion de discours que représente l’extrait analysé.

Néanmoins, il incombe toujours au chercheur d’analyser les outils de synthèse que le logiciel a permis de produire et d’interpréter ces résultats. (2007, p. 258)

Le chercheur reste donc le principal instrument de son analyse, et la nécessité de décrire explicitement les techniques et les procédures suivies pour l’analyse est en fait renforcée par le recours à des programmes informatiques d’analyse qualitative, comme le souligne Bardin (1991), qui mentionne aussi parmi les avantages d’un tel usage, le fait que « la créativité, la réflexion ont, théoriquement, une place accrue puisque l’analyste se trouve dégagé de tâches laborieuses, longues et stériles » (p. 181).

Nous terminons ce survol des principes méthodologiques et des techniques de l’analyse de contenu (informatisée ou non), sur la nécessité, avancée par Huberman et Miles (1991), de formaliser, de clarifier et d’expliciter rigoureusement les procédures d’analyse, notamment dans le but de permettre l’audit de la démarche analytique suivie, ainsi que de contribuer à la construction du « savoir-faire de la communauté scientifique des chercheurs en recherche qualitative/interprétative » (Mukemurera et al, 2006, p. 121).