• Aucun résultat trouvé

Une approche analytique des récits : les opérations de manipulation de données propres aux méthodes interprétatives

André Gide

Section 3 Méthodologie d’analyse et d’interprétation des données

3.2 Les analyses mobilisées : analyses du discours, analyse des récits de vie et opérations de manipulation des données

3.2.3 Une approche analytique des récits : les opérations de manipulation de données propres aux méthodes interprétatives

L’ensemble des formes d’analyse décrites ci-dessus visent à respecter la logique interne de l’entretien et de l’individu et à considérer pleinement sa dimension de « récit », c’est-à-dire sa dimension littéraire, voire « linéaire ». Dans cette section, nous décrirons une autre approche que nous avons également mobilisée, très analytique cette fois-ci, proposant un découpage des données des 242 récits, oubliant leur auteur ou leur ordre d’apparition. Ces données peuvent faire l’objet d’un codage puis d’un ensemble d’opérations de manipulation décrites en détail par Spiggle (1994). Parmi celles-ci, on distingue :

3.2.3.1 La catégorisation

Elle désigne le processus de classement ou d’étiquetage des unités de données. C’est elle qui est réalisée lors du codage, décrit pas Glaser et Strauss, ou Miles et Huberman, mais peu repris par les chercheurs en comportement du consommateur. Ceux-ci ont décrit une procédure pour générer de riches catégories conceptuelles permettant de dépasser la simple identification de thèmes et de construits non reliés. Elle consiste dans l’identification de « morceaux » de données comme reflétant un même phénomène, à nommer. L’unité de texte, tout comme en analyse de contenu, n’est pas nécessairement précisée sur le plan linguistique ou grammatical (il ne s’agit pas nécessairement de la phrase par exemple comme c’est le cas dans la première étape de l’analyse de Bergadaa, 1990). A l’inverse, certains passages peuvent parfois contribuer à définir plusieurs phénomènes, puis d’autres ne contribuer en rien en l’élaboration conceptuelle. C’est particulièrement le cas lors d’entretiens

phénoménologiques où des digressions peuvent apparaître par rapport au sujet initialement investigué.

Cette première opération permet de produire le matériau pour les suivantes, mais ne suffit pas en elle-même à analyser la complexité conceptuelle d’un phénomène.

3.2.3.2 L’abstraction

Elle s’appuie sur la catégorisation, mais la surpasse en ce sens qu’elle élève des catégories empiriques en des concepts d’ordre supérieur, qui sont eux-mêmes des regroupements de ces catégories empiriques ou des construits sous-jacents à une seule catégorie empirique. Ces concepts peuvent émerger de manière a priori (sur la base de la littérature) comme le concept de « projet de vie » chez Mick et Buhl (1992) ou « l’accomplissement symbolique » chez Schouten (1991). Ils peuvent aussi émerger de l’analyse elle-même, de manière non anticipée, mais reconnue comme théoriquement pertinente.

Catégorisation et abstraction ne permettent pas encore d’identifier des liens entre les catégories ou concepts identifiés. Ce sont les opérations suivantes qui vont permettre cela. L’opération d’abstraction est plus ou moins reconnue comme acceptable dans les approches phénoménologiques radicales, dans la mesure où elles obligent parfois à un degré d’élaboration plus important, qui peut s’éloigner de la lecture presque directe des transcriptions. Certains auteurs comme Murray (1992) minimisent cette opération et proposent un commentaire très linéaire de chacun des récits d’informants, en limitant au maximum la synthèse générale et les enseignements globaux à tirer des entretiens. Cette approche nous semble un peu radicale car, très prudente, elle limite considérablement la production de connaissances généralisables.

3.2.3.3 La comparaison

Elle permet d’explorer les différences et similarités parmi les incidents apparaissant au sein des données collectées. Glaser et Strauss (1967) prônent la comparaison constante, à la fois pour faire émerger des liens théoriques entre les concepts, et pour s’assurer du niveau de saturation théorique obtenu par les données déjà collectées. En effet, si lors d’une procédure de comparaison, une catégorie s’avère trop peu fournie pour permettre une quasi-certitude dans l’inférence établie, le chercheur décidera de prolonger sa collecte de données.

Il définit l’opération d’identification des propriétés ou dimensions des catégories ou construits. Lorsqu’une catégorie est définie, l’analyste doit explorer ses attributs ou caractéristiques le long de continuum ou de dimensions. Ces propriétés représentent des dimensions conceptuelles qui varient empiriquement dans les données selon les différentes occurrences d’une même catégorie. Pour illustrer, reprenons l’exemple de Belk et al. (1989). Au sein du construit « sacralisation » identifié, apparaissent trois propriétés : l’intention de l’acteur, la nature de la sacralisation et le contexte. Ces trois propriétés sont elles-mêmes dimensionnées par trois continuum : l’intention va de volontaire à non volontaire, la nature de la sacralisation va de collective à individuelle, le contexte va de public à privé. Ces dimensions permettent d’affiner la compréhension du phénomène en jeu et de faire émerger les relations entre construits.

Cette opération est également mentionnée chez Thompson (1997) qui parle de contrastes

binaires.

3.2.3.5 L’intégration

Cette opération permet de dépasser l’identification des thèmes et concepts pour produire une théorie complexe et intégrée, découverte et formulée à l’appui d’une analyse de données en profondeur. Deux opérations sont possibles : le codage axial et le codage sélectif. Dans le codage axial, on réunit différents concepts autour d’un axe ou paradigme qui synthétise les conditions dans lesquelles le phénomène émerge, le contexte, les actions et interactions entre les différents composants ou acteurs et les conséquences ou bénéfices pour les acteurs. Ces différents composants se sédimentent le long d’un même axe du fait des comparaisons qui permettent de faire apparaître leur co-occurrence.

Le codage sélectif exige quant à lui à nouveau le passage à un degré supérieur d’abstraction pour proposer un cadre théorique intégrateur, spécifiant les relations entre concepts, que ce soit des liens de causalité, des connections circulaires ou autres relations explicites.

Deux autres opérations permettent surtout de garantir la validité des analyses et modèles proposés :

3.2.3.6 L’itération

C’est un mouvement permanent de remise en cause des analyses précédentes à la lumière des nouvelles opérations menées. Ainsi, aucun chercheur ne mène son protocole d’analyse de la phase A à Z sans jamais revenir sur ses pas : une phase peut être réitérée à tout moment de la

phase d’inférence, voire à tout moment de la phase de collecte de données. C’est ce que nous avons d’ailleurs nous-mêmes pratiqué en réitérant une phase de collecte de données via trois entretiens en profondeur pour lesquels nous avons tâché d’orienter la conversation non pas tant sur les premières rencontres en général que sur les cas de premières rencontres mémorables, pour enrichir notre corpus d’analyse. L’itération garantit une plus grande production inductive et également une plus grande validité.

3.2.3.7 La réfutation

Elle consiste à mettre en doute les schémas intégrateurs identifiés en utilisant trois moyens : l’analyse de cas négatifs, l’échantillonnage spécifiquement choisi pour faire émerger un contre-exemple, et l’analyse par contexte (en veillant à faire varier les contextes étudiés) comme elle fut menée par Belk et al. dans leurs travaux sur les processus de sacralisation de la consommation.

Transversalement, Spiggle recommande trois grands principes d’action : le fait de procéder de manière systématique, le fait de conserver toutes les traces des analyses réalisées, y compris les ébauches de tableaux, des notes plus ou moins claires, et le fait d’expliciter au maximum le protocole d’analyse adopté pour le soumettre à la critique de ses pairs et permettre une potentielle réplication des travaux.

En définitive, il est difficile de préconiser de manière péremptoire une seule et unique méthode dans le cadre des approches interprétatives. Chaque chercheur se positionnera selon sa sensibilité propre et Crabtree et Miller (1992) identifient deux grands groupes de chercheurs se positionnant aux extrêmes, les autres se positionnant le long de ce continuum. On trouve d’un côté « the editing style », incarné par Bergadaa (1990) où le chercheur adopte une approche très analytique pour classer les textes, les ordonner, et les organiser, à l’opposé du « crystallisation style » proposant une approche plus intuitive par immersion dans les données, style incarné par Sherry (1990). Belk et al. (1989) se situent probablement au centre de ce continuum.

Nous nous reconnaissons sans doute plus dans l’ « editing style », comme le montrera la section suivante, sans doute parce qu’il est difficile de s’affranchir des réflexes commandés par l’immersion dans une culture française très positiviste et par suite très analytique.

Documents relatifs