• Aucun résultat trouvé

RELATIONNELS « FORCES » Objectif : amélioration de la

D. Pour!une!synthèse!du!corpus!recruté!

Le corpus est composé de 11 répondants qui sont tous clients de la banque partenaire

dont le nom n’est pas communiqué, à sa demande. Pour une autre présentation du corpus,

se reporter à l’annexe 2.

Genre Age Géographie CSP Modalité Durée A homme 73 ans Province Ancien cadre supérieur de grande entreprise Tél fixe 0h40 B homme 43 ans Ile-de-France Entreprenaute Tél portable 0h30 C homme 33 ans Ile-de-France Entreprenaute Tél portable 0h30 D homme 44 ans Ile-de-France Comité exécutif d’entreprise

industrielle (ancien consultant) Tél fixe 0h30 E homme 61 ans Ile-de-France Fondateur entreprise (ancien

président grande entreprise)

Face-à-face à

son bureau 1h00 F femme 71 ans Ile-de-France Femme au foyer Tél fixe 0h30 G homme 84 ans Ile-de-France d’entreprise cotée au CAC40 Ancien dirigeant Tél portable 0h20 H homme 35 ans Province Directeur technique société internet Tél fixe 0h40

I homme 80 ans Ile-de-France Ancien PDG de grande entreprise Face-à-face à

la banque 1h00 J homme 77 ans Ile-de-France Ancien dirigeant

d’entreprise cotée au CAC40

Face-à-face à

la banque 1h30 K homme 66 ans Province Ancien dirigeant CAC40 Tél fixe 0h40

158

Nous exposons à présent la méthode d’analyse des données pratiquée sur le discours recueilli auprès du corpus de répondants ainsi constitué.

;IA

5-!$#D)C,6#!6B-(-94*#!6#*!6,((#D#*!

« L’analyste est comme un archéologue. Il travaille sur des traces » (Bardin, 2013).

L’analyse des données pratiquée est une analyse de contenu selon les principes de Bardin (2013)31 :

« En tant qu’effort d’interprétation, l’analyse de contenu se balance entre les deux pôles de la rigueur de l’objectivité et de la fécondité de la subjectivité. Elle absout et cautionne chez le chercheur cette attirance vers le caché, le latent, le non-apparent, le potentiel d’inédit (du non-dit), détenu par tout message. Entreprise patiente de « désoccultation », elle répond à cette attitude de « voyeur » que l’analyse n’ose pas s’avouer et justifie son souci, honnête, de rigueur scientifique. (...) Jouant le rôle de « technique de rupture » face à l’intuition facile et hasardeuse, les procédures d’analyse de contenu obligent à marquer un temps entre le stimulus-message et la réaction interprétative ».

Dans la pratique, cette analyse repose en partie sur les catégories décrites dans la revue de littérature à propos de la relation client, et en partie sur les catégories répondant à l’objectif de la thèse, à savoir identifier des antécédents capables d’expliquer la formation des bénéfices relationnels attendus.

L’analyse de discours est menée selon le principe de l’inférence. L’inférence est l’opération logique, par laquelle on admet une proposition en vertu de sa liaison avec d’autres propositions déjà tenues pour vraies. Inférer, c’est « déduire de manière logique » (Bardin, 2013) ou tirer une conséquence32.

Bardin (2013)33 situe plus précisément l’inférence :

« Si la description (l’énumération, résumée après traitement, des caractéristiques du texte) est la première étape nécessaire, et si l’interprétation (la signification accordée à ces caractéristiques) est la phase ultime, l’inférence est la procédure

intermédiaire qui permet le passage, explicite et contrôlé, de l’une à l’autre ».

31 Avant-propos de L’analyse de contenu, PUF, Paris. 32 Définition du dictionnaire le Petit Robert 2016. 33 L’analyse de contenu, PUF, Paris (p43).

159

Parmi les données collectées à l’occasion d’entretiens, il est possible d’analyser les comportements, les mots, les gestes, ce qui n’est pas dit et ce qui est sous-entendu. Nous nous concentrerons sur les mots et les sous-entendus (Blanchet & Gotman, 2015). Pour ce faire, « les nombreux mots du texte sont classés dans un nombre beaucoup plus petit de catégories » (Weber, 1990). Par « déchiffrement – et de défrichement – entretien par entretien » et « sous l’apparent désordre thématique », on recherche « la structuration spécifique, la dynamique personnelle, qui, en filigrane du flot de paroles, orchestre le processus de pensée de l’interviewé » (Bardin, 2013).

L’analyse de contenu mobilise deux approches complémentaires qui ont lieu en deux temps et qui sont décrites dans le tableau ci-dessous :

Type d’analyse Définition

Analyse verticale

L’analyse verticale consiste à travailler un entretien à la fois. Il s’agit de repérer les mots /les idées clés, les thèmes et la structuration qui lui sont propres. Elle est particulièrement utile dans le cas d’entretiens individuels afin que le chercheur puisse se saisir et s’imprégner des logiques

individuelles et du caractère unique de chacun des répondants. A l’issue de chaque entretien, le chercheur est en mesure de faire apparaître les thèmes abordés ainsi que la logique et l’énonciation (style, langage propre au discours de l’interviewé).

Analyse horizontale

L’analyse horizontale se veut transversale et porte ainsi sur l’ensemble des entretiens. Elle consiste à repérer les récurrences et les régularités d’un entretien à l’autre à l’intérieur du corpus total : le chercheur recherche les thèmes qui reviennent d’un entretien à l’autre.

Les discours individuels sont déconstruits afin d’extraire dans chacun les parties communes. La cohérence n’est donc plus donnée par la structure individuelle de chaque entretien mais par la réunion d’éléments comparables entre les différents entretiens.

Tableau 35 - Définition de l'analyse de contenu verticale et horizontale (Gavard-Perret & Helme-Guizon, 2012 ; Blanchet & Gotman, 2015 ; Bardin, 2013)

Nous abordons les étapes de l’analyse de contenu chronologiquement.

A. L’opérationnalisation!de!l’analyse!de!contenu!verticale!

La procédure d’analyse de contenu préconisée par Bardin (2013) passe par la retranscription intégrale et fidèle du discours (A.1) suivie de l’imprégnation avec le matériau (A.2) et de la construction d’un instrument d’analyse pour étudier la signification des propos (A.3). Le chercheur utilise cet instrument pour décoder ce qui a été dit et percer le sens du discours de chaque répondant, autrement dit donner du sens à des informations parfois ambiguës ou incomplètes, voire contradictoires. Elle débouche sur la

160

rédaction d’une synthèse par répondant (A.4) et nous récapitulerons ces étapes dans un tableau (A.5).

A.1.!La!retranscription!intégrale!et!fidèle!

Il est recommandé de retranscrire chaque entretien dans son intégralité dans les plus brefs délais pour préserver la qualité de l’information (Romelaer, 2005).

Pour un exemple de transcription intégrale, se reporter à l’annexe 3.

Les entretiens, dont la durée varie entre 20 minutes et 1h30, présentant un cumul de 13,5 heures d’entretiens et une durée moyenne de 37 minutes. La retranscription de l’étude 1 génère un matériau empirique brut de 194 pages. Pour une heure d’enregistrement, il faut compter 7 heures de retranscription intégrale et fidèle, incluant les silences, les hésitations, les bégaiements, les mots inachevés... et le cas échéant les rires. Le langage oral est également retranscrit tel quel, avec ses mots déformés et ses exclamations. Les noms propres de personnes et de sociétés sont masqués. Lorsque la lecture est rendue fastidieuse par cette perte d’information, nous indiquons entre parenthèses : (nom de banque) ou (nom du banquier).

La retranscription peut être considérée comme faisant partie du traitement des données car elle représente une première plongée dans les données. Cette immersion permet de se familiariser et d’avoir les premières impressions et idées de codage ainsi qu’un début, certes flou, mais un début ou un pressenti à propos de régularités qui peuvent apparaître. La retranscription permet aussi de repérer certains verbatim qui sont significatifs ou porteurs de nouveauté par rapport à la littérature.

A.2.!L’imprégnation!avec!le!matériau!

L’imprégnation avec le matériau commence au moment-même de la retranscription. Elle correspond au processus de familiarisation avec les données collectées. Dès l’écoute des bandes sonores, et pendant la retranscription, le chercheur commence à distinguer des informations qui étaient restées à un état compact à l’issue de l’entretien.

L’imprégnation avec le matériau se fait ensuite au moyen de plusieurs lectures flottantes des retranscriptions, qui font partie de la pré-analyse (Gavard-Perret & Helme-Guizon, 2012), avant de passer à la découpe en fragments et en unités d’analyse.

A.3.!Le!codage!!

Le codage pose en premier lieu la question de l’informatisation (a), qui nécessite éventuellement la découpe en unités d’analyse (b). Afin de faciliter l’interprétation, nous avons enrichi l’analyse verticale : analyse séquentielle et analyse de l’énonciation (c), qui

161

facilitent l’analyse interprétative (d) et aboutissent au codage et à la grille thématique à proprement parler (e), qu’une analyse de l’évaluation (f) vient enrichir.

a)!La!question!de!l’informatisation!

La partie interprétative n’est concrètement pas assistée par ordinateur, bien que deux logiciels soient utilisés successivement : EXCEL et NVIVO. C’est donc une analyse de contenu purement manuelle (vs automatisée) qui est faite.

Le codage a été réalisé une première fois à l’aide du logiciel EXCEL dont les fonctionnalités sont suffisantes pour réaliser une analyse thématique. Suivant la méthodologie exposée par Jolibert & Jourdan (2011), nous avons repris l’ensemble des entretiens de l’étude dans un tableau unique dans lequel figurent en colonne les entretiens

et en ligne les catégories. Les informations contenues au sein de chaque CELLULE sont

issues d’un codage manuel après lecture flottante et relecture des entretiens. Ce tableau de synthèse permet de faire la lecture intra-entretien (verticale) et inter-entretiens (horizontale).

Le codage a été réalisé une deuxième fois en utilisant le logiciel NVIVO qui permet plus de flexibilité et plus de confort, notamment pour affiner la liste des thèmes par ajout, suppression ou déplacement de sous-thèmes.

NVIVO permet également un repérage des mots les plus fréquemment employés dans le discours, avec la possibilité d’un rapprochement incluant les synonymes et termes voisins. Cette fonctionnalité ne donne pas de résultats particuliers pour notre analyse.

b)!La!découpe!en!fragments!et!éventuels!sous"fragments!de!discours!

Le codage sous EXCEL commence par la découpe du discours en fragments, dits aussi segments ou tronçons. Un fragment correspond à une intervention du répondant. Un silence ou un acquiescement de la part du chercheur ne font pas passer au fragment suivant. Seules les relances et les demandes d’approfondissement marquent la fin d’un fragment.

Sous EXCEL, les fragments sont indexés pour être rattachés au répondant qui les a prononcés et numérotés : ainsi, le discours du répondant A est découpé en 37 fragments qui sont libellés et numérotés : A1, A2, A3,... A37.

Les fragments de grande taille et qui comportent plusieurs idées sont subdivisés en sous- fragments et libellés à leur tour : A1.1, A1.2, A1.3, A1.4, A1.5

A2.1, A2.2...

Les fragments et sous-fragments sont disposés dans une colonne, les uns en-dessous des autres, de manière chronologique. Ils constituent chacun une unité d’analyse et l’ensemble de ce qui a été prononcé par les répondants est analysé.

162

Sous NVIVO, cette étape n’est pas nécessaire, le codage se fait de manière plus intuitive et progressive et le logiciel indexe les fragments codés dans le document de sortie.

c)!L’analyse!séquentielle!et!analyse!de!l’énonciation!!

L’analyse séquentielle est complémentaire d’une analyse thématique traditionnelle : elle

permet de suivre la progression, le cheminement de la pensée du répondant et ses éventuelles contradictions. Dans l’analyse de l’énonciation, chaque entretien est étudié en lui-même comme une totalité organisée et singulière, en d’autres termes comme l’étude d’un cas (Bardin, 2013).

Deux colonnes sont ajoutées dans EXCEL à gauche de la colonne des verbatim indexés chronologiquement. La première colonne est intitulée séquence : elle va qualifier chaque fragment selon l’agencement et la dynamique du discours, en plus de la fréquence des thèmes. Par exemple, une profession de foi peut apparaître dans les premiers instants de l’entretien et donner une sorte de vérité inébranlable qui sera confirmée tout au long de l’entretien. Elle est fréquente mais n’existe pas chez tous les répondants. Ensuite les idées vont s’enchaîner, et l’on notera apparition d’une nouvelle idée et ce qui la lie aux autres idées, par exemple complète la profession de foi, ou nuance ou contredit ou encore reprend l’idée telle quelle. Certaines idées seront qualifiées de tirades car elles sont à la fois longues et intenses.

L’autre colonne ajoutée, intitulée énonciation, va relever les éléments de langage qui vont justifier l’interprétation. Elle comprend les éléments de style (sobriété, lyrisme, litanie, interpolation) et les éléments atypiques ou rhétorique : récurrences (importance, ambivalence, dénégation, idée refusée), lapsus, illogismes, alibis (lieux communs, jeux de mots), figures

rhétoriques (paradoxe, hyperbole, métonymie, métaphore). d)!L’analyse!interprétative!

Forts de l’analyse séquentielle et de l’analyse de l’énonciation, l’interprétation est facilitée. Nous ajoutons à cet effet une colonne sous EXCEL à droite des fragments de discours, intitulée interprétation du sens : il s’agit de traduire la pensée du répondant et de la résumer de la manière la plus fidèle et aussi la plus compréhensible possible.

Le codage traditionnel basé sur l’analyse thématique à proprement parler peut commencer. e)!Le!codage!à!proprement!parler!et!la!construction!de!la!grille!thématique!

Le codage correspond à une transformation, selon des règles précises, des données brutes du texte » (Bardin, 2013). Il consiste à établir « des catégories de classement des réponses en fonction de celles-ci » (Grawtiz, 2001). Déterminer des catégories consiste à regrouper les unités d’analyse en catégories homogènes, exclusives et exhaustives, selon leur niveau de similarité (Bardin, 2013). Les catégories correspondent aux thèmes dont on répertorie chaque apparition.

163

La catégorie « se situe, dans son essence, bien au-delà de la simple annotation descriptive ou de la rubrique dénominative. Elle est l’analyse, la conceptualisation mise en forme, la théorisation en progression » (Paillé & Mucchielli, 2003).

Ayant pour objectif de dévoiler des catégories non encore identifiées dans la littérature, notre démarche est mixte et itérative, reposant sur une catégorisation à la fois

déductive et inductive : certaines catégories sont dites « formatées » ou « a priori », c’est-à-

dire qu’elles sont définies à l’avance, reflétant les connaissances du chercheur sur le sujet, en lien avec la littérature préexistante (démarche déductive), d’autres sont issues du « codage ouvert », c’est-à-dire qu’elles ont émergé à partir de l’analyse des données et qu’elles sont nouvelles par rapport à la littérature (démarche inductive). La grille de codage précise l’origine des catégories, à savoir la littérature ou l’empirisme (Allard-Poési & al, 2007).

Nous constituons ainsi une partie de la grille d’analyse selon la méthode a priori qui s’appuie sur les thèmes issus de la littérature. Nous la prolongeons ensuite par la méthode

a posteriori, où des thèmes sont ajoutés au cours du processus codage des données (Allard-Poési, 2003), dans une démarche émergente, en fonction des récurrences identifiées au fur et à mesure et qui n’étaient pas anticipées.

La grille de codage se construit ainsi au fur et à mesure du codage et compte trois sources qui permettent de distinguer les éléments qui relèvent des concepts de la littérature et d’en identifier de nouveaux susceptibles d’être des antécédents explicatifs des bénéfices relationnels attendus.

Première source : la première source est construite sur la base des concepts du modèle tiré de la méta-analyse de Palmatier & al (2006, 2007a) qui présente l’avantage d’être une synthèse d’un grand nombre de résultats empiriques. « La méta-analyse est un protocole de très grande valeur » et elle est « appropriée à des champs de recherche bien établis dans lesquels les chercheurs ont étudié des phénomènes identiques qui variaient en termes de contexte et de protocole » (MacInnis, 2011).

Cette série de thèmes issue de la méta-analyse de Palmatier & al (2006, 2007a) est structurée en méta-catégories : concepts dyadiques, concepts centrés sur le client et

concepts centrés sur le vendeur. Nous ajoutons une rubrique pour les concepts à propos de la banque qui nécessitent d’être distingués de la dyade.

Nous ajoutons à cette première base divers concepts tirés de la revue de la littérature sur la relation client présentés au chapitre 1.

Deuxième source : des concepts sont ajoutés selon diverses références de la littérature, parce qu’elles distinguent des sous-catégories qui sont présentes dans le discours des

164

répondants. Nous pouvons noter par exemple les dimensions de la confiance (bienveillance et crédibilité) ou la monofidélité et la multifidélité.

La littérature à propos des services, et ceci est en particulier valable pour les services bancaires, montre toutefois un certain « chevauchement entre les concepts ». Dans leur étude des concepts de la relation bancaire, Dano & al (2003) relèvent que « des concepts tels que satisfaction et qualité se chevauchent ou que certains concepts en contiennent d'autres, tel celui de la qualité, parfois considérée comme une forme d'attitude ».

Une série de concepts ainsi présentés dans la littérature vont se révéler redondants et vont être éliminés de la grille finale. Il y a, par exemple, l’adaptation de l’offre et la personnalisation qui se trouvent intégrées aux bénéfices relationnels d’adaptation.

Les normes relationnelles sont un concept considéré incontournable pour l'étude des relations client, en particulier dans la structuration de l’interaction entre les parties (Prim- Allaz, 2014). Les normes apparaissent ici comme un concept englobant et transversal qui n’est finalement pas formellement reflété dans la grille mais les normes transparaissent en filigrane à travers d’autres thèmes comme la fréquence attendue des contacts, la disponibilité attendue du banquier, ses compétences techniques (crédibilité), la limitation de la pression commerciale (bienveillance).... ou les valeurs.

Troisième source : des thèmes sont indiqués en italiques. Il s’agit de concepts issus du terrain qui viennent compléter les concepts de la revue de littérature, soit à la marge, comme les rendez-vous à la banque et hors de la banque, la rotation du personnel ou la réputation de la banque, soit de manière importante comme les thèmes émergents.

Les entretiens étant non-directifs, nous avons également des thèmes qui ne sont pas rattachables à l’objet de recherche et ne figurent pas dans la grille thématique.

La grille thématique est confrontée un deuxième chercheur qui n’est pas familier du domaine bancaire. Ce dernier présentera une grille de codage réduite, n’ayant pas pu analyser une partie du jargon financier employé par certains répondants, ni les sous- entendus qui relèvent du tabou de l’argent. Ceci confirme le constat de Perrien & Ricard (2005) selon lequel une relation bancaire peut impliquer l’emploi de termes financiers sophistiqués. La grille finale est présentée en début de chapitre 6 dédié à la présentation et discussion des résultats de l’étude 1.

f)!L’analyse!de!l’évaluation!

L’analyse d’évaluation est consacrée exclusivement aux thèmes émergents. Il s’agit d’une une analyse basée sur l’attitude sous-jacente au discours et elle fait référence aux « evaluation

assertion analyses » (EAA) d’Osgood (1959) : « la méthode d’Osgood (...) s’attache non plus seulement à l’occurrence de tel ou tel thème (présence ou absence) mais à la charge évaluative des unités de signification prises en compte (...) et seuls les énoncés exprimant une évaluation sont soumis à analyse » (Bardin, 2013).

165

Quatre thèmes émergent : le stéréotype que le répondant a du métier de banquier, son attitude à l’argent, ses valeurs culturelles et la survenance d’incidents critiques. Pour chacun, nous comptons le nombre de leurs occurrences, l’attitude sous-jacente (positive, négative, neutre ou ambivalente) et nous qualifions le concept en quelques mots.

Si les thèmes émergents sont présentés ici de manière univoque, ils sont toutefois obtenus progressivement, par une dialectique continue entre le terrain et la revue de littérature en vue d’aboutir à leur identification formelle.

A.4.!La!rédaction!d’une!synthèse!en!profondeur!par!répondant!(inférence)!

Pour clore l’ensemble de ces étapes, qui constituent au final l’analyse verticale du discours d’un répondant, nous rédigeons une synthèse de la dynamique de pensée qui met en relief l’architecture cognitive et affective du répondant.

L’idée est de comprendre, par inférence, le raisonnement de chaque répondant. Il s’agit d’être précis dans les détails, de fournir une description en profondeur, car c’est la profondeur qui est susceptible de donner des pistes de générabilité. Geertz (1973) parle de description épaisse (thick description).

A sa lecture, le résumé peut paraître « la forme d’analyse la plus simple » mais « l’apparente simplicité ne doit toutefois pas cacher la difficulté » à la produire (Jolibert & Jourdan, 2011).

Pour un exemple de synthèse :

Besoin de face-à-face pour commencer à construire une relation dans la confiance, l'ancienneté est primordiale (devenu client à la suite de sa femme). Rejette la pression commerciale (évoque spontanément l'existence d'objectifs commerciaux mais se réfère à sa propre profession pour le rejeter sur la forme), rétif au changement de banquier. Valorise les