• Aucun résultat trouvé

Analyse et traitement des données

Dans le document The DART-Europe E-theses Portal (Page 135-149)

PARTIE II : Méthodologie et Etude exploratoire

SECTION 3: Analyse et traitement des données

Cette troisième section a pour objectif de présenter notre méthodologie de production de connaissances. Nous expliquons comment nous avons analysé et traité nos données empiriques (I.). Puis, nous montrons de quelle manière nous avons cherché à rendre nos résultats fiables et valides (II.).

I. Méthodologie d’analyse des données

Nous présenterons notre méthode d'analyse des données : l’analyse thématique. Dans un premier temps, nous justifions notre orientation vers ce type d’analyse (1.). Puis, nous revenons en détails sur la phase d’exploitation des données (2.), puis sur celle du traitement et de l’interprétation de celles-ci (3.).

1. Analyse thématique du contenu de nos entretiens

Afin d’exploiter les données contenues dans nos entretiens, nous les avons tous retranscrits.

Nous avons tenu à les retranscrire nous-mêmes afin de nous « imprégner » de notre terrain et de garder en mémoire le maximum d’informations, pour établir des liens plus facilement (Paillé

& Mucchielli, 2003). Cette activité, extrêmement chronophage, nous a cependant par la suite considérablement facilité l’analyse des données.

Pour analyser nos retranscriptions d’entretiens, nous avons effectué une analyse de contenu (Grenier & Josserand, 2007). Ce type d’analyse repose sur le postulat que « la répétition d’unités d’analyse de discours (mots, expression ou signification similaires, phrases, paragraphes) révèle les centres d’intérêt, les préoccupations des auteurs du discours » (Allard-Poesi & Maréchal, 2007, p.493). L’analyse de contenu nous est apparue tout à fait pertinente pour surmonter la complexité liée à la gestion des risques psychosociaux, phénomène pour lequel il existe encore peu de matériau empirique et/ou de recherche théorique en sciences de gestion.

Il existe deux types d’analyse de contenu : l’analyse lexicale et l’analyse thématique (Bardin, 2001). L’analyse lexicale prend le mot comme unité d’analyse pour s’intéresser « à la nature et à la richesse du vocabulaire utilisé dans le discours » et préconise ainsi d’analyser la fréquence d’apparition des mots (Bardin, 2001, p.503). Ce type d’analyse était inadapté à notre étude car, dans un champ aussi complexe que celui des RPS, où les définitions ne sont pas encore clairement énoncées, les mots utilisés n’ont pas la même signification ni la même portée selon les acteurs. Nous avons donc écarté cette méthode pour nous tourner vers une analyse thématique.

L’analyse thématique retient pour unité d’analyse « une portion de phrase, une phrase entière, ou un groupe de phrases se rapportant à un même thème » (Bardin, 2001, p.503). Cette méthode vise à analyser un texte en extrayant le sens donné à ce texte selon la perspective de son auteur, ce qui implique une attention particulière à son contexte historique et social. Dans notre cas, les textes sont nos retranscriptions d’entretien et le contexte historique et social nous est donné par les questions introductives, mais également par nos sources secondaires. Nous avons ainsi repéré les thèmes récurrents afin de catégoriser nos données selon des groupes de phrases rassemblés en fonction du sens donné par les acteurs et de notre interprétation compréhensive.

L’analyse thématique se décompose en trois phases : la pré-analyse, l’exploitation des données et le traitement des résultats (Gavard-Perret & Helme-Guizon, 2008).

La pré-analyse correspond à une période d'intuition (Bardin, 2001) où le chercheur prend connaissance des données, notamment par une lecture flottante. Cette intuition est fondamentale en recherche qualitative car le processus d'analyse des données repose sur le jugement et l’expérience du chercheur (Eisenhardt, 1989). Miles et Huberman (2007) préconisent ce genre d’analyse très primaire. Pour eux, il est important de commencer à trouver le sens des données en notant les récurrences, les faits marquants, les liens de causalité. Suite à cette phase, nous avons commencé à exploiter nos données (2.).

2. Exploitation des données

L’exploitation de nos données s’est déroulée en deux temps. Tout d’abord, nous avons réalisé des fiches de synthèse (2.1), puis nous avons codé nos données (2.2).

2.1 Fiches de synthèse

Lors de la réalisation de notre étude exploratoire, nous avions à traiter 19 entretiens dans l’optique de trouver un questionnement de recherche pertinent. Il nous fallait donc trouver une méthode pour « défricher » ce terrain afin d’avoir une lecture plus claire de nos données. C’est pourquoi, nous avons commencé à organiser nos données sous la forme de fiches de synthèse.

Ces fiches, très courtes (environ une page), constituent une première étape pour mieux structurer et synthétiser notre raisonnement afin de surmonter la « nuisance attractive»84 ( Miles, 1979) de nos données qualitatives. Elles sont structurées en trois temps. Tout d’abord, nous rappelons l’expérience professionnelle et de la situation actuelle de la personne interrogée.

84Miles (1979) qualifie les données qualitatives de nuisance attractive, à cause de leur richesse et de la complexité de leur analyse.

Puis, nous réalisons un tableau, reprenant les thématiques de notre guide d’entretien, pour lesquelles nous inscrivons des descriptions synthétiques et le ressenti de la personne. Dans ce tableau, nous inscrivons également quelques verbatim représentatifs selon nous du ressenti de la personne. Suite à ce tableau, nous en réalisons un second récapitulant les principales sources de motivation et de stress pour l’interrogé.

Nous présentons en Figure 24 un exemple de ces fiches : celle de la directrice marketing interrogée pour notre étude exploratoire. Dans un souci d’anonymat, nous avons retiré les informations personnelles.

Ces fiches nous ont permis de nourrir notre réflexion. Nous avons ainsi passé à la deuxième étape de l’exploitation de nos données : le codage (2.2).

Figure 24 : Exemple d’une fiche de synthèse- Directrice marketing, Edition Fiche de synthèse [Nom] ; [Entreprise] ; [date de l’entretien]

v Expérience professionnelle et position actuelle

- Expérience professionnelle : X ans dans un cabinet de conseil en marchandising.

[Edition] : [date] à [date]

- Position actuelle : depuis [date] à Directrice marketing clientèle chez [Edition]

Description / verbatim Avis / verbatim Stratégie de

l’entreprise · Développer de nouveaux départements.

·Financiarisation de l’activité + amélioration rentabilité et performance.

Gestion qui se fait parfois au détriment du business.

Beaucoup de travail mais intéressant. « il faut aller vite, mais en même temps travailler sur des produits super intéressants, avec des gens hyper intéressants, qui sont des gens qui créent, des créateurs de vie, qui ont le goût du travail bien fait »

Environnement de travail

Open space. · Communication difficile

« On dit que l'open space favorise la communication, les échanges, moi je n'en suis pas du tout convaincu. Je trouve que c'est important, pour l'intimité de chacun, le fait de ne pas gêner. »

· Importance de personnaliser son environnement de travail Management Manager = garant du bon

environnement de travail.

« la personne qui manage donne le tempo de son équipe et de son département »

Dispositif

Système d'évaluation inutile car tout passe par le manager.

« On pourrait avoir les meilleurs systèmes d'évaluation, si le manager ne tient pas la route sur le plan humain et relationnel, on peut lui proposer tous les outils possibles je pense que ça sera relativement limité. »

NTIC et

Sources de motivation Sources de stress/pression :

§ + mobilité= + motivation "La mobilité interne entraine surtout de la méfiance car les bons on a surtout envie de les garder ! Pour évoluer il faut avoir un bon réseau professionnel"

§ Passion pour leur métier.

§ Prime financière lorsque atteinte des objectifs.

§ Open space « tous les services que j'ai connus en open space, c'était beaucoup de stress ! Énormément. »

§ Situation économique compliquée, incapacité à pouvoir changer de travail « en 2013 on

réfléchit deux fois avant de quitter son travail !»

§ Mauvais stress = conséquences d'un mauvais manager.

2.2 Méthode de codage

Pour coder nos données, nous nous sommes appuyés sur la méthode de « comparaison systématique » de Lincoln & Guba (1985). Nous avons comparé des extraits de textes entre eux (retranscriptions d’entretien, de journées d’observation ou extraits des documents internes et externes). En cas de similarité, nous regroupons ces extraits au sein de catégories provisoires.

Nous avons ainsi débuté notre codage avec un petit nombre de catégories issues des apports de la littérature, que nous avons ensuite progressivement étoffé au fil du codage. Ce codage nous a permis de passer de données empiriques brutes et désordonnées à un ensemble de concepts et d’idées (Allard-Poesi & Maréchal, 2007). Ainsi, nous avons progressivement découpé le contenu de nos entretiens, de nos notes d’observation et des documents internes et externes, en unités d’analyse (groupes de phrases), que nous avons ensuite regroupés et codés au sein de catégories de sens (Bardin, 2001). Il faut préciser que nos catégories n’étaient pas fixées a priori. En effet, les unités d’analyse ont progressivement émergé tout au long de notre recherche, par des allers-retours entre les données collectées et la littérature, conformément à notre démarche abductive.

Pour réaliser notre codage nous avons utilisé le logiciel NVivo (versions 10 et 1185), dans une optique d’aide à la gestion des données et à leur catégorisation. Ce logiciel nous a permis de rassembler toutes nos données et de pouvoir facilement regrouper nos unités d’analyse. Nous avons ensuite codé nos données par thématiques et objets récurrents éclairant notre question de recherche. En créant des catégories au sein de « nœuds », nous avons peu à peu vu apparaitre une arborescence liant les catégories entre elles. Nous avons vu se dessiner des liens entre nos différents concepts et idées, ce qui a fortement structuré notre réflexion.

Pour notre étude exploratoire, nous avons commencé notre codage en définissant nos premières catégories suivant celles présentes dans nos fiches de synthèse : « Stratégie de l’entreprise », « Organisation du travail », « Environnement de travail », « Management »,

« Dispositif d’évaluation», « NTIC et Systèmes d'information ». Ces catégories, relativement ouvertes se sont progressivement affinées au fur et à mesure des regroupements. Nous avons ainsi abouti à cinq grandes catégories que nous avons détaillées : « Augmentation des exigences de résultat », « Limites du dispositif d’évaluation individuelle », « Limites des systèmes d'information », « Relations interpersonnelles » et « Dispositif de gestion des RPS ». Ensuite, nous avons lié ces catégories aux risques psychosociaux qu’elles peuvent engendrer. Nous

85Nous avons utilisé NVivo 10 pour coder les données de notre étude exploratoire, puis NVivo 11 pour coder celles de nos études de cas.

avons ainsi défini la catégorie « RPS » comme deuxième nœud de codage. Puis, afin de préciser notre catégorie « Dispositif de gestion des RPS », nous avons défini trois nœuds de second niveau : « Cabinet de conseil », « Diagnostic » et « Formation » que nous avons étayés. Nous offrons une représentation détaillée de l’ensemble du codage effectué dans la Figure 25.

Figure 25 : Codage de l’étude exploratoire- représentation de l’arborescence NVivo.

Pour le codage de nos études de cas, nous nous sommes appuyés sur notre guide d’entretien.

Nous avons commencé à coder à partir des deux catégories « Contrôle des Performances » et

« Dispositif de gestion des RPS ». Puis, pour suivre Eisenhardt (1989) et sa méthodologie qualitative multi-cas, nous avons séparé chacun de nos cas en considérant leurs particularités intrinsèques. C’est à cette fin que nous avons créé une troisième catégorie intitulée

« Problématique des RPS » incarnant la singularité du cas d’étude. Nous avons ainsi défini nos trois premiers nœuds de codage : « Problématique des RPS », « Contrôle des performances » et

« Dispositif de gestion des RPS ». Nous avons ensuite détaillé ces premiers nœuds grâce à un deuxième niveau d’arborescence. Nous avons alors établi des liens entre les problématiques de RPS de l’organisation (stress, burn-out, fatigue…) et leurs sources (organisation du travail,

pression hiérarchique, charge de travail…). Nous avons détaillé le contrôle des performances (processus formel/informel, outils, acteurs…) en le liant avec ses conséquences sur les individus. Enfin, nous avons séparé la catégorie « Dispositif de gestion des RPS » en trois

« Niveaux de prévention », « Outils de diagnostic » et « Actions de prévention ». Nous détaillons l’ensemble du codage réalisé dans la Figure 26.

Figure 26 : Codage des études de cas - représentation de l’arborescence NVivo.

Nos codages se sont achevés lorsque l’analyse est parvenue à saturation, c'est-à-dire lorsque les nouvelles unités d’analyse pouvaient être immédiatement classées dans des catégories existantes (Miles & Huberman, 2007). Cette étape de saturation des sources (Lincoln & Guba, 1985) s’est donc caractérisée par l’émergence de régularités au sein de nos entretiens. C’est à ce moment que nous avons décidé d’arrêter nos recherches empiriques.

A partir de cette étape, nous avons commencé notre montée en abstraction afin de passer du monde empirique au monde théorique (Angot & Milano, 2007). Nous avons cherché à faire émerger du sens en interprétant nos données (3.).

3. Traitement et interprétation des données

La dernière étape de l’analyse thématique consiste à traiter les résultats de manière qualitative et à les interpréter. La capacité à analyser et à interpréter les données indique que le chercheur possède la sensibilité théorique liée à « la qualité de perspicacité, la capacité de donner du sens aux données, la capacité à comprendre, et la capacité à séparer ce qui est pertinent de ce qui ne l'est pas » (Strauss & Corbin, 1994, p.42). Cependant, même si nous présentons ici dans un souci d’intelligibilité les différentes étapes d’analyse des résultats de manière successive, il est important de noter que l’on ne peut pas réellement scinder le travail du chercheur en séquences précises. L’enchainement dans le processus de production de connaissances n’est pas aussi simple et rigoureux que la théorie le présente. La collecte, l'analyse et l’interprétation des données sont des activités concomitantes dans la recherche qualitative (Eisenhardt, 1989;

Usunier et al., 1993).

Miles et Huberman (2007) proposent différentes méthodes pour interpréter les données. Nous présentons celles que nous avons utilisées de manière itérative tout au long de notre analyse.

1° Rechercher la plausibilité. Il s'agit de faire appel à son intuition pour voir ce qui cadre bien.

Par exemple, les annotations effectuées lorsque nous étions sur le terrain illustrent une interprétation primitive et intuitive.

2° Repérer les schémas, les thèmes et Regrouper. Cette méthode vise à condenser les données sous forme de catégories, pour faire émerger les thèmes des discours, repérer les schémas et plus généralement les formes. Elle permet d’apprécier l’importance des thèmes dans le discours, et donc de comprendre la manière dont ces derniers sont utilisés, en formalisant les relations qu’ils entretiennent entre eux (Allard-Poesi & Maréchal, 2007). Notre codage sous NVivo en est une illustration car nous avons sélectionné, centralisé et simplifié nos catégories afin de monter en abstraction et de transformer ainsi nos données «brutes » en concepts théoriques. Au sein des Figure 25 et Figure 26 présentées précédemment, nous avons fait apparaitre cette étape d’interprétation des données par laquelle nous sommes montés en abstraction à partir des données présentes dans nos nœuds de second niveaux.

3° Mettre des relations entre les variables. Cette étape consiste à lier nos thématiques entre elles en précisant la nature de leur relation. L’arborescence de notre codage NVivo illustre ces relations. Notre codage nous a permis d’établir des liens entre les problématiques de RPS et

leurs sources, ainsi qu’entre les dispositifs de contrôle de la performance et leurs conséquences sur les individus.

4° Atteindre une cohérence théorique. Cette étape vise à donner aux résultats une cohérence interne et externe : ils doivent être cohérents entre eux et avec la théorie. Tout du moins, ils doivent former un ensemble théoriquement plausible. L’utilisation du cadre théorique pour interpréter les résultats empiriques est ce qui conforte le chercheur dans l’atteinte de cette cohérence. Ainsi, une fois analysées, nos données empiriques ont été interprétées à l’aune de notre cadre théorique en trois axes visant à faire émerger du sens autour de la triple relation contexte/individu/outil. Par conséquent, nous avons pu comparer nos cas d’étude entre eux, apporter de la richesse empirique et du contraste afin de faire progresser la littérature sur les liens entre dispositif de gestion et risques psychosociaux. De plus, comme nous le montrons en Chapitre 6, nos résultats participent à une meilleure compréhension de la gestion des risques psychosociaux dans les organisations.

Conclusion I.

Nous venons de présenter notre méthodologie d’analyse des données, soit l’analyse thématique.

Nous avons montré que pour exploiter nos données empiriques, nous avons retranscrit nous-même tous nos entretiens et que nous les avons codés grâce au logiciel NVivo. Ce codage nous a permis de mettre en évidence des catégories que nous avons affinées au fur et à mesure afin d’atteindre une hauteur conceptuelle. Nous décrivons à présent les étapes suivies afin de nous assurer de la rigueur de cette méthode, de la validité et fiabilité de notre recherche (II.).

II. Rigueur, validité et fiabilité de la recherche

Nos résultats, inscrits dans le paradigme interprétativiste et issus d’une méthodologie qualitative doivent atteindre une assise scientifique (Perret & Séville, 2007). Ceci garantit la fiabilité et la validité des connaissances produites, et donc la qualité et la rigueur de la recherche (Mason, 1996). Pour s’assurer de la rigueur de notre design de recherche, nous avons respecté plusieurs critères (1.). Nous présentons ensuite les manières dont nous nous sommes assurés de la validité et de la fiabilité de nos résultats (2.).

1. Un design de recherche rigoureux

Les démarches interprétativistes cherchent à établir un cercle herméneutique, c'est-à-dire à comprendre la manière dont plusieurs éléments s’articulent ensemble. Néanmoins, conserver de la rigueur en essayant de décrypter un ensemble d’éléments divers et subjectifs, n’est pas

toujours chose aisée. Pour garantir la scientificité de notre démarche, nous avons respecté plusieurs principes.

Nous avons tout d’abord respecté le principe de contextualisation (Geertz, 1973) en décrivant de manière riche et profonde chacun de nos cas de recherche. Nous avons également suivi le principe d’interaction entre chercheurs et acteurs, en respectant les individus interrogés et en écoutant leurs récits de manière empathique et attentive (Lincoln & Guba, 1985). Ce positionnement empathique nous a permis d’obtenir des réponses sincères, primordiales pour notre sujet de recherche encore tabou au sein des organisations. Nous avons également pris soin de maintenir une écoute constante et ouverte afin de ne pas tirer de conclusions trop hâtives et subjectives. Respecter les discours des personnes interrogées et leur vision du stress nous a permis de prendre en compte les interprétations multiples de ce phénomène. En ce sens, nous avons également tenu compte du principe de suspicion en gardant une attention constante à la subjectivité des récits et des interprétations des acteurs. En retranscrivant ces différents points de vue, nous donnons ainsi à notre recherche une valeur théorique.

Pour préserve la rigueur de notre démarche, il était important de disposer de l’intégralité des entretiens réalisés. Nous avons donc enregistré et retranscrit tous nos entretiens.

L’enregistrement est une bonne pratique, qui permet de disposer d’entretiens exhaustifs, mais qui fait également courir le risque d’être face à des personnes dont le discours est plus contrôlé.

En effet, même si pratiquement tous nos entretiens ont accepté d’être enregistrés, on ne peut pas exclure que leurs réponses aient été biaisées, c'est-à-dire peut-être moins spontanées, à cause de la présence de notre enregistreur. Nous avons alors pris en note, à la suite de nos entretiens, tous les échanges « en off » (souvent très directs) afin de conserver ces informations pouvant nous permettre de nuancer notre raisonnement et de limiter ce biais méthodologique.

Enfin, selon cette même logique, nous avons pris du recul sur nos entretiens grâce à des observations non participantes. Ces observations nous ont permis de voir les comportements

« réels » des acteurs, qui peuvent parfois être occultés ou présentés différemment dans leurs discours, consciemment ou non. Notre but était de mettre de la distance avec les récits entendus afin d’observer le déroulement des pratiques. Cette quête d‘objectivité s’est également matérialisée dans l’étude des nombreuses données secondaires, internes ou externes collectées. Ces documents constituent pour nous des informations précieuses, complémentaires aux discours des interrogés. Enfin, nous nous sommes assurés de la validité et de la fiabilité de nos résultats (2.).

2. Validité et fiabilité des résultats

La validité d’une recherche tient à la pertinence et à la rigueur de ses résultats, autant qu’à leur niveau de généralisation (Drucker-Godard et al., 2007; LeCompte & Goetz, 1982). Or, les recherches qualitatives basées sur des études de cas aux petits échantillons et utilisant une

La validité d’une recherche tient à la pertinence et à la rigueur de ses résultats, autant qu’à leur niveau de généralisation (Drucker-Godard et al., 2007; LeCompte & Goetz, 1982). Or, les recherches qualitatives basées sur des études de cas aux petits échantillons et utilisant une

Dans le document The DART-Europe E-theses Portal (Page 135-149)