• Aucun résultat trouvé

Le procédé et le traitement des données ont été le même lors des deux phases méthodologiques qui ont été vues précédemment. Le traitement des données s’est fait en deux étapes. Avant de commencer l’analyse, il y a une phase clé qui est importante et qui doit être réalisée, il s’agit de l’étape préliminaire (voir figure 14). Comme son nom l’indique, elle précède l’étape de l’analyse des données, car elle constitue la base de celle- ci. En effet, dans cette phase ont été retranscrites toutes les entrevues réalisées avec les gestionnaires, et ce lors de chaque phase méthodologique. La durée totale des entrevues (voir tableau 4) réalisée est de 323 minutes, soit une moyenne de 54 minutes par personne interviewée, cela représente un total de 82 pages retranscrites soit une moyenne de 8 pages par entreprise Le compte rendu mot à mot des entrevues constitue le verbatim de l’étude.

Comme le souligne certains auteurs « le traitement de cette base de données consiste, en définitive, en un va-et-vient de trois activités concurrentes : l’épuration, le codage et l’analyse de ces données (De Weerd-Nederhof, 2001 ; Miles et Huberman, 1994) » (Gagnon, 2012). Cette mise en forme par écrit des données brutes provenant des entrevues a permis de dégager les thèmes généraux et d’effectuer une épuration des informations. Effectivement, à travers toutes les données recueillies certaines n’avaient aucune relation avec le sujet de base et/ou l’objectif. Il a donc fallu effectuer plusieurs lectures des retranscriptions, afin de s’approprier les données et ainsi de « mettre en évidence les passages dégageant des idées et des passages clés en lien avec les objectifs

de la présente étude. Effectivement, il devient particulièrement intéressant de sélectionner uniquement les données pertinentes avant de débuter le codage. » (Bousquet, 2010).

Une fois la phase d’épuration faite cette étape a permis une réduction des données de l'ordre de 30 % à 40 % sur l'ensemble des entrevues. Le chercheur s’est retrouvé avec les éléments clés et en lien avec l’étude de recherche, ce qui a permis de passer à la phase suivante.

Figure 14

Le processus d’analyse des données

Source : MGP8192 / @ Julien Bousquet, Ph.D., UQAC

Toutefois, il convient de préciser que durant toute cette phase l’analyse s’effectuait manuellement sans utiliser les outils informatiques. Même si les avantages sont nombreux, certains chercheurs émettent des réserves pour justifier le recours à la méthode manuelle plutôt qu’informatique (Catterall et Maclaran, 1996 ; Gagnon, 2012).

Effectivement, le chercheur « peut être incité à vouloir utiliser un logiciel qu’il connaît déjà plutôt qu’un autre même s’il n’est pas tout à fait approprié au design de sa recherche » (Tesch, 1990 ; Gagnon, 2012). De plus, on constate que « les logiciels privilégient souvent l’analyse de variables plutôt que l’analyse de cas proprement dite » (Miles et Hubermann, 1994 ; Gagnon, 2012). D’autres chercheurs craignent que « l’analyse des données ne devienne mécaniste plutôt que créative et que par conséquent les différents logiciels ne conditionnent le type d’analyse réalisé » (Bryman et Burgess, 1994 ; Dey, 1993 ; Gagnon, 2012). Enfin, « il y a un danger de perdre la richesse et la complexité des données parce qu’elles sont traitées et analysées indépendamment du texte original complet (Catterall et Maclaran, 1996) » (Gagnon, 2012).

Il n’est pas sans rappeler que « le chercheur doit faire parler les données et vérifier si des tendances s’en dégagent, c'est-à-dire si certaines évidences de différentes sources convergent vers des faits similaires (Yin, 1981a) » (Gagnon, 2012). Comme le décrivent Duhaime et Landry (1995), dans le processus d’analyse, après la phase préliminaire, vient la deuxième phase d’analyse qui se décompose en plusieurs étapes. Cela consiste à passer à la première étape de la phase 2 qui s’intitule « l’identification des thèmes ». Cette étape consistait après plusieurs lectures du verbatim à créer des thèmes et des codes. Cela permettait de ce fait de s’imprégner des données.

La deuxième étape qui s’intitule « le codage des données » consistait à réaliser une segmentation de la retranscription en unités significatives. Cela prenait la forme de codage « in vivo qui sont des codes que l’on donne en utilisant, comme nom du code, un mot ou une expression tirés directement des propos des personnes interviewés sur le terrain » (Strauss & Corbin, 1998). Le chercheur a ainsi obtenu 28 thèmes sur l’ensemble des catégories initiales.

La troisième étape dite de « regroupement des segments par catégorie (codes) » (voir tableau 5) consistait à classifier les segments selon le code qui leur a été accordé. Plus concrètement, le chercheur avait extrait tous les segments qui avaient le même thème et les avait regroupés ensemble, et ce pour l’ensemble des codes qu’il avait attribué. Cela

permettait de créer des typologies et des liens entre les codes. Cette étape fastidieuse a nécessité de la part du chercheur de la rigueur et d’être structuré afin de pouvoir gagner du temps par la suite.

Tableau 5 Extrait des catégories

Nº Thème Code 1 Connaissance Développement Durable 2 Difficulté 3 Engagement 4 Méthodologie Gestion de projet 5 Ressources 4 Parties prenantes entreprises 5 Marketing 6 Coût

La quatrième étape qui s’intitulait « l’interprétation préliminaire des résultats » consistait comme son nom l’indique à effectuer une première interprétation formelle. Plus précisément il s’agissait pour chaque catégorie d’identifier des tendances ou des cas d’exceptions qui se dégageaient des données. L’une des difficultés a été pour le chercheur de demeurer objectif et de laisser parler les données d’eux-mêmes pour ne pas biaiser les résultats.

La cinquième étape qui s’intitulait « le regroupement des segments par catégorie et par variable » avait pour objectif d’apporter un niveau de segmentation supplémentaire. Effectivement, il s’agissait de regrouper les segments en variables ou codes. Là aussi, une certaine rigueur était de mise, car il fallait faire attention au chevauchement.

La sixième étape qui s’intitulait « analyse comparative » avait pour objectif de comparer les différents segments pour chaque variable et de gérer les différences et les similitudes entre les participants. Enfin, la dernière étape qui était « l’interprétation finale » consistait à synthétiser les données et à décrire les thèmes étudiés en identifiant les grandes tendances.

CHAPITRE 4

ANALYSE DES RESULTATS

Selon Miles, et Huberman (1994), l'analyse qualitative se compose de trois flux courants d'activités : condensation des données, présentation des données et élaboration/vérification des conclusions.

L’objectif de ce chapitre est de présenter et d'analyser les résultats de l’étude pour déterminer les impacts du développement durable qui peuvent exister dans la gestion de projet des PME et connaître ainsi leurs survenances dans le cycle de vie d’un projet. Comme il a été vu dans le chapitre précédent, un cheminement méthodologique a été suivi avant d’arriver à l’analyse des données ci-dessous. Pour mieux comprendre cela, le chercheur fera dans une première partie la description et l’analyse de la phase 1 et dans une seconde partie celle de la phase 2.