• Aucun résultat trouvé

1. Le traitement des données

a. Le traitement des données par codage

Les données documentaires sont analysées par codage, c’est-à-dire au travers d’une activité interprétative permettant de générer des concepts qui symbolisent les données, pour, par la suite, réaliser des analyses diverses à partir de ces « traductions » (Saldaña, 2013). Ainsi, le codage aide, au travers de plusieurs cycles, à réduire la complexité des données au travers d’un

N° Entreprise Titre Année de parution Nombre de pages

1 IBM Analytics, a blueprint for value 2013 27

2 IBM The real-world use of big data 2013 20

3 SAS From Big Data to meaningful information 2013 12

4 SAS Evolving Role of the CMO 2012 5

5 McKinsey Three keys to building a datadriven strategy 2013 4

6 SAS

Information is King: Business Analytics in the Age of the Downturn

and the (Re)Emergence of the Customer 2009 11

7 SAS Analytics: an inside perspective 2011 7

8 SAS The State of Customer Experience Capabilities and Competencies 2009 26

9 SAS

How-To: Operationalize Business Analytics A Guide for Embedding

Business Analytics in Your Everyday Processes 2011 8

10 SAS

Business Analytics 101: Unlock the Business Intelligence Hidden in

Company Databases 2014 12

11 McKinsey Accelerating the digitization of business processes 2014 4

12 McKinsey Achieving success in large, complex software projects 2014 5

13 SAS Align Marketing and IT to Drive Business Results 2013 7

14 SAS Aligning Technology and Business in the Age of Big Data Analytics 2013 9

15 IBM Analytics: The new path to value 2010 22

16 McKinsey Mobilizing your C-suite for big-data analytics 2013 11

17 SAS

Driven by Data: The Importance of Building a Culture of Fact-Based

Decision-Making 2009 11

18 SAS

Making business analytics work: Lessons from Effective Analytics

Users 2011 17

19 McKinsey Digitizing the consumer decision journey 2014 8

20 McKinsey Making data analytics work: Three key challenges 2013 6

21 McKinsey Big data: What’s ou pla ? 2013 11

22 McKinsey Getting big impact from big data 2015 8

23 McKinsey How companies become digital leaders 2016 7

24 IBM Transform your business with data and analytics 2014 11

25 McKinsey Nine questions to help you get your digital transformation right 2015 6

26 McKinsey Views from the front lines of the data-analytics revolution 2014 8

Chapitre 6. Dispositif méthodologique de la première étude : analyse de contenu inductive de données documentaires

- 143 -

assemblage organisé des informations en catégories (Huberman et Miles, 1991). Grâce à l’activité de codage, il est ensuite possible d’organiser et de regrouper les données afin de leur donner du sens.

b. Le codage assisté par le logiciel Nvivo

Lors de la phase de codage, nous avons utilisé le logiciel Nvivo 11 (un CAQDAS ou Computer Assisted/Aided Qualitative Data Analysis Software) pour nous assister dans cette démarche. Ce genre d’outil aide le chercheur grâce à des repérages visuels (codes couleur) des nœuds (ou codes) qui sont créés lors de l’analyse du corpus documentaire, ainsi que par la fonction de recherche par mots-clés qui permet de retrouver plus facilement les nœuds déjà créés lors du codage. De plus, cet outil nous a permis de coder certains graphiques et schémas de notre corpus documentaire.

c. Méthodes et cycles de codage et de catégorisation mobilisés

Au vu de notre démarche de recherche, nous avons choisi un codage a posteriori (Allard-Poesi, 2003), c’est-à-dire que nous avons fait émerger les catégories pendant le processus de codage. Nous avons choisi le paragraphe de sens comme unité d’analyse, c’est-à-dire une phrase ou un ensemble de phrases faisant référence à une idée.

Le codage de cette étude est réalisé en suivant plusieurs cycles précédant une lecture flottante des documents recueillis. Les différents cycles de codage nous ont permis de recoder, nettoyer et mettre en exergue les principaux points de nos données qualitatives afin de créer des catégories (Saldaña, 2013). Tout au long des différents cycles, les codes sont réarrangés, reclassés, renommés et parfois supprimés.

Au fil du codage, le nombre de codes créés sur NVivo s’est très rapidement accumulé. Afin de simplifier notre analyse, nous avons créé une liste de codes dans un fichier séparé, en utilisant le logiciel Excel. Dans ce « codebook » (Saldaña, 2013), nous avons répertorié l’ensemble des codes créés dans une première colonne, ainsi qu’une brève description dans une seconde colonne. Cette technique nous a permis d’identifier plus rapidement l’ensemble des codes créés, et de les organiser et réorganiser plus aisément.

De plus, tout au long des étapes du codage nous avons partagé nos « dilemmes » concernant le codage, et soumis notre codage et notre analyse à d’autres chercheurs (au travers d’échanges

- 144 -

informels ou encore lors de présentations de nos travaux en séminaire et en conférence) afin d’améliorer notre catégorisation en cours (Strauss, 1987).

Nous avons également écrit des mémos analytiques (en plus du journal enregistré dans l’outil NVivo), qui sont des sortes de conversations avec soi-même (Clarke, 2005), tout au long du processus d’analyse des données qualitatives. Certains de ces mémos, qui concernent les catégories créées, sont rattachés directement aux catégories dans le logiciel NVivo, tandis que d’autres sont sous format Word et sous format papier. L’ensemble de ces documents nous a permis de prendre du recul par rapport aux activités de codage et de catégorisation, dans le but de mettre à l’épreuve nos idées sur le moment. Les différents mémos portent sur les nœuds créés, les activités de codage, les catégories, les idées qui apparaissent lors du codage et les relations entre les différents codes. Ainsi, la collecte des données, le codage et l’écriture des mémos n’ont pas été réalisés selon des processus distincts et linéaires, mais de façon intégrée et itérative (Saldaña, 2013).

L’analyse des données est réalisée selon plusieurs étapes, ou cycles, après une première lecture flottante du corpus documentaire, composé d’un premier cycle (codage initial) et de plusieurs seconds cycles (Saldaña, 2013).

Le codage initial est réalisé par codage « in vivo » ou « littéral » (Charmaz, 2006 ; Saldaña, 2013 ; Strauss et Corbin, 1998), c’est-à-dire que chaque code est représenté par une phrase courte qui reformule une idée du corpus documentaire analysé. Cette méthode a l’avantage de coller et de mettre à l’honneur la voix des données par l’intermédiaire de nœuds initiaux. Quelques fois, lorsque cela nous a paru nécessaire, nous avons été amenés à réaliser un codage simultané (Miles et Huberman, 1994), qui consiste à appliquer plusieurs codes au même passage, qui comprend plusieurs idées, ou unités de sens.

A l’issue du premier cycle de codage, nous sommes arrivés à un ensemble de 499 nœuds. Toutefois, malgré l’utilisation d’un « codebook », il a été difficile, au fil de cette première étape, de retrouver des codes déjà créés qui auraient pu correspondre à l’idée à exprimer. Ainsi, certains nœuds sont redondants au vu de la grande quantité de nœuds accumulés. Avant d’assembler les nœuds en catégories, plusieurs seconds cycles de codage ont été réalisés dans le but de nettoyer les codes, afin d’obtenir une synthèse cohérente du corpus documentaire.

Chapitre 6. Dispositif méthodologique de la première étude : analyse de contenu inductive de données documentaires

- 145 -

Certains nœuds sont reformulés, lorsqu’ils nous paraissent mal codés.

Nœud initial Nœud reformulé

Acquisition techno en fonction des objectifs Alignement des outils technologiques aux objectifs stratégiques

Agréger data interne et externe Utilisation de données de diverses sources internes comme externes

Besoin techno pour analyse des données Ressources et capacités technologiques et analytiques pour la gestion des données

Tableau 6. Exemples de reformulation

D’autres nœuds sont fusionnés parce qu’ils sont similaires, en utilisant la méthode du « pattern coding » (Saldaña, 2013), qui consiste à regrouper des codes similaires sous un « pattern code », une sorte de méta-code. En voici quelques exemples dans notre travail d’analyse :

Nœuds initiaux Nœud final

Acquisition techno en fonction des objectifs

Alignement des outils technologiques aux objectifs stratégiques

Alignement déploiement analytique à stratégie globale

Aligner analytics à plan stratégique

Besoin de skills pour analyser data Savoir-faire humain nécessaire à l’analyse de données

Besoin skills pour analyse des données

Utilisation des informations est un challenge Importance de l’utilisation des informations par l’utilisateur final

Utilisation des infos est un gros challenge Tableau 7. Exemple de fusion de codes

De plus, nous avons procédé à un codage axial (Charmaz, 2006 ; Saldaña, 2013), par lequel nous avons créé des catégories et des sous-catégories (les dimensions, propriétés ou encore

- 146 -

attributs des catégories) qui ont été créées. Cette opération a été réalisée de façon itérative avec le « pattern coding », ce qui nous a permis de réduire le nombre de codes développés tout en les catégorisant de manière plus conceptuelle (Glaser, 1978).

Enfin, nous avons également suivi la méthode du codage théorique (Charmaz, 2006), qui consiste à relier toutes les catégories et sous-catégories à une catégorie centrale identifiée à partir de l’analyse.

A l’issue de ces nombreuses itérations, nous arrivons à un ensemble de 6 thèmes, 32 sous- thèmes et 179 nœuds qui correspondent chacun à une idée.

Enfin, une fois le phénomène identifié, nous avons procédé à une étape de modélisation, qui nous a permis de faire apparaître certaines relations structurelles et processuelles caractéristiques de notre objet d’étude.

2. La présentation des résultats

Les résultats de la recherche sont illustrés par l’insertion d’extraits du corpus documentaire analysé, qui nous ont paru pertinents. A des fins de visibilité par rapport au reste du texte, chaque citation est retranscrite entre guillemets en italique, et est mise en évidence dans un paragraphe à part. Tous les thèmes du codage sont en annexe (Annexes 5 à 10).