• Aucun résultat trouvé

3. COLLECTE ET ANALYSE DES DONNÉES

3.3 Analyse des données

L’ensemble des données recueillies a fait l’objet d’une analyse de contenu qualitative adoptant une approche mixte, c’est-à-dire utilisant des éléments propres à l’analyse déductive et inductive (L’Écuyer, 1990). Dans un premier temps, il est question d’effectuer un classement préliminaire des données à partir des catégories d’un cadre conceptuel, comme il est convenu de le faire selon une approche déductive. Dans une approche mixte, les catégories du cadre conceptuel sont dites « préexistantes » plutôt que « prédéterminées » afin de signifier qu’elles sont déjà présentes dans la littérature scientifique, mais qu’elles sont sujettes à des modifications. Dans un deuxième temps, il est question de créer de nouvelles catégories, dites « émergentes » pour les données qui ont émergé par rapport au cadre conceptuel, comme il est convenu de le faire selon une approche inductive. L’Écuyer

(1990) affirme que ce type d’approche est particulièrement utile pour étudier un sujet peu documenté, comme c’est le cas pour les facteurs influençant la poursuite de l’implantation d’un programme de plein air en milieu scolaire. En effet, l’approche mixte permet suffisamment de souplesse pour faire émerger les informations par rapport au cadre conceptuel afin d’assurer que les résultats obtenus soient d’autant plus représentatifs des milieux étudiés (L’Écuyer, 1990). En parallèle, l’utilisation d’un cadre conceptuel permet de considérer les informations qui sont déjà présentes dans la littérature, ce qui est important selon L’Écuyer.

Dans le cadre de cette recherche, l’analyse des données a été réalisée en quatre étapes principales. Tout d’abord, il a été question de réaliser trois étapes successives afin de faire ressortir le contenu pertinent dans l’ensemble des données recueillies, soit : 1) l’épuration; 2) la codification et 3) le classement par thèmes. Ensuite, une quatrième étape a été mise en place afin d’augmenter la validité des données obtenues, soit : 4) la vérification par les membres.

3.3.1 Épuration

Selon Patton (2002) et Gagnon (2012), la première étape de l’analyse de contenu est de développer un moyen de classer les données. Cette étape a pour but de s’assurer que les données recueillies sont pertinentes pour l’étude. L’Écuyer (1990) rajoute qu’à cette étape, une lecture préliminaire des données est faite. Pour ce faire, les verbatim ainsi que les documents recueillis ont été lus une première fois. La première lecture des verbatim a permis de se familiariser avec le contenu de chacune des entrevues et d’identifier par des commentaires en marge des documents les éléments de contenu qui paraissaient pertinents pour l’analyse. Pour ce qui est des documents, l’étape de l’épuration a consisté à déterminer la pertinence de chacun des documents. La pertinence a été déterminée en fonction de la capacité de son contenu à fournir des détails quant aux facteurs d’implantation du programme, tel qu’identifié dans le cadre conceptuel. Notons que tous les documents recueillis ont été conservés pour l’analyse. Chacun d’entre eux a été préparé à l’analyse par l’élaboration d’une

fiche synthèse (Paquette, 2005). Ces fiches synthèses ont pour but de résumer le contenu de chaque document : provenance, type de document, description du contenu et précisions quant au contenu pertinent pour l’analyse (Ibid, 2005). La table de spécification des facteurs à l’étude présentée à l’annexe A a permis de faire un premier tri de l’information retenue.

3.3.2 Codification

L’étape de la codification a pour but d’attribuer des codes aux différents segments de données (L’Écuyer, 1990; Patton, 2002). L’objectif ultime de la codification est de créer les plus petites unités d’information possibles afin de les attitrer à une seule catégorie. Ces unités peuvent être un mot, une phrase, une idée générale ou un passage au complet (L’Écuyer, 1990; Gagnon, 2012). L’Écuyer (1990) précise que durant cette étape, il est important d’attribuer un code à l’ensemble des données obtenues.

Dans un premier temps, le processus de codification pour les entrevues individuelles semi-dirigées a consisté à attribuer un codage spécifique à chacune des unités d’informations identifiées dans les verbatim. Ce codage a été fait à l’aide du logiciel QDA Miner. Pour ce faire, les verbatim ont été intégrés dans ce logiciel afin d’être lus de la même façon que dans un logiciel de traitement de texte. Toutefois, l’une des particularités du logiciel QDA Miner est qu’il permet de coder facilement les unités d’information en sélectionnant des passages de texte et en leur attribuant l’un des codes prédéterminés par le chercheur. Par ailleurs, ce logiciel permet de visualiser l’information codée en fonction de différents filtres qui ont également été choisis par le chercheur. Ainsi l’utilisation de ce logiciel a été bénéfique afin de repérer facilement les unités d’informations semblables et divergentes de façon à effectuer un codage approprié aux données obtenues. Dans le cadre de cette recherche, il a d’abord été question d’entrer les catégories « préexistantes » dans la littérature au logiciel QDA Miner, soit les 40 catégories du cadre conceptuel, telles que présentées à la figure 7. Ensuite, l’ensemble des unités d’information a fait l’objet

d’un premier codage selon ces 40 catégories préexistantes. Après ce codage préliminaire des données, il a été possible de visualiser l’ensemble des unités d’information qui comportaient le même codage. À cette étape, il a été possible de constater que certaines catégories comportaient des énoncés assez différents. Ainsi, de nouvelles catégories ont été créées afin que chacune d’elles représente spécifiquement les énoncés qu’elle contenait. À cet effet, le cadre conceptuel initial a été modifié au fur et à mesure de l’analyse des données en ajoutant ces catégories émergentes, de façon à ce que ce cadre représente les résultats obtenus. De cette façon, ces catégories émergentes ont pu également être utilisées pour analyser les données subséquentes. Ce processus a été réalisé jusqu’à ce que les catégories soient représentatives de l’ensemble des énoncés identifiés. En ce qui a trait aux documents, la codification de ces derniers a consisté à utiliser les catégories établies dans le cadre conceptuel pour coder l’information contenue dans chacune des fiches synthèse (Paquette, 2005). Comme pour le codage des verbatim, de nouvelles catégories ont également émergé de la codification des documents.

3.3.3 Classement par thèmes

À la suite du processus de codification, l’ensemble des données recueillies a été classé par thèmes. L’Écuyer (1990) précise que cette étape est cruciale pour déterminer le contenu d’une catégorie et pour assurer une bonne analyse de contenu. Afin de classer les données par thèmes, un document a été créé pour chacune des catégories identifiées. En ayant comme point de départ les catégories finales identifiées dans le logiciel QDA Miner et les fiches synthèses des documents, l’ensemble des unités d’information correspondant à une catégorie a été rassemblé dans un seul document. Chaque document comportait des énoncés provenant des différentes entrevues de même que les informations des documents. Chacune des catégories a été organisée dans un ordre logique. Ces dernières ont été présentées dans un tableau afin d’offrir un aperçu de l’ensemble des données recensées auprès des cas à l’étude. Ce tableau a été élaboré afin de faciliter la réalisation de la prochaine étape, soit la vérification par les membres.

3.3.4 Vérification par les membres

La vérification par les membres a été effectuée par le biais d’un processus de fidélité interjuges ainsi qu’un processus de fidélité intrajuge. Les membres ayant participé au processus de fidélité interjuges sont l’étudiante chercheuse et deux chercheurs du domaine des sciences de l’activité physique, soit l’équipe de direction de cette recherche. Pour effectuer ce processus, les étapes suivantes ont été mises en place. Pour chacune des cinq catégories de facteurs, l’étudiante chercheuse a ressorti 40 % des énoncés qu’elle avait classés dans chacune des catégories. Elle les a présentés de façon aléatoire dans cinq documents respectifs. Pour chacune des cinq catégories, trois documents ont été remis à l’un des chercheurs : 1) les énoncés classés de façon aléatoire; 2) un tableau résumé des catégories de facteurs de cette catégorie et 3) une liste des définitions de chacun des facteurs de cette catégorie. Par la suite, l’étudiante chercheuse de même que l’un des chercheurs ont classé, de façon indépendante, les énoncés dans les catégories qui leur semblaient appropriées. Puis, le classement de ces deux membres a été mis en commun. Les tests de fidélité interjuges visaient deux objectifs principaux. D’une part, ils visaient à obtenir un pourcentage de similarité d’au moins 80 % quant au classement des facteurs (Fortin, 2010). D’autre part, ces tests visaient à identifier toute divergence d’opinions quant au classement des facteurs. Ainsi, les tests de fidélité interjuges visaient à obtenir un accord mutuel des juges quant aux catégories identifiées et aux énoncés qu’elles contiennent. Les pourcentages obtenus pour chacun des tests de fidélité interjuges sont les suivants : 1) facteurs de programme : 91,4 %; 2) facteurs organisationnels : 96,7 %; 3) facteurs processuels : 94,6 %; 4) facteurs individuels : 88 % et 5) facteurs extérieurs : 96,3 %. Le pourcentage global est de 93,4 %. Il semble important de mentionner que le test des facteurs organisationnels a été repris une deuxième fois. Bien que le pourcentage du premier test était de 85 %, des divergences ont été constatées quant au classement de certains énoncés. Ainsi, des modifications ont été apportées, à savoir l’ajout de deux nouvelles sous-catégories, le retrait d’une sous- catégorie et la reformulation de deux facteurs. Une fois que les modifications ont été

apportées, un deuxième test a été mené. L’ensemble du processus de validation interjuges a permis d’apporter certains changements dans le classement des énoncés. À cet effet, les juges se sont entendus pour jumeler certaines catégories ou en créer de nouvelles. En fournissant des définitions claires des catégories et en ayant procédé au test de validation interjuges, il semble que la confirmabilité des données soit augmentée.

À la suite du processus de validation interjuges, deux semaines se sont écoulées avant de mener un processus de validation intrajuge. Pour ce faire, l’étudiante chercheuse a effectué un deuxième classement des mêmes énoncés ayant été utilisés pour le test de validation interjuges. L’objectif de ce test était de vérifier la cohérence de l’étudiante chercheuse dans son propre classement des énoncés, et ce, dans le but d’obtenir un pourcentage de similarité d’au moins 80 % (Fortin, 2010). Les pourcentages suivants ont été obtenus pour chacune des cinq catégories de facteurs : 1) de programme : 100 %; 2) organisationnels : 96,7 %; 3) processuels : 100 %; 4) individuels : 96,9 % et 5) extérieurs : 100 %. La moyenne est de 98,7 %.

Une fois que le processus de vérification par les membres a été complété, il a été possible de présenter l’ensemble des données obtenues dans un tableau de catégorisation des facteurs à la suite de l’analyse des données. Ce tableau est présenté à l’annexe C.