• Aucun résultat trouvé

TROISIÈME CHAPITRE – MÉTHODOLOGIE

4. MÉTHODES D’ANALYSE

Selon Aktouf (1987, In Lenoir et al., 2012), « l’analyse des données consiste à effectuer un travail de manipulation et de traitement des données nettoyées » (p. 214). Dans le cadre de l’actuelle recherche nous avons fait usage de méthodes quantitative et qualitative.

Dans un premier temps, si la tâche de classement a priorisé une analyse descriptive par le décompte des choix d’importance identifiés par les participants, en second lieu nous avons effectué des analyses statistiques. Pour ces dernières, Quivy et Van Campenhoudt (1995, In Ibid.) stipulent que « ces techniques graphiques, mathématiques et statistiques concernent principalement l’analyse des fréquences des phénomènes et de leur distribution ainsi que celle des liaisons entre variables ou entre modalités de variables » (p. 216). Pour sa part, les verbatim de l’entrevue ont valorisé une analyse de contenu par l’entremise d’une méthode qualitative, à savoir l’analyse de contenu par codage de Bardin (2013).

Coder consiste à accoler une marque à un matériel. Le but du codage est de repérer, de classer, d’ordonner l’information pour, ensuite, la condenser, la comparer, compter et effectuer des calculs quantitatifs, si le matériel le permet, ou interpréter et raisonner (effectuer des calculs qualitatif). (Van der Maren, 2003, In Lenoir et al., 2012, p. 218)

Ainsi, les analyses mises de l’avant ont permis la contribution de méthodes quantitative et qualitative.

La tâche de classement, analyse quantitative

Tel que mentionné précédemment, la tâche de classement a tout d’abord été soumise à une analyse descriptive par l’intermédiaire du décompte des données recueillies à partir des quatre questions nécessitant un classement hiérarchique. Les données ont été compilées dans le logiciel Statistical Package for the Social Sciences (SPSS). Ce dernier a permis le croisement des données sur la base des variables (items de chacune des questions)

et les choix de classement des sujets où nous avons procédé à des statistiques descriptives de nature multidimensionnelle complémentaires. La procédure utilisée est l’analyse de distances réalisée par l’intermédiaire du Multidimensional scaling (MDS). Ainsi, nous avons effectué une série de quatre analyses de distances réalisées dans l’intention de valider les interprétations préalables de rapports de fréquences par item et d’appuyer la démarche subséquente d’analyse de contenu du discours produit dans le cadre de nos entrevues. Notre démarche s’apparente donc aux caractéristiques d’une méthodologie mixte respectant une approche largement interprétative de données textuelles ou discursives (analyse de contenu thématique) et de données quantitatives (tâches de classification) provenant de mêmes sujets (Anadon, 2019; Kern, 2018; Therriault et Harvey, 2011).

Le MDS est une technique descriptive dérivée de l’analyse factorielle utilisant la restructuration des données selon une matrice de distances euclidiennes construite à partir des rapports de covariances entre variables (Bechtel, 1976). La finalité visée par cette technique est de réduire dans un espace à deux dimensions la représentation des rapports entre plusieurs variables qualitatives appariées, en tenant compte de l’ensemble de l’univers des cooccurrences entre ces dernières. Il ne s’agit donc pas de ‘‘simplement’’ tenir compte de celles qui qualifient chaque paire de variables quantitatives comme c’est le cas, par exemple, en analyse corrélationnelle (Cox et Cox, 2001) ou dans une approche équivalente si les données disponibles ne sont pas métriques a priori, comme lors du recours aux mesures d’association (Goodman et Kruskal, 1954).

Les calculs de MDS impliquent la mesure de la qualité de la représentation des positions relatives des variables dans un espace contraint, sachant qu’au départ ces relations se déploient dans un espace multidimensionnel dont les axes complémentaires sont projetés sur un plan en deux dimensions. Pour sa part, la mesure de stress est l’indice qui permet de savoir jusqu’à quel point le calcul induit une distorsion ou une fausse représentation de la position de ces variables dans un espace projeté, par exemple, dans le cas de cette recherche, l’effet du positionnement marginal d’un individu par rapport à une ou à quelques variables. À cet égard, il importe de tenir compte des seuils d’interprétation d’origine formulés par Kruskal (1964). Ces derniers permettent de déterminer la qualité d’ajustement

des plans factoriels aux distances réelles d’objets répartis dans des espaces géométriques distincts. Ces seuils sont représentés dans le tableau suivant.

Tableau 9

Seuils d’interprétation d’origine d’après Kruskal (Ibid.)

Seuils

Indice de stress calculé Qualité de l’ajustement

0.200 Faible

0.100 Acceptable

0.050 Bonne

0.025 Excellente

0.000 Parfaite

Un second calcul assurant la validité de la représentation spatiale obtenue a été effectué subséquemment. Il s’agit du calcul de coefficient de détermination non métrique identifié comme indice RSQ permettant de connaître la proportion de pseudo-variance expliquée par chaque plan factoriel (figure) produit. Lorsque réduit aux deux premières dimensions, en relation avec la distribution réelle des fréquences, ces dernières ont été transformées en distances euclidiennes uniformisées par variable. Une valeur RSQ supérieure à 0.80 est considérée en tant que seuil adéquat. À cet égard, les calculs et interprétations réalisés sont spécifiques à chaque tâche de classement, soit quatre plans factoriels correspondant aux quatre questions ayant un nombre inégal de possibilités de classement hiérarchique. Par souci d’exactitude, nous présenterons ces indices calculés pour chacun des quatre plans factoriels (figures) produits dans cette étude.

L’entrevue, analyse qualitative

L’entrevue auprès des sujets de l’échantillon a fait état d’un enregistrement sonore, dont la transcription intégrale des propos tenus par l’ensemble des participants a donné lieu à des verbatim qui ont été soumis à l’analyse. Selon Lefrançois (1991, In Lenoir et al., 2012), cette dernière relève d’une « action consistant à décomposer systématiquement un contenu en ses éléments en vue d’en examiner les relations » (p. 214). À cela Van der Maren (2003) ajoute qu’elle réside à mettre de l’ordre dans les informations recueillies pour en tirer les significations. La méthode mise de l’avant dans le cadre de l’étude réfère à une analyse de contenu procédant par codage (Bardin, 2013).

À ce propos, Leray et Bourgeois (2016) soulignent que celle-ci permet notamment de tenir compte de l’ensemble des données recueillies, de valoriser le recensement des différents thèmes, de saisir la nature des propos et de produire des résultats fiables, exploitables et reproductibles. En revanche, Quivy et Van Campenhoudt (1995, In Lenoir

et al., 2012) stipulent qu’elle oblige « le chercheur à prendre beaucoup de recul à l’égard

des interprétations spontanées et, en particulier, des siennes propres » (p. 216). D’après Fortin, Côté et Filion (2010), l’analyse de contenu a pour fonction de « traiter le contenu des données narratives de manière à en découvrir les thèmes saillants et les tendances » (p. 467).

Tout comme l’explique Bardin (2013), le codage des données a valorisé la fragmentation des verbatim analysés en fonction de thèmes et de catégories. En outre, le guide d’entrevue étant déjà construit par thèmes, nous avons respecté ceux-ci lors de l’analyse. Quant aux catégories, elles présentaient les qualités suivantes que mentionne Bardin (Ibid.): exclusion mutuelle, homogénéité, pertinence, objectivité, fidélité et productivité (Ibid.). Si l’exclusion mutuelle signifie que la donnée ne peut être classée dans deux catégories, l’homogénéité est garante d’une ligne directrice, tandis que la pertinence reflète les intentions de la recherche (Ibid.). Afin d’effectuer le tout, une grille d’analyse a été construite. Celle-ci était « composée de critères et d’indicateurs » (Andreani et Conchon, 2003, p. 4). Ces indicateurs correspondaient à des « données observables permettant d’appréhender les dimensions, la présence ou l’absence de tels attributs dans la réalité étudiée » (Gratwit, 1990, In Lenoir et al., 2012, p. 235). Il s’agit des unités de sens. De ces indicateurs ont émergée des catégories. Si celles-ci ont majoritairement été tirées des fondements théoriques qui articulent le cadre conceptuel, d’autres ont vu le jour. Globalement, et afin de circonscrire avec rigueur les données, la grille d’analyse a été bâtie de façon à ce que l’analyse ne porte aucun jugement, mais plutôt comme l’indique Bardin (2013), que celle-ci mette en lumière des catégories favorisant l’identification d’indices riches en inférences correspondant aux indicateurs.