• Aucun résultat trouvé

5.1 Techniques adoptées pour la collecte et le traitement des données

5.1.3 Techniques de traitement des données

L’Ecuyer (2011, P9), définit l’analyse du contenu comme une « méthode de classification ou de codification des divers éléments du matériel analysé, permettant à l’utilisateur d’en mieux connaître les caractéristiques et la signification. » Laurence Bardin se situant dans la même logique épistémologique, donne une définition de l'analyse de contenu énoncée ainsi qu’il suit : c’est « un ensemble de techniques d'analyse des communications visant, par des procédures

Page 119 sur 338 systématiques et objectives de description du contenu des énoncés, à obtenir des indicateurs (quantitatifs ou non) permettant l'inférence de connaissances relatives aux conditions de production/réception (variables inférées) de ces énoncés » (Bardin, 1977, p. 43). C’est encore, selon Richard qui synthétise sa consultation de plusieurs avis d’auteurs sur ce concept, « un ensemble de techniques d’analyse des textes utilisant des procédures systématiques et objectives de description permettant le traitement méthodique du contenu implicite et explicite des textes en vue d’en classer et d’en interpréter, par inférence, les éléments constitutifs » Richard S. (2006, P 184). Ainsi, le discours produit dans le processus de communication que génère l’entretien, permet d’attribuer deux objectifs à la démarche d’analyse de contenu. Dans un premier temps, l’analyse de contenu permet au chercheur, à partir d’énoncés quelque-fois subjectifs de l’interviewé, d’établir un sens de ce qu’il essaye de transmettre comme message, puis dans un deuxième temps, l’analyse du contenu, va chercher à objectiver les déclarations du point de vue de la compréhension du chercheur, ce dernier étant ici en situation de récepteur Negura (2006). La technique consiste pour l’analyse du contenu, à segmenter les énoncés sur la base de thèmes en lien avec les variables de la recherche. Ces catégories, dimensions ou indicateurs des variables, reçoivent des significations. Le but en fait est de reformuler le contenu de l’énoncé sous une forme condensée et formelle. En somme, il est question dans l’analyse de contenu, de procéder à un travail de discrimination thématique de manière à repérer les unités sémantiques qui constituent l’univers logique de l’énoncé dans son rapport avec l’objet de la recherche. L’Ecuyer (2011, P22) recommande, au-delà de ce qu’exprime explicitement le matériau, de rechercher le contenu latent, ce qui n’apparaît pas simplement, ce qui n’a pas été exprimé, mais ce que le discours révèle implicitement.

Pour éviter les risques de dérapages permanents qui planent sur le processus d’analyse des données dans l’analyse par contenu et qui est dû à la nature subjective des données à manipuler, il faut non seulement que les opérations de catégorisation et de codage se déroulent avec une extrême rigueur, mais aussi que ces opérations soient régulièrement objectivées, afin de minimiser les biais et maximiser par la même occasion la fiabilité et la validité des données. En effet, s’agissant des biais qui hantent la qualité du traitement des données, on a d’une part ceux qui relèvent de l’affect du chercheur et qui touchent son émotion et sa sensibilité. On a d’autre part, les biais idéologiques qui sont en lien avec les a priori ou le sens commun du chercheur. Pour juguler ces biais, il faudrait que le chercheur s’assure qu’il a une compréhension objective des énoncés en présence et que les catégories élaborées et les codes retenus sont clairs et

Page 120 sur 338 objectifs Richard (2006, P 185). Dans notre démarche d’analyse de contenu de nos observations et de nos entretiens, nous nous sommes intéressé à la validité de nos résultats d’analyse, à travers deux différents tests. Le premier, le test de fidélité de l’analyse, a consisté pour nous à réinterpréter certains contenus après un certain temps évalué à un mois après la première analyse. Nous avons aussi testé l’homogénéité de notre analyse, en soumettant le même extrait de matériau à deux collègues doctorants et de service. Il s’agit pour nous dans ce travail de suivre les étapes préconisées par l’Ecuyer (2011, P 57), à savoir (1) procéder à une lecture préliminaire qui va nous permettre de sélectionner les portions de matériau à retranscrire. (2) les unités de classification ayant été définies à priori à l’aune des cadres théoriques de l’étude, (3) nous allons par la suite procéder à la classification et à la catégorisation des locutions verbales et des gestes et attitudes des apprenants, tels que ces derniers les expriment soit en situation de classe dans leur rapport avec la technologie ou alors en dehors de la classe à travers les posts effectués en utilisant WhatsApp. (4) l’étape de la quantification va consister à dénombrer les occurrences des énonciations correspondant à chaque indicateur, puis à chaque dimension et catégorie avant l’étape (5) de la description scientifique, au cours de laquelle les logiciels Excel et Xlstat nous permettront d’effectuer une présentation quantitative de nos résultats, en utilisant des diagrammes en radars et des histogrammes de fréquence. Une analyse qualitative desdites énonciations sera également réalisée à ce niveau. (6) suivra enfin l’étape d’interprétation des données, au cours de laquelle, nous ferons des liens entre le sens produit et les hypothèses de recherche L’Ecuyer (2011, P 57), pour d’une part caractériser la prise en main du dispositif de techno-différenciation en termes de contrôlabilité de contexte et des communications par les apprenants et d’autre part saisir le construit de leur motivation en termes d’efficacité personnelle et les conséquences sur l’engagement, la persévérance et la performance des mêmes apprenants.

5.1.3.2 Les corrélations et leurs interprétations

De nombreux logiciels d’analyse statistique proposent, en plus des fonctions disponibles pour l’obtention des statistiques descriptives, des fonctions de tests dits inférentiels, qui permettent entre autres la réalisation des tests de corrélations entre les variables. En fait, quand peut-on dire que deux variables sont corrélées ? la réponse à cette question nécessite que le chercheur puisse d’abord réaliser un test de corrélation entre deux variables et tirer du sens de l’indice de corrélation qui en découle, en étant capable de se prononcer sur le fait ou non que la corrélation est significativement différente de zéro. Pour comprendre ce qu’est une corrélation, revenons

Page 121 sur 338 un instant sur le contexte de la recherche qui nous intéresse dans cette thèse, en expliquant cette notion à partir de deux variables, notamment le contrôle et la communication, issues de notre première hypothèse de recherche énoncée ainsi : « les apprenants contrôlent le dispositif techno-pédagogique et l’utilisent pour communiquer en contexte ». On s’attend en effet à ce que les deux variables évoluent ensemble. C’est-à-dire que si les fréquences d’occurrence de la variable contrôle augmentent, celles de la variable communication vont également augmenter. Inversement, si les fréquences d’occurrence de contrôlabilité diminuent plutôt, celles de la variable communication feront de même. On dit alors que les deux variables sont positivement corrélées. Deux variables sont positivement corrélées lorsque la variation de la première induit la variation de la seconde dans le même sens. Il peut cependant arriver que les deux variables varient en sens opposés. On dira dans ce cas que nous sommes en situation de deux variables négativement corrélées. Deux variables sont négativement corrélées, lorsque la variation de la première variable dans le sens positif induit la variation de la seconde dans le sens contraire et inversement. D’un point de vue statistique, la corrélation sera mesurée pour notre étude à chaque fois sur un échantillon d’apprenants prélevé sur le groupe des sujets ayant été soumis au dispositif techno-pédagogique dans leur processus d’apprentissage. Dans cette logique, nous serons en mesure à l’issue du test d’obtenir une série de valeurs numériques variant entre -1 et 1, dans les différentes cellules d’un tableau dit de corrélations, sachant que 0 signifie l’absence totale de corrélation et 1 une corrélation parfaite entre les deux variables. Le logiciel XLstat, qui s’imbrique dans l’environnement Excel, offre ce test de corrélation à travers la fonction de commande covariance/corrélation, le logiciel propose une boîte de dialogue dans laquelle le chercheur peut choisir le type de test de corrélation qui s’adapte le mieux à ses hypothèses. En fait, en plus de la covariance, le menu déroulant suggère trois tests, tous de corrélations, à savoir le test de Pearson, le test de Spearman et celui Kendall. Le test de Spearman, qui est non paramétrique, convient le mieux, car les effectifs de notre échantillon sont relativement faibles, en dessous de 50.

5.1.3.3 L’analyse des variances (ANOVA)

L’ANOVA est l’abréviation de l’expression anglaise ANalysis Of VAriance. Le recours à l’ANOVA est recommandé pour comparer les moyennes observées sur des échantillons et se prononcer sur leur différence significative. Dans la situation de notre étude statistique, nous devons chercher à conclure sur la performance des apprenants. Est-elle tributaire de la modalité d’apprentissage ? La modalité d’apprentissage en techno-différenciation produit-elle de

Page 122 sur 338 meilleures performances aux différents tests d’évaluation ? l’ANOVA à un facteur correspond bien à une telle situation. Mais il faut encore veiller aux conditions de validité. Pour cela, nous allons d’abord procéder au test de normalité. Si les conditions de validité ne sont pas remplies, on abandonne l’ANOVA à un facteur qui est un test paramétrique, pour utiliser le test de Kruskal-Wallis, son équivalent non paramétrique. La configuration de nos données se présente sous forme d’un tableau dont les colonnes distinguent d’une part les différentes performances des apprenants aux différents tests et d’autre part la modalité d’apprentissage à laquelle chaque apprenant a été astreint. Une telle configuration est adaptée pour la prise en charge du test à l’aide du logiciel Xlstat.

Page 123 sur 338