• Aucun résultat trouvé

La démarche de cette recherche visait à évaluer si différentes variables corrèlent avec le fait que les enseignants mettent en œuvre, ou non, différents outils technologiques dans leur enseignement, qu’il s’agisse de l’utilisation de logiciels pédagogiques, de la consultation de Cd-rom ou de l’édition de documents.

Pour cela, un questionnaire a été proposé à une population composée d’enseignants et d’étudiants (futurs enseignants) ; les questions avaient été sélectionnées sur la base d’études antérieures réalisées dans ce domaine et en fonction de leur capacité à refléter les variables définies dans cette recherche.

L’hypothèse principale portait sur la présence de corrélations positives entre les indices reflétant la mise en œuvre des TIC par les enseignants dans leur classe, et les indices composant les autres variables étudiées ; les relations entre ces dernières composent les hypothèses secondaires, avec également des corrélations positives entre les indices.

Pourtant, ces analyses de corrélation n’ont pas permis de montrer des corrélations nettes,

formant un tout cohérent avec l’hypothèse de départ ; tout au plus certaines corrélations isolées ont-elles pu être mises en évidence. Elles sont présentées et discutées dans la partie précédente (point 4.3).

Outre une quantité excessive d’hypothèses s’appuyant sur de trop nombreuses variables, on peut encore donner plusieurs raisons d’ordre méthodologique à ces résultats peu concluants. Je discuterai d’abord la validité du questionnaire proposé aux participants, puis la composition de la population étudiée ; je critiquerai ensuite la nature des analyses menées sur les données récoltées. Enfin, en tenant compte de ces remarques, je donnerai quelques pistes pour améliorer la recherche.

Le mode de récolte des données, sous la forme d’un questionnaire en ligne, présente plusieurs inconvénients. Premièrement, le format de présentation en ligne exclut toute une catégorie de personnes peu à l’aise avec l’informatique : soit qu’elles renoncent d’emblée à y répondre, soit qu’elles abandonnent avant la fin, confrontées à un problème technique d’apparence insoluble. A titre anecdotique (et avec toute la réserve nécessaire face à ce type de données), en plus des 86 questionnaires remplis, un peu moins de 150 ont été entamés, mais non achevés.

Un deuxième inconvénient se rapporte au mode de réponse à choix forcés, sans réponse neutre (ne sais pas) ; en effet, cela tend à provoquer des réponses dispersées, satisfaisant seulement à la contrainte de répondre, mais pas à celle de fournir une réponse réfléchie.

Il faut encore mentionner la quantité trop importante de questions, à l’origine d’une lassitude dont les conséquences sont soit l’abandon du questionnaire, soit une baisse certaine de motivation pour répondre aux dernières questions. En outre, il s’est avéré après coup que certaines questions n’étaient pas formulées clairement (par exemple, question 27, voir questionnaire, annexe 1) et n’avaient pas été comprises. Plusieurs remarques dans ce sens m’ont été communiquées dans la rubrique commentaires (question 45, annexe 1) figurant en fin de questionnaire.

Concernant la population étudiée, quelques points méritent d’être soulevés, qui renvoient à la difficulté d’élaborer un questionnaire s’appliquant autant à des enseignants qu’à étudiants. Ces derniers, du fait de leur pratique limitée de l’enseignement, éprouvent de la difficulté à se positionner sur des aspects spécifiques d’intégration des TIC, et encore plus sur des aspects liés à des choix d’établissement. En effet, leur faible implication lors de leurs stages leur offre une connaissance plutôt sommaire de ces aspects. L’échantillon des enseignants, de son côté, ne représente qu’une petite fraction (à peine plus de 5%) de la population globale des enseignants du primaire du canton de Genève ; j’ai déjà évoqué plus haut le problème de la familiarité avec l’informatique, qui exerce une sélection des enseignants susceptibles de prendre part à la recherche. Enfin, la description des arbres hiérarchiques a montré que les deux populations étudiées étaient très hétérogènes, puisqu’au moins six types ont été nécessaires pour regrouper les représentants de chaque population. Il est difficile d’établir si cette hétérogénéité est le reflet de l’hétérogénéité globale de la population ; toujours est-il qu’elle rend difficile de dégager des tendances claires à partir des résultats.

L’analyse typologique des populations est intéressante pour deux raisons. Premièrement, ces types permettent de mieux se représenter les attitudes face aux différents aspects concernant les TIC. Ils apportent ainsi une signification plus globale aux données récoltées. On constate à cet égard des types relativement différents entre les deux populations. Deuxièmement, ces types dénotent en revanche d’une certaine hétérogénéité de réponses laissant apparaître des valeurs dispersées. Cette constatation explique en partie les valeurs faibles des corrélations, puisque celles-ci sont établies sur l’ensemble de la population et non individuellement sur chaque type identifié.

Un autre problème méthodologique vient du type d’analyse réalisée. Les analyses de cette recherche comparaient les variables dans des relations simples, sans prendre en compte l’influence des autres variables. Or, une analyse multivariée, prenant donc en compte toutes les relations entre variables, aurait peut-être permis de fournir des résultats plus nuancés. Malheureusement, ce type d’analyse n’a pu être conduit, principalement en raison des contraintes temporelles.

Enfin, on pourrait penser que l’âge, voire le sexe, influencent en grande partie la mise en œuvre des TIC. Or, dans cette étude, ces variables démographiques n’ont pas été utilisées pour les analyses. En effet, Desbiens, Cardin et Martin (2004) signalent qu’elles ont très peu d’incidence sur la tendance à intégrer les TIC dans les pratiques pédagogiques. Dès lors, le choix de ne pas en tenir compte se justifie, même s’il aurait été intéressant de confirmer ou d’infirmer ces résultats.

Les paragraphes qui suivent proposent quelques pistes pour améliorer la démarche. Il apparaît d’abord que le format du questionnaire est essentiel ; on peut remédier à la plupart des inconvénients identifiés précédemment. Nous avons vu que certains sont concomitants au format électronique : dès lors, il serait judicieux d’envisager la diffusion d’une version imprimée du questionnaire afin d’atteindre une population plus complète. Par ailleurs, si un questionnaire n’assure pas un pourcentage de retour important, il permet néanmoins de toucher une large population ; en revanche, des entretiens ou des observations permettent de détailler les réponses données au questionnaire, fournissant ainsi une mesure plus proche de la réalité ; cependant, l’investissement en temps pour ces méthodes est aussi plus important.

Quant au mode de construction du questionnaire, nous avons vu que celui utilisé dans cette étude était probablement trop long ; si l’on voulait poursuivre l’étude de cette problématique en suivant une démarche similaire, une analyse adaptée des réponses à ce questionnaire permettrait d’identifier les questions peu pertinentes pour ne retenir que les plus ciblées. Celles-ci devraient en outre être soumises à un échantillon de personnes afin de pouvoir modifier en conséquence celles qui seraient peu compréhensibles ou contiendraient des erreurs.

Le problème de la longueur du questionnaire est la conséquence directe de l’importante quantité de variables étudiées ; or, un tel ensemble de données ne pouvait être que difficile à traiter rapidement et en tenant compte de tous les paramètres. Ainsi, avec un nombre de variables plus faible, la longueur du questionnaire s’en serait trouvée raccourcie et les analyses statistiques auraient pu être poussées jusqu’au bout.

Documents relatifs