• Aucun résultat trouvé

objectifs

Modalités de

l'enseignement

Contrôle des

performances

Pré-requis des

Étudiants

Compétences

acquises

pourraient avoir tiré de l'enseignement, et les modifications de pratiques consécutives au cours. Il est lui aussi purement déclaratif, mais réalisé 6 mois après l'enseignement il a permis de repérer un certain nombre d'acquisitions de compétences et de modifications de pratiques chez les étudiants : meilleure utilisation du CISMEF, connaissance du MeSH...

• Le troisième questionnaire, appelé « Enquête sur les connaissances et les pratiques des étudiants de la CPL de Pau en matière d'informatique et de recherche bibliographique » pose lui un certain nombre de problèmes :

–Il n'a pas été initialement conçu pour l'évaluation de l'enseignement, mais pour répondre à une question que je me posais sur le niveau de connaissance des étudiants en matière de technologies de l'information et de la communication. J'avais en effet noté à plusieurs reprises des difficultés dans l'utilisation de l'outil informatique par les étudiants (difficultés d'utilisation du traitement de texte, des outils de travail partagé comme le bureau virtuel, difficultés à utiliser les outils de recherche bibliographique...). Je considérais ces difficultés comme un frein pour la réalisation du portfolio, surtout à un moment où il était beaucoup question du portfolio électronique. Ces questionnements n'étant pas partagés par tous mes collègues enseignant en médecine générale, j'avais voulu évaluer ces problèmes. Je me suis rendu compte secondairement que ce questionnaire, s'il était répété, pouvait m'aider à évaluer l'impact de l'enseignement sur la recherche bibliographique.

–Un certain nombre de questions ont été mal conçues et sont donc difficilement exploitables (en particulier celles sur les types de fichier texte). Il aurait sans doute mieux valu avoir un questionnaire du même type, mais plus court et centré sur la recherche bibliographique.

L'évaluation « idéale » de l'impact de cet enseignement aurait sans doute été une

étude de la qualité des références bibliographiques dans les scripts produits par des étudiants ayant bénéficié de cet enseignement, et leur comparaison avec les productions d'un groupe d'étudiants témoin. Un tel travail permettrait d'évaluer l'objectif principal de cet enseignement qui est, de donner à l'étudiant la capacité d'effectuer une recherche documentaire dans le but de trouver des documents pertinents, intégrant la notion de niveau de preuve, pour l'élaboration de son port-folio. Il n'est pas exclu que ce travail se fasse un jour.

5.1.2 Évaluation du module « Lecture utile, lecture critique »

L'évaluation du module « lecture utile, lecture critique » est, elle aussi, purement déclarative, il s'agit d'évaluer la satisfaction des étudiants. Aucune évaluation à distance n'est possible car les étudiants ont, au moment de cet enseignement, quasiment achevé leur DES. L'évaluation des modifications de pratiques induites par l'enseignement est, de ce fait, impossible.

5.1.3 Les limites des évaluations par questionnaire de satisfaction

La satisfaction des étudiants n'est pas un reflet de la qualité de l'enseignement, au sens de son aptitude à remplir les objectifs pédagogiques. Elle n'est pas non plus la marque d'une acquisition de savoir.

Ce type d'évaluation à été étudié, et peut être considéré comme fiable. Irby et Rakestraw rapportent le résultat d’une étude effectuée auprès d’externes dans un stage d’obstétrique et de gynécologie. Ils ont analysé 1567 évaluations de 230 professeurs et résidents par 320 étudiants. Ces

évaluations étaient réalisées à partir de questionnaires comparables au nôtre : plusieurs items évalués sur un échelle de Lickert à 5 cases. Les auteurs établissaient un niveau de fiabilité entre juges qui variait de 0,83 à 0,90(25).

Si ce type d'évaluation peut être considéré comme fiable, dans la mesure où si l'on répète les mêmes mesures dans les mêmes conditions, on obtiendra les mêmes résultats, sont-ils pour autant valides? C'est à dire mesurent-ils réellement ce qu'ils sont sensés mesurer (la qualité de l'enseignement, les savoirs acquis par les étudiants, les changements de pratiques induits...)(26)?

En 1973, Naftulin et coll essayaient de savoir si l'opinion des étudiants sur l'enseignement qu'ils recevaient était valide. Pour cela ils ont engagé un acteur pour donner, de manière brillante, une conférence truffée d'inexactitudes et de contresens, sur un sujet médical. Cet acteur, surnommé Dr Fox était affublé d'un curriculum vitae prestigieux mais faux. La conférence a été présentée à une assemblée d'enseignants et de professionnels de santé(27). L'ensemble des

auditeurs a jugé très positivement la prestation du Dr Fox, ce qui tend à prouver que les auditeurs sont plus sensibles à la séduction et à la prestance du conférencier qu'au contenu de son propos.

Cette expérience à été reprise 2 ans plus tard avec le même acteur auprès d'étudiants. Le Dr Fox à réalisé 6 conférences d'une vingtaine de minutes sur le même sujet devant 6 parterres d'étudiants comparables tirés au sort. Ces conférences différaient par le contenu pédagogique (riche, moyen et pauvre), et par l'attrait (peu ou très séduisant). Les étudiants devaient évaluer la qualité pédagogique du conférencier et étaient interrogés sur les connaissances acquises. Les étudiants qui avaient bénéficié d'un enseignement « séduisant » l'évaluaient plus positivement que les autres du point de vue de la satisfaction, mais avaient aussi de meilleurs résultats aux évaluations cognitives(28).

Il apparaît donc que cet type d'évaluation ne reflète que très imparfaitement la qualité d'un enseignement.

Enfin, et en ce qui concerne le DES de médecine générale, je ne suis pas persuadé que l'évaluation de l'enseignement soit perçu par les étudiants, comme un moyen d'amélioration de celui-ci. En outre il existe une proximité importante entre étudiants et enseignants qui peut fausser les appréciations dans le sens de la surévaluation.

Documents relatifs