• Aucun résultat trouvé

Sciences III du PIRS 2004

N/A
N/A
Protected

Academic year: 2022

Partager "Sciences III du PIRS 2004"

Copied!
200
0
0

Texte intégral

(1)
(2)

Conseil des ministres

Rapport sur

l’Évaluation en Sciences III

P I R S

Programme d’indicateurs du rendement scolaire

2 0 0 4

(3)

Le Conseil des ministres de l’Éducation (Canada) [CMEC], qui a été créé en 1967, permet aux ministres responsables de l’Éducation dans les provinces et territoires de se consulter sur des questions d’éducation qui les intéressent. Il facilite également la collaboration entre les provinces et territoires à des activités très diverses dans les secteurs de l’enseignement primaire, secondaire et postsecondaire. Les bureaux du Secrétariat du CMEC sont situés à Toronto.

Le financement du Programme d’indicateurs du rendement scolaire (PIRS) a été assuré par les instances participantes, par l’entremise du Conseil des ministres de l’Éducation (Canada) [CMEC], et par le gouvernement du Canada, par l’entremise du Secteur des recherches appliquées du ministère des Ressources humaines et Développement des compétences Canada.

Conseil des ministres de l’Éducation (Canada) 95, avenue St Clair Ouest, Bureau 1106 Toronto (Ontario) M4V 1N6

No de téléphone : (416) 962-8100 No de télécopieur : (416) 962-2800 Adresse électronique : cmec@cmec.ca

© 2005 Conseil des ministres de l’Éducation (Canada) ISBN 0-88987-160-4

This report is also available in English.

Imprimé sur du papier recyclé.

(4)

INTRODUCTION... 1

CONTEXTE DE CE RAPPORT ... 1

PROGRAMME D’INDICATEURS DU RENDEMENT SCOLAIRE ... 2

Renseignements généraux ... 2

CARACTÉRISTIQUES DES ÉVALUATIONS DU PIRS ... 3

Cadre conceptuel et critères ... 3

Cinq niveaux de rendement ... 3

Évaluation des programmes, non des élèves ... 4

Harmonisation des instruments d’évaluation en français et en anglais ... 4

Évaluations au fil des ans ... 4

Enseignement des sciences au Canada ... 4

Apprentissage des sciences ... 5

Évaluation de la culture scientifique ... 5

Postulats principaux et limites de cette évaluation ... 6

CADRE CONCEPTUEL ET CRITÈRES ... 8

CADRE CONCEPTUEL ET CRITÈRES DE L’ÉVALUATION EN SCIENCES DU PIRS ... 8

CRITÈRES D’ÉVALUATION ET TRAVAUX TYPE PAR NIVEAU – RÉSUMÉ ... 9

ÉLABORATION DES INSTRUMENTS D’ÉVALUATION ... 15

Évaluation de 1996 ... 15

Évaluation de 1999 ... 15

Évaluation de 2004 ... 15

ADMINISTRATION DE L’ÉVALUATION ... 15

CORRECTION DE L’ÉVALUATION DE 2004 ... 16

ATTENTES PANCANADIENNES QUANT AU RENDEMENT EN SCIENCES ... 16

TABLE DES MATIÈRES

(5)

RÉSULTATS DE L’ÉVALUATION EN SCIENCES 2004 ... 17

REMARQUES SUR L’INFORMATION STATISTIQUE... 17

Intervalles de confiance ... 17

Différences ... 18

Différence statistique vs différence sur le plan éducatif ... 18

Pourcentages ... 18

GRAPHIQUE DE DÉMONSTRATION ... 18

RÉSULTATS AU CANADA ... 19

DIFFÉRENCES DE RENDEMENT ENTRE 1996, 1999 ET 2004... 20

DIFFÉRENCES DE RENDEMENT SELON LE SEXE ... 23

DIFFÉRENCES DE RENDEMENT SELON LA LANGUE... 24

ATTENTES PANCANADIENNES QUANT AU RENDEMENT À L’ÉVALUATION EN SCIENCES 2004 ... 25

RÉSULTATS SELON LES INSTANCES ... 27

Aperçu du rendement par niveau ... 27

COLOMBIE-BRITANNIQUE ... 31

ALBERTA ... 33

SASKATCHEWAN ... 36

MANITOBA ... 39

ONTARIO ... 42

QUÉBEC ... 47

NOUVEAU-BRUNSWICK (ANGLOPHONE) ... 52

NOUVEAU-BRUNSWICK (FRANCOPHONE) ... 55

NOUVELLE-ÉCOSSE (ANGLOPHONE) ... 58

NOUVELLE-ÉCOSSE (FRANCOPHONE) ... 61

ÎLE-DU-PRINCE-ÉDOUARD ... 64

TERRE-NEUVE-ET-LABRADOR ... 67

TERRITOIRES DU NORD-OUEST ... 70

YUKON ... 73

(6)

APPRENTISSAGE DES SCIENCES : CONTEXTE CANADIEN ... 76

QUESTIONNAIRES DU PIRS ... 76

CADRE CONCEPTUEL – LES FACTEURS QUI INFLUENCENT L’APPRENTISSAGE... 76

POPULATIONS ET ÉCHANTILLONS ... 77

Erreur d’échantillonnage ... 77

OBJECTIF ET STRUCTURE DU RAPPORT CONTEXTUEL ... 78

PERCEPTIONS DES ÉLÈVES ... 79

Observations statistiques ... 79

MILIEU FAMILIAL DES ÉLÈVES ... 79

Langue utilisée ... 79

Niveau d’instruction des parents ... 80

Appui à la maison ... 80

Ressources à la maison ... 80

CARACTÉRISTIQUES PERSONNELLES ... 81

Aspirations éducatives ... 81

Importance de la réussite à l’école et en sciences... 81

Activités extrascolaires liées au travail scolaire et aux sciences ... 81

TÉLÉVISION ... 82

PERCEPTION DES SCIENCES ... 82

MOTIVATION ET SES FACTEURS ... 82

VIE À L’ÉCOLE ... 83

Activités et usage des ressources dans les cours de sciences... 83

Activités en classe ... 83

Usage des ressources ... 84 GRAPHIQUES S-1 À S-57 ... 86-114

(7)

PERSONNEL ENSEIGNANT ET ENSEIGNEMENT ... 115

FORMATION ET EXPÉRIENCE DU PERSONNEL ENSEIGNANT ... 115

FACTEURS INFLUENÇANT LA MANIÈRE D’ENSEIGNER... 116

Taille des classes ... 116

Facteurs associés aux élèves ... 116

Ressources et politiques ... 117

POINTS DE VUE SUR LA NATURE ET L’APPRENTISSAGE DES SCIENCES ... 117

Nature des sciences ... 117

Activités en classe ... 118

Évaluation des élèves ... 118

GRAPHIQUES T-1 À T-45 ... 119-141

CONTEXTE SCOLAIRE... 142

CARACTÉRISTIQUES SCOLAIRES ... 142

Milieu scolaire ... 142

Caractéristiques des élèves ... 143

EFFECTIF DES CLASSES ET DISPOSITIONS RELATIVES AUX COURS DE SCIENCES... 143

FACTEURS LIMITANT LA CAPACITÉ PÉDAGOGIQUE DE L’ÉCOLE ... 144

GROUPEMENT PAR APTITUDES ET CHOIX DE COURS ... 145

AIDE AUX ÉLÈVES ... 145

POINTS DE VUE SUR L’APPRENTISSAGE ET SUR L’APPUI APPORTÉ À L’ÉCOLE ... 146

GRAPHIQUES P-1 À P-30 ... 147-161 FACTEURS CONTEXTUELS ET RENDEMENT ... 162

QUESTIONNAIRE DE L’ÉLÈVE ... 163

Milieu et aspirations des élèves ... 163

Expérience scolaire ... 164

Activités extrascolaires ... 164

QUESTIONNAIRE DE L’ENSEIGNANTE OU DE L’ENSEIGNANT ... 165

QUESTIONNAIRE DE L’ÉCOLE ... 165

(8)

CONCLUSION ... 166

RÉSULTATS GÉNÉRAUX DES DEUX GROUPES D’ÂGE ... 166

RENDEMENT INFÉRIEUR AU NIVEAU 1 ... 167

COMPARAISON AVEC LES ÉVALUATIONS INTERNATIONALES ... 167

ATTENTES DU PUBLIC ... 168

ÉCARTS ENTRE LES GROUPES D’ÂGE ET LES SEXES ... 168

ÉCARTS ENTRE GROUPES LINGUISTIQUES ... 168

RÉSULTATS PAR INSTANCE ... 168

CONTEXTE DE L’APPRENTISSAGE DES SCIENCES ... 169

DERNIERS COMMENTAIRES ... 169

ANNEXE ... 170

(9)

CONTEXTE DE CE RAPPORT

Le présent document est le rapport public sur les résultats de l’évaluation pancanadienne du rendement en sciences des élèves de 13 et de 16 ans, administrée au printemps 2004 par le Conseil des ministres de l’Éducation (Canada) [CMEC] dans le cadre de l’actuel Programme d’indicateurs du rendement scolaire (PIRS).

Depuis 1993, le CMEC administre le PIRS, un programme cyclique d’évaluations pancanadiennes portant sur le rendement des élèves en sciences, en lecture, en écriture et en mathématiques. Ces évaluations mesurent, à l’échelle provinciale, territoriale et pancanadienne, le rendement des élèves et le contexte de l’apprentissage dans le but d’éclairer les décisions des gouvernements et des

responsables de l’élaboration des politiques prises par rapport aux programmes offerts et aux ressources affectées aux écoles. Elles ne visent aucunement à mesurer le rendement des écoles ni celui des élèves pris individuellement mais plutôt à évaluer la prestation des programmes d’un bout à l’autre du Canada et au sein de chaque instance1.

L’Évaluation en Sciences III du PIRS (2004) est la troisième d’une série d’évaluations en sciences. Ses résultats sont comparés à ceux d’évaluations similaires administrées en 1996 et 1999.

Outre les résultats du Canada et des diverses instances, ce rapport public offre un aperçu du cadre conceptuel et des critères sur lesquels se fonde le test. De plus, il décrit brièvement le processus d’élaboration et de modification des instruments d’évaluation. Un exposé préliminaire des données ainsi que les résultats d’un processus

pancanadien d’établissement des attentes, dans le cadre duquel les résultats obtenus par les élèves sont comparés aux attentes établies par un groupe pancanadien, sont inclus.

Une facette importante de cette évaluation est la collecte de données contextuelles sur les possibilités qu’ont les élèves d’apprendre les sciences et sur leur attitude à l’égard des sciences ainsi que d’autres renseignements sur leurs intérêts et activités. D’autres renseignements contextuels ont été recueillis auprès des directrices et directeurs d’écoles et des enseignantes et enseignants de sciences. Ce rapport analysera quelques-unes de ces données.

Au cours des prochains mois, le CMEC publiera le rapport technique de cette évaluation, qui comportera une analyse statistique plus détaillée et une présentation plus exhaustive de la méthodologie utilisée.

INTRODUCTION

Encadré 1

Rapports du PIRS

Deux rapports seront publiés relativement à cette évaluation

• Le présent rapport public, qui résume les résultats et la façon dont ils ont été obtenus et qui analyse quelques-unes des données recueillies grâce à des questionnaires administrés aux élèves, au personnel enseignant et aux directrices et directeurs d’écoles sur le contexte de l’enseignement et de l’apprentissage des sciences.

• Un rapport technique, généralement publié quelques mois après le rapport public, qui décrit de façon plus exhaustive l’élaboration et l’administration de l’évaluation et qui

comporte des données plus complètes et détaillées. Ce rapport est destiné aux chercheuses et chercheurs ainsi qu’aux fonctionnaires du secteur de l’éducation.

Le rapport public est également accessible sur le site Web du CMEC à www.cmec.ca.

1Dans le présent document, le terme « instance » désigne les « provinces » et « territoires ».

(10)

PROGRAMME D’INDICATEURS DU RENDEMENT SCOLAIRE

Renseignements généraux

Les Canadiennes et Canadiens veulent que leurs enfants reçoivent la meilleure éducation possible. Nos enfants ont-ils l’aptitude à raisonner, à résoudre les problèmes et à communiquer dont ils ont besoin pour relever les défis de leur avenir?

Afin de fournir aux instances un contexte pancanadien et international plus large pour répondre à cette importante question, les ministères de l’Éducation prennent part depuis le milieu des

années 80 à un éventail d’études. Sur le plan international, par l’entremise du CMEC, ils participent au Programme international des indicateurs de l’enseignement de l’Organisation de coopération et de développement économiques (OCDE), y compris le Programme international pour le suivi des acquis des élèves (PISA) 2000 et 2003, auquel plus de 40 pays prennent part. Les instances participent également sur une base individuelle à diverses études sur le rendement, telles que la Reading Literacy Study (étude sur la compréhension de l’écrit) de l’Association internationale pour l’évaluation du rendement scolaire (AIE), la TEIMS (Tendances de l’enquête internationale sur les mathématiques et les sciences) et la Progress in International Reading Literacy Study – PIRLS (étude sur le progrès international de la compréhension de l’écrit). La plupart des instances mènent également leurs propres évaluations du rendement des élèves à divers moments de leur scolarité.

Puisque tous les ministres de l’Éducation cherchent à porter leurs systèmes au plus haut niveau possible d’efficacité et de qualité, ils reconnaissent la nécessité d’agir ensemble pour évaluer ces systèmes dans le contexte du Canada. Dans la mesure où tous les élèves du Canada acquièrent des aptitudes communes dans les matières clés que sont la langue, les mathématiques et les sciences, ces matières constituent le terrain commun pour l’évaluation du rendement à l’échelle pancanadienne.

Par conséquent, les résultats dans ces matières scolaires sont susceptibles de servir d’indicateurs utiles du rendement des systèmes d’éducation.

Dans le but d’étudier le rendement des élèves du Canada et d’en rendre compte, le CMEC a créé en 1989 le Programme d’indicateurs du rendement scolaire (PIRS). Dans un protocole d’entente signé en décembre 1991, les ministres ont convenu d’évaluer le rendement des élèves de 13 et de 16 ans en lecture, en écriture et en mathématiques. En 1993, ils ont décidé d’y ajouter l’évaluation du rendement en sciences. Les renseignements recueillis grâce aux évaluations du PIRS permettent aux instances d’établir leurs priorités en éducation et de planifier des améliorations à leurs programmes.

Il a été décidé d’administrer ces évaluations chaque année, au printemps, tel qu’indiqué au Tableau 1.

Tableau 1

Calendrier des évaluations du PIRS

Mathématiques Lecture et écriture Sciences

1993 1994 1996 (évaluation écrite et pratique)

1997 1998 1999 (évaluation écrite et pratique)

2001 2002 (écriture) 2004 (évaluation écrite)

Les rapports des évaluations administrées depuis 1996 sont disponibles dans les deux langues officielles sur le site Web du CMEC à www.cmec.ca sous l’option « PIRS ». Pour les rapports antérieurs, il suffit de communiquer directement avec le CMEC.

(11)

CARACTÉRISTIQUES DES ÉVALUATIONS DU PIRS

Cadre conceptuel et critères

Comme les programmes d’études varient d’une région à l’autre du pays, il est à la fois complexe et délicat de comparer les données des évaluations. Les jeunes de toutes les instances du Canada acquièrent néanmoins des habiletés similaires en lecture et écriture, en mathématiques et en sciences.

Depuis la création du PIRS, des équipes d’élaboration composées de représentantes et représentants de diverses instances ont coopéré avec le personnel du CMEC pour consulter l’ensemble des instances et établir un cadre conceptuel commun et des critères pour chaque matière évaluée. Ce cadre conceptuel et ces critères représentent les connaissances et les habiletés généralement reconnues que les élèves sont censés acquérir au cours de leur éducation primaire et secondaire.

Pour chaque matière, diverses filières (ou domaines), qui sont des façons d’organiser l’évaluation, ont été définies. Puis, des ensembles de critères (et des instruments d’évaluation distincts) ont été mis au point pour évaluer les connaissances et les habiletés acquises dans le cadre des différentes filières des programmes d’études. Ainsi, en mathématiques, un instrument a été conçu pour évaluer les

connaissances en contenu mathématique et un autre pour évaluer l’aptitude à résoudre les problèmes.

En sciences, deux instruments distincts évaluent le rendement à des tâches écrites et à des tâches pratiques2. Enfin, une évaluation en lecture et une évaluation en écriture ont été élaborées pour mesurer les habiletés langagières.

Cinq niveaux de rendement

Les critères de rendement3 ont été décrits sur une échelle de cinq niveaux représentant un continuum de connaissances et d’habiletés acquises par les élèves tout au long de leur expérience scolaire primaire et secondaire. Les critères du niveau 1 sont représentatifs des connaissances et des habiletés généralement acquises au début de l’éducation primaire et ceux du niveau 5 caractérisent les

connaissances et les habiletés acquises par les élèves plus doués suivant des cours de sciences spécialisés vers la fin de leur programme d’études secondaires.

Il convient de souligner que les mêmes instruments d’évaluation ont été administrés aux deux groupes d’âge (13 et 16 ans) afin de mesurer l’acquisition de connaissances et d’habiletés par les élèves qui comptent plus d’années de scolarité. Lors de la phase de conception du cadre et des critères d’évaluation, les équipes d’élaboration ont conçu des instruments selon lesquels la plupart des élèves de 13 ans devraient se classer au niveau 2 ou à un niveau supérieur et la plupart des élèves de 16 ans devraient se classer au niveau 3 ou à un niveau supérieur. Pour les élèves de 16 ans en particulier, le nombre de cours spécialisés terminés dans la matière évaluée devrait influencer grandement le niveau de rendement prévu. Malgré ces différences possibles dans les cours choisis par chaque élève, les évaluations du PIRS devraient toujours aider à déterminer si les élèves ayant à peu près le même âge atteignent un même niveau de rendement.

Il importe également de savoir que les écarts entre les niveaux successifs sont inégaux. À titre d’exemple, l’écart de rendement entre les niveaux 2 et 3 a tendance à être plus important que celui entre les niveaux 4 et 5. À la page 8 de ce rapport, la section « Cadre conceptuel et critères de l’évaluation en sciences» du PIRS donne plus d’information sur les niveaux de rendement ainsi que des exemples de questions et de réponses de la part des élèves.

2 Seul le volet écrit de l’évaluation en sciences a été administré en 2004.

3 Voir la section « Cadre conceptuel et critères de l’évaluation en sciences » du PIRS à la page 8.

(12)

4 Conseil des sciences du Canada, À l’école des sciences : la jeunesse canadienne face à son avenir, rapport 36, Ottawa, Conseil des sciences du Canada, 1984.

5 Conseil des ministres de l’Éducation (Canada), Cadre commun de résultats d’apprentissage en sciences de la

Évaluation des programmes, non des élèves

Dans les évaluations du PIRS, le rendement individuel des élèves n’est jamais exprimé et il n’est jamais comparé à celui d’autres élèves. Les évaluations du PIRS sont des outils qui aident à mesurer l’efficacité du système d’éducation de chaque instance dans l’enseignement des matières évaluées. Elles ne peuvent se substituer à celles menées par le personnel enseignant, les commissions et conseils scolaires et les ministères de l’Éducation. Elles ne servent pas non plus à établir des comparaisons entre écoles ou entre districts scolaires. Les rapports ne portent que sur les résultats à l’échelle du Canada et des instances.

Harmonisation des instruments d’évaluation en français et en anglais

Dès le départ, les instruments utilisés dans toutes les évaluations du PIRS ont été conçus par des

éducatrices et éducateurs francophones et anglophones qui travaillaient ensemble dans le but de prévenir les biais attribuables à la langue. Lors de l’administration des épreuves, les élèves devaient répondre aux mêmes questions et résoudre les mêmes problèmes en français qu’en anglais. On a également réalisé une analyse linguistique de chaque question et de chaque problème pour s’assurer que les items fonctionnaient de la même manière en français et en anglais. Lors des séances de correction, les correctrices et correcteurs francophones et anglophones ont été conjointement formés et ont ensuite effectué ensemble la correction. Les résultats issus des deux groupes linguistiques et présentés dans ce rapport peuvent donc être comparés avec un degré raisonnable de confiance.

Évaluations au fil des ans

Il y a un autre facteur important dont il faut tenir compte : les répercussions des changements apportés au fil des ans aux programmes d’études et à l’exercice de la profession enseignante, soit en raison de nouvelles découvertes en éducation, soit en raison du rôle social changeant de l’éducation aux yeux de la population. Par conséquent, pour toutes les matières évaluées, les évaluations du PIRS conservent suffisamment d’items d’un cycle à l’autre pour permettre des comparaisons longitudinales du rendement scolaire et incorporent assez de changements pour tenir compte de l’évolution des politiques et des pratiques liées à l’éducation.

Dans le cas de l’Évaluation en Sciences III du PIRS (2004), quelques critères ont été modifiés légèrement et un petit nombre de questions ont été changées en raison de l’évolution des sciences et de

l’enseignement de cette matière depuis l’évaluation précédente.

Enseignement des sciences au Canada

Au cours des deux dernières décennies, beaucoup d’attention a été portée, au Canada comme sur la scène internationale, à l’importance de l’enseignement des sciences pour former une population apte à participer pleinement aux changements politiques et sociaux dont fait l’objet une société de plus en plus technologique. Depuis la publication en 1984 par le Conseil des sciences du Canada d’un rapport révélateur intitulé À l’école des sciences : la jeunesse canadienne face à son avenir4 jusqu’à la sortie en 1997 du Cadre commun de résultats d’apprentissage en sciences de la nature5, fruit du Protocole pancanadien du CMEC pour la collaboration en matière de programmes scolaires, en passant par la publication de La culture scientifique au travail 6 par Le Conference Board du Canada, l’importance d’enseigner à tous les élèves les sciences de façon stimulante, pertinente et accessible est soulignée.

(13)

Depuis le début des années 90, l’élaboration des programmes d’études au Canada et dans d’autres pays met l’accent sur l’importance d’inculquer à la population une culture scientifique tout en offrant aux élèves qui présentent des aptitudes et un intérêt particuliers pour les sciences la possibilité de croître dans un milieu d’apprentissage stimulant. L’importance croissante du rôle des sciences, de la technologie, de la société et de l’environnement (STSE) dans les nouveaux programmes d’études témoigne de l’influence de ces rapports et d’autres publications similaires. Le Programme cadre des sciences pour les provinces atlantiques, publié

en 1997 et utilisé dans la plupart des provinces atlantiques, offre un bon exemple du type d’élaboration conjointe des programmes d’études qui met à profit le principe sous-jacent d’un enseignement efficace des sciences.

Le Cadre conceptuel et les critères de

l’évaluation en sciences du PIRS témoignent de l’intention de plusieurs de ces initiatives récentes.

Bien que le processus d’enseignement et

d’apprentissage des sciences soit affiné d’année en année, le cadre et les critères utilisés en 2004 sont essentiellement les mêmes qu’en 1996 et 1999, ce qui facilite la comparaison des résultats des trois évaluations – une caractéristique importante du PIRS.

Apprentissage des sciences

Les sciences sont davantage qu’un ensemble de connaissances et de théories complexes et abstraites sur l’univers ou qu’une série de processus orientant la recherche et la découverte scientifiques. Bien que ces deux facettes des sciences soient importantes aux yeux des scientifiques de métier, les sciences doivent, pour être efficacement apprises, avoir trait au quotidien des élèves et les inciter à participer au processus d’apprentissage du monde qui les entoure. Tous les élèves apprennent plus efficacement par l’entremise d’une observation guidée et dirigée et d’expériences pratiques leur permettant

d’acquérir des connaissances et des compétences pertinentes et applicables dans leur vie de tous les jours.

Évaluation de la culture scientifique

Pour beaucoup d’élèves, l’Évaluation en Sciences III du PIRS aura peut-être été une expérience plutôt différente par rapport aux autres tests. Au lieu de mettre l’accent sur la simple mémorisation d’information, elle demandait aux élèves d’appliquer leurs connaissances scientifiques dans des situations réelles de leur vie.

Encadré 2

Enseignement des sciences sur le Web

Le Consortium pour les sciences du PIRS a dressé une liste de sites Web utiles, qui constitue une ressource pour les personnes intéressées.

Loin d’être complète, cette liste constitue néanmoins une ressource commune pour les personnes qui enseignent les sciences partout au Canada.

Cette liste est accessible sur le site Web du CMEC à www.cmec.ca/pirs.

Encadré 3

Trousse d’évaluation : tâches pratiques

L’administration des tâches pratiques lors des évaluations en sciences de 1996 et 1999 a suscité beaucoup d’intérêt de la part des enseignantes et enseignants en sciences du Canada.

Dans le but d’offrir un outil d’évaluation au personnel enseignant, le CMEC a publié un ensemble d’items utilisés dans le cadre d’évaluations pratiques antérieures. Les écoles sont invitées à s’en servir comme bon leur semble.

Cet ensemble est accessible sur le site Web du CMEC à www.cmec.ca/pirs.

(14)

Dans le volet écrit, commun aux trois évaluations, les connaissances des concepts scientifiques et leur application à la société ainsi que la compréhension de la nature des sciences étaient mesurées à l’aide de questions à choix multiple et de questions à réponse écrite. Les questions étaient regroupées selon des scénarios communs qui exigeaient l’application des connaissances dans des situations connues des jeunes.

Bien que l’acquisition des aptitudes en recherche scientifique soit universellement reconnue comme une facette essentielle de l’apprentissage des sciences, l’évaluation de ces aptitudes, particulièrement à grande échelle, a souvent été perçue comme difficile, voire impossible. Lors des Évaluations en Sciences du PIRS 1996 et 1999, des tâches pratiques simples invitaient les élèves à appliquer leur aptitude en recherche scientifique et leur capacité à résoudre les problèmes. Malheureusement, des contraintes budgétaires et autres n’ont pas permis l’administration de ces tâches pratiques en 2004.

Les rapports publics des évaluations de 1996 et 1999 donnent plus d’information sur cette facette des évaluations7.

Postulats principaux et limites de cette évaluation

Le postulat principal de cette évaluation est que les cinq niveaux de rendement représentent le progrès potentiel de tous les élèves de l’échantillon. Or, tous les élèves ne suivent pas nécessairement des cours de sciences structurés à chaque année de leurs études secondaires. Comme l’échantillon est constitué d’élèves de 13 et de 16 ans, certains d’entre eux, surtout parmi les plus âgés des

deux groupes, peuvent n’avoir suivi aucun cours de sciences depuis au moins deux ans. De plus, les élèves ne suivent pas les cours de sciences dans le même ordre dans toutes les instances. Le nombre de cours obligatoires, leur degré de spécialisation disciplinaire et l’importance attachée à certains domaines varient également d’une instance à l’autre. À titre d’exemple, certains élèves peuvent suivre plusieurs cours liés aux sciences biologiques et environnementales et s’abstenir de prendre des cours en sciences physiques. De plus, les connaissances antérieures en sciences des élèves peuvent être très différentes. C’est pourquoi le Cadre conceptuel et les critères de l’évaluation en sciences du PIRS ont été initialement rédigés pour refléter l’ensemble des connaissances et des habiletés dont les élèves devraient faire preuve dans les quatre domaines du cadre conceptuel de l’évaluation.

Bien que le contenu de l’Évaluation en Sciences III du PIRS s’inspire des programmes de sciences en vigueur à l’échelle du Canada, il présente néanmoins certaines limites. Il porte sur les connaissances et les habiletés mesurables au moyen d’un instrument d’évaluation écrit seulement. Les habiletés et les connaissances évaluées à l’aide de tâches pratiques ne sont pas visées par l’évaluation administrée en 2004.

(15)

Tableau 2

Aperçu de l’Évaluation en Sciences III du PIRS (2004)

Canada, soit l’ensemble des 10 provinces et 2 des 3 territoires1 Élèves de 13 et de 16 ans

(Ces deux populations ont répondu aux mêmes questions.) 25 700 élèves

13 900 élèves de 13 ans 11 800 élèves de 16 ans Les deux langues officielles 19 300 élèves anglophones 6400 élèves francophones2

Cadre conceptuel et critères de l’évaluation en sciences du PIRS3 Tous les élèves ont rempli un court test de classement en

sciences en fonction duquel un ensemble précis de questions leur a été assigné.

Tous les élèves ont rempli un questionnaire de l’élève.

Ils disposaient de 2 h 30 pour remplir l’évaluation et de 30 minutes pour remplir le questionnaire.

Le personnel enseignant et les directrices et directeurs d’écoles ont rempli leur propre questionnaire.

Rapportés pour l’ensemble du Canada Rapportés en fonction de la langue Rapportés pour chaque instance

Attentes pancanadiennes établies par un groupe largement représentatif de la population du Canada

Cinq niveaux de rendement Rapport public (le présent rapport) Rapport technique (publication à venir) Instances participantes

Populations échantillonnées

Nombre d’élèves participants

Langues dans lesquelles l’évaluation a été élaborée et administrée

Cadre conceptuel

Administration de l’évaluation

Résultats

Correction Rapports

1 Le Nunavut n’a pas participé à cette évaluation.

2 Cinq provinces où les deux groupes linguistiques sont suffisamment importants (le Manitoba, l’Ontario, le Québec, le Nouveau-Brunswick et la Nouvelle-Écosse) ont choisi de publier les résultats pour chacun d’eux. Au Manitoba, les élèves du programme d’immersion française ont subi l’évaluation en français.

3 Contrairement aux évaluations précédentes du PIRS, le volet des tâches pratiques n’a pas été administré en 2004.

(16)

CADRE CONCEPTUEL ET CRITÈRES

CADRE CONCEPTUEL ET CRITÈRES DE L’ÉVALUATION EN SCIENCES DU PIRS

Le Cadre conceptuel et les critères de l’évaluation en sciences du PIRS ont été élaborés grâce à un processus exhaustif de consultations d’éducatrices et éducateurs et de responsables de l’élaboration des politiques de l’ensemble des instances. Ils reflètent les principes décrits précédemment dans ce rapport relativement à l’enseignement des sciences.

Bien que ce cadre ne vise pas à énumérer l’ensemble des connaissances, des concepts et des compétences acquis par l’apprentissage des sciences, il propose, à l’aide de cinq niveaux de rendement, dont la complexité va croissante de 1 à 5, un échantillon du savoir scientifique qui doit généralement être acquis au fil de l’éducation primaire et secondaire.

Chaque question de l’évaluation mesure au moins un critère, mais tous les critères ne sont pas évalués, puisqu’il y a plus de 300 critères mais seulement 129 questions.

Le cadre conceptuel est défini en fonction d’une série de filières ou façons d’organiser les programmes d’études.

Les questions sur les concepts scientifiques mesuraient les connaissances des élèves dans les domaines suivants :

• connaissances et concepts scientifiques – sciences physiques — chimie – sciences de la vie — biologie – sciences physiques — physique – sciences de la Terre et de l’espace

• nature des sciences

• liens entre les sciences, la technologie et la société

Les questions ont également porté sur le savoir conceptuel et la compréhension, le savoir procédural et les habiletés ainsi que la capacité à résoudre des problèmes à l’aide des sciences.

Les questions qui évaluaient le savoir conceptuel et la compréhension demandaient aux élèves :

• de décrire, d’expliquer ou de définir des concepts;

• de donner des exemples appropriés de concepts;

• de suggérer de nouvelles façons de représenter des concepts.

Les questions qui évaluaient le savoir procédural et les habiletés demandaient aux élèves :

• de reconnaître à quel moment une procédure particulière devait être utilisée;

• de proposer des marches à suivre pour résoudre des problèmes particuliers;

• de modifier des marches à suivre connues afin de résoudre de nouveaux problèmes.

Les questions qui évaluaient la capacité à résoudre des problèmes à l’aide des sciences demandaient aux élèves :

• de formuler des problèmes;

• d’utiliser diverses stratégies pour résoudre des problèmes;

• de trouver des solutions à des problèmes;

(17)

CRITÈRES D’ÉVALUATION ET TRAVAUX TYPE PAR NIVEAU – RÉSUMÉ

À chaque niveau, les travaux types présentés comportent des questions à choix multiple et des questions à réponse écrite. La bonne réponse aux questions à choix multiple est indiquée et des exemples de réponses acceptables pour les questions à réponse écrite8 sont donnés.

Au niveau 1, l’élève peut :

• décrire des propriétés physiques des objets;

• distinguer les êtres vivants des êtres non vivants;

• reconnaître que l’énergie apparaît sous différentes formes;

• reconnaître que les objets dans l’univers changent;

• démontrer qu’il peut mener des recherches en sciences avec soin et justesse;

• nommer diverses technologies importantes pour la société.

L’excursion

Un groupe d’élèves en sciences fait une excursion de deux jours en Gaspésie.

Durant l’excursion, les élèves vont bénéficier davantage de la lumière du jour qu’en toute autre période de l’année.

En quel mois se déroule leur excursion?

A. mars * B. juin

C. septembre D. décembre

8 Pour les questions à réponse écrite, les élèves doivent répondre en quelques phrases ou étapes ou à l’aide d’un simple graphique.

Maria et Raphaël se servent d’une variété d’instruments dans leur recherche sur l’étang.

Nomme un instrument qu’ils pourraient utiliser dans leur recherche. Explique brièvement comment cet instrument pourrait les aider.

Instrument :

Comment cela les aide-t-il?

Critères du niveau 1

(18)

Au niveau 2, l’élève peut :

• classer des substances en fonction de leurs propriétés physiques;

• comparer des modes d’adaptation de divers animaux et plantes;

• reconnaître que la quantité totale d’énergie contenue dans l’univers est constante, mais que l’énergie peut être transformée et transférée;

• reconnaître que le mouvement et l’inclinaison de la Terre ont un effet sur le cycle des années, des jours et des saisons;

• expliquer qu’il existe plusieurs méthodes pour faire des recherches scientifiques et que les résultats obtenus à l’aide de ces différentes méthodes peuvent être contradictoires;

• nommer des technologies qui influent sur les sciences et citer des connaissances scientifiques qui amènent le développement de nouvelles technologies.

Alice décrit le comportement des oiseaux. Certains des comportements sont innés et d’autres sont appris.

Lequel des comportements suivants est le plus probablement appris par les oiseaux?

A. Ramener de la nourriture au nid pour nourrir leurs petits * B. Chercher de la nourriture près des tables de pique-nique

C. Dormir perchés sur des branches D. Bâtir des nids

Une randonnée en canot

Trois amis décident de célébrer la fête du Canada en faisant une courte randonnée en canot sur le lac voisin.

Le facteur de protection solaire

Hélène sait qu’une surexposition aux rayons ultraviolets est néfaste pour la peau. Elle conçoit une expérience afin de vérifier l’efficacité d’une lotion solaire ayant un facteur de protection solaire (F.P.S.) de 15, comparativement à une lotion solaire ayant un F.P.S. de 30.

Voici son hypothèse : « Plus le F.P.S. est élevé, meilleure sera la protection. » Voici ce dont elle a besoin :

– des échantillons de lotion solaire ayant un F.P.S. de 15 et de 30 provenant d’une même compagnie;

– 10 volontaires ayant le même type et la même couleur de peau.

Pourquoi Hélène a-t-elle sélectionné des volontaires ayant le même type de peau?

Critères du niveau 2

(19)

Au niveau 3, l’élève peut :

• comparer et classifier des substances à partir de leurs propriétés chimiques;

• reconnaître que certains êtres vivants sont unicellulaires alors que d’autres sont pluricellulaires et que les êtres vivants prennent part au processus de transfert d’énergie;

• comparer les forces gravitationnelles aux forces électriques;

• comparer les distances entre la Terre et la Lune, le Soleil et les autres étoiles;

• analyser des expériences et juger de leur valeur;

• nommer des domaines où les connaissances scientifiques et les technologies contribuent à résoudre des problèmes relatifs à la société.

Michelle sait que la lumière met environ 1 seconde pour passer de la Lune à la Terre.

Elle sait aussi que la lumière qui provient de l’étoile la plus près du système solaire, soit Alpha du Centaure, met environ 5 années à atteindre la Terre.

Combien de temps environ la lumière met-elle à franchir la distance entre le Soleil et la Terre?

A. 1 seconde * B. 8 minutes

C. 5 années D. 10 années

Michelle, astronome amateure

Michelle observe le ciel de nuit au moyen de ses jumelles et de son télescope.

Chaque hiver Richard joue une partie de hockey à la patinoire du village avec ses amis Vincent et Michelle. Vincent lance la rondelle vers la bande; la rondelle se rend ensuite à Michelle.

Trace les lignes illustrant le trajet de la rondelle de Vincent vers la bande, et de la bande vers Michelle.

Critères du niveau 3

A

B

E

(20)

Au niveau 4, l’élève peut :

• décrire et comparer des particules en se basant sur leurs composantes : les protons, les neutrons et les électrons;

• préciser l’importance et le rôle de l’ADN;

• analyser le mouvement uniforme en une dimension;

• expliquer diverses activités géologiques à partir de la tectonique des plaques;

• expliquer que l’avancement des sciences résulte des recherches effectuées et de l’évaluation qu’on en fait;

• donner un exemple où la science ou la technologie a influé sur notre conception du monde.

Au moment où la voiture de Rita se remet en mouvement, une cycliste la dépasse. Le graphique ci-dessous représente la variation des vitesses de la voiture de Rita et de la cycliste en fonction du temps.

Après 32 s, laquelle des deux sera en avance sur l’autre et par quelle distance?

A. La voiture, avec 96 m d’avance B. La cycliste, avec 96 m d’avance C. La voiture, avec 36 m d’avance

Une balade en voiture

Avant de partir se balader en voiture, Rita boucle sa ceinture de sécurité.

Critères du niveau 4

(21)

À la ferme Richard et sa famille travaillent ensemble sur leur ferme.

L’air contenu dans le sol est constitué, en partie de dioxigène, O2(g). Comme plusieurs autres substances, le dioxygène est réutilisé selon un cycle naturel.

Décris le cycle de l’oxygène dans la nature. Fais un dessin si cela est nécessaire.

(22)

En continuant leur marche, ils observent une falaise. Au haut de la falaise, ils remarquent quelques faucons pèlerin. Les faucons mangent des hirondelles et ces dernières mangent des moustiques.

Quel effet spécifique l’activité humaine peut-elle avoir sur ces espèces animales et sur d’autres espèces de la région?

Au niveau 5, l’élève peut :

• établir un lien entre les propriétés des substances et leur structure moléculaire;

• savoir que divers facteurs peuvent agir sur l’ADN et ainsi produire des mutations susceptibles d’être transmises aux descendants;

• analyser le mouvement uniforme en deux dimensions;

• évaluer des preuves de la théorie de la tectonique des plaques;

• expliquer des conditions à respecter pour l’évaluation des théories scientifiques;

• montrer l’influence d’opinions mondialement reçues sur le développement de la science et de la technologie.

L’excursion

Cindy et Jeff font une excursion dans les montagnes Rocheuses.

Le méthane, CH4(g), est un autre carburant utilisé dans certaines maisons. D’une part, le méthane et le propane sont des gaz lorsqu’ils se trouvent à la pression et à la température de la pièce. D’autre part, l’eau, H2O(l), est un liquide lorsqu’elle se trouve à la pression et à la température de la pièce.

Pourquoi, dans ces conditions, l’eau est-elle un liquide, alors que le méthane et le propane sont des gaz?

A. Le méthane et le propane contiennent plus d’hydrogène, ce qui les rend plus gazeux.

B. Les molécules d’eau sont non polaires et les molécules de méthane et de propane sont polaires.

* C. Les molécules d’eau sont polaires et les molécules de méthane et de propane sont non polaires.

D. Les molécules d’eau sont plus petites et sont donc plus compactées.

Critères du niveau 5

(23)

ÉLABORATION DES INSTRUMENTS D’ÉVALUATION

Évaluation de 1996

L’élaboration des composantes de l’Évaluation en Sciences du PIRS (1996) a débuté à l’automne 1993, lorsque le CMEC a créé un consortium de spécialistes en sciences et en évaluation provenant des ministères de l’Éducation de l’Alberta, de la Saskatchewan, de l’Ontario et du Nouveau-Brunswick (secteur francophone).

Ce consortium a travaillé de concert avec les autres ministères de l’Éducation.

Les programmes d’études des provinces présentent les sciences comme un continuum d’apprentissage du primaire à la fin du secondaire. Les critères d’évaluation ont été conçus de manière à refléter l’ensemble des connaissances et compétences scientifiques que les élèves au Canada doivent avoir acquises. Vu l’accent mis sur la compréhension conceptuelle des sciences, on a établi, le long du continuum, des points destinés à représenter cinq niveaux d’apprentissage.

Au fil de l’évolution du Cadre conceptuel et des critères de l’évaluation en sciences du PIRS, chaque ministère de l’Éducation a étudié les propositions à la lumière de ses programmes d’études, selon son propre mode de consultation. Des enseignantes et enseignants en exercice ainsi que des associations professionnelles ont également examiné le cadre conceptuel et les critères proposés. Des spécialistes universitaires en programmes et en évaluation, des scientifiques et des représentantes et représentants d’organismes non gouvernementaux ont également revu les critères.

Évaluation de 1999

En avril 1998, une équipe représentant la Saskatchewan, l’Ontario, le Québec, la Nouvelle-Écosse et Terre-Neuve-et-Labrador s’est réunie pour examiner les évaluations et les préparer en vue d’une nouvelle administration.

Dans tous ses travaux, l’équipe représentant le consortium de 1999 s’est efforcée de rendre le deuxième cycle de l’évaluation comparable à celui de 1996. Cet objectif a été pris en considération à chaque étape : élaboration des instruments, administration, correction, collecte et analyse des données et établissement des rapports.

Évaluation de 2004

Comme par le passé, une équipe pancanadienne a soigneusement revu le matériel de l’évaluation. Ses membres représentaient l’Ontario, le Québec, la Colombie-Britannique et la Nouvelle-Écosse.

Comme pour les évaluations précédentes, l’équipe représentant le consortium de 2004 a déployé tous ses efforts pour que le troisième cycle de l’évaluation soit le plus comparable possible aux évaluations antérieures. Lors de l’élaboration, elle a tenu compte de toutes les facettes du processus d’évaluation, depuis le cadre et les critères jusqu’à la production des rapports, en passant par la gestion des instruments, de la correction et des données.

Des 129 questions, une douzaine ont été remplacées, en majeure partie à cause de révisions linguistiques et d’autres raisons. Ces nouvelles questions ont été soigneusement mises à l’essai à l’automne 2003, avant que la dernière main ne soit apportée au matériel de l’évaluation de 2004.

ADMINISTRATION DE L’ÉVALUATION

Tous les élèves participants ont d’abord répondu à la section A, qui comportait 12 questions de niveau 3. Le personnel enseignant affecté à l’administration de l’évaluation a immédiatement corrigé cette section. À partir des résultats obtenus à ces 12 questions, on a demandé aux élèves de répondre à un ensemble de pages

désignées dans leur livret. La section B contenait 71 questions correspondant aux niveaux 1, 2 et 3, tandis que la section C contenait 71 questions de niveaux 3, 4 et 5, ce dernier niveau étant le plus élevé. Chaque section combinait des questions à choix multiple et des questions à réponse écrite.

(24)

CORRECTION DE L’ÉVALUATION DE 2004

Des équipes de correction très bien formées ont comparé les réponses des élèves aux critères de rendement élaborés. Les séances de correction, qui ont mis à contribution une soixantaine de correctrices et correcteurs, se sont déroulées à Moncton et Charlottetown en juin et juillet 2004. Des tests statistiques rigoureux ont été effectués de manière régulière afin de garantir la fiabilité de chaque correctrice et correcteur ainsi que l’uniformité dans l’application des critères de correction. De plus, des techniques complexes de gestion mises au point depuis la toute première évaluation du PIRS garantissaient que les cahiers et les résultats des élèves étaient gérés de façon fiable et efficace.

ATTENTES PANCANADIENNES QUANT AU RENDEMENT EN SCIENCES

Toute évaluation doit répondre à une question portant sur les attentes. « Quel pourcentage d’élèves canadiens devraient atteindre ou dépasser chacun des cinq niveaux de rendement, représentés par les questions, le cadre conceptuel et les critères? » La réponse à cette question doit être formulée non seulement par les éducatrices et éducateurs mais également par des

Canadiennes et Canadiens représentant le plus possible la diversité de la population du pays.

Pour faciliter l’interprétation des résultats des évaluations du PIRS, le CMEC réunit

régulièrement des éducatrices et éducateurs et d’autres personnes du Canada pour étudier le cadre conceptuel et les critères et revoir les instruments d’évaluation ainsi que les procédures de correction. Pour l’Évaluation en Sciences III, ces personnes ont assisté à l’une des trois séances organisées à la fin de l’été 2004 à Charlottetown, Ottawa et Winnipeg. Ce groupe anonyme se composait d’enseignantes et d’enseignants,

d’élèves, de parents, d’universitaires, de spécialistes des programmes, de responsables de la formation du personnel enseignant, de chefs d’entreprise, de leaders autochtones et communautaires et de membres d’organismes pancanadiens concernés par l’enseignement des sciences. Ses membres représentaient tout le Canada.

Ce groupe de 100 membres a examiné tous les instruments de l’évaluation, les procédures de correction et les résultats d’élèves pour déterminer quel pourcentage d’élèves de 13 et de 16 ans devraient atteindre chacun des cinq niveaux de rendement. Les membres du groupe avaient le plein accès à tous les renseignements concernant l’épreuve, y compris à l’échantillonnage d’élèves et aux différentes possibilités qu’avaient les élèves d’apprendre les sciences d’un bout à l’autre du pays.

Les attentes pancanadiennes quant au rendement des élèves en sciences ont été définies par voie de consensus. Plus précisément, on a demandé aux personnes participantes de répondre

indépendamment à la question suivante : « Quel pourcentage d’élèves canadiens devraient atteindre ou dépasser chacun des cinq niveaux de rendement, représentés par les questions, le cadre conceptuel et les critères? ».

Les réponses des membres du groupe à cette question ont été recueillies pour déterminer le Encadré 4

Quel a RÉELLEMENT été le rendement des élèves du Canada?

Pour que les évaluations du PIRS et les résultats qui en découlent puissent être comparés aux attentes réelles de la population du Canada à l’égard des élèves et des écoles, on a créé un groupe largement représentatif provenant d’un bout à l’autre du Canada et constitué

d’éducatrices et d’éducateurs ainsi que de représentantes et représentants du secteur privé et du grand public.

Lors des séances tenues à trois endroits différents au pays, les membres se sont penchés sur tous les instruments de l’évaluation et ont partagé leurs attentes quant au

rendement des élèves du Canada.

Les résultats de ces séances ont ensuite été comparés aux résultats actuels et intégrés au rapport public.

(25)

REMARQUES SUR L’INFORMATION STATISTIQUE

Intervalles de confiance

Dans la présente évaluation, le calcul des pourcentages s’appuie sur des échantillons d’élèves. Il s’agit donc d’estimations du

rendement réel qu’auraient atteint l’ensemble des élèves si tous avaient subi le test. Puisqu’une estimation fondée sur un échantillon est rarement exacte, la pratique courante veut qu’on fournisse une fourchette de pourcentages à l’intérieur de laquelle se situe le rendement réel. Cette fourchette de pourcentages est appelée

« intervalles de confiance ». L’intervalle de confiance est constitué par deux points extrêmes entre lesquels le résultat devrait se trouver dans 95 p. 100 des cas. Autrement dit, on peut estimer que le rendement réel de l’ensemble des élèves à une épreuve se situerait quelque part dans cet intervalle 19 fois sur 20, si on soumettait des échantillons différents de la même population à cette même épreuve.

Dans les graphiques du présent rapport, les intervalles de confiance sont représentés par . Dans les tableaux, les intervalles de confiance sont placés entre parenthèses. Si, pour deux groupes, les intervalles de confiance se chevauchent, les différences entre les deux ne sont pas significatives sur le plan statistique. Il est à noter que la taille de l’intervalle de confiance dépend de la taille de l’échantillon. Dans les provinces et territoires plus petits, un vaste intervalle peut indiquer des difficultés à obtenir un grand échantillon et ne reflète pas la compétence des élèves auxquels l’épreuve a été administrée.

RÉSULTATS DE L’ÉVALUATION EN SCIENCES 2004

Encadré 5

Niveaux de rendement

Dans le présent rapport, les graphiques relatifs aux niveaux de rendement sont fondés sur des résultats cumulatifs et montrent les pourcentages d’élèves ayant atteint ou dépassé chaque niveau. Chaque barre sur les graphiques représente le pourcentage d’élèves qui ont atteint ou dépassé un niveau de rendement et exclut les élèves qui n’ont pas atteint ce niveau. Par exemple, les barres du niveau 3 et des niveaux supérieurs représentent tous les élèves qui ont atteint les niveaux 3, 4 ou 5. Les élèves qui n’ont pas atteint le niveau 3 sont exclus.

Par conséquent, l’expression « élèves ayant atteint le niveau X » désigne les élèves qui ont atteint ou dépassé le niveau X.

Encadré 6

Comparaisons statistiques

Le rendement des élèves au Canada (et au sein de chaque instance) a été comparé à la proportion d’élèves ayant atteint ou dépassé chaque niveau de rendement dans chaque instance et à la répartition cumulative de ces proportions.

Les résultats étant ceux d’échantillons d’élèves de chaque instance, il est impossible d’affirmer avec certitude que ces résultats sont identiques à ceux qui auraient été obtenus si la totalité des élèves de 13 et de 16 ans avait été évaluée. Une statistique appelée erreur-type permet d’exprimer le degré d’incertitude quant aux résultats de l’échantillon en comparaison avec ceux de la population. L’erreur-type permet d’élaborer un intervalle de confiance, soit une fourchette de résultats au sein de laquelle il est possible de dire que se situerait, avec une probabilité connue (95 p. 100, par exemple), le résultat de la population entière. L’intervalle de confiance de 95 p. 100 utilisé dans ce rapport représente une fourchette d’environ plus ou moins deux erreurs-types par rapport à la moyenne.

Les graphiques suivants servent de représentations des données numériques et, en tant que tels, ne peuvent pas toujours être interprétés avec le même degré de précision que les chiffres réels. Ceci est particulièrement vrai pour les faibles pourcentages et les intervalles de confiance de petite taille.

Pour des données plus précises, il suffit de consulter les tableaux numériques présentés dans l’annexe de ce rapport et dans le rapport technique qui paraîtra sous peu.

(26)

Différences

Dans le présent rapport, les termes « différence » et « différent », utilisés dans le contexte des niveaux et des pourcentages de rendement, signifient que la différence observée n’est pas le fruit du hasard.

D’un point de vue technique, ils désignent des écarts significatifs sur le plan statistique.

Différence statistique vs différence sur le plan éducatif

La signification statistique est déterminée à l’aide de formules mathématiques et dépend de facteurs tel l’échantillonnage. Que la différence entre les résultats ait une signification au niveau éducatif est une question d’interprétation. Il est possible qu’une différence statistiquement significative n’ait que peu de signification sur le plan éducatif (si la différence est très petite). Il y a également des situations où une différence perçue comme ayant une signification éducationnelle n’a en fait aucune signification statistique. À titre d’exemple, lorsque les rendements de 1996, 1999 et 2004 sont comparés, les différences statistiques ont peut-être peu de signification au niveau éducatif à la lumière de

changements même petits au plan du test. Toutefois, l’écart plus petit entre le niveau de rendement scolaire de n’importe quelle instance et le rendement pancanadien en 2004 comparativement à 1999 pourrait avoir une signification à caractère éducatif.

Pourcentages

Dans la plupart des graphiques du présent rapport, les pourcentages sont arrondis à la première décimale après la virgule.

GRAPHIQUE DE DÉMONSTRATION

Le graphique suivant a pour but de faciliter l’interprétation des intervalles de confiance utilisés dans ce rapport. Par exemple, il n’existe aucune différence notable entre la population L et les populations A, C, E, F, H, I, J et K, mais il y a d’importantes différences entre la population L et les populations B, D et G, car leurs intervalles de confiance ne se chevauchent pas.

PIRS SCIENCES 2004

Rendement par population avec intervalle de confiance

20 %

0 % 40 % 60 % 80 % 100 %

POPULATION A POPULATION B POPULATION C POPULATION D POPULATION E POPULATION F POPULATION G POPULATION H

POPULATION J POPULATION I

POPULATION K POPULATION L

(27)

RÉSULTATS AU CANADA

Le Graphique C1 compare les résultats globaux en combinant le rendement obtenu en 2004 par les deux groupes d’âge dans toutes les instances et dans les deux langues. Les tableaux statistiques sur lesquels s’appuient les différents graphiques se trouvent en annexe. Ils contiennent les pourcentages et les intervalles de confiance réels.

Comme on pouvait s’y attendre, puisque les élèves des deux groupes d’âge ont reçu des instruments identiques, un plus grand nombre d’élèves de 16 ans ont atteint des niveaux supérieurs. Ces données permettent d’affirmer avec un certain degré de certitude ce qui constituait auparavant des attentes.

GRAPHIQUE C1

PIRS SCIENCES 2004

CANADA - % des élèves par niveau de rendement et par âge

Niveau 1 Niveau 2 Niveau 3 Niveau 4 Niveau 5

20 %

0 % 40 % 60 % 80 % 100 %

élèves de 13 ans élèves de 16 ans

86,7 % 71,0 % 64,0 %

40,1 %

92,7 % 86,3 % 6,5 %

0,5 %

22,6 % 2,9 %

Plus de 70 p. 100 des élèves de 13 ans ont atteint le niveau 2, où ils ont démontré leur habileté à comparer des modes d’adaptation d’animaux et de plantes et à nommer des technologies qui influent sur les sciences ainsi que des connaissances scientifiques qui conduisent au développement de nouvelles technologies. Près des deux tiers des élèves de 16 ans ont atteint le niveau 3, où ils ont démontré leur habileté à comparer et à classer des substances à partir de leurs propriétés chimiques de même qu’à analyser des expériences et à juger de leur valeur.

Encadré 7

Rendement inférieur au niveau 1

La capacité de l’élève n’est qu’un des facteurs pouvant expliquer le classement à un tel niveau de rendement.

D’autres raisons peuvent expliquer ce classement, par exemple :

• l’école a désigné la capacité de l’élève sous le niveau 1, lui a assigné le résultat

« inférieur au niveau 1 » et a exempté l’élève;

• l’élève n’est pas suffisamment motivé pour répondre sérieusement à l’évaluation.

La proportion relativement élevée d’élèves qui n’ont pas atteint le niveau 1, notamment dans certaines instances, donnera lieu à une lecture minutieuse des résultats par les administratrices et administrateurs.

(28)

DIFFÉRENCES DE RENDEMENT ENTRE 1996, 1999 ET 2004

À la lumière des normes établies par l’équipe de conception comme étant le niveau 2 ou supérieur pour la majorité des élèves de 13 ans et le niveau 3 ou supérieur pour la majorité des élèves de 16 ans, les comparaisons suivantes peuvent être établies :

Épreuve écrite Tâche pratique Pourcentage d’élèves

de 13 ans ayant atteint ou dépassé le niveau 2

Pourcentage d’élèves de 16 ans ayant atteint ou dépassé le niveau 3

Résultats – Canada 1996 1999 2004

Épreuve écrite Tâche pratique Épreuve écrite

71,9 (0,8)

69,0 (0,8)

92,8 (0,7)

64,6 (1,2)

73,3 (0,8)

76,1 (0,8)

90,0 (1,0)

75,7 (1,4)

71,0 (0,8)

64,0 (0,9) Tableau 3

L’intervalle de confiance (± 1,96 fois l’erreur-type) des pourcentages est entre parenthèses.

(29)

GRAPHIQUE C2

PIRS SCIENCES 1996, 1999, et 2004 CANADA - % des élèves de 13 ans par niveau de rendement

Niveau 1 Niveau 2 Niveau 3 Niveau 4 Niveau 5

20 %

0 % 40 % 60 % 80 % 100 %

1996 1999 2004 0,5 %

0,8 % 0,3 %

5,5 %

2,9 % 8,5 %

40,1 % 53,3 % 43,0 %

73,3 % 71,0 % 71,9 %

86,3 % 88,1 % 88,8 %

GRAPHIQUE C3

PIRS SCIENCES 1996, 1999, et 2004 CANADA - % des élèves de 16 ans par niveau de rendement

Niveau 1 Niveau 2 Niveau 3 Niveau 4 Niveau 5

20 %

0 % 40 % 60 % 80 % 100 %

6,5 % 5,6 % 3,4 %

22,6 % 31,6 % 26,1 %

64,0 % 76,1 % 69,0 %

86,7 % 87,3 % 87,6 %

92,7 % 93,6 % 95,0 % 1996 1999 2004

L’examen de ces données suggère que les proportions relatives d’élèves ayant atteint chacun des niveaux de rendement sont demeurées relativement stables d’une année à l’autre.

(30)

Épreuve écrite Niveau 1 Niveau 2 Niveau 3 Niveau 4 Niveau 5

Élèves de 13 ans Plus de 85 % Plus de 70 % Plus de 40 % Entre 3 et 8,5 %

Moins de 1 %

Élèves de 16 ans Plus de 90 % Plus de 85 % Plus de 64 % Entre 23 et 32 % Entre 3,4 et 6,5 % Tableau 4

Stabilité du rendement en fonction du temps

Bien que le rendement ait augmenté à presque tous les niveaux pour les deux populations visées par les Sciences I du PIRS (1996) et les Sciences II du PIRS (1999), on note une diminution significative du rendement à la plupart des niveaux dans le cadre des Sciences III du PIRS (2004).

À titre d’exception aux tendances susmentionnées, la proportion d’élèves de 16 ans ayant atteint le niveau 2 est demeurée relativement stable. De même, on note une légère augmentation du rendement au niveau 5 en 2004.

Bon nombre d’explications peuvent justifier cette tendance relative à la baisse pour 2004. Bien que les données de cette évaluation ne puissent appuyer aucune de ces explications en particulier, certaines raisons méritent une analyse plus poussée :

• Une moins grande congruence entre les programmes d’études et un cadre d’évaluation qui est demeuré essentiellement le même depuis 1996.

• Un rapport moins étroit entre les pratiques en salle de classe, les stratégies d’apprentissage et les questions de test, au fil des années en question.

• Une plus grande importance donnée à la littératie et à la numératie dans les écoles, parfois, au détriment d’autres matières.

• Un sentiment de « fatigue liée à l’évaluation », autant chez les enseignantes et enseignants que chez les élèves, provenant des exigences plus grandes des programmes d’études et de la perception qu’une panoplie d’évaluations à grande échelle tant au niveau local, de l’instance, pancanadien et international causent des interruptions.

• Des changements aux politiques ou aux lignes directrices des instances qui pourraient avoir influencé cette évaluation.

Des données plus détaillées relativement aux évaluations antérieures se trouvent dans les rapports techniques, disponibles auprès du CMEC, et dans le rapport technique portant sur cette évaluation (à venir).

(31)

DIFFÉRENCES DE RENDEMENT SELON LE SEXE

Les graphiques C4 et C5 révèlent l’absence de différence significative entre le rendement des garçons et celui des filles à tous les niveaux, sauf au niveau 3 chez les élèves de 13 et de 16 ans, où les garçons ont obtenu des résulats supérieurs à ceux des filles. Un nombre légèrement plus grand de garçons de 13 ans ont atteint le niveau 3 ou un niveau supérieur. Chez les élèves de 16 ans, un nombre légèrement supérieur de filles ont atteint le niveau 1 ou un niveau supérieur. Ces données indiquent que les efforts déployés pour rendre l’enseignement des sciences plus pertinent et plus accueillant pour les filles continuent d’avoir une influence positive sur le rendement en sciences.

GRAPHIQUE C4

PIRS SCIENCES 2004

CANADA - % des élèves de 13 ans par niveau de rendement et par sexe

Niveau 1 Niveau 2 Niveau 3 Niveau 4 Niveau 5

20 %

0 % 40 % 60 % 80 % 100 %

Filles Garçons

2,7 % 3,1 % 0,4 % 0,6 %

71,7 % 70,4 % 42,0 %

38,3 %

86,0 % 86,7 %

GRAPHIQUE C5

PIRS SCIENCES 2004

CANADA - % des élèves de 16 ans par niveau de rendement et par sexe

Niveau 1 Niveau 2 Niveau 3 Niveau 4 Niveau 5

20 %

0 % 40 % 60 % 80 % 100 %

86,1 % 87,3 % 65,8 %

62,1 %

91,9 % 93,5 % 6,6 %

6,5 %

23,2 % 21,8 %

Filles Garçons

Références

Documents relatifs

[r]

Une fois confirmé par votre surveillant en ligne que la séance d’examen a été complétée avec succès, il vous sera demandé de détruire éventuelles feuilles de brouillon que vous

En fait, l’article augmente la première fois d’un pourcentage inconnu, puis la seconde fois de « 3% de plus que la première fois ».. Un élève, désigné par A, appelle t le taux

Calculer dans la colonne F le pourcentage que représente l’achat d’un kilo de pain dans un smic horaire.. Dans cette question, on suppose que le smic horaire est resté à 5,31 e

L’assureur de Maurice rembourse les voitures accidentées au prix du neuf moins 15% par année.. Maurice possédait une voiture achetée neuve 9

Parmi les filles, 20% sont latinistes et parmi les garçons 10% dont latinistes... Un matériel médical

[r]

Quel est en pourcentage, l’espace encore libre sur le disque dur dont s’affichent les propriétés ci-contre :..