• Aucun résultat trouvé

L’utilisation des tests de positionnement en anglais dans L’Enseignement Supérieur L’Enseignement Supérieur

1 Pratiques et dispositifs: quelques exemples

6. Les langues testées

1.7 L’utilisation des tests de positionnement en anglais dans L’Enseignement Supérieur L’Enseignement Supérieur

Jusqu’à l’enquête entreprise par l’Université de Grenoble en 2009, il n’existait aucune étude sur l’utilisation des tests de positionnement en anglais dans l’enseignement supérieur (Enquête Grenoble Universités 2009 : 3). L’usage des tests de positionnement, aussi bien en matière de tests utilisés que d’objectifs poursuivis, variait au sein d’une même université (ibid. :3). De ce constat est née la volonté d’en apprendre davantage sur les pratiques menées par les établissements d’enseignement supérieur en France en termes de positionnement des étudiants en anglais. Cette volonté s’est concrétisée en objectif de recension des tests de positionnement en anglais effectivement employés. Les initiateurs de l’étude espéraient que ce recensement constituerait

une aide au choix du test de positionnement le mieux adapté aux besoins des étudiants spécialistes d’autres disciplines en anglais (ibid. : 3).

Pour atteindre cet objectif, une enquête auprès des 72 établissements a été organisée. Dans le cadre de cette enquête, un questionnaire contenant 31 questions a été conçu et envoyé aux institutions concernées par le positionnement des étudiants en anglais (ibid. : 3). Les questions étaient, en partie, au format QCM et, en partie, ouvertes. Elles portaient sur les différents aspects liés aux tests en anglais, par exemple, sur le format du test et les résultats, les compétences évaluées, l’usage du test, le nombre de sessions organisées chaque année et le public concerné (ibid. : 3). Sur les 72 établissements contactés, 32 ont complété le questionnaire, ce qui constitue un retour de 44, 4 %. Environ deux tiers des institutions participant à l’enquête ont indiqué utiliser un test de positionnement, à savoir, 21 établissements. Ceux qui n’emploient pas de test ont fourni des raisons différentes dont la plus fréquente était de ne pas avoir de « nécessité de positionner les étudiants » (ibid.: 8). Seul un établissement a justifié la non-utilisation d’un test de positionnement par le « manque des moyens financiers » (ibid.: 8). Bien que les tests utilisés par les établissements soient divers, on reconnaît tout de même une régularité. L’Oxford

Quick Placement test est le plus fréquemment employé, suivi de DIALANG. Plus

de la moitié des institutions utilise des dispositifs non référencés dans le questionnaire, le plus souvent un « test maison » (ibid.:8).

En ce qui concerne le format des tests, la majorité des établissements, approximativement 62%, ont recours à un test informatique et 19% à un test mixte, combinant ce format avec un support papier. Ces chiffres démontrent l’usage très important des technologies numériques dans le domaine d’évaluation des compétences sur le terrain (ibid. : 11). Quant aux habiletés évaluées dans les tests, les compétences de réception sont ciblées beaucoup plus souvent que les compétences de production. La compréhension orale et écrite des candidats est testée avec la même fréquence dans un tiers des institutions (ibid. : 11). Par rapport à ce chiffre, les deux compétences de production sont évaluées beaucoup moins lors du positionnement des candidats, mais il existe un décalage considérable entre la production écrite et orale. Tandis que la production écrite est testée par environ 17% d’établissements, la production orale

139

est ciblée dans environ 6% de cas. L’interaction souffre également d’un taux d’évaluation faible. Ce résultat est lié á l’usage des technologies numériques qui favorisent le format QCM et, à l’heure actuelle, ont toujours des limites dans l’évaluation des tâches construites (Douglas 2010 :117). Bien que la recherche souligne que cet inconvénient puisse un jour être maîtrisé, l’utilisation des technologies numériques a eu pour effet de raréfier le format de la réponse construite (Douglas 2010 : 117). Or, l’emploi de ce format est plus naturel lors de l’évaluation des compétences productives, tant écrite qu’orale. Toutefois, il est possible de tester l’expression écrite en recourant aux tâches de format QCM. Dans le test POSILANG, l’expression écrite est également testée par des tâches au format QCM. En revanche, ce dernier ne convient pas du tout pour évaluer l’expression orale. Ces explications démontrent un lien direct entre l’usage d’un test informatique par la majorité d’institutions et le faible taux d’évaluation des compétences productives, notamment de la production orale, ainsi que de l’interaction. En revanche, il n´existe pas de corrélation entre le nombre de candidats passant un test et les compétences visées dans celui-ci (ibid: 11). Le nombre de participants aux tests de positionnement varie largement selon l’établissement, entre 40 et 5000. Toutefois, la production orale est uniquement évaluée par un seul établissement parmi les cinq dont le nombre de candidats dépasse 1500 personnes. L’interaction orale est également testée dans un seul établissement avec un grand nombre d’étudiants (ibid. : 11).

Quant à l’usage d’un test de positionnement, il varie en fonction des établissements. Ce type de test est utilisé pour former des groupes de niveau dans 34% de cas (ibid. : 12). Dans d’autres universités, le test de positionnement sert à des usages divers : fournir des informations pour l’apprenant ou pour l’institution, plus rarement servir de base pour une certification ou pour valider un niveau. Dans 3% des universités, les résultats à ce test sont utilisés pour la recherche (ibid. : 29)

De même, le format des résultats varie selon les universités. Ceux-ci sont donnés sous la forme d’un score ou d’un pourcentage de réussite par quasiment la moitié des établissements. Le reste des institutions fournit des résultats adossés au CECRL. Ils sont calculés pour chaque compétence par presque un quart d’institutions, tandis que 18 % informent les candidats de leur niveau global

uniquement. Le niveau global et les niveaux pour chaque compétence à la fois sont indiqués par environ 12% des universités (ibid. 14). L’adossement des résultats au CECRL par plus de la moitié des universités n’est pas étonnant, car il reflète l’impact important de ce référentiel sur l’évaluation en langues (Westhoff 2007 :676).

Cette étude menée par le département LANSAD de l’Université de Grenoble révèle deux choses importantes. Premièrement, l’usage des tests de positionnement préoccupe la grande majorité des universités françaises (Enquête Grenoble Universités : 3). Deuxièmement, les établissements cherchent à collaborer dans ce domaine avec d’autres universités. Ceci montre que le positionnement des candidats à l’aide des tests actuellement disponibles ne les satisfait pas complètement (ibid. : 3).

Notes:

1

Ces critères seront présentés plus bas dans le chapitre.

2

La définition de Carrol peut être traduite de la manière suivante : « Un testpsychologique ou éducatif est une procédure conçue pour déduire un certain comportement à partir duquel des inférences peuvent être opérées concernant certaines caractéristiques d’un individu » (Carrol 168: 46).

3

Le CECRL établit une distinction entre les différents types des compétences. Les deux grandes catégories distinguées sont les activités de communication langagière d’une part et les compétences linguistiques d’autre part.

4

Ces tests sont accessibles sur le site suivant :

a) tolearnenglish sur http:/tolearnenglish.com/test-de-niveau-anglais-grammaire.php),

b) e-anglais sur http://www.e-anglais.com/tests/index.html

c) ifg langues sur http://www.ifglangues.net

5 Voir la grille d’évaluation. La grille constitue un recueil de paramètres choisis selon des critères pertinents pour décrire et évaluer divers tests de positionnement présentés dans la suite de ce chapitre. Il existe d’autres grilles d’évaluation contenant des critères de description variables, dont deux seront décrites dans les sous-chapitres suivants. La grille présentée constitue un modèle parmi d’autres utilisés pour analyser et comparer les tests.

6

Ce modèle des spécifications sera présenté dans le troisième chapitre, consacré à la conception du test de positionnement POSILANG.

7 Cette deuxième composante des méthodes est désignée par « mode d’évaluation » dans notre grille.

8 Le mode d’évaluation de DIALANG et son impact sur la transparence de l’évaluation sera expliqué dans la partie consacrée à ce système d’évaluation, dans le deuxième chapitre.

9

Voir la note d’orientation, rédigée dans le cadre du Projet Innova-Langues (document de présentation, 2011). INNOVA est l’acronyme de : «INNOVAtion et transformation des pratiques de l’enseignement-apprentissage des langues dans l’enseignement supérieur ».

10

Ces qualités sont appelées « principes » par certains linguistes, par exemple, Brown (2010 :25), qui en distingue cinq.

11

Standards for educational and psychological testing constituent le code officiel de la pratique professionnelle aux Etats-Unis. Depuis les années 1950, ce document est publié toutes les dix ans environ par les trois associations professionnelles suivantes : American Educational Research Association, American Psychological Association et The National Council on Measurement in Education

(Chapelle 1999 : 265).

12

Affect renvoieau degré d’anxiété excessif causé par une procédure d’évaluation (Madsen 1983 : 179).

13 L’évaluation directe implique des tâches ouvertes. Celles-ci permettent la mise en œuvre d’habiletés complexes, qui ne sont pas limitées par des formats de réponse restrictifs.

14 La position de Messick se distingue de celle d’autres spécialistes qui considèrent cette forme de validité comme séparée. Les dénominations de celle-ci incluent « consequential validity » (Brown 2010 : 34) ou « washback validity » (Morrow 1986 :5). Ces dénominations soulignent non seulement le caractère spécifique de cette validité mais incorporent une dimension causale.

15 Tandis que l’influence des pratiques d’évaluation des compétences sur l’enseignement et l’apprentissage est connue sous le terme « washback » dans la linguistique appliquée, ce phénomène est résumé par le terme « backwash » dans le domaine éducatif général. Alderson & Wall (1993) notent qu’il n’y a pas de raisons de donner préférence à l’un de ces deux termes (Alderson & Wall 1993 : 115).

16 Alors que Fulcher & Davidson (2007) considèrent la validité en tant que propriété liée à l’usage d’un test, Chapelle (1999) établit une distinction entre les deux conceptions de cette notion (1999 : 258). La conception de validité en tant que propriété d’un test est ancienne tandis que, selon la conception moderne, la validité est considérée en tant qu’argument concernant l’interprétation et l’usage d’un test. Il n’est pas important pour la compréhension de l’argumentation exposée ici que Fulcher & Davidson (2007) ne fassent pas la distinction entre les conceptions ancienne et moderne de validité dans son argumentation.

17

Le rapport établi entre validité et authenticité est très ancien. L’interprétation du lien unissant ces deux notions est partagée par les chercheurs à l’heure actuelle. La grande majorité des linguistes assimile ces deux concepts l’un à l’autre, comme évoqué ci-dessus (Chapelle 1999 : 256).

18

http://www.iltaonline.com/

19

http://www.iltaonline.com/index.php?option=com_content & view=article & id=57 & Itemid=47

20

http://www.iltaonline.com/index.php?option=com_content & view=article & id=122 & Itemid=133

21

http://www.iltaonline.com/index.php?option=com_content & view=article & id=122 & Itemid=133

22

La conception de validité, mise en évidence par ILTA dans la ligne directrice citée, est traditionnelle car elle est considérée comme une caractéristique inhérente au test. Cette conception de la validité a été suivie par une conception de la validité en tant qu’argument concernant les inférences tirées à partir des scores : dans quelle mesure les interprétations et les usages des tests sont-ils justifiés ? (Chapelle 1999 : 258). Une conception plus récente de la validité est à la base de la paraphrase qui suit la ligne citée. Pour cette raison il y est question des inférences valables et non pas d’un test valable (Chapelle 1999 : 258).

23

http://www.iltaonline.com/index.php?option=com_content & view=article & id=122 & Itemid=133

24 La réponse correcte s’appelle la clé, tandis que les autres options sont appelées des distracteurs car elles détournent temporairement du bon choix (Purpura 2001: 1).

25 Il y a une seule exception à ce constat, l’item 4, où se trouvent deux phrases sémantiquement liées : « CLOSED FOR HOLIDAYS. Lessons start again on 8th January ».

26

On établit une distinction entre les catégories lexicales et grammaticales. Les premières ont un contenu sémantique tandis que les secondes constituent un apport de type fonctionnel. Les noms, les verbes, les adjectifs et les adverbes désignent des catégories lexicales (ou parties du discours) tandis que les déterminants, les conjonctions et les auxiliaires désignent des catégories grammaticales (Crowgey 2012 : 5).

27 Il existe plusieurs termes synonymes pour désigner le sens grammatical qui sont utilisés par d’autres linguistes. Ainsi, Jaszczolt (2002) désigne ce dernier comme le sens sémantique et le sens de l’énoncé. Grice (1975), par exemple, le nomme le sens littéral, le sens de la phrase ou le sens conventionnel. Le terme « sens grammatical » sera utilisé par la suite pour rester conforme au modèle de la connaissance grammaticale de Purpura (1961).

28

Les phonèmes sont non seulement les unités sonores de la langue, mais ce sont également les unités les plus petites sémantiquement distinctives.

143

29

Ce test est accessible sur le site suivant :

http://www.pearson.pl/pub/angielski/uploaddocs/placements_tests/Energy_Placement_Test.pdf.

30 Un syntagme est généralement un groupe de mots, ordonné autour d’un noyau, qui constitue une unité sémantique ou fonctionnelle.

31

Les items de deuxième type apparaissent dans les tests D et E tandis que les tests A-C comportent les items de premier type.

32 L’hyponymie est une relation d’inclusion entre deux mots dont l’un représente une classe incluse dans l’autre. http://www.cnrtl.fr/definition/hyponymie

33

Le test est accessible gratuitement sur le site suivant : http://www.scribd.com/doc/54165945/Placement-Tests

34

La formation mixte est également désignée par le terme Blended Learning. Ce type de formation hybride englobe la formation en présentiel et à distance à la fois.

35

Selon le rapport sur l’état des lieux dans l’utilisation des tests de positionnement en anglais dans l’enseignement supérieur, le terme « test de positionnement » n’apparaît pas comme clairement défini (Enquête Grenoble Universités : 3).

2 Adosser un test au Cadre Européen Commun de