• Aucun résultat trouvé

Une meilleure prise en compte des besoins des candidats

2. Veiller à la mise en œuvre des aménagements d’épreuves

2.6. Une meilleure prise en compte des besoins des candidats

Des réclamations font état de la grande fatigue des candidats handica-pés à l’examen du BTS générés par la succession des épreuves dans un temps réduit. Des témoignages sont arrivés au médiateur de familles qui essayaient de faire en sorte que les conditions soient les meilleures pour la réussite de leur enfant (certaines font des réservations de chambres d’hôtel pour éviter au maximum les déplacements) mais, à chaque fois, elles rappellent la grande fatigue due à la succession des épreuves très longues, du fait du temps supplémentaire accordé.

Des réclamations font aussi état d’une absence à une épreuve du BTS pour des raisons médicales. Le médiateur est conscient que, du fait de la multi-tude des spécialités de BTS (plus de 88), il paraît peu envisageable d’orga-niser comme cela se fait pour l’examen du baccalauréat une session de remplacement. Le médiateur demande qu’une souplesse soit accordée s’agissant des épreuves orales et pratiques pour les candidats qui présen-teraient un certificat médical montrant qu’ils ne pouvaient pas se présenter aux épreuves le jour de la convocation.

Recommandations u

uReconnaître que, pour tous les examens, les dispositions générales relatives au handi-cap d’application immédiate priment sur la réglementation propre à chaque examen notamment pour la conservation des notes.

u

uReconsidérer la place prépondérante donnée, dans un cursus, à une langue vivante dite « opaque » comme l’anglais pour ne pas pénaliser des élèves atteints de troubles sévères de dyslexie et de dysphasie.

u

uSensibiliser tous les responsables d’établissement (public, privé sous contrat ou hors contrat) au fait que les aménagements de scolarité sont liés à une situation de handi-cap, après avis du médecin de l’éducation nationale.

u

uSensibiliser les familles au fait que des aménagements d’épreuves accordés sans aménagement durant la scolarité ne sont pas forcément une aide pour leur enfant notamment quand il s’agit de l’usage d’un ordinateur ou de la présence d’un secrétaire auquel ils n’auront pas été accoutumés.

u

uRéfléchir à la manière de fournir les sujets sous une forme électronique, en toute sécurité, aux candidats bénéficiant d’un ordinateur dans les aménagements de leur scolarité.

u

uExaminer l’opportunité de lier juridiquement les aménagements accordés durant l’année scolaire, via l’octroi d’un PAP ou d’un PPS, avec les aménagements d’épreuves à l’examen.

u

uSensibiliser les membres des jurys sur le comportement à avoir avec les candidats handicapés, rappeler qu’ils n’ont pas à les interroger sur la nature de leur handicap mais à appliquer scrupuleusement les aménagements accordés.

u

uPrévoir, pour tous les examens, un repérage sur les copies en cas d’adaptation du sujet ou de dispense d’un exercice, à l’instar de ce qui est prévu pour la session 2017 du DNB.

u

uRappeler aux membres des jurys qu’il leur appartient de faire un examen minutieux des livrets scolaires qui peuvent faire apparaître le contexte difficile de la scolarité du candidat.

u

uAttirer l’attention des chefs de centre d’examen sur l’importance de vérifier que le candidat handicapé sait se servir du matériel qui lui est attribué pour chaque épreuve.

u

uS’agissant de l’examen du BTS :

- sans méconnaître les contraintes budgétaires auxquelles il faut faire face, examiner la question des étalements d’épreuves qui est maintenant réglée pour le baccalauréat ; - accorder aux candidats handicapés qui n’ont pas pu participer à une épreuve orale ou

pratique, pour des motifs médicaux dûment justifiés, de pouvoir reporter le passage de l’épreuve à l’intérieur du calendrier arrêté pour la session.

L’orientation post-bac et APB

PARTIE

CHAPITRE PREMIER

L’administration algorithmique

Le logiciel APB, pour « Admission Post Bac » est certainement un des ser-vices numériques du ministère les plus médiatisés. Au même titre que les applications concernant les impôts ou les retraites, c’est en effet un de ces grands dispositifs nationaux qui tendent à organiser de plus en plus étroi-tement la relation entre l’administration publique et les citoyens ou usagers en prenant le numérique comme vecteur. En 2016, APB a connu un surcroît de médiatisation directement lié à son caractère technique. Après que l’association « Droits des lycéens » a demandé l’ouverture du code source du logiciel, Madame Axelle Lemaire, secrétaire d’État à l’Economie numé-rique, a mis en cause directement les pratiques de l’Éducation nationale en matière d’algorithmes, précisément à propos d’APB, dans un entretien avec le site Acteurs publics (16/12/2016). Le logiciel permettant aux nouveaux bacheliers d’être admis dans les universités se trouvait ainsi promu au peu enviable statut d’illustration négative de ce que devrait être une bonne poli-tique de régulation et de transparence des algorithmes.

Il faut dire que l’exemple tombait bien - ou mal, en tout cas, à propos - pour la secrétaire d’État qui venait de lancer une opération autour des algo-rithmes. En octobre 2015, elle confiait au Conseil général de l’économie une mission sur la « régulation des algorithmes de traitement des contenus », lequel demandait à Messieurs Ilarion Pavel et Jacques Serris, tous deux ingénieurs des mines, d’établir un rapport sur le sujet. Remis à la secrétaire d’État dès le 13 mai 2016, ce rapport fut rendu public en décembre65. Entre temps, la loi pour une République numérique était votée en octobre. L’article 4 de cette loi dispose que « Une décision individuelle prise sur le fondement d’un traitement algorithmique comporte une mention explicite en informant l’intéressé. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre sont communiqués à l’intéressé s’il en fait la demande. » La Commission nationale informatique et libertés s’étant vu confier une nouvelle mission : « conduire une réflexion sur les enjeux éthiques et les questions de société soulevées par l’évolution des techno-logies numériques », Madame Isabelle Falques-Pierrotin, présidente de la CNIL, annonçait l’organisation de cycles de débat public, le premier devant être organisé dès 2017 sur les algorithmes. En décembre, avec la publication

65 Ilarion Pavel et Jacques Serris, « Modalités de régulation des algorithmes de traitement des contenus », Rapport à Madame la Secrétaire d’État chargée du numérique, Conseil général de l’économie, 13 mai 2016.

du rapport Pavel-Serris, l’Institut National de Recherche en Informatique et en Automatique (INRIA) lançait la plateforme Transalgo (pour la trans-parence des algorithmes). C’est à cette occasion, que la secrétaire d’État devait évoquer APB. En janvier 2017, la CNIL publiait un sondage de l’IFOP sur les points de vue des Français sur les algorithmes, et lançait le débat auquel était associée la Direction de l’Education Numérique du ministère de l’Éducation nationale, de l’enseignement supérieur et de la recherche et la Ligue de l’enseignement. Le 28 février suivant, Monsieur Thierry Mandon, secrétaire d’État chargé de l’Enseignement supérieur et de la Recherche, demandait à Etalab, un service du Premier ministre chargé des données publiques du gouvernement, d’accélérer l’ouverture des données et du code source d’APB. Le 14 mars était publié le décret relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique.

Quel est donc l’objet d’une aussi intense activité ministérielle et administra-tive ? Dans sa définition la plus simple, l’algorithme est « un ensemble d’ins-tructions pour résoudre un problème » ; il ne constitue pas véritablement une nouveauté dans le monde informatique : au contraire, il est au centre de cette technologie depuis sa fondation scientifique par Alan Turing66. En réa-lité, on ne vise pas ici l’algorithme en général, mais une catégorie d’appli-cations faisant appel à de nouveaux algorithmes, et plus précisément, une nouvelle technologie d’architecture informatique permettant de produire ces algorithmes. Cette rupture technique est illustrée par des notions et des objets tels que les « réseaux de neurones », l’ « apprentissage profond » (« deep learning »), l’ « apprentissage automatique » (« machine learning »).

Le réseau de neurones est une architecture informatique où les unités de traitement simples des données sont réparties en plusieurs couches parallèles, permettant d’effectuer des opérations compliquées. Une telle architecture est censée ressembler, ou avoir le même modèle formel, que l’organisation du cerveau, d’où la métaphore du réseau de neurones. Une seule citation du rapport de Pavel et Serris permettra de souligner un trait significatif de cette architecture technique : « On utilise les réseaux de neu-rones quand il est plus important d’obtenir un résultat dans une situation complexe que de comprendre comment celui-ci a été obtenu ». Pas plus que la notion d’algorithme, la conception du réseau de neurones formels ne peut être considérée comme une nouveauté : l’idée en est apparue dès le début des années 1950. Mais c’est seulement à partir de 2012 que les progrès dans la puissance des ordinateurs ont permis le passage à l’industrialisation des réseaux de neurones et que les algorithmes de traitement des contenus ont pénétré progressivement notre vie quotidienne au point de constituer aujourd’hui une question économique majeure.

Pour entrer dans la composition d’un modèle économique, les algorithmes doivent être associés à des données ou contenus. La notion d’ « algorithmes

66 Alan Turing (1912-1954) mathématicien et cryptologue britannique.

de traitement de contenus » ne veut rien dire d’autre. Par exemple, la pré-vision des comportements d’achat dans une activité de marketing s’ap-puiera sur des données d’observation des pratiques des consommateurs, typiquement des statistiques. Le rapport du Conseil général de l’économie est conduit à identifier trois scenarii de mise en place d’une économie des algorithmes dans le futur proche. Un premier scenario correspond bien au mot d’ordre de « transparence des algorithmes » tel qu’il est porté par une

« mouvance » internationale auquel le secrétaire d’État fait une allusion dans sa lettre du 28 février. Scenario politique optimiste, influencé par le modèle des données et des logiciels ouverts, sinon des logiciels libres, il parie sur la banalisation de ce type d’algorithmes au sein de l’économie du logiciel et son accessibilité la plus large. Le deuxième scénario est le contraire du pre-mier : il s’organise autour d’algorithmes propriétaires devenus les « maîtres du monde » numérique et appartenant à des oligopoles tels que Google, IBM, Apple, Baidu. Selon le troisième scenario, intermédiaire, la technologie des algorithmes reste accessible, mais le centre du modèle économique tient dans le pouvoir d’associer ces algorithmes à une grande quantité de don-nées. Evidemment, la possibilité de disposer de données personnalisées est le point clé de ces modèles économiques comme il l’a déjà été pour des applications comme les moteurs de recherche (Google) ou les moteurs de recommandation (Amazon). Dans l’exemple du marketing, il y a un monde entre la production de modèles de comportement précis et sophistiqués mais vides et la possibilité d’adresser directement au client concerné le produit ou la publicité.

Il n’est pas très difficile d’imaginer la place des grandes administrations publiques, et notamment de l’éducation nationale, dans ces différents scena-rii économiques. N’étant pas en mesure de développer par elles même, ni de susciter par la commande publique ces algorithmes de référence, elles n’en restent pas moins détentrices non seulement de grandes quantités de don-nées, mais aussi de contenus hautement personnalisés et d’autant convoités.

Comment aider les publics et les professionnels de l’Éducation nationale et de l’enseignement supérieur à se repérer face à cette rupture technique peut-être doublée d’une mutation économique? Nous suggérons de distin-guer les différents types de situation dans lesquelles auront à intervenir les médiateurs de l’éducation nationale et de l’enseignement supérieur, préci-sément comme médiateurs d’une administration de plus en plus impactée par les algorithmes de traitement des contenus.

Première situation : il y a erreur de diagnostic. La principale difficulté que rencontrent les utilisateurs ne tient pas au contenu algorithmique de telle application, mais à son interface, voire plus généralement à toutes les inter-faces numériques. L’examen des saisines du médiateur à propos d’APB est parlant sur ce point. Finalement l’étudiant ou ses parents se sentent bloqués par une règle de gestion du ministère intégrée dans l’application. Mais bien souvent ils ne remettent en cause ni le contenu de cette règle, ni son

carac-tère implicite ou caché. Simplement ils expliquent qu’une faute de saisie, une incompréhension des alternatives proposées par un formulaire, l’impossibi-lité de revenir sur des erreurs … les auraient placés dans une situation cri-tique au regard de la règle de gestion. Ces erreurs ont des causes multiples parmi lesquelles la faiblesse de la culture numérique, et, dans le cas des jeunes, une pratique numérique largement « intuitive » qui préparent mal à l’appropriation de dispositifs comme APB. Incontournable dans la pratique, APB met l’élève, futur étudiant, en situation de faire valoir ses droits et cette situation est elle-même organisée comme une situation de droit. Mais tout se passe comme si un nouveau principe venait s’imposer : « nul n’est censé ignorer l’interface ». APB peut présenter quelques difficultés particulières ; du point de vue de l’utilisateur, c’est-à-dire du candidat, il est surtout d’une certaine complexité au niveau des grandes fonctions. L’APB du candidat et des familles est, en effet, à la fois une base d’informations sur un très large éventail des formations proposées dans l’enseignement supérieur, et, à ce titre, un moyen d’auto-orientation, un cadre formel d’aide à la décision d’inscription, notamment à travers les différentes phases, enfin un instru-ment de gestion de l’admission. Il n’est pas inutile de souligner qu’à cette complexité fonctionnelle, à laquelle les élèves sont mal préparés, par leur jeunesse, leurs habitudes techniques et l’usage qu’ils font du numérique, correspondent la dimension hautement institutionnelle de l’application et la place cruciale du processus qu’elle organise dans la vie du futur étudiant.

Le dispositif est imposant à double titre. Il n’y a pas de vérité cachée de l’application. APB est l’interface de la loi. C’est aussi le moyen technique d’un rite de passage important dans notre société. Le personnage central d’APB est le candidat : qui réussit son baccalauréat doit réussir son APB ! La culture numérique, dont il est question ici, a peu de choses à voir avec une quelconque virtuosité dans le maniement des écrans ; c’est une certaine maturité intellectuelle et technique dans la relation personnelle avec cet imposant dispositif qui est sollicitée. Il revient donc au ministère de prendre toutes les mesures pour assurer l’égalité des candidats face au dispositif technique, en organisant à la fois l’aide à l’orientation individuelle, et la maî-trise de l’application. Aussi, le médiateur devra-t-il se montrer extrêmement soucieux du caractère effectif de toutes les mesures qui garantissent une égale appropriation par tous les candidats des interfaces et de l’applica-tion dans son ensemble. Il s’agit d’associer la logique de l’admission dans l’ensei gnement supérieur telle qu’elle est reprise par APB et les démarches d’orientation. Il s’agit aussi d’expliquer non seulement ce qu’est la procédure d’admission sur APB, mais aussi ce qu’est APB comme objet technique.

Tout cela – c’est-à-dire la vie quotidienne des candidats face à l’applica-tion – semble bien éloigné des sujets d’intelligence artificielle évoqués plus haut. Pourtant ce n’est pas sans raison que l’association des lycéens, la Secrétaire d’État à l’économie numérique et le Secrétaire d’État chargé de l’enseignement supérieur ont appelé à la transparence d’APB et à l’ouverture des « données et du code source ». Nous sommes ici dans un deuxième cas de figure que l’on pourrait intituler « les algorithmes aux règles cachées ».

Ces règles « cachées » ne sont rien d’autre que des instructions insérées dans le programme informatique, mais indétectables par l’utilisateur au niveau de l’interface. Il y a là plus qu’un parallélisme avec l’exigence de motiver expli-citement les décisions administratives. D’ailleurs le décret du 14 mars 2017 est pris pour l’application de l’article L. 311-3-1 du code des relations entre le public et l’administration. Les instructions caractéristiques de l’application, ainsi que les données individuelles devront donc être rendues accessibles aux candidats qui le souhaitent, précisément parce qu’elles préparent et mettent en forme la décision d’admission dans un établissement d’enseignement supérieur. Relèvent de cette situation différents cas de saisine du médiateur présentés dans la suite de cette partie. L’incompréhension fréquente de la portée de la réponse « non mais » aux propo sitions d’admission offertes en est une bonne illustration. Mais l’exemple le plus célèbre de cette zone d’ombre de l’algorithme est la procédure de tirage au sort utilisée en dernière ins-tance pour l’admission dans les « filières en tension ».

On verra plus loin quelles propositions le médiateur est amené à faire sur le contenu de ces règles « cachées » de l’algorithme APB. Il nous apparait nécessaire toutefois d’entamer, dès aujourd’hui, une réflexion sur l’attitude que les différents acteurs de l’éducation nationale et de l’enseignement supérieur, et la médiation elle-même, pourraient adopter à l’égard du fait même de l’existence de telles règles « cachées » des algorithmes. On se propose donc ici d’interroger rapidement les notions d’ouverture des don-nées et de transparence des algorithmes. À cet égard, une étude publiée aux États-Unis67 suggère quelques pistes de réflexion. Les auteurs pré-sentent cinq critères dont le respect permettrait de progresser vers une situation plus satisfaisante de responsabilité des algorithmes. La « res-ponsabilité » au sens strict est la désignation d’un responsable du système, compétent pour répondre dans des délais satisfaisants aux interrogations de la société. L’ « explicabilité » n’est rien d’autre que l’exigence de motiva-tion mais appliquée à la décision individuelle rendue par l’algorithme. Le principe d’ « exactitude » est fondamental : au lieu du principe d’autorité conférée à l’algorithme (« je n’y peux rien, c’est l’ordinateur »), il reconnait les risques d’erreur des algorithmes et propose une procédure de trai-tement. L’ « auditabilité » est l’organisation de la transparence technique des algorithmes : des tiers doivent pouvoir évaluer l’algorithme en utili-sant pour cela… d’autres algorithmes. La « justiciabilité » est l’évaluation humaine des décisions individuelles automatisées pour éviter les discri-minations. Cette architecture des critères mobilisés pour contrôler les algorithmes va dans le sens souligné par une des meilleures connaisseuses de ces questions, Danah Boyd, qui préconise d’évoluer de la transparence vers la responsabilité68. À coup sûr les médiateurs de l’éducation nationale

67 Nicholas Diakopoulos et Sorelle Friedler, « How to hold algorithms accountable? », MIT Technology review, 17 novembre 2016.

68 Danah Boyd  : “Transparency is not Accountability” https://points.datasociety.net/

transparency-accountability-3c04e4804504#.i8w3xk3y0

et de l’ensei gnement supérieur auront de plus en plus à mobiliser les res-sources d’une telle critériologie pour résoudre les situations conflictuelles caractéristiques de l’administration algorithmique.

Dans la situation qui vient d’être évoquée, la revendication d’une transpa-rence des algorithmes, et d’une ouverture des données est essentiel lement politique. Tout se tient : si les instructions ne sont pas transparentes, c’est précisément parce que l’administration propriétaire de l’algorithme a pré-féré les garder secrètes ; et si elle préfère les garder secrètes, c’est parce qu’elle craint qu’elles soient difficilement compréhensibles, voire tout bonnement irrecevables. Le tirage au sort évoqué dans le cas d’APB ne contrevient pas au principe d’égalité ; et l’administration n’y recourt que de manière très limitée. Mais cette procédure contredit le critère d’ « explica-bilité » ; il est difficile de trouver une motivation moins convaincante d’une décision administrative individuelle. D’autre part, elle manquait de fon-dement juridique ; ce à quoi la parution de la circulaire n° 2017-077 du 24-4-2017 Procédures d’admission s’efforce de pallier. La transparence permet de révéler la présence d’une règle plus ou moins gardée secrète.

Mais cette règle est d’origine humaine. La communication de l’algorithme permettra seulement que les personnes concernées mesurent l’étendue de la bonne – ou mauvaise – foi de l’administration. Bref la transparence

Mais cette règle est d’origine humaine. La communication de l’algorithme permettra seulement que les personnes concernées mesurent l’étendue de la bonne – ou mauvaise – foi de l’administration. Bref la transparence