• Aucun résultat trouvé

— le texte du savoir et les objets de savoir ;

— les pratiques mathématiciennes ; dans cette rubrique nous pouvons compter aussi les types de raisonnement pratiqués en analyse ;

— le champ de problèmes.

b) du côté de l’enseigné :

— l’activité mathématique, c’est-à-dire les mathématiques que l’étudiant est apte à faire après avoir subi l’enseignement.

Nous examinerons dans le chapitre 3 comment s’articulent, dans l’enseignement secondaire, ces différentes composantes. Pour ce qui est de l’enseignement universitaire, nous commençons de repérer, ci-dessous, les pratiques mathématiciennes convoquées au début du cursus, et quelques objets de savoir de cet enseignement.

II.3. OBJETS EXPLICITES ET IMPLICITES DE L’ANALYSE

Nous tenterons, dans ce paragraphe, de pointer quelques objets de savoir de l’analyse, en insistant sur les évolutions que l’enseignement de ces objets peut avoir connu même dans une période récente. Une référence sera faite aux concepts de légitimité, culturelle et épistémologique, introduits par Bosch et Nin (Actes de la Vième école d’été, 1991) tels qu’ils figurent dans la thèse de G.Chauvat (Chauvat 1997).

II.3.1 Les bases de l’analyse : objets préalables

Les objets « préconstruits » à l’enseignement de l’analyse à l’université sont essentiellement les nombres réels et les fonctions.

Les fonctions sont introduites dès le collège, par le biais des fonctions linéaires (cependant les fonctions linéaires disparaissent dans les nouveaux programmes), et de façon généralisée en Seconde ; l’étude de l’enseignement des objets relatifs à la notion de fonction constitue une grande part de ce travail de thèse, on pourra se reporter aux chapitres suivants. On notera simplement que les fonctions, de par leur place dans les programmes à la fois de l’université et du secondaire, peuvent être créditées d’une très forte légitimité et pertinence épistémologique, et de surcroît d’une forte pertinence culturelle (les fonctions numériques comme « vitrine » de l’enseignement de l’analyse). Cependant leur introduction se fait, en

27

classe de Seconde, par la notation f(x) et des exemples de fonctions comme correspondance terme à terme ; il peut sembler que cette introduction n’est guère propre à introduire ensuite l’analyse.

Pour ce qui est des réels, l’enseignement secondaire ne prévoit plus, depuis les programmes de 1982, de chapitre spécifique sur les nombres réels, que ce soit en classe de Quatrième (élèves de 14 ans) ou en Seconde (16 ans).

Quel est alors pour le professeur le statut des réels, supposés préconstruits, alors que nul enseignement n’est explicitement organisé sur cette notion : évidence culturelle ? implicite commode, fournisseur de contre-exemples et autres cas pathologiques, du moins jusqu’à la terminale des lycées ? Et à l’université, comment fonder l’enseignement du concept de limite sur la droite réelle, si les étudiants ne manipulent en fait que des décimaux ? Sur le rapport au savoir des élèves à l’objet « nombres réels », on consultera Digneau, 1989 ; Izorche, 1977 ; Margolinas, 1985, Bronner, 1997.

Ce que l’enseignement a peut-être aussi voulu évacuer, comme trop difficile à gérer, c’est le problème sous-jacent de l’infini, et des représentations de la droite réelle. Or l’analyse a réussi, historiquement, après une longue évolution, à décoller ses raisonnements de la description d’une représentation (cf chapitre 3). Il n’en reste pas moins que le concept de limite renvoie fortement à ces représentations (cf Robert, 1982 ; Cornu, 1992 ; Trouche, 1996, p.85 et suiv.). Un des buts de ce travail est de chercher à comprendre quels outils de validation, dans le travail fait en enseignant l’analyse, peuvent jouer le rôle de « garde-fous épistémologiques » afin que le savoir construit soit conforme aux exigences ultérieures de l’institution universitaire, et que les représentations puissent ne pas être l’outil privilégié de la validation.

II.3.2 Objets institutionnels prégnants

Toujours selon la classification de Bosch et Nin reprise par Chauvat (Chauvat 1997), il s’agit d’objets qui ont une forte légitimité épistémologique, ce qui fait qu’ils sont présents dans les contenus de l’enseignement sous une forme peu altérée depuis à peu près 30 ans. On peut y compter :

— les fonctions numériques, continuité, limites et dérivées, différentielle ;

—l’intégrale de Riemann, les primitives ; fonctions rationnelles et leurs primitives ; les fonctions logarithme et exponentielle ; les fonctions usuelles (sin, cos, sh, ch, tan, th, et réciproques...) ;

— fonctions convexes ;

— développements limités, formule de Taylor... — séries numériques ;

— équations différentielles simples ;

— séries entières, séries de Fourier, problèmes de convergence ; fonctions analytiques ;

— espaces topologiques ;

— espaces vectoriels normés, formes différentielles...

Ceci au niveau des deux premières années d’université, avec des variantes, les universités fixant librement leur programme. Le concept central de l’analyse est bien sûr celui de fonction, des prémisses jusqu’au niveau avancé.

II.3.3 Objets marginaux

Certains objets ont un statut moins établi et plus fluctuant : l’exemple typique est celui des probabilités et des statistiques. Elles figurent au programme de certaines universités alors

que d’autres ne les programment qu’en option. De plus la problématique d’enseignement des probabilités a évolué suivant les années d’un point de vue que nous appellerons « classique » (de type pragmatique, éventuellement sans les applications incluses) à un point de vue « moderne », c’est-à-dire en termes de théorie de la mesure. L’enseignement classique comporte :

— probabilités discrètes, lois usuelles (Bernoulli, binomiale, Poisson...) ; probabilité sur un espace continu, variable aléatoire, espérance, écart-type ; lois usuelles de probabilité (uniforme, normale, χ2, Student...) ; suites de variables aléatoires, loi des grands nombres, chaînes de Markov, tests ; l’enseignement des probabilités en termes de théorie de la mesure s’intéresse aux mesures abstraites, espaces Lp ...

Les fluctuations des contenus de l’enseignement peuvent être considérées comme un indice important de faible légitimité. Remarquons que dans le cas des probabilités, il s’agit d’une faible légitimité épistémologique, ainsi que d’une faible légitimité culturelle, mais pour des raisons différentes :

— leur faible légitimité épistémologique vient de ce que les probabilités et statistiques ont été longtemps considérées comme un champ disciplinaire ressortant de l’empirique : elles seraient des fréquences déguisées, et leur pratique serait avant tout expérimentale ;

— une raison de leur faible pertinence épistémologique est leur développement historique à l’écart du reste des mathématiques, avec un vocabulaire spécifique qui d’ailleurs constitue un obstacle à leur intégration dans le champ « ordinaire » de l’analyse (en bref, les probabilités ont besoin de l’analyse mais l’analyse, pendant longtemps, n’a pas eu besoin des probabilités) ; du fait de ce vocabulaire spécifique, les institutions chargées de valider les savoirs pouvaient tout aussi bien les ignorer ; les instances, tels que section scientifique au CNU, ne comptant pas forcément, il fut un temps, de spécialistes de ce champ de recherches bien spécifique, c’est tout le travail fourni dans cette branche qui put être sous-estimé ou péjoré pendant un durée plus ou moins variable ;

— leur faible légitimité culturelle vient aussi, paradoxalement, de leur ancrage dans le quotidien et l’empirique : les graphiques et statistiques figurant quotidiennement dans les journaux, les jeux de hasard sont très médiatisés, mais il n’est pas reconnu de compétence ou de savoir spécifique pour traiter de problèmes si évidents ; le savoir sous-jacent au traitement des informations en termes de statistiques ou de probabilités n’est aucunement un savoir de prestige, c’est un labeur obscur que la société ignore ou considère comme évident. Le slogan du loto : « cent pour cent des gagnants ont tenté leur chance » est supposé « décodable » par tous, bien que de fait il n’en soit rien! (comme le prouvent quelques expériences de caméra cachée...)

— les statistiques ont retrouvé dynamisme et intérêt par les progrès accomplis dans le traitement de l’information (analyse des données) en liaison avec le développement des moyens de calcul : mais c’est pour beaucoup au service des sciences humaines, c’est-à-dire dans un domaine que la plupart des mathématiciens ignorent. Donc cette forte pertinence épistémologique pour une institution utilisatrice ne s’accompagne pas d’une égale pertinence épistémologique dans l’institution productrice.

A notre sens on peut considérer que l’invasion de l’enseignement des probabilités par la théorie de la mesure, durant les années 70, était une tentative de restaurer la légitimité épistémologique des probabilités, en inscrivant celles-ci dans un courant radical de modernisme mathématique (au détriment cependant de leur lisibilité pour d’autres institutions).

II.3.4 Raisonnements et formalisme

29

Les professeurs de classe préparatoire ou de DEUG, interrogés sur l’enseignement de l’analyse, mettent tous l’accent sur le nouveau mode de raisonnement que celle-ci suppose, lié au formalisme et à la rigueur : le raisonnement sur les limites, par ε et α, semble bien constituer le paradigme du raisonnement de l’analyse classique, et il est vu à la fois comme une initiation aux « vraies » mathématiques, et comme un obstacle qui empêche l’étudiant de « voir le sens » de ces mathématiques.

Ce qui est certain, c’est que l’entrée à l’université et l’enseignement de l’analyse constitue une rupture avec le raisonnement algébrique : on ne démontre plus que a = c car a = b et b = c, mais parce que ∀ ε > 0, a - b  < ε . Un des points importants de notre travail sera l’étude du raisonnement en analyse et des questions que cela soulève du point de vue de son enseignement.

Comment ce formalisme est-il justifié pour les étudiants ? ne peuvent-ils pas l’interpréter comme une contrainte inutile si ce n’est en termes de contrat ? Dans ce cas le formalisme risque d’être la première connaissance qui s’effondre lorsque l’étudiant est placé dans une situation qui le met en difficulté. Or le formalisme est vu par les professeurs, et par l’institution, d’une part comme une garantie de validation par l’étudiant de ses résultats, d’autre part comme le laissez-passer pour la poursuite de ses études universitaires.

D’autres types d’enseignement ont pu être tentés : remarquons qu’en ce cas ce sont les procédures de validation qui sont modifiées (cf Artigue, 1983 et GRECO, 1989). Par exemple les critères de validation deviennent des critères graphiques. Par contre, dans l’exemple que nous avions donné en DEA (Bloch, 1995 : l’exemple est celui du DEA de F.Praslon, Paris 1993) l’enseignement reposait sur un renforcement de la validation formelle : malgré la tentative de « discours méta », il n’apparaissait pas de changement significatif dans le type d’objets de savoirs donnés à étudier, ni dans les procédures et résultats des étudiants.

Il semble bien qu’on voie apparaître le rôle fondamental des formes prises par la validation dans l’enseignement de l’analyse. C’était déjà l’une des conclusions retenues en DEA, et c’est un point crucial de ce travail de thèse.

II.3.5 Champ de problèmes

Quel est le champ des problèmes de l’analyse ? Ce champ de problèmes est-il pertinent ? est-il indiscutable (fait-il consensus) ? les probabilités, comme nous l’avons signalé, n’y figurent pas ; or elles ont une grande importance pour d’autres champs disciplinaires, et elles utilisent explicitement de nombreux concepts de l’analyse.

Quelle est la prise en compte des problèmes nouveaux ? (le « chaos déterministe », ou les systèmes dynamiques complexes par exemple). Est-ce qu’on enseigne l’analyse sur un champ de problèmes périmé comme le stigmatise Dieudonné ? au lycée, sans aucun doute ; mais est-ce qu’on pourrait faire autrement ?

L’enseignement de l’analyse à l’université ne semble pas se fonder sur une problématique, sauf à donner pour telle les exercices rituels de recherche de continuité, dérivabilité, somme de séries... Lorsqu’un enseignement en terme de résolution de problèmes est mis en oeuvre, on peut voir le formalisme retrouver tout son sens comme outil de validation (c’est le cas de l’enseignement de l’intégrale proposé par M.Legrand (Legrand, 1995)).

Les grands problèmes de l’analyse, ceux qui ont donné naissance à l’analyse moderne (les problèmes de convergence des séries, les problèmes de mesure,...) sont loin derrière les mathématiques actuelles ; celles-ci se sont réorganisées en fonction d’eux, mais en ne les faisant plus apparaître explicitement dans les exposés du texte du savoir. Faut-il, pour l’enseignement, réintroduire certaines de ces problématiques ?

Par ailleurs ces problèmes étaient souvent issus de problèmes physiques ; or tout

savoir sur le modélisation est exclu de l’enseignement des mathématiques. La position prise par Legrand (Legrand, 1991 ; 1995) est que la modélisation est un moyen privilégié de retrouver une problématique pour l’enseignement de l’analyse. C’est un point qui mérite d’être examiné5.

II.4. L’ANALYSE NON STANDARD

L’analyse non standard se présente parfois comme un support plus propre à l’introduction de l’analyse au niveau pré-universitaire, que la théorie classique : cette dernière présente un raisonnement contravariant (on part des conditions sur f(x) pour déterminer x), alors que l’ANS permet de raisonner de façon covariante. C’est la position adoptée par exemple par Lutz et alii (Lutz, Makhlouf, Meyer 1996) : remarquons qu’il n’y a pas eu, préalablement, d’étude de didactique justifiant que ce raisonnement contravariant est une des principales difficultés de l’analyse classique. Admettons-le cependant.

Il s’agit de créer, à partir d’une théorie, un instrument didactique pour introduire un champ des mathématiques dans l’enseignement. Du point de vue de la transposition didactique, c’est une création volontaire de système transposé, et non pas la dilution d’un savoir savant à des fins d’enseignement.

De ce point de vue on peut comparer cette création à celle qui est présentée dans la thèse d’Antoine Rossignol (Rossignol, 1996) : là encore il s’agit de construire un sous-système d’une théorie, ici la théorie des distributions, pour introduire de façon plus directement opérationnelle la résolution des équations différentielles à coefficients constants. La construction d’un ensemble intermédiaire A, muni d’un produit de convolution, conduit à un algorithme de résolution. (voir aussi IXème école d’été de didactique des mathématiques, atelier Antibi-Chauvat). Dans ce cas comme pour l’ANS, il est probable que l’institution de référence (les mathématiciens) refuse d’avaliser cette construction.

Dans le système proposé par Lutz et alii, on ne pourra bien sûr pas récupérer toute l’ANS, et justifier la construction des hyperréels ; mais on pourra fonctionner, en algébrisant l’analyse. Les choix faits sont fondés sur une transformation du répertoire avec lequel on parle des réels ; cette approche risque de poser quelques problèmes :

— si le langage utilisé ne peut être justifié, c’est donc qu’il est métaphorique : on va parler de réels « très proches », « très grands » ; ces vocables sont fondés sur des représentations et les induisent, or nous avons vu que l’un des buts du formalisme était de se dégager des représentations pour valider ;

— plus grave semble être le manque de problèmes sous-jacents à cette introduction : il s’agit d’une construction ostensive, tout comme par exemple le fait de présenter la construction de R par les coupures de Dedekind : quels problèmes justifient que l’on ait à s’intéresser aux réels très petits, très grands ; ou bien aux coupures ?

Concluons ce paragraphe en remarquant que, pour l’ANS comme pour l’entrée classique dans l’analyse, le parti-pris didactique est à chaque fois : les définitions d’abord. N’est-il donc pas possible d’introduire l’analyse par un champ de problèmes pertinent ? Reposons la question déjà posée par M.Legrand (Legrand 1991) et reprise dans (Bloch 1995) : y a-t-il des situations fondamentales de l’analyse ?

5 Voir chapitre 3.

31

III. DIFFICULTES DE L’ENSEIGNEMENT DE