• Aucun résultat trouvé

Étude historico-épistémologique

3.4 Conclusion de l’étude historico-épistémoloqique

i∈I Ai = i∈I P(Ai) .

Définition. Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω,A,P), c’est-à-dire une fonction mesurable X : (Ω,A) (R,B(R)). La loi de probabilité de la variable aléatoire X est la mesure de proba-bilité, notée PX, définie sur l’espace mesurable (R,B(R)) par :

PX(B) =PX1(B)

=P(X ∈B),

pour tout borélien réelB ∈ B(R). Autrement dit,PX est la mesure image de P par X.

Cette axiomatique a permis à Kolmogorov de prouver de nombreux résultats re-latifs aux probabilités, jusqu’ici non démontrés. La théorie des probabilités de Kol-mogorov marque l’aboutissement de l’histoire des probabilités au XXe siècle. Cette théorie mettra en avant la fonction de répartition plutôt que la densité, comme outil indispensable dans les démonstrations théoriques où apparaîtront des fonctions de répartition singulières, non dérivables presque partout. La théorie de Kolmogorov permet de présenter avec rigueur la théorie des probabilités, avec un niveau d’abs-traction très élevé, loin des problèmes de la réalité qui ont guidé les premiers travaux dans ce domaine.

À ce niveau supérieur, la mise en relation entre probabilités et analyse ne se fait pas au niveau de la fonction de densité, mais au niveau de la mesure. Ce niveau d’abstraction n’est bien entendu pas à la portée des élèves de terminale.

3.4 Conclusion de l’étude historico-épistémoloqique

Rappelons la question de recherche QR1, qui a guidé cette étude :

QR1 : Comment historiquement et épistémologiquement sont apparus les liens entre probabilités à densité et calcul intégral ?

Comment a émergé le concept de lois à densité et tout particulièrement la notion de fonction de densité ?

Dans ce chapitre, nous avons essayé de mettre en évidence des éléments histo-riques importants permettant de comprendre l’émergence épistémologique de ces

notions. Nous allons présenter les éléments qui en ressortent, puis nous dégagerons les apports de cette étude pour la suite de notre travail.

L’introduction des lois à densité est liée aux progrès de l’intégration et plus gé-néralement de la théorie des fonctions. Cependant, elle n’est pas venue de l’analyse mais de problèmes concrets traités avec une approche probabiliste. La relation entre probabilités et analyse vient donc des probabilités. Les lois continues émergent en ré-ponse à des problèmes voulant décrire les erreurs de mesures et non à des problèmes liés à des jeux de hasard. C’est donc bien pour répondre à des problèmes concrets et pour interpréter des données statistiques sur des mesures, qu’elles font leur ap-parition. Cependant, dans un premier temps, l’approche est purement théorique. Les mathématiciens font des hypothèses en amont sur les distributions statistiques dont ils disposent qui leur permettent de proposer des lois, dont la courbe de facilité vérifie certaines propriétés : notamment que l’aire sous la courbe doit valoir 1. La courbe la plus rencontrée à l’époque est la courbe de Gauss qui ensuite sera jugée adéquate pour la loi des erreurs mais aussi pour modéliser de nombreux autres phé-nomènes. Ce choix de courbe est confirmé en confrontant la théorie avec les données empiriques.

Pour l’enseignement des probabilités à des astronomes et géodésiens, Faye expose une approche différente dans son cours. Il propose une démarche inverse : le but est alors de partir des données, de passer par la représentation sous forme d’histogramme des fréquences associées aux données, pour ensuite trouver une courbe qui « épouse » bien l’histogramme. Une place importante est laissée aux graphiques, dans ce cas. Cette approche par les histogrammes fait apparaître le lien entre probabilité et calcul d’aire, et donc entre probabilités et calcul intégral. Nous pouvons repérer un rôle clé de la statistique dans la découverte des lois à densité : dans un premier temps, ce sont les données statistiques qui sont à l’origine de la recherche de modèles, et ensuite ces données ont permis de valider les modèles. Nous voyons donc apparaître une connexion forte entre statistique et probabilités, qui permet qui plus est la justification du lien avec l’aire et donc le calcul intégral, avec notamment le passage par les histogrammes de fréquences.

Le théorème de Moivre-Laplace a une place importante dans l’histoire des pro-babilités mais il n’est pas à l’origine des lois à densité, pas même de la loi normale. L’expression de la fonction de densité de la loi normale est apparue dans la résolu-tion du « problème » de Bernoulli par De Moivre et Laplace, mais la loi normale n’existe pas encore en tant que telle à l’époque. La notion de lois à densité doit sa naissance à la théorie des erreurs, bien que cela ne soit pas explicité comme tel.

Cette étude historico-épistémologique apporte bien plus à notre recherche que des détails historiques intéressants. Nous pouvons retenir les points suivants :

– La fonction de densité est apparue bien avant la fonction de répartition. L’ap-proche du programme par la fonction de densité est plus conforme à l’apL’ap-proche historique. L’approche par la fonction de répartition, que l’on peut retrouver dans l’enseignement supérieur, est une autre approche, apparue plus tardive-ment.

notion de fonction de densité. La statistique (via les données empiriques) est à l’origine de l’introduction des lois à densité. Elle a ensuite permis de valider des modèles en permettant de confronter réalité et modèle.

– Toujours en lien avec la statistique, Faye a proposé dans son cours des pro-blèmes d’ajustement, par le biais d’histogrammes de fréquence, pour amener à la construction de fonction de densité. Ce passage par le graphique histo-gramme/courbe nous semble intéressant notamment pour faire émerger le rôle de l’aire sous la courbe. Ce passage par l’histogramme nous semble donc une idée intéressante à retenir pour la suite.

La statistique descriptive semble donc avoir été un bon levier pour permettre la connexion entre les probabilités à densité et le calcul intégral et notamment à travers la représentation graphique.

Nous retrouvons à travers cette étude épistémologique et historique des points qui ont été jugés importants pour la compréhension notamment de la loi normale par des chercheurs en didactique, comme l’importance du lien entre distribution empirique et distribution théorique ou encore le rôle de l’histogramme (cf. section 2.2.1). Il nous semble donc intéressant dans la suite de se demander si dans l’ETM de référence, mais aussi dans les ETM idoines, est prise en compte cette approche historico-épistémologique, ou tout du moins si la statistique est présente dans l’introduction de la fonction de densité. Est-ce que la statistique descriptive joue un rôle dans la construction de la notion de densité dans les classes ?

Un regard sur les articulations