• Aucun résultat trouvé

À partir de 2008, la notion de probabilité est introduite en classe de 3e. Cette introduc-tion prend appui sur les nointroduc-tions déjà rencontrées au collège, en particulier la statistique descriptive. Ensuite à partir de la classe de 2nde, l’enseignement de la notion de proba-bilité prend appui sur les outils de la statistique inférentielle. Ainsi l’enseignement de la notion de probabilité au niveau secondaire est articulé avec l’enseignement de la statis-tique descriptive et de la statisstatis-tique inférentielle. La figure ci-dessous représente ces liens sur l’ensemble de l’enseignement du secondaire en France :

Fig. 1.3 – Liens entre la probabilité et la statistique dans l’enseignement secondaire (do-cument statistiques et probabilités, Académie de Bordeaux)

Ces liens entre la probabilité et la statistique n’ont pas toujours existé dans l’enseigne-ment. En effet, Wozniak (2005) et Vu Nhu (2009) ont mené dans le cadre de leur travail de thèse une étude écologique et praxéologique sur l’enseignement de la statistique au niveau secondaire avant et après la réforme de l’année 2000 (programmes, manuels, et sujets de brevet et de baccalauréat). De ces travaux de thèses, il résulte que la réforme de l’année 2000 a entrainé l’introduction de la statistique inférentielle en classe de 2nde axée sur la fluctuation d’échantillonnage. Cette introduction a permis alors de créer des liens entre les distributions et les lois de probabilités. Cette introduction a également enrichi le concept de probabilité permettant ainsi le traitement de nouveaux problèmes, en particulier des

problèmes faisant appel à la notion de modélisation. Par ailleurs, Wozniak (2005) souligne que l’introduction de la statistique inférentielle a été mal vécue par les enseignants qui étaient confrontés à l’enseignement d’un domaine sans avoir eu une formation spécifique comparativement à d’autre domaines déjà enseignés. Cette difficulté ressentie par les en-seignants est également rencontrée dans l’introduction de l’enseignement des probabilités en classe de 3e. En effet, l’enseignement de la notion de probabilité a subi une modification profonde, notamment avec la place accordée au domaine expérimental. Ainsi, l’enseigne-ment de la notion de probabilité induit une nouvelle démarche (différentes de celle de la statistique), et des raisonnements différents des autres branches des mathématiques puis-qu’ils font appel à la modélisation et à l’expérience. La validation des affirmations (dans les situations de prise de décision par exemple) n’est pas de la même nature que celle qui est mise en œuvre dans les autres domaines des mathématiques enseignés. Par conséquent, les enseignants sont confrontés à l’enseignement d’un domaine où l’expérimentation a une place importante dans les raisonnements, conduisant alors à des formes spécifiques et sans doute originales de validation. C’est donc l’étude des formes de validation pratiquées (par les enseignants) dans l’enseignement des probabilités qui fera objet de notre travail de thèse.

Chapitre 2

L’éclairage épistémologique et

didactique sur la question de la

probabilité

Avant de nous lancer dans la quête de la caractérisation de la validation dans l’en-seignement des probabilités au niveau de la scolarité obligatoire, nous avions besoin de faire un « détour épistémologique » afin de récolter quelques informations permettant de mieux cerner le concept de probabilité. L’objectif de ce chapitre est, comme son nom l’indique, d’apporter un éclairage épistémologique sur l’émergence de la probabilité et de ses fondements. Pour répondre à cet objectif, nous proposons tout d’abord de présenter la manière dont le concept de probabilité a vu le jour au fil de l’histoire. Ensuite, nous exposons les deux courants philosophiques probabilistes qui ont donné lieu aux différentes façons de définir la probabilité d’un événement. Et enfin, nous exposerons les différents raisonnements mobilisés pour déterminer la valeur numérique d’une probabilité.

2.1 Naissance de la probabilité

Entre 1650 et 1670, la dualité de la probabilité est clairement mise en évidence. L’un de ses aspects correspond au degré de croyance assuré par des éléments d’évidence, et l’autre porte sur « la tendance de certains dispositifs aléatoires à produire des résultats réapparaissant à des fréquences relatives stables » (Hacking, 2002, p. 25). Le concept de probabilité possède donc deux faces. L’une est subjective et porte sur le degré de croyance, l’autre est objective et porte sur une fréquence stable. Selon Hacking, cette dualité de la probabilité est le résultat des sciences du signe, des signes empiriques et des « basses sciences », comme l’alchimie et la médecine.

était probable lorsqu’elle était attestée par une autorité, en particulier l’autorité des livres anciens dont « l’auteur est Dieu » (Ibid.,p. 25). C’est pourquoi l’apprentissage de la lec-ture (déchiffrage) et l’interprétation des signes nalec-turels semblaient nécessaires. C’est par la répétition d’un signe que celui-ci se transforme en une preuve (autrement dit une évi-dence). Le probable est donc à la fois un degré de croyance, une opinion attestée par une autorité et une fréquence stable.

Hacking (2002) étudie l’origine du terme « probabilité ». Selon lui, la première signification de la probabilité est l’approbation. Cette signification structure un ensemble de concepts : « crédibilité, fréquence, possibilité », entraînant ainsi une différence fondamentale dans la pensée médiévale entre « connaissance » et « opinion ». Ces deux dernières ne portent pas sur les mêmes objets puisque « dans la théorie médiévale de la connaissance, la science est la connaissance » (Ibid., p. 50). De ce fait,

« avoir la connaissance, c’est connaître les vérités éternelles, des vérités néces-sairement vraies [...]. Hormis la connaissance des vérités premières, si simples et fondamentales qu’elles en sont incontestables, la connaissance s’obtient par démonstration » (Ibid., p. 50).

En revanche, l’opinion porte sur « des croyances ou des doctrines qui ne sont pas ob-tenues par démonstration » (Ibid., p. 51), mais qui sont le fruit d’une « réflexion, d’un argumentaire ou d’un débat » (Ibid., p. 51). C’est donc par l’opinion que la probabilité est véhiculée. Ainsi, « la probabilité exige probité et approbation » (Ibid., p. 52), à l’opposé de la démonstration dont la seule exigence est « d’être capable de voir et de montrer ce qu’il en est pour de bon » (Ibid., p. 52).

La probabilité s’appuyait sur l’opinion et elle était rangée dans la catégorie des « basses sciences », alors que les « hautes sciences » comme la géométrie s’appuyaient sur un sa-voir démontrable. L’un des concepts fondamentaux des « basses sciences » étaient le signe. C’est par l’observation des signes que l’on pouvait lire des témoignages. Les signes avaient pour fonction première de rendre probable une opinion (Hacking, 2002, p. 10). Ces signes pouvaient « être évalués selon la fréquence à laquelle ils apportaient un témoignage fi-dèle » (Ibid., p. 10). Dès la fin de la Renaissance, il y a eu la transformation du concept de signe en celui de l’évidence factuelle. Or, la formation du concept de l’évidence fac-tuelle constitue l’une des conditions préalables à l’émergence de la probabilité. D’après Hacking (2002), « l’évidence factuelle », autrement dit « la preuve par des choses », est avant tout un héritage des « basses sciences », où l’on accepte un nouveau genre de témoignage, celui de la nature qui doit être interprétée. Le signe devient alors un élément de l’évidence factuelle. La transformation des signes en évidence factuelle est une évidence inductive désignant à la fois « le processus aboutissant à une généralisation voire à une loi de la nature à la suite d’observations et d’expériences particulières » (Ibid., p. 72) ; mais également, « l’induction allant d’un cas particulier à un autre » (Ibid., p. 72). C’est par

cette transformation du signe en évidence factuelle qu’enfin le concept de la probabilité a émergé.

Il existe deux modes de mise en évidence : celui qui s’appuie sur le témoignage des per-sonnes ou des autorités, dit « mise en évidence extérieure », et l’autre qui s’appuie sur la contribution des choses, qualifié de « mise en évidence intérieure ». La mise en évidence par la contribution des choses est fondamentale, puisque les choses sont considérées comme éléments d’évidence lorsque « leur contribution ressemblait au témoignage d’observateurs et à l’autorité des livres » (Ibid., p. 66).

La probabilité était donc « assignée par des régularités et des fréquences stables » (Ibid., p. 79). Du point de vue « épistémique », la probabilité a pour objectif d’évaluer les degrés de croyance. Du point de vue de la « fréquence », la probabilité vise à mettre en évidence des lois stochastiques de processus aléatoires. On a donc une nouvelle manière de construire des connaissances à partir des faits observés, autrement dit, des évidences. C’est donc l’évidence des observations empiriques qui devient le nouvel

« espace épistémologique dans lequel la probabilité s’installe avec sa dualité de degré de certitude d’un énoncé scientifique et d’accumulation de faits observés selon des fréquences relatives à peu près stables » (Desrosières, 2006, p. 2).

Leibniz défend l’idée que la probabilité est « ce qui est déterminé par l’évidence factuelle et la raison » (Hacking, 2002, p. 57). Alors que Galilée place la probabilité du côté de l’approbation, qui selon lui peut aisément s’accorder avec « l’évidence factuelle et non pas avec le poids des autorités » (Ibid., p. 57). Hacking (2002) souligne que la probabilité est considérée comme

« statistique et s’applique aux lois stochastiques des processus aléatoires ou comme épistémique et concerne l’évaluation des degrés auxquels il est rai-sonnable de croire en la vérité de propositions n’ayant rien de statistique » (Hacking, 2002,p. 39).

Cette dualité de la probabilité a également été retenue par Carnap, pour qui « il faudrait distinguer la probabilité inductive de la probabilité statistique » (Hacking, 2002, p. 39). Dans le versant épistémique,

« la probabilité attribuée à une hypothèse, compte tenu de certaines données, est une relation logique entre l’hypothèse et les données. La probabilité de h compte tenu de d, est quelque chose comme le degré auquel d implique logiquement h » (Hacking, 2002, p. 40).

Alors que dans le versant aléatoire, la probabilité est liée à la stabilisation de fréquences lorsqu’on réitère des essais.

Du point de vue de Hacking, c’est avec le livre Ars Conjectandi (1713) de Jacques Bernoulli que la probabilité sort de sa phase d’émergence. En effet, dans cet ouvrage, Bernoulli a clarifié le concept de probabilité et la relation entre la probabilité d’un événement et

la fréquence de sa réalisation (pour un grand nombre d’expériences) explicitée dans le théorème limite en calcul de probabilité qui peut être formulé comme suit :

« pour une épreuve dont une issue possible E a une probabilité p, la fréquence de réalisations de E sera aussi proche que l’on veut de p avec une probabilité fixée si l’on fait un nombre suffisamment grand de répétitions » (Pichard, 2001, p. 31).

Bernoulli s’intéressait à la détermination de la probabilité par la méthode expérimentale. Il suggéra ainsi une manière de déterminer la probabilité d’un évènement a posteriori. Par la suite, cette notion est approfondie par Laplace, et elle sera enseignée sous cette forme jusqu’à l’axiomatisation mathématique élaborée par Kolmogorov (1950). Ce dernier présente la probabilité comme une mesure.

En résumé, la probabilité posséde deux aspects, l’un subjectif portant sur le degré de croyance, l’autre objectif portant sur la fréquence stable. Ces deux aspects définissent deux courants philosophiques détaillés ci-dessous.