• Aucun résultat trouvé

Introduction aux Probabilit´es ou comment le jeu devient probabilit´es

N/A
N/A
Protected

Academic year: 2022

Partager "Introduction aux Probabilit´es ou comment le jeu devient probabilit´es"

Copied!
12
0
0

Texte intégral

(1)

Introduction aux Probabilit´ es

ou comment le jeu devient probabilit´es

A. Camanes 11 d´ ecembre 2007

Probabilit´ es ou Statistiques ?

Commen¸cons par un peu de vocabulaire. D’apr`es le dictionnaire en ligne de l’acad´emie fran¸caise http://atilf.atilf.fr/, lastatistiqueest la branche des math´ematiques ayant pour objet l’ana- lyse non exhaustive et l’interpr´etation de donn´ees quantifiables.

En pratique, les statisticiens disposent de s´eries d’observations et cherchent `a identifier le m´ecanisme al´eatoire qui le r´egit dans le but de pr´edire les r´esultats `a venir. Leur travail consiste donc `a trouver quel mod`ele math´ematique d´ecritau mieuxle ph´enom`ene qu’ils observent.

De mani`ere compl´ementaire, les probabilistes ´etudient les mod`eles math´ematiques utilis´es pour d´ecrire les ph´enom`enes al´eatoires. Leur travail consiste `a l’´etude des comportements de ces mod`eles.

Par exemple, ´etant donn´ee une suite de 1 et de 0, le statisticien va chercher le mod`ele al´eatoire dont le comportement ressemble le plus `a la suite observ´ee : par exemple, un mod`ele qui sort 1 avec probabilit´e 1/2 et 0 avec probabilit´e 1/2. Il va alors utiliser la th´eorie des probabilit´es pour dire que si l’exp´erience continue `a se produire et qu’il fait la moyenne des 0 et des 1 obtenus, il obtiendra 1/2.

1 Quelques jeux tr` es simples

Qu’appelle-t-on un jeu simple ? Un jeu o`u il ne peut pas se passer grand chose, i.e. on peut d´ecrire toutes les parties possibles en un temps raisonnable. Dans cette introduction, raisonnable signifie fini et n’est donc pas synonyme de court !

1.1 Le vote d´ emocratique - Les probabilit´ es discr` etes

Exercice 1 (Le paradoxe des anniversaires). On consid`ere un groupe de 10 personnes. On demande `a chacune d’elles leur jour d’anniversaire. La probabilit´e que deux personnes soient n´ees le mˆeme jour est-elle ´elev´ee ?

Nous commen¸cons par donner un peu de vocabulaire. Nous illustrons ces d´efinitions par le lancer d’une pi`ece de monnaie trois fois cons´ecutives.

Ici, notreexp´erience consiste `a relever les r´esultats de notre triple lancer de pi`ece. Comme pr´ecis´e dans l’introduction, nous consid´erons dans cette partie que le nombre de r´esultats possibles pour notre exp´erience est fini. Nous noterons Ω l’ensemble des r´esultats d’exp´eriences. Ω sera appel´e pompeusement l’univers. Par exemple ici,

Ω ={(P, P, P),(P, P, F),(P, F, P),(P, F, F),(F, P, P),(F, P, F),(F, F, P),(F, F, F)}. Math´ematiquement, Ω est un ensemble constitu´e de plusieurs ´el´ements appel´es ´ev´enements

´el´ementaires. Nous appelonscardinal d’un ensemble, le nombre d’´el´ements qu’il contient. Ici, Card(Ω) = 8.

Nous supposerons dans cette partie que tous les r´esultats ´el´ementaires ont la mˆeme chance de se pro- duire, i.e. P et F ont la mˆeme probabilit´e d’apparition. On parlera de ph´enom`ened’´equiprobabilit´e.

On appelle´ev´enement A toute partie de Ω, i.e. tout ensemble d’´el´ements de Ω. Nous choisissons par la suite de nous int´eresser `a l’´ev´enement :Deux piles apparaissent dans les lancers cons´ecutifs de la pi`ece de monnaie.

(2)

Laprobabilit´e qu’un ´ev´enement apparaisse est d´efinie sous forme d’un pourcentage. La d´efinition est un bel exemple de d´emocratie : nous appelons successivementtous les r´esultats ´el´ementaires possibles et nous regardons ceux qui r´epondent oui `a notre question (ici 4). La probabilit´e de l’´ev´enementA est alors le cardinal de A sur le cardinal de Ω, i.e. la proportion des gens qui ont r´eponduoui.

P(A) =Card A Card Ω. Dans notre exemple, nous trouvons

P(obtenir 2 P) = 4

8 = 50%.

Remarque. Si 50% des lancers contiennent exactament deux P, 50% d’entre eux contiennent 0, 1 ou 3 F.

Plus g´en´eralement, la probabilit´e d’un ´ev´enement + la probabilit´e de son compl´ementaire vaut 1.

Solution. Dans le cas de notre paradoxe des anniversaires, nous allons nous int´eresser `a l’inverse de la question propos´ee. Ainsi, nous nous int´eressons `a la question : Quelle est la probabilit´e que toutes les personnes soient n´ees un jour diff´erent ?

Nous commen¸cons par remarquer que chaque personne du groupe a 31 possibilit´es de jour d’anni- versaire. Ainsi, le nombre de groupes diff´erents que l’on peut rencontrer vaut :

31×31×31×. . .×31

| {z }

10f ois

.

Pour bien comprendre ce genre de d´enombrement, se r´ef´erer `a l’arbre ci-contre.

1

... 1ere personne

2

2emepersonne 1

1

31×31 branches 31 branches

· · · ...

... 31 31

31

... · · ·

· · ·

Fig. 1.1 – D´enombrement des groupes de jours d’anniversaire

Le nombre de groupes dont les personnes sont toutes n´ees un jour diff´erent peut ˆetre d´enombr´e de la fa¸con suivante :

1. Pour choisir le jour de naissance de la premi`ere personne, nous avons 31 possibilit´es

2. Pour choisir le jour de naissance de la deuxi`eme personne, nous n’avons plus que 30 possibilit´es (le jour de naissance de la premi`ere personne ne peut plus ˆetre utilis´e)

...

3. Pour choisir le jour de naissance de la dixi`eme personne, nous avons 22 possibilit´es.

Au final, en utilisant la d´efinition pr´ec´edente,

P(les 10 pers. n´ees jour diff.) = 31×30×. . .×22

3110 .

On obtient ainsi la r´eponse `a la question obtenue,

P(2 pers. n´ees mˆeme jour) = 1−31×30×. . .×22

3110 .

(3)

Nous repr´esentons ci-dessous l’´evolution de cette probabilit´e en fonction du nombre de personnes dans le groupe ainsi que le mˆeme r´esultat si nous nous int´eressons `a la date de naissance de chacune des personnes (i.e. jour/mois). Nous mettons en ´evidence, dans chacun des cas, la taille critique qui permet d’obtenir une probabilit´e de 50% puis 90%.

Ces calculs permettent de contredire l’intuition issue duprincipe des tiroirs et des chaussettesou principe deDirichlet: pour que dans un groupe, on soitsˆur qu’il y a deux personnes qui sont n´ees le mˆeme jour, il faut et il suffit que ce groupe soit constitu´e de 32 personnes.

0 5 10 15 20 25 30

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9

Le paradoxe des anniversaires

Nombre de personnes

Probabilité que deux personnes soient nées le même jour

0 50 100 150 200 250 300 350

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

Le paradoxe des anniversaires

Nombre de personnes

Probabilité que deux personnes soient nées le même jour

Fig.1.2 – Le paradoxe des anniversaires

Ce petit exercice doit ˆetre mis en relation avec la constitution de fichiers contenant les empreintes g´en´etiques. Les empreintes g´en´etiques visent `a d´efinirune personne en recueillant une s´equence d’ADN de l’ordre de 10 000 nucl´eotiques se trouvant sur la partie non codante du g´enome. Un calcul identique au calcul pr´ec´edent montre que la probabilit´e que deux personnes aient le mˆeme identifiant dans un fichier recensant 800 personnes est superieure `a 80%. . .

Remarque. • Nous avons suppos´e ici que les jours d’anniversaires ´etaient ´equiprobables. Or, ˆetre n´e un 1er est plus probable qu’ˆetre n´e un 30. On verra dans la partie suivante comment g´erer ce genre de ph´enom`ene.

• Comme le montre cet exemple, notre travail de probabiliste a consist´e `a s’affranchir du r´esultat de l’exp´erience pour consid´erertousles r´esultats possibles. Au cours de ces notes, nous verrons qu’il en va de mˆeme pour toute la th´eorie des probabilit´es. En quelque sorte, nous nous affranchissons de l’alea et prenons la place d’un observateur omniscient.

1.2 Les attraits de l’ind´ ependance - Probabilit´ es conditionnelles

Exercice 2 (Le nombre de buveurs). Une administration d´esire ´evaluer le nombre de bu- veurs inv´et´er´es parmi ses employ´es. Si elle demande directement `a chacun d’entre eux s’ils boivent r´eguli`erement, il y a peu d’espoir qu’elle obtienne une r´eponse satisfaisante. Envisagez une question plus subtile !

Dans un souci de g´en´eralisation des r´esultats pr´ec´edents, nous d´efinissons un espace probabilis´e comme la donn´ee de

(Ω,F,P). Que signifie ce triplet obscur ?

• Ω d´esigne l’ensemble de tous les r´esultats qui peuvent arriver.

• F, appel´ee tribu, est l’ensemble des ´ev´enements (i.e. des ensembles de r´esultats) qui nous int´eressent. En particulier,il ne se passe rien(i.e. l’ensemble vide) et il se passe quelque chose (i.e. Ω) sont des ´el´ements deF. SiAest dansF, sa n´egation (i.e.Ac) est dansF. On demande

´egalement que siAetBsont deux ´ev´enements deF,AouB(i.e.A∪B) etAetB (i.e.A∩B) soient dansF. Enfin, de mani`ere moins intuitive, mais nous nous en servirons dans l’exemple suivant, nous demandons que toute union d´enombrable d’´el´ements deF reste dansF.

• Pest lamesure de probabilit´e. Comme son nom l’indique,Pest une r`egle qui pour tout ´el´ement deF nous donne sa longueur. Nous verrons plus tard qu’il existe des ´el´ements qui ont une taille nulle (la r`egle utilis´ee n’est pas assez pr´ecise), ce n’est pas pour cela qu’ils sont impossibles ! (comme disait mon prof. de maths de premi`ere, on peut ˆetre nul et exister. . . ) Par contre, tout

(4)

´el´ement qui n’est pas dansF n’est pas mesurable. Ces ´el´ements sont plus difficiles `a mettre en

´evidence.

Par analogie avec les questions de mesure d’aire (cf. figure), on demande `aP de v´erifier, P(Ω) = 1, P(Ac) = 1−P(A), (An)n disjoints P(∪nAn) =X

n

P(An).

En particulier,

P(A∪B) =P(A) +P(B)−P(A∩B).

Cette axiomatique a ´et´e mise en place en 1933 par Kolmogorov.

Le dessin suivant est tr`es sch´ematique. Tout ´ev´enement est repr´esent´e par une patate. On repr´esente les diff´erentes probabilit´es que nous pouvons calculer `a partir de deux ´ev´enements. Les croix repr´esentent quelques ´ev´enements ´el´ementaires, appel´es en premi`ere partie r´esultats de l’exp´erience.

0000000 0000000 0000000 0000000 0000000 0000000 0000000 0000000 0000000 0000000 0000000 0000000

1111111 1111111 1111111 1111111 1111111 1111111 1111111 1111111 1111111 1111111 1111111 1111111

000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000 000000000000000

111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 111111111111111 0000 0000 0000 0000 0000 1111 1111 1111 1111 1111

A

B

AB esultat

Fig.1.3 – Repr´esentation de la notion de probabilit´es

On cherche maintenant `a d´efinir la notion de probabilit´e conditionnelle. Tous les matins, la proba- bilit´e que je prenne mon parapluie est de 1/2 et la probabilit´e qu’il pleuve est de 1/2. Cependant, la probabilit´e que je prenne mon parapluie sachant qu’il pleuve vaut 1 ! La probabilit´e conditionnelle deA sachantB est not´ee et d´efinie par

P(A|B) = P(A∩B) P(B) . On dira que deux ´ev´enements sontind´ependants si

P(A|B) =P(A).

Remarque. De mani`ere ´equivalente, deux ´ev´enements sont dits ind´ependants si P(A∩B) =P(A)P(B).

Solution. On demande `a chacun des employ´es de choisir, sans nous la communiquer, une couleur parmi bleu et rouge. Nous supposerons dans la suite que les employ´es ont une probabilit´e de 1/2 de choisir bleu et de 1/2 de choisir rouge. Par ailleurs, nous supposerons que le choix de la couleur est ind´ependant de la d´ependance des personnes (est-ce une hypoth`ese raisonnable ? ?).

Comme dans la partie pr´ec´edente, nous r´ealisons ensuite un r´ef´erendum o`u la question est : R´epondez oui si vous ne buvez pas ou si vous avez pens´e `a la couleur rouge. Cette question ne les engage pas personnellement car nous ne pouvons savoir `a quelle affirmation ils r´epondent.

(5)

Cependant, nous pouvons calculer

P(boivent) = P(boivent|pensent bleu)

= P(boivent et pensent bleu) P(pensent bleu)

= 1−P(ne boivent pas ou pensent rouge) P(pensent rouge)

= 1

2{1−P(ne boivent pas ou pensent rouge)}

= 1

2

1−Card{ne boivent pas ou pensent rouge} Card{employ´es}

2 Mod´ eliser des jeux plus compliqu´ es

Nous allons continuer `a mod´eliser des jeux, mais sans nous int´eresser vraiment au jeu. Seules les r`egles qui r´egissent les parties seront ´etudi´ees.

2.1 L’importance des r` egles du jeu - Les variables al´ eatoires

Exercice 3 (La marche du crabe gris). Un crabe ivre sort de chez lui `a 19h, apr`es un ap´ero bien arros´e. Il d´ecide de rendre visite `a ses voisins. N’´etant pas en possession totale de ses moyens, son cerveau ressemble `a une pi`ece de monnaie. . . Chaque heure il d´ecide de rendre visite `a un nouveau voisin : celui de droite si la pi`ece tombe sur face, celui de gauche si elle tombe sur pile. A quoi va donc ressembler son parcours ?

Dans cette section, nous allons chercher `a formaliser les notions pr´esentes dans l’exercice pr´ec´edent.

Ainsi, nous allons math´ematiser le trajet du crabe pour pouvoir reconnaˆıtre tout comportement ressemblant `a celui du crabe

On peut par exemple consid´erer deux amis Alice et Bertrand qui jouent selon les r`egles suivantes : ils lancent une pi`ece de monnaie. Si la pi`ece tombe sur face, Alice donne 1 euro `a Bertrand, dans le cas contraire c’est Bertrand qui donne un euro `a Alice. Les gains d’Alice au cours du temps ont le mˆeme comportement que ceux du crabe !

Ainsi, ce qui caract´erise ces deux jeux est la dichotomie dans les r´esultats : `a chaque ´etape on obtient−1 ou 1. On va donc consid´erer que `a chaque ´etape, il y a une fonctionX qui pour toute exp´erienceω∈Ω associe la valeur 1 ou−1. On caract´erise la fonctionX par la quantit´e

p=P({ω∈Ω; X(ω) = 1}).

De mani`ere g´en´erale, on appelle variable al´eatoire discr`ere toute fonction X : Ω→Z,

lorsque Ω est d´enombrable etF est l’ensemble des parties de Ω.

Le jeu est alors caract´eris´e par la fonctionX ou plutˆot par la probabilit´e queX prenne chacune de ses valeurs. Formellement, lorsqueX prend un nombre fini de valeurs{x1, . . . , xk}, on notera

pi=P({ω∈Ω; X(ω) =xi}) =P(X=xi).

Remarque. Pour touti, une probabilit´e est toujours un nombre compris entre 0 et 1, i.e.pi∈[0,1]

et la probabilit´e queX vaille n’importe laquelle de ses valeurs vaut 1, i.e. P

ipi = 1 (penser aux r´esultats du vote d’une ´election pr´esidentielle).

Le d´eplacement du crabe est alors caract´eris´e par une suite d’exp´eriences ind´ependantes que nous noteronsX1, . . . , Xn.

Exercice 4 (Le cerveau d´erang´e). Est-il possible que, lors de son parcours, le crabe parte vers sa droite pendant 10 heures successives ? pendant 100 heures ? ad vitam aeternam ?

(6)

Solution. La probabilit´e de partir 10 fois vers la gauche vaut 1/210, 100 fois 1/2100, une infinit´e de fois 0. Nous sommes donc en pr´esence d’un ph´enom`ene de probabilit´e nulle !

Le th´eor`eme suivant est tr`es ´etonnant. Supposons que, comme dans le cas du crabe, notre jeu consiste en une s´erie d’exp´eriences identiques ind´ependantes. Supposons ´egalement qu’un

´ev´enement peut arriver avec probabilit´e positive (par exemple, le crabe se d´eplace 10 fois vers la gauche). Alors, le nombre d’exp´eriences o`u le crabe, lors de son parcours, ne se d´eplacejamais de 10 pas vers la gauche est de mesure nulle. De plus, dans ces exp´eriences, l’´ev´enement arrive une infinit´e de fois ! Intuitivement, toute exp´erience typique contient toute suite arbitrairement longue de d´eplacement vers la gauche. Cependant, ce th´eor`eme ne nous dit pasquand cette suite se produit.

Lemme 1 (Borel-Cantelli II). Si(En)nNest une suite d’´ev´enements ind´ependants, alors XP(En) = +∞ ⇒P(En i.o.) = 1.

D´emonstration. Dans l’´enonc´e, i.o. signifie infiniment souvent. On d´efinit cette notion de la mani`ere suivante,

P(En i.o.) =P(lim supEn), o`u lim supEn=∩mnmEn.En utilisant l’ind´ependance, on obtient

P

\

nm

En

 = Y

nm

(1−P(En))

≤ Y

nm

epn

≤ ePn≥mpn

= 0.

Ainsi,

P(lim supEn) = 1−P[(lim infEn)c] = 1.

2.2 La fin de l’esp´ erance - La d´ efinition de la valeur moyenne

N’ayant gu`ere d’espoirs (ou ´etant raisonnables), nous ne pensons pas gagner plus que ce que le jeu permet de gagner enmoyenne. . . Cependant, la remarque finale nous fera perdre toute illusion ! Exercice 5 (Le singe et l’ordinateur). Un singe se trouve devant le clavier de l’ordinateur.

Toutes les secondes, il choisit une touche au hasard et appuie dessus. Quelle est la probabilit´e qu’il arrive `a taper d’un trait les oeuvres de Victor Hugo ? Quel temps mettra-t-il en moyenne pour parvenir `a ses fins ?

Indication :Commencer par envisager le cas o`u le singe s’arrˆete d`es qu’il a tap´e ABRACADABRA

Le th´eor`eme de Borel-Cantelli pr´esent´e pr´ec´edemment assure que le singe va presque sˆurement taper l’int´egralit´e des oeuvres ! mais quand va-t-il s’arrˆeter de taper ? (la probabilit´e de taper ABRACADABRA valant 1/2611)

Dans cette partie, nous d´efinissons la notion de valeur moyenne. Imaginons que vous ˆetes un

´etudiant qui avez eu lors des 10 examens :

20,14,15,1,13,20,15,13,13,13.

Vous calculez votre moyennem:

m= 20 + 14 + 15 + 1 + 13 + 20 + 15 + 13 + 13 + 13

10 .

Une autre mani`ere d’´evaluer cette moyenne, m= 1

101 + 4

1013 + 1

1014 + 2

1015 + 2 1020.

(7)

De mani`ere analogue, pour une variable al´eatoireXqui prend les valeursx1, . . . , xkavec probabilit´e p1, . . . , pk,samoyenne (ouesp´erance) not´eeE[X] est d´efinie par :

E[X] =p1x1+. . .+pkxk

Par exemple, dans le cas du jeu de pile ou face, `a chaque lancer, la variable al´eatoire qui vaut 1 avec probabilit´e 1/2 et −1 avec probabilit´e 1/2 a une esp´erance de 0 : en moyenne, on ne gagne rien. . .

Comment traiter alors l’exercice propos´e dans cette partie ? Notre d´efinition ici ne s’applique pas directement. En effet, en notant T le temps que met le singe `a ´ecrire ABRACADABRA, on remarque que ce temps peut prendre toutes les valeurs enti`eres plus grandes que 11.

On d´efinira alors le temps moyen par une somme infinie,

E[T] =p11 +p22 +p33 +. . .+p10001000 +pnn+. . .

Il arrive alors un ph´enom`ene bien connu en maths qui peut ˆetre illustr´e par l’exemple suivant, 1 + 1

2+1 3 +1

4 +. . .+ 1

100+. . .+ 1

n+. . . = +∞ 1 + 1

4+1 9 + 1

16+. . .+ 1

1002+. . .+ 1

n2+. . . = π2 6

En sommant beaucoup d’´el´ements tr`es petits, on peut trouver quelque chose de tr`es grand.

On peut ainsi rencontrer des variables al´eatoires qui ne prennent que des valeurs finies, mais qui sont infinies en moyenne. Intuitivement, la probabilit´e qu’elles soient grandes ne d´ecroˆıt pas assez vite.

Solution. (cf. [Wil91] pour plus de d´etails) Dans le cas de notre singe, on va avoir de la chance. . . SiN repr´esente la longueur des oeuvres de V. Hugo,E[T]≤N26N <+∞

On se ram`ene `a un probl`eme de th´eorie des jeux ´equivalent. On consid`ere un joueur qui mise 1 sur le fait que la premi`ere lettre tap´ee par le singe soit unA. Si ce n’est pas unA, il a perdu, sinon il remporte 26 (=nbre de lettres dans l’alphabet) fois sa mise. Au second tour, il mise toute sa fortune sur l’apparition d’unB,. . . On note Mn(1) = 26nQ

1Xj=aj. On consid`ere maintenant que des joueurs commencent `a jouer successivement. Ainsi, le joueurkmise sur le fait que le singe va commencer `a taper ABRACADABRA `a l’instantk. En notantMn =P

iMn(i)la somme des gains des joueurs `a l’instantn, on obtient une martingale (cf. derni`ere partie). Le temps T correspond au moment o`u un joueur a gagn´e 2611−1, alors que un des joueurs a A de juste et le dernier a ABRAde juste. Ainsi, nous pouvons d´ecrire

T = inf{n:Mn(n11)= 2611−1}

= inf{n:Mn= 2611+ 264+ 26−n}

On utilise alors le th´eor`eme de l’arrˆet optionel (cf. [Wil91]) carE[T]<+∞pour montrer que 0 =E[M0] =E[MT] = 2611+ 264+ 26−E[T].

Soit,

E[T] = 367034448744778≡1015. La terre est ˆag´ee d’environ 2·1017minutes. . .

Exercice 6 (Le retour du crabe gris). Le crabe gris d´ecrit lors de la partie pr´ec´edente a-t-il une chance de rentrer chez lui au cours de ses p´er´egrinations ? Quel temps moyen mettra-t-il `a retrouver son foyer ? (pour toute question concernant la probabilit´e que l’ivrogne retrouve le code de la porte d’entr´ee, se reporter `a la section d´enombrement. . . )

Que doivent penser un homme ou un oiseau ivre de ce comportement ?

Solution. (d´emontr´e par Poly´a, 1921, cf. [Dur96]) NotonsT le temps (al´eatoire) de retour en 0.

En dimension 1 et 2, le crabe revient presque sˆurement chez lui, i.e.P(T <+∞) = 1, mais E[T] = +∞.

(8)

En dimension plus grande que 3, l’oiseau ne rentre pas chez lui avec probabilit´e positive, i.e.

P(T = +∞)>0. Par exemple, la probabilit´e qu’un oiseau retrouve son nid est de l’ordre de 34% ! NotonsSn la position de la marche al´eatoire `a l’instantn, puis par r´ecurrence, ses temps de retour successifs

τ0 = 0,

τn = inf{m > τn;Sm= 0}.

On remarque tout d’abord querevenir presque sˆurement en 0 se traduit par P(τ1<+∞) = 1.

On remarque que

P(τn <+∞) =P(τ1<+∞)n. En effet, en notantθla translation temporelle,

P(τn<+∞) = P(τn1<+∞, τ1τn−1ω)<+∞))

= P(τn1<+∞)P(τ1<+∞) Un simple calcul montre alors que

E

" X

m=0

1Sm=0

#

= X

m=0

P(Sm= 0)

= X

m=0

P(τm<+∞)

= X

m=0

P(τ1<+∞)m

= 1

1−P(τ1<+∞)

Pour conclure, il suffit de remarquer que pour une marche al´eatoire on peut ´evaluerP(Sm= 0) en fonction de coefficients multinomiaux puis obtenir

P(Sm= 0)∼ C nd/2.

Remarque. La notion de moyenne doit ˆetre manipul´ee avec beaucoup d’attention comme le montre l’exemple suivant. Consid´erons une loterie contenant 100 tickets. Parmi ces tickets, 1 seul est gagnant et permet de gagner 1 000 000 euros. D’apr`es la d´efinition pr´ec´edente, en notantGle gain,

E[G] = 0× 99

100+ 1 000 000× 1 100

= 10 000

Cependant, le gain typique d’un joueur est 0. La moyenne ne nous donne pas une vision tr`es juste de la r´ealit´e (remplacerticketsparemploy´esetgain `a la loterieparsalairepour mieux comprendre ce ph´enom`ene !). Certaines lois de probabilit´es sont proches de leur moyenne. Nous parlons alors deconcentration de la mesure, mais cela nous am`ene beaucoup trop loin.

2.3 D´ etecter la fausse monnaie - La loi des grands nombres

Exercice 7 (Le faussaire d´emasqu´e). Vous disposez d’une pi`ece de monnaie. Comment s’assurer qu’elle a autant de chances de tomber sur pile que sur face ?

(9)

0 10002000300040005000600070008000900010000 0

20 40 60 80 100 120 140

Marche aléatoire équilibrée de longueur 10000

n

0 10002000300040005000600070008000900010000

−80

−60

−40

−20 0 20

Marche aléatoire équilibrée de longueur 10000

n

0 10002000300040005000600070008000900010000

−0.6

−0.5

−0.4

−0.3

−0.2

−0.1 0.0 0.1

Moyenne : S_n/n

n

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 0.0

0.2 0.4 0.6 0.8 1.0 1.2 1.4

Marche aléatoire redimensionnée

t

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

−1.0

−0.8

−0.6

−0.4

−0.2 0.0 0.2 0.4 0.6 0.8 1.0

Mouvement Brownien

t

Fig.2.4 – Marches al´eatoires et mouvement brownien

Solution. La th´eorie est conforme `a notre intuition. Imaginons que si la pi`ece tombe sur face, nous comptions 0, 1 si elle tombe sur pile. Le nombre moyen de 1 obtenus lors d’un grand nombre de lancers nous donne la probabilit´e que la pi`ece tombe sur pile. Ainsi, supposons que la suite de P/F donne 0,1,1,1,0,0,0,0,0,1,1,1,1,1,0,1,0,1, . . .. Alors,

0 + 1 + 1 + 1 + 0 + 0 + 0 + 0 + 0 + 1 + 1 + 1 + 1 + 1 + 0 + 1 + 0 + 1 +. . .

n ≃P(obtenir1).

Une illustration de ce ph´enom`ene est donn´ee dans la figure suivante.

Plus g´en´eralement, si nous effectuons la moyenne d’une suite de variables identiques (en loi) ind´ependantes permet d’obtenir la moyenne de cette loi, i.e.

X1+. . .+Xn

n

−−−−→np.s.

→∞ E[X],

o`u p.s. signifie que l’ensemble des exp´eriences pour lesquelles la convergence pr´ec´edente n’a pas lieu est de mesure nulle.

Remarque. Pour pouvoir avoir la convergence pr´ec´edente, il faut supposer que E[|X|]<+∞, i.e.

que la variable al´eatoire a une moyenne finie.

Exercice 8 (Les crabes susceptibles ?). Au bout d’un an, le crabe pense `a ses amis. Quelle est la probabilit´e qu’il n’ait pas rendu visite aux terriers situ´es `a la droite de son foyer durant les 6 derniers mois ?

Regardons les r´ealisations pr´ec´edentes de plus pr`es. On constate que bien que le nombre moyen de 1 soit ´egal au nombre moyen de−1, la marche al´eatoire passe beaucoup de temps au-dessus ou au-dessous de l’axe des abscisses.Attention, avoir en moyenne environ autant de 1 que de−1 ne signifie pas qu’il y a autant de 1 que de−1. Par exemple, supposons que nbre 1nbren (1) = 1n, ce qui est tr`es petit pourngrand. Alors, on a quand mˆemenbre1−nbre(−1) =√n, ce qui est grand ! Ce ph´enom`ene est reli´e `a laloi de l’arcsinus.

(10)

Th´eor`eme 2. NotonsLn le dernier temps de passage en 0 Ln = sup{m≤n;Sm= 0}. Alors, pour tousa, b

P

a≤ L2n

2n ≤b

→ 2 π

arcsin(√

b)−arcsin(√ a)

.

En particulier,

P L2n

2n ≤ 1 2

→ 1 2,

i.e. la probabilit´e que le crabe ait pass´e la derni`ere moiti´e de son temps chez les voisins de gauche est de 50%. De mˆeme, si le jeu dure du 1er janvier au 31 d´ecembre, la probabilit´e qu’Alice ait plus d’argent que Bertrand du 1er juillet au 31 d´ecembre est de 50%.

D´emonstration. Notons pour tout entierk

P(S2k = 0) =u2k. Le principe de r´eflexion assure que nous avons ´egalement,

P(S16= 0, . . . , S2n 6= 0) =P(S2n= 0).

Ainsi, nous obtenons la forme tr`es simple,

P(L2n = 2k) =u2ku2n2k. Or, rappelons que

u2n= 1 2n

2n n

.

On remarque ainsi que lorsquek/n→x,

nP(L2n= 2k)→ 1 πp

x(1−x). On peut ainsi r´e´ecrire

P

a≤L2n

2n ≤b

=

nbn

X

k=nan

P(L2n= 2k)

=

Z bn+1/n an

fn(x)dx, o`u, comme on se place sur un compact,

sup

anxbn+1/n

fn(x)→ X

axb

f(x)<+∞.

On peut ainsi appliquer le th´eor`eme de convergence domin´ee pour obtenir le r´esultat souhait´e.

3 Prenons un peu de distance

3.1 Des causes diff´ erentes ont les mˆ emes effets - Le th´ eor` eme central limite

Exercice 9 (Le crabe et le go´eland). Le go´eland prend son envol de la plage et observe le d´eplacement du crabe. Peut-il observer un comportement particulier ?

(11)

La Loi des grands nombres assure que

X1+. . .+Xn

n →E[X].

Ainsi, toute moyenne d’exp´eriences converge vers la valeur moyenne th´eorique. Nous pouvons alors nous demander comment quantifier l’erreur entre moyennes empirique et th´eorique. Le th´eor`eme Central Limite nous permet de r´epondre `a cette question.

Commen¸cons par parler de variance. La variance d’une s´erie d’exp´eriences est la moyenne des

´ecarts `a la moyenne. Pour chaque ´el´ementxde l’´echantillon de tailleN, nous consid´erons son ´ecart quadratique `a la moyenne (x−m)2, puis nous faisons la moyenne de ces ´ecarts N1 P

(x−m)2. Plus formellement, si nous consid´erons une exp´erience (x1, . . . , xk) dont chacun des ´el´ements apparaˆıt avec la probabilit´e (p1, . . . , pk), on d´efinit

V = Xk

i=1

pi xi− Xk

i=1

pixi

!2 .

Ecrit autrement `a l’aide du formalisme probabiliste, V(X) =Eh

(X−E[X])2i

=E[X2]−E[X]2.

G´en´eralement, pour des questions de dimension, on pr´ef`ere s’int´eresser `a l’´ecart-type σ=p

V(X).

Le th´eor`eme Central Limite traite des variables al´eatoires qui ont une moyenne et une variance finies,

E[X] =m, σ(X) = r

Eh

(X−E[X])2i .

Alors, pour toutx∈R, et (Xi) des variables al´eatoires i.i.d., P

Pn

i=1(Xi−m) σ√n ∈[a, b]

→ 1

√2π Z b

a

et22 dt

La variable al´eatoire `a densit´e f(t) = 1et22 est appel´ee loi normale (ou gaussienne centr´ee r´eduite). On rappelle qu’une variable al´eatoire r´eelle admet pour densit´ef si pour toutx∈R,

P(X ≤x) = Z x

−∞

f(t)dt.

Ce th`eor`eme signifie que si n est grand, X1+···n+Xn se comporte comme une variable al´eatoire gaussienne. Intuitivement, une suite d’exp´eriences microscopiques ind´ependantes induit un com- portement macroscopique universel.

3.2 Et si on s’´ etait tromp´ e ? - Les intervalles de confiance

Exercice 10 (Le policier d´emasqu´e). Ayant d´etermin´e que la pi`ece de monnaie est fausse, quelle est la probabilit´e que le policier se soit tromp´e ?

Le th´eor`eme central limite permet de mettre en place la strat´egie suivante. Supposons que nous souhaitions ´evaluer la moyenne th´eorique m d’une population. Pour cela, nous disposons d’un

´echantillon d’au moins 30 personnes qui nous permet de calculer la moyenne empiriqueme. Alors, dans (1−α)% des cas, mse trouve dans l’intervalle,

I(m; 1−α) =

me−π1α2

√σn, me1α2

√σn

,

o`uπ1α2 satisfait l’´equationφ(π1α2) = α2 et est donn´e par les tables de la loi normale.

(12)

Supposons alors que nous pensions que la vraie moyenne estm0. Nous voulons donc valider l’hy- poth`eseH0:m=m0. Pour cela, nous calculons l’erreur

e= me−m0

σn

. Nous adoptons la strat´egie suivante :

• Si|e|> π1α2, l’hypoth`ese est rejet´ee,

• Si|e| ≤π1α2, l’hypoth`ese est accept´ee,

Nous donnons alors le r´esultat avec un risque de se tromper ´egal `a α%.

3.3 Des causes diff´ erentes ont les mˆ emes effets - Le Mouvement Brow- nien

Ceci permet de d´emontrer le th´eor`eme non-trivial suivant, appel´e principe d’invariance de Donsker.

Intuitivement, entre deux points de la marche al´eatoire, on a une somme de variables al´eatoires ind´ependantes de carr´e int´egrable, donc en renormalisant correctement, on obtient une loi normale.

Consid´erons un processus `a temps continu tel que 1. B0= 0,

2. t7→Btest continu p.s., 3. Pour touss≤t,

Bt−Bs∼ N(0, t−s) et est ind´ependante de (Bu, u≤s).

Th´eor`eme 3 (Donsker). Dans un sens de convergence `a pr´eciser, Sn·

√n

−−−−→nL

→∞ B·.

(cf. [Dur96] pour des d´efinitions pr´ecises ainsi que les d´etails du th´eor`eme)

En effectuant des changements d’´echelle spatiale et temporelle sur le trajet du crabe, quelle que soit la forme des sauts (de variance finie), on obtient un objet limite unique : le mouvement brownien.

Comment compliquer encore les r` egles du jeu ?

• Les chaˆınes de Markov : connaissant toute la trajectoire du crabe, l’endroit vers lequel il se dirige d´epend uniquement de l’endroit o`u il se trouve `a l’instant pr´esent.

• Les martingales : inspir´es de th´eorie des jeux, ces processus assurent que, connaissant le pass´e, leur valeur moyenne `a un instantn est ´egal `a la valeur `a l’instant n−1. Dans un casino, les processus sont des surmartingales : le casino est sˆur de gagner de l’argent en moyenne. De plus, un th´eor`eme assure que nous ne pouvons pas utiliser de strat´egie gagnante face `a un tel processus.

R´ ef´ erences

[Dur96] RichardDurrett : Probability : theory and examples. Duxbury Press, Belmont, CA, second ´edition, 1996.

[Tan04] Biblioth`equeTangente: Hasard et probabilit´es - Hors S´erie n˚17. Tangente, 2004.

[Wil91] David Williams : Probability with martingales. Cambridge Mathematical Textbooks.

Cambridge University Press, Cambridge, 1991.

Références

Documents relatifs

-a- Si la personne test´ ee ne dipose d’aucun don particulier en ce domaine, quelle est la probabilit´ e qu’il annonce le symbole correct pour une carte donn´ ee.. Quelle est

On suppose que le d´ e est calibr´ e de telle mani` ere que la probabilit´ e d’obtenir ` a l’issue d’un lancer l’un quelconque des entiers n de l’intervalle [1,2010] est la

1 Quelle est l’expression de la loi de probabilit´ e r´ egissant les ventes journali` eres et quelles sont les valeurs possibles de la variable al´ eatoire associ´ ee. 2 Quelle est

La loi de probabilit´ e P d’une variable al´ eatoire d´ ecrit quelles sont les valeurs ou modalit´ es possibles prises par la variable et avec quelle probabilit´ e ces diff´

Les diff´ erentes branches correspondent ` a des ´ ev` enements incompatibles (par construction de l’arbre), donc on fait la somme des probabilit´ es de ces 3 branches, on obtient

Pour la th´eorie des probabilit´es, nous pr´esentons les deux r´esultats fondamen- taux suivants : la loi forte des grands nombres qui assure que la moyenne de donn´ees

Montrer que quelle que soit la valeur de la probabilit´e pour que le pr´esentateur ouvre la porte B (respectivement C) sachant que le cadeau est derri`ere la porte A, vous

Une matrice sym´ etrique r´ eelle est dite positive si ses valeurs propres sont positives et elle est dite d´ efinie positive si ses valeurs propres sont strictement positives.. On