• Aucun résultat trouvé

MATHS Term PROBABILITES COURS 1 Ce document n’est pas un cours à proprement parler. Son objectif est de récapituler l’essentiel et d’expliquer un certain nombre de notions.

N/A
N/A
Protected

Academic year: 2022

Partager "MATHS Term PROBABILITES COURS 1 Ce document n’est pas un cours à proprement parler. Son objectif est de récapituler l’essentiel et d’expliquer un certain nombre de notions."

Copied!
16
0
0

Texte intégral

(1)

Ce document n’est pas un cours à proprement parler. Son objectif est de récapituler l’essentiel et d’expliquer un certain nombre de notions.

1 Probabilités conditionnelles

1.1 Rappels sur les probabilités

1.1.1 Expérience aléatoire et événements

* Une expérience aléatoire est une expérience dans laquelle toutes les issues possibles sont connues, mais imprévisibles pour une future tentative.

ex : lancer d'un dé, futur podium avant la course, …

* Une issue est l'un des résultats possibles d'une expérience aléatoire.

Les issues, ou éventualités, sont notées ei « éventualité n°i ».

expérience : lancer un dé ; issues : 1, 2, 3, 4, 5, et 6

* L'univers des possibles est l'ensemble Ω des issues d'une expérience.

On note souvent n le nombre total d'issues. Card(Ω) = n et Ω = {e1 ; e2 ; … ; ei ; … ; en}.

expérience : lancer un dé ; univers : Ω = {1 ; 2 ; 3 ; 4 ; 5 ; 6} ; Card(Ω) = 6

* La réalité est l'issue réalisée une fois l'expérience effectuée.

* On appelle événement tout sous-ensemble A de Ω. Il peut être défini suivant un ou plusieurs critères.

ex du lancer d'un dé : A : "obtenir un nombre pair" ; A = {2 ; 4 ; 6}

B : "obtenir au moins 3" ; B = {3 ; 4 ; 5 ; 6}

C : "obtenir au plus 2" ; C = {1 ; 2}

* Dire qu'un événement est réalisé, c'est dire que la réalité appartient à cet événement.

ex du lancer d'un dé : soit 4 la réalité. A est-il réalisé ? oui

B est-il réalisé ? oui

C est-il réalisé ? non

* un événement est dit élémentaire lorsqu'il ne contient qu'une seule éventualité.

* l'événement Ω est dit certain, car il sera toujours réalisé.

* l'événement ∅ est dit impossible car il ne sera jamais réalisé.

Opérations sur les événements

Tout événement que l'on peut définir est un ensemble, inclus dans Ω.

On peut ainsi appliquer aux événements les propriétés sur les ensembles, sur leurs complémentaires, sur leur intersection ou réunion.

En particulier :

* le contraire de l'événement A est l'événement A , complémentaire de A dans Ω.

ex du lancer d'un dé : contraire de A : A=

{

1 3 5 contraire de B : ; ;

}

B=

{ }

1 2 ;

* l'événement A∩B est l'événement "A et B".

ex du lancer d'un dé : A∩ =B

{ }

4 6 ;

* l'événement A∪B est l'événement "A ou B" . ex du lancer d'un dé : A∪ =B

{

2 3 4 5 6 ; ; ; ;

}

* deux événements sont dits incompatibles lorsqu'ils ne peuvent être réalisés en même temps.

Autrement dit : ils n'ont pas d'éventualité commune : A∩ = ∅B . Si deux événements sont contraires, alors ils sont incompatibles.

Si deux événements sont incompatibles, ils ne sont pas forcément contraires.

ex du lancer d'un dé : A et C sont-ils incompatibles ? non, issue 2 en commun

(2)

* Quelques formules utiles pour la suite :

( ) ( ) ( )

( ) ( ) ( )

( ) ( ) ( ) ( )

Card A Card A Card

Card A B Card A B Card A

Card A B Card A Card B Card A B

+ = Ω

∩ + ∩ =

∪ = + − ∩

1.1.2 Probabilité simple

Une probabilité se définit mathématiquement comme une fonction p qui, à tout événement A associe un nombre p(A), en respectant deux conditions :

* p(Ω) = 1

* p(A∪B) = p(A) + p(B) pour tous événements A et B incompatibles.

Cette définition est suffisante pour qu'en découlent toutes les propriétés sur un événement.

conséquences directes :

compréhension :

La probabilité d'un événement A est la mesure de la chance qu'il a de se réaliser lorsqu'une expérience est menée. Notée p(A), c'est un nombre réel compris entre 0 et 1 inclus, représentant la potentialité de l'événement suivant les critères ci-dessous :

p(A) > p(B) signifie que A est plus probable que B.

p(A) = p(B) signifie que A et B sont équiprobables.

p(A) = 0 signifie que A est impossible.

p(A) = 1 signifie que A est certain.

Equiprobabilité des issues :

La définition ci-dessus implique :

( ) { } ( )

1

p e p 1

n i i=

= Ω =

. Dans le cas où toutes les issues de Ω ont les

mêmes chances d’apparaître, on a alors immédiatement : p e

( ) { }

i =1n pour tout i.

lancer d’un dé : p(1) = 1

6 , p(2) = 1

6 , p(3) = 1 6, etc.

Ainsi, on peut en déduire le résultat suivant :

( ) ( )

( ) ( )

Card A Card A

p A =Card = n

Ω lancer d'un dé (A, B, C définis en page 14) : p A

( )

=3

6 ; p B

( )

=4

6 ; p C

( )

=2

6

( ) ( ) ( ( ) )

( ) ( )

( ) ( ) ( )

( ) ( ) ( ) ( )

p 0 ; 0 p A 1 sans oublier p 1 p A p A 1

p A B p A B p A p A B p A p B p A B

∅ = ≤ ≤ Ω =

+ =

∩ + ∩ =

∪ = + − ∩

( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

;

;

+ = + = + = + =

∩ + ∩ = + = = ∩ + ∩ = + = =

∪ = + − ∩ = + − =

3 3 4 2

p A p A 1 p B p B 1

6 6 6 6

2 1 3 1 2 3

p A B p A B p A p A C p A C p A

6 6 6 6 6 6

5 3 4 2 5

p A B et p A p B p A B

(3)

1.2 Probabilités conditionnelles 1.2.1 Définition

Soit, dans un univers Ω, un événement A de probabilité non nulle.

La probabilité que l'événement B se réalise, sachant que A s'est réalisé, est :

remarque :

( ) ( )

( )

A

p A B

p B

p A

= ∩ implique p A

(

∩ =B

) ( )

p A ×pA

( )

B

( ) ( )

( )

B

p A B

p A

p B

= ∩ implique p A

(

∩ =B

) ( )

p B ×pB

( )

A

ainsi p(A∩B) peut se calculer de deux manières, et p A

( )

×pA

( ) ( )

B =p B ×pB

( )

A .

1.2.2 Arbre de choix probabilisé

On pourra représenter les croisements entre A, B et leurs contraires par un arbre :

Le premier niveau contient des probabilités simples ; le second niveau contient des probabilités conditionnelles ;

à la droite de l’arbre, on peut placer des probabilités d’intersections.

Exemple : supposons qu’on souhaite piocher au hasard une lettre dans l’alphabet. Notons A l’événement « C’est une voyelle » et B l’événement « La lettre est au-delà de P ».

On peut construire l’arbre de choix suivant :

* Suivons le premier chemin de l’arbre :

Nous avons 6 chances sur 26 de piocher une voyelle, et si on a pioché une voyelle, nous avons 2 chances sur 6 pour que celle-ci soit au-delà de P. Au bout du compte, nous avons 2 chances sur 26 de piocher U ou Y.

6/26 × 2/6 = 2/26 reflète la définition des probabilités conditionnelles : p A

(

∩ =B

) ( )

p A ×pA

( )

B .

* Maintenant Intéressons-nous à p B : probabilité de piocher une lettre au-delà de P. Cet événement,

( )

B, est atteint en deux chemins distincts de l’arbre, incompatibles entre eux : on peut additionner les probabilités d’y parvenir, ce que montre l’encadré en haut de la page 2 :

( ) (

= ∩ +

) (

)

p B p A B p A B = 2/26 + 8/26 = 10/26. (effectivement, il y a dans l’alphabet 10 lettres au-delà de P : 2 voyelles et 8 consonnes).

( ) ( ) ( )

A

p A B

p B

p A

= ∩

(4)

On pouvait aussi construire un arbre de choix dans l’autre sens :

* Suivons le premier chemin de l’arbre : Nous avons 10 chances sur 26 de piocher une lettre au-delà de P, et si on a pioché une telle lettre, nous avons 2 chances sur 10 pour que ce soit une voyelle. Au bout du compte, nous avons 2 chances sur 26 de piocher U ou Y.

10/26 × 2/10 = 2/26 reflète la définition des probabilités conditionnelles :

(

∩ =

) ( )

× B

( )

p A B p B p A .

* Maintenant Intéressons-nous à p A : probabilité de piocher une voyelle. Cet événement, A, est

( )

atteint en deux chemins distincts de l’arbre, incompatibles entre eux : on peut additionner les probabilités d’y parvenir, ce que montre l’encadré en haut de la page 2 :

( ) (

= ∩ +

) (

)

p A p A B p A B = 2/26 + 4/26 = 6/26. (effectivement, il y a dans l’alphabet 6 voyelles : 2 au-delà de P et 4 en-deçà).

On remarquera que dans un arbre :

* la somme des probabilités des branches issues d’un nœud vaut 1 ;

* la somme des probabilités d’intersections, à droite de l’arbre, vaut 1.

La formule p A

( ) (

=p A∩ +B

)

p A

(

B

)

se nomme « formule des probabilités totales ».

1.2.3 Formule de Bayes

Les définitions et résultats ci-dessus permettent d’écrire :

( ) ( )

( )

( ) ( ) ( ) ( )

×

( ) ( ) ( )

= =

∩ + ∩ × + ×

A B

A A

p A B p A p B

p A

p A B p A B p A p B p A p B

1.2.4 Evénements indépendants

Définition : deux événements A et B sont dits indépendants lorsque p A

(

∩ =B

) ( ) ( )

p A ×p B

Autrement dit, d'après la définition d'une probabilité conditionnelle : pA

( ) ( )

B =p B =pA

( )

B

La probabilité que B se réalise est la même, sachant que A est réalisé ou non, ou sans même savoir si A est réalisé ou va se réaliser.

ATTENTION : cette formule encadrée est donc fausse dans le cas général !

Exemple : supposons qu’on souhaite piocher au hasard une carte dans un jeu de 32. Notons A l’événement « C’est un pique » et B l’événement « C’est un as ».

Comme il y a la même proportion d’as chez les pique et chez les autres cartes, A et B sont forcément indépendants. Voyons cela avec un arbre :

(5)

A-t-on pA

( ) ( )

B =p B =pA

( )

B ?

La probabilité de B est-elle indépendante du fait que A se réalise ?

( ) ( )

( ) ( ) ( )

= = =

= ∩ + ∩ = + = =

A A

1 3 1

p B ; p B ;

8 24 8

1 3 4 1

p B p A B p A B

32 32 32 8

En effet, c’est confirmé.

Vérification de l’indépendance par sa définition : p A

(

∩ =B

) ( ) ( )

p A ×p B ?

( ) ( )

8 1 1

( )

p A p B p A B

32 8 32

× = × = = ∩ !

Deux événements indépendants sont caractérisés au deuxième niveau d’un arbre par des groupes de branches possédant les mêmes probabilités.

(6)

2 Lois de probabilités

2.1 Rappels sur les notions générales, cas discret

2.1.1 Variable aléatoire discrète

Comme précédemment, une expérience aléatoire mène à un univers Ω = {e1, e2, …, ei, …, em}.

Ici, Ω est partitionné en un nombre m d'événements Ai, de probabilités pi.

Définition : Une variable aléatoire discrète X est une fonction qui, à chaque événement Ai, associe un nombre réel xi (appelé communément "gain").

Exemple : un jeu consiste à piocher simultanément trois cartes d’un jeu de 32. L’univers des possibles Ω est l’ensemble des combinaisons de trois cartes. Il contient 323 32 31 30

3 2 1 4960

C = × × =

× × combinaisons.

* Quatre événements « Ak » formant une partition de Ω peuvent être définis, pour k entier de 0 à 3 : Ak = « obtenir k piques ». Leurs probabilités sont (dans le détail, pour faire un petit rappel sur les combinaisons) :

( )

0 80 3 243 32

24 23 22

1 3 2 1 24 23 22 6 23 22 23 22 23 11 759 253

p A 32 31 30 32 31 30 8 31 30 8 31 5 4 31 5 620 620

3 2 1

C C

C

× × ×

× × × × × × × × ×

= = × × = × × = × × = × × = × × = =

× ×

,

( )

1 81 3 242 32

24 23

8 2 1 3 8 24 23 3 8 4 6 23 3 23 276

p A 32 31 30 32 31 30 32 31 30 31 5 620

3 2 1

C C

C

× ×

× × × × × × × × × ×

= = × × = × × = × × = × =

× ×

,

( )

2 82 3 241 32

8 7 24 24 7 4 6 3 7 21 84

p A 2 1

32 31 30 32 31 30 31 5 155 620

3 2 1

C C

C

× × ×× × × × ×

= = × × = × × = × = =

× ×

,

( )

3 83 3 240 32

8 7 6

1 8 7 6 7 7

3 2 1

p A 32 31 30 32 31 30 4 31 5 620

3 2 1

C C

C

× × ×

× × × × ×

= = × × = × × = × × =

× ×

,

(on vérifiera que la somme de ces quatre probabilités vaut bien 1)

* A ces quatre événements, on peut associer des gains :

( )

0

( )

1

( )

2

( )

3

gain A = −1€ ; gain A =0€ ; gain A =2€ ; gain A =10€

La liste des gains attribués aux événements s’appelle variable aléatoire, notée X.

Cette variable est dite « discrète » dans la mesure où les valeurs qu’elle peut prendre sont ponctuelles et distinctes les unes des autres

Le tableau montrant la distribution de ces gains en probabilité s’appelle loi de probabilité de X :

Gain (X), en € xk – 1 0 2 10

probabilité pk ou p(X = xk) 253/620 276/620 84/620 7/620

(7)

2.1.2 Paramètres de tendance centrale et de dispersion

Insistons ici sur la signification d'une probabilité :

Dire qu'un événement A a une probabilité de 0,3 c'est dire qu'il a 30 % de chances de se produire

lorsqu'une expérience va être conduite une fois. "Idéalement", lorsque l'expérience est conduite plusieurs fois de suite, l'événement A sera réalisé dans 30 % des cas.

On constate et on démontre que plus le nombre de répétitions de l'expérience est important, plus la fréquence réelle de réalisation de A tend vers sa probabilité théorique. Ceci porte le nom de "loi faible des grands nombres".

A chaque tentative, la réalité est purement aléatoire, mais à long terme, sur un grand nombre d'essais, ce pseudo-hasard est guidé par les probabilités.

Nous traiterons de ces aspects dans la partie III (intervalles de fluctuation, estimation).

Définition : l'espérance mathématique de X est le nombre

( )

1

E

m i i i

X p x

=

=

Il s'agit de la moyenne des valeurs de X, prévisible, que l'on peut espérer à long terme.

Cette formule est à rapprocher de celle de la moyenne en statistiques :

1 n

i i i

x f x

=

=

.

L'espérance mathématique est un opérateur linéaire : E(a.X) = a.E(X) et E(X + Y) = E(X) + E(Y).

En particulier, si tous les gains sont augmentés d'une valeur g, alors l'espérance aussi : E(X + g) = E(X) + g

On retrouve aussi d’autres formules venant des statistiques :

variance de X :

( )

2

( ( ) )

2

( )

2

( )

2

1

V E E E

m i i i

X p x X X X

=

=

− = − écart type : σ

( )

X = V

( )

X

Reprenons notre exemple :

Gain (X), en € xk – 1 0 2 10

probabilité pk ou p(X = xk) 253/620 276/620 84/620 7/620

( ) ( )

1

1 15

E 253 0 168 70

620 620

m i i i

X p x

=

=

= − + + + =− : l’espérance est la moyenne vers laquelle tend le gain moyen réel par partie lorsque le nombre d’essais tend vers l’infini. Autrement dit : plus on joue à ce jeu, plus notre gain moyen oscille autour de cette valeur négative : au bout de 620 parties, on aura perdu autour de 15 € (reste à savoir étudier ce « autour de »…) et en 62000 parties, autour de 1500 €.

(bien sûr, personne ne jouera 62000 fois, mais imaginons que ce jeu soit en ligne : le propriétaire du site web empoche en moyenne 1500 € toutes les 62000 parties).

La variance aussi se calcule (et c’est elle qui jouera un rôle dans le « autour de », à voir dans la troisième partie du chapitre) :

( ) ( )

2

( )

2 1

( )

15 2

V E E 253 0 336 700 2,07845

620 620

X X X − 

= − = + + + −  ≈

 

(8)

2.2 Une loi discrète incontournable : la loi binomiale

2.2.1 Définition et mise en œuvre

La loi de probabilité d'une variable aléatoire X est binomiale ssi :

* une expérience est conduite n fois avec répétition possible d'une éventualité, dans le cadre d'une partition de Ω en un événement (succès) et son contraire (échec).

* X désigne le nombre de succès obtenus au bout de n essais.

a. Schéma de Bernoulli

Considérons une expérience aléatoire représentée par un univers Ω.

L'événement A, appelé succès, a pour probabilité p(A) notée p.

Son contraire, appelé échec, a pour probabilité q = 1 - p.

b. Loi binomiale

On effectue l'expérience décrite précédemment n fois de suite, dans des conditions identiques, c'est à dire : p est invariable.

Soit X la variable aléatoire qui donne le nombre k de succès à l'issue des n essais.

Alors la loi de probabilité de X est binomiale de paramètres n et p.

On la note :

B

(n ; p).

2.2.2 Calcul des probabilités

Un arbre ("schéma de Bernoulli à n niveaux") nous permet ici de justifier l'emploi de la formule générale qui sera donnée en-dessous - dans cet exemple, l'expérience est répétée trois fois : n = 3 ; A est le succès.

Les nombres de succès, valeurs de X, sont mis en relation avec les probabilités des intersections d'événements, à droite de l'arbre. La probabilité que X = 1, par exemple, est donc le cumul des probabilités d'intersections correspondantes, qui valent toutes pq². Ainsi : p(X = 1) = 3pq². Pourquoi 3 chemins dans l'arbre mènent-ils à X = 1 ? Parce qu'il y a trois façons de combiner un succès parmi trois essais.

En généralisant, la probabilité d'avoir obtenu k succès est donc : p

(

X =k

)

=Cknp qk n k

2.2.3 Moyenne et variance

Dans ce cadre, elles sont obtenues par des formules simples : E

( )

X =np V

( )

X =npq

(9)

2.2.4 Reprenons l’exemple présenté en 2.1.1 :

* Il n’est plus question ici de gains en euros : la variable doit compter des succès – ici des pique.

On s’intéresse au nombre k de pique qu’on peut obtenir au bout de trois cartes piochées.

* parler de loi binomiale implique aussi qu’à chaque tirage la probabilité de succès soit constante. Il n’est donc plus question de tirage simultané : il faut effectuer trois tirages successifs avec remise.

Dans ces conditions, la probabilité d’obtenir un pique à chaque tirage est constante : 1/4.

Moyennant ces conditions, nous avons : le succès est « tirer un pique »

n = 3 tirages effectués, avec probabilité de succès p = 1/4 constante X = variable « nombre de succès au bout de 3 essais » ; X = {0 ; 1 ; 2 ; 3}

Alors X est distribuée par la loi binomiale

B (3 ; 0,25),

( )

3 1 3 3

p C

4 4

k k

X k k

   

= =    

    , ex : p

(

X = =2

)

C23         14 2 34 1= ×3 643 =649

( )

3

E X =4, V

( )

9

X =16

2.3 Lois à densité

Dans de nombreux cas, la variable aléatoire étudiée est continue et non discrète.

2.3.1 Comparaison discret/continu

Les différences fondamentales :

Variable discrète Prend un nombre fini de valeurs dans un intervalle borné (ou dénombrables dans un intervalle non borné)

Ex 2.1.2 : gains en €, valeurs -1, 0, 2, 10 Ex 2.2.4 : nb de pique, valeurs 0, 1, 2, 3

La probabilité d’atteindre une valeur se calcule : Voir au-dessus : p

(

X = =2

)

649

La distribution des probabilités peut être représentée par un diagramme en barres Exemples de lois discrètes :

- loi uniforme - loi binomiale

- loi hypergéométrique - loi géométrique

Variable continue Prend un nombre infini de valeurs réelles Ex : tailles des arbres, âges des gens, masses des pommes, …

La probabilité d’atteindre une valeur est nulle : - aucun arbre ne mesure 12,53 mètre

- personne au monde n’a 32 ans - aucune pomme ne pèse 148 grammes On ne peut calculer que la probabilité de se trouver dans un intervalle

On représentera graphiquement la fonction

« densité de probabilité », dont l’intégrale de a à b représentera la probabilité de se trouver entre a et b.

Exemples de lois continues : - loi uniforme

- loi exponentielle - loi normale - loi de Student Les points communs :

(10)

2.3.2 Caractéristiques d’une loi continue

Plaçons-nous dans le cas idéal où la variable aléatoire X peut prendre une valeur quelconque dans l'infinité des nombres réels, à partir d'une population de taille ainsi infinie.

Dans ce contexte, la "concentration des fréquences" se nomme "densité de probabilité".

Une densité de probabilité de X est une fonction f positive et continue sur ℝ et telle que

f x

( )

.dx=1

où une probabilité correspond à une surface comprise entre la courbe et l'axe (Ox).

Par exemple, la probabilité que X soit inférieure à 3,7 est 3 7, f x

( )

.dx

−∞

(voir figure).

La fonction de répartition de X est la fonction F qui, à une valeur x, associe le nombre F(x) = p(X < x).

F est une fonction croissante de x et il s’agit d’une primitive de f.

Remarque : la courbe d'une fonction densité de probabilité ne possède pas forcément d'axe de

symétrie, contrairement à ce que les représentations graphiques ci-dessus pourraient laisser penser ; ces dernières sont celles d'une densité selon la loi normale, qui présente en fait une symétrie.

* l'espérance d'une variable aléatoire continue est : E

( )

X =

x× f x

( )

.dx

.

* la variance d'une variable aléatoire continue est : V

( )

X =

∫ (

xE

( )

X

)

2×f x

( )

.dx

, définition à partir de laquelle on retrouve d'ailleurs la propriété déjà connue : V

( )

X =E

( )

X2 E

( )

X 2.

Deux formules peuvent être retenues (données ici avec des illustrations graphiques) : y = f (x)

F (3,7) F (3,85)

y = f (x)

y = F (x)

F (3,7) F (3,85)

b a a

(11)

2.3.3 Deux exemples de densité de probabilité

1) Soit X la masse des champignons d’une certain espèce, variable cantonnée à l’intervalle [20, 200] (en grammes), décrite par la densité f x

( )

=0,000001029

(

x−20 200

)(

x

)

.

* Vérifions que la probabilité totale est bien égale à 1 :

( )

. 200

( )

200 3 2

20 20

d 0,000001029 220 4000 0,9604 0,0398 1

3 2

x x

f x x= − + − x ≈ − − ≈

 

* Calculons la probabilité qu’un champignon pèse entre 100 et 150 g :

( )

. 150

150 3 2

100 100

d 0,000001029 220 4000 0,77175 0,3773 0,39445

3 2

x x

f x x= − + − x ≈ − ≈

 

Environ 39% de ces champignons pèsent entre 100 et 150 g.

* Calculons l’espérance de cette variable :

( ) ( )

.

( )

200 4 3 2 200

20 20

E d 0,000001029 220 4000 109,76 0,26 110

4 3 2

x x x

X = x× f x x= − + −  = − − ≈

 

La masse moyenne de ces champignons est de 110 g environ.

2) Loi exponentielle Soit X une variable « durée d’attente dans une file », réelle positive, décrite par la densité

( )

e x

f xλ

où λ est un paramètre strictement positif. Sa

représentation graphique prend la forme ci-dessous (ici avec λ = 0,2 pour l’exemple).

On a les résultats suivants pour toute loi exponentielle : p

(

X <x

)

= −1 eλx E

( )

X =λ1

* Calculons la probabilité d’attendre moins de 10 minutes : p

(

X <10

)

= −1 e2 0,8647.

* Calculons la durée moyenne d’attente : E

( )

1 5

X =0,2= minutes.

Une particularité de cette loi : pour tous x et h positifs, pX>x

(

X > +x h

) (

=p X >h

)

Cela signifie que la probabilité que la variable atteigne au moins la « durée » x+h sachant qu’elle a déjà atteint la valeur x est égale à la probabilité d’atteindre au moins la valeur h.

Cette propriété montre l’indépendance entre le vieillissement et la durée de vie.

Montrons-la :

( ) ( ( ) ( ) )

( ) ( )

( )

( )

( )

( )

( )

( )

1 1 e

p p e

p e p

p p 1 1 e e

x h x h

h

X x x x

X x h X x X x h

X x h X h

X x X x

λ λ

λ λ λ

+ +

>

> + ∩ > > + − −

> + = = = = = = >

> > − −

Avec notre exemple : sachant qu’on a déjà attendu 5 minutes, quelle est la probabilité qu’on attende 10 minutes de plus ?

( ) ( )

2

p > X > +5 10 =p X >10 =e ≈0,1353

(12)

2.3.4 La loi normale

a. Définition et propriétés générales

Soit une variable aléatoire X, de moyenne µ et d'écart type σ. (E(X) = µ ; V(X) = σ²)

On dit que sa loi de probabilité est

N

(µ , σ) lorsque sa densité de probabilité s'exprime par :

( )

1 2

1

2

e 2

x

f x

µ σ

σ

= π

Un exemple : densité de probabilité de la loi

N

(25 , 10) :

Remarque 1 : les courbes de ces fonctions sont des "courbes en cloche" (dites "courbes de Gauss").

Remarque 2 : Une telle courbe possède deux points d'inflexion, aux abscisses µ - σ et µ + σ. On peut donc se représenter l'écart type graphiquement.

Remarque 3 : on peut retenir quelques résultats-types :

p(µ - σ < X < µ + σ) = 68,3 % environ p(µ - 1,96σ < X < µ + 1,96σ) = 95 % environ

p(µ - 2σ < X < µ + 2σ) = 95,4 % environ p(µ - 2,58σ < X < µ + 2,58σ) = 99 % environ

Remarque 4 : il n'existe pas de définition du terme "normal" pour un individu. Seule une population peut présenter une distribution normale, nommée ainsi car on s'est aperçu qu'elle reflétait un grand nombre de cas concrets.

15 25 35

µ

σ σ

(13)

b. La loi normale centrée réduite

N

(0 , 1)

On pourra l'utiliser comme référence (parfois imposée, parfois nécessaire…).

Pour cette loi particulière, de moyenne 0 et d'écart type 1, la variable sera notée U et ses valeurs u.

(on trouvera souvent l’appellation Z au lieu de U)

La remarque 3 du 2.3.4 ci-dessus donne ici : p(-1 < U < 1) = 68,3 % environ

p(-1,96 < U < 1,96) = 95 % environ p(-2 < U < 2) = 95,4 % environ p(-2,58 < U < 2,58) = 99 % environ

Le fait que cette loi soit centrée sur 0 permet une nouvelle formule :

p(U < -a) = p(U > a)

c. Relation entre la loi

N

(0 , 1) et une loi normale

N

(µ , σ) :

On est parfois dans l'incapacité de résoudre un problème dans une loi normale "non centrée réduite", notamment lorsqu'un paramètre reste inconnu. Il conviendra alors de se ramener à la loi

N

(0 , 1).

X est distribuée par

N

(µ , σ) ⇔ U X µ

σ

= − est distribuée par

N

(0 , 1).

U est distribuée par

N

(0 , 1) X = +µ Uσ est distribuée par

N

(µ , σ).

Ainsi : p

(

X <x

)

=pU< xσµ

Quelle que soit la variable employée, la probabilité cherchée est l'aire d'une unique zone colorée. Appliquer le changement de variable donné ci-dessus ne fait que modifier les valeurs portées en abscisses, mais ne déforme pas la courbe ! Par exemple, l'abscisse µ +0,5σ pour X correspond à l'abscisse 0,5 pour U (d'après le changement de variable) et donc p(X < µ + 0,5σ) = p(U < 0,5).

-a a

( )

2

1

2

e 2

x

f x =

π

(14)

Exemples :

* La variable aléatoire X est distribuée par

N

(3 , σ). Déterminer son écart type sachant que p(X < 2) = 0,4.

On traduira le problème dans la loi normale centrée réduite : p

(

X < =2

)

pU <2 3σ =pU<σ1

   .

L’option FracNormale sur TI ou InvN (Inverse Normale) sur Casio nous permet de retrouver une valeur d’une variable à partir de la probabilité d’être inférieur à cette valeur.

Ici, 1 1

p U 0,253

σ σ

− −

 

< ⇔ ≈ −

 

  . Finalement, on en déduit σ ≈3,95.

* La variable aléatoire X est distribuée par

N

(µ , 10). Déterminer sa moyenne sachant que p(X < 30) = 0,7.

On traduira le problème dans la loi normale centrée réduite : p

(

30

)

p 30

X < = U < 10−µ

 .

L’option FracNormale sur TI ou InvN (Inverse Normale) sur Casio nous permet de retrouver une valeur d’une variable à partir de la probabilité d’être inférieur à cette valeur.

Ici, 30 30

p 0,7 0,524

10 10

U −µ −µ

 < = ⇔ ≈

 

  . Finalement, on en déduit µ≈24,8.

d. Approximation d’une loi binomiale par une loi normale

Sous certaines conditions, les probabilités que l’on calcule dans le cadre d’une loi binomiale deviennent proches de ce qu’on peut obtenir avec une loi normale bien choisie.

Ci-dessous, on montre trois distributions de probabilités, dans un cas binomial où la probabilité de succès p est 0,1. A gauche, le nombre d’essais n est 10, au centre il est de 50, et à droite de 200.

On s’aperçoit que plus n est grand, plus la distribution des succès possibles tend à être symétrique autour de son espérance, et peut être « enveloppée » par une courbe en cloche qui est en réalité celle d’une loi normale.

B

(10 ; 0,1)

B

(50 ; 0,1)

B

(200 ; 0,1)

Le fait de changer de loi s’avère indispensable lorsque n devient grand, car les formules de la loi

binomiale deviennent incalculables en pratique, même pour des ordinateurs puissants ! Passer à une loi normale résout ce problème.

Le théorème de Moivre-Laplace établit que les deux lois donnent des résultats strictement identiques lorsque n tend vers l’infini. En ce qui nous concerne, nous considérerons la loi normale comme suffisamment fiable pour remplacer une loi binomiale si les conditions ci-dessous sont respectées : Critères d'approximation d'une loi binomiale par une loi normale :

Avec

B

(n , p), si n > 30, np > 5 et nq > 5, alors on peut utiliser

N

(µ , σ) avec µ = np et σ = npq

(15)

3 Fluctuation, estimation

3.1 Echantillonnage

3.1.1 Présentation générale

Dans toute cette partie, on se place dans les conditions d’une loi binomiale.

Une expérience a une probabilité de succès p, et on la répète n fois à l’identique. A chaque fois, on obtient un succès ou un échec, et au bout des n essais, le nombre total de succès est noté X, variable, aléatoire, inférieur ou égal à n.

La loi binomiale dit que l’espérance de X (c’est-à-dire le nombre moyen de succès attendus) est

( )

E X =np, et que sa variance est V

( )

X =npq, soit un écart type σ

( )

X = npq= np

(

1p

)

.

Exemple : On joue 400 fois à un jeu pour lequel nos chances de gains sont de 30%. Au bout des 400 parties, le nombre de gains attendu est en moyenne E

( )

X =400 30× %=120 avec un écart type

( )

X 400 30% 70% 9,165

σ = × × ≈ (on dira pour l’instant que la plupart du temps, 400 parties donnent entre 111 et 129 succès).

De plus, on s’intéressera plutôt, non au nombre de succès obtenus, mais à leur proportion X n . Cette dernière a une espérance E X np

n n p

 

= =

 

  et un écart type X np

(

1 p

)

p

(

1 p

)

n n n

− −

 

σ = =

  .

Avec notre exemple précédent : Au bout des 400 parties, la proportion moyenne de gains attendue est 30% avec un écart type de 0,0229 (on dira pour l’instant que la plupart du temps, 400 parties donnent entre 27,71% et 32,29% de succès)

3.1.2 Intervalle de fluctuation

On a cité dans l’exemple précédent l’intervalle p p

(

1 p

)

; p p

(

1 p

)

n n

 − − 

− +

 

 

 

en disant que la plupart du temps, la réalité se trouverait à l’intérieur. Précisons :

Si n > 30, np > 5 et nq > 5, alors on peut utiliser des résultats issus de la loi normale :

Il y a 68,3% de chances que la fréquence de succès soit dans p p

(

1 p

)

; p p

(

1 p

)

n n

 − − 

− +

 

 

 

;

Il y a 95% de chances que la fréquence de succès soit dans p 1,96 p

(

1 p

)

; p 1,96 p

(

1 p

)

n n

 − − 

− +

 

 

 

;

Il y a 99% de chances que la fréquence de succès soit dans p 2,58 p

(

1 p

)

; p 2,58 p

(

1 p

)

n n

 − − 

− +

 

 

 

.

D’une manière générale, on appelle intervalle de fluctuation asymptotique au seuil α l’intervalle de type I p u p

(

1 p

)

; p u p

(

1 p

)

n n

α α α

 − − 

= − + 

 

 

, où uα est le coefficient de loi normale associé à α.

(16)

Reprenons l’exemple de la partie 3.1.1. Quel est l’intervalle de fluctuation de la fréquence de gain au seuil de 5% ?

On utilisera ici le coefficient 1,96 :

[

0,3 1,96 0,0229 ; 0,3 1,96 0,0229− × + ×

] [

= 0,255 ; 0,345

]

. Interprétation : il y a 95% de chances qu’en 400 parties, la fréquence de succès soit comprise entre 25,5% et 34,5%.

3.2 Estimation, Prise de décision

Cette fois, on se place dans une situation inversée : une fréquence f a été relevée à partir d’un

échantillon. On construira autour de cette valeur un intervalle de confiance dans lequel on estime que se trouve la proportion p existant dans la population.

(on notera qu’ici on ne parle pas forcément de loi binomiale)

D’une manière générale, l’intervalle de confiance de p au seuil α (ou au niveau de confiance 1 – α)est :

(

1

)

;

(

1

)

f f f f

I f u f u

n n

α α α

 − − 

= − + 

 

 

, où uα est le coefficient de loi normale associé à α.

Formule simplifiée :

la valeur maximale de f

(

1 f

)

est 0,5 (quel que soit f compris entre 0 et 1) ; d’autre part, un

intervalle de confiance à 95% utilise un coefficient uα =1,96≈2. On peut alors dire qu’un intervalle de p à au moins 95% de confiance est 1 1

;

f f

n n

 

− +

 

 .

Par exemple : on se demande quelle est, dans les forêts de conifères, la proportion d’arbres dont le diamètre dépasse 20 cm. On prend des mesures sur un échantillon de 100 arbres et on en trouve 16 dont le diamètre dépasse 20 cm.

* donner l’intervalle à 95% de confiance de la proportion existant dans le monde.

( ) ( ) [ ]

0,16 1 0,16 0,16 1 0,16

0,16 1,96 ; 0,16 1,96 0,088 ; 0,232

100 100

Iα

 − − 

= − − =

 

 

. On estime qu’entre 8,8% et 23,2% des conifères correspondent à ce critère.

* on trouve cet intervalle trop imprécis (son amplitude vaut 14,4%). Combien de conifères faudrait-il mesurer pour obtenir un intervalle de confiance d’amplitude 4% ? (on utilisera la formule simplifiée)

L’amplitude de l’intervalle 1 1 ;

f f

n n

 

− +

 

  est 2

n . On veut donc 2 %

4 n 50 n 2500

n = ⇔ = ⇔ = . Il faudrait mesurer 2500 arbres.

Références

Documents relatifs

Parmi les chaudières qui ne sont plus sous garantie, la probabilité qu’une chaudière sois défectueuse est de 1 10.. Dans un logement, la chaudière

On sait que la probabilité que l’appareil présente un défaut d’apparence est égale à 0 , 02 et que la probabilité que l’appareil présente au moins l’un des deux défauts

Classe de terminales S Année scolaire 2007-2008. htp://www.taye.fr Probabilités conditionnelles et

Pour chaque question quatre réponses sont proposées dont une seule est exacte.. On note N le nombre de

(g) Tracer un diagramme bâtons avec en abscisse les valeurs de k et en ordonnées les probabilités pour la loi binomiale et la loi normale.. (h) Comparer ces

[r]

Une expérience aléatoire qui a deux issues possibles (que l’on nommera succès et échec) est appelé épreuve de Bernoulli.. En associant la valeur 1 à un succès et 0 à

[r]