• Aucun résultat trouvé

Probabilit´ es et Statistiques

N/A
N/A
Protected

Academic year: 2022

Partager "Probabilit´ es et Statistiques"

Copied!
55
0
0

Texte intégral

(1)

D´ epartement STPI Troisi` eme Ann´ ee IC

Probabilit´ es et Statistiques

C. Boyer, S. Grusea et C. Marteau

Ann´ ee universitaire 2012-2013

(2)

Simona Grusea

Bureau 11, d´ epartement GMM simona.grusea@insa-toulouse.fr

Cl´ ement Marteau

Bureau 123, d´ epartement GMM

clement.marteau@insa-toulouse.fr

(3)

Table des mati` eres

I Introduction ` a la th´ eorie des probabilit´ es 5

I.1 Pourquoi les probabilit´ es ? . . . . 5

I.2 Espace probabilis´ e . . . . 6

I.2.1 D´ efinitions . . . . 6

I.2.2 Op´ erations sur les ´ ev´ enements . . . . 7

I.2.3 Probabilit´ e . . . . 8

I.2.4 Probabilit´ e uniforme . . . . 8

II Probabilit´ es conditionnelles et ind´ ependance 11 II.1 Probabilit´ es conditionnelles . . . 11

II.2 Ind´ ependance . . . 12

III Variables al´ eatoires r´ eelles 15 III.1 Introduction . . . 15

III.2 D´ efinitions . . . 15

III.2.1 Variable al´ eatoire . . . 15

III.2.2 Loi de probabilit´ e . . . 15

III.2.3 Fonction de r´ epartition . . . 16

III.3 Diff´ erents types de variables al´ eatoires r´ eelles . . . 17

III.3.1 Variables al´ eatoires discr` etes . . . 17

III.3.2 Variables al´ eatoires continues . . . 18

III.4 Exemples fondamentaux . . . 19

III.4.1 Variables discr` etes . . . 19

a) Loi de Bernoulli . . . 19

b) Loi binomiale . . . 19

c) Loi g´ eom´ etrique . . . 19

d) Loi de Poisson . . . 19

III.4.2 Variables continues . . . 19

a) Loi exponentielle . . . 20

b) Loi Gamma . . . 20

c) Loi normale de param` etres (m, σ

2

) . . . 20

IV Manipulation de variables al´ eatoires 23 IV.1 Caract´ eristiques des variables al´ eatoires . . . 23

IV.1.1 Esp´ erance . . . 23

IV.1.2 Propri´ et´ es de l’esp´ erance . . . 24

(4)

TABLE DES MATI ` ERES TABLE DES MATI ` ERES

IV.1.3 Variance et ´ ecart-type . . . 24

IV.2 Ind´ ependance de variables al´ eatoires . . . 25

V Th´ eor` emes limites 27 V.1 In´ egalit´ e de Chebychev . . . 27

V.2 Loi (faible) des grands nombres . . . 28

V.3 Th´ eor` eme central limite . . . 28

V.4 Approximation d’une loi binomiale . . . 29

V.4.1 Approximation par une loi normale . . . 29

V.4.2 Approximation par une loi de Poisson . . . 30

VI Estimation 31 VI.1 Introduction . . . 31

VI.2 Estimation ponctuelle . . . 32

VI.2.1 Propri´ et´ es d’un (bon) estimateur . . . 32

a) Consistance . . . 32

b) Biais . . . 33

c) Ecart quadratique moyen . . . 33 ´

VI.2.2 Estimateur d’une moyenne m ou d’une proportion . . . 33

VI.2.3 Estimateur de la variance . . . 34

VI.3 Estimation par intervalle de confiance . . . 34

VI.3.1 Intervalle de confiance pour la moyenne d’un ´ echantillon gaussien (variance connue) . . . 35

VI.3.2 Intervalle de confiance pour la moyenne d’un ´ echantillon gaussien (variance inconnue) . . . 35

VI.3.3 Intervalle de confiance pour une proportion . . . 36

VI.3.4 Intervalle de confiance pour la variance d’une population gaussienne 37 VII Tests d’hypoth` eses 39 VII.1 Exemple introductif . . . 39

VII.2 D´ emarche g´ en´ erale pour la construction d’un test . . . 40

VII.3 Test sur la moyenne d’un ´ echantillon gaussien (variance connue) . . . 41

VII.3.1 Test unilat´ eral ` a droite . . . 42

VII.3.2 Test unilat´ eral ` a gauche . . . 42

VII.3.3 Test bilat´ eral . . . 42

VII.4 Test sur la moyenne d’un ´ echantillon gaussien (variance inconnue) . . . . 42

VII.5 Cas d’une population non gaussienne . . . 42

VIIIAnnexe 1: Tables statistiques 43

IX Annexe 2: Sujets des ann´ ees pr´ ec´ edentes 46

(5)

Chapitre I

Introduction ` a la th´ eorie des probabilit´ es

I.1 Pourquoi les probabilit´ es ?

Dans de nombreux domaines (science, sociologie, m´ edecine, etc...), on s’int´ eresse ` a des ph´ enom` enes dans lesquels apparaˆıt l’effet du hasard. Ces ph´ enom` enes sont caract´ eris´ es par le fait que les r´ esultats des observations varient d’une exp´ erience ` a l’autre.

Une exp´ erience est appel´ ee “al´ eatoire” s’il est impossible de pr´ evoir ` a l’avance son r´ esultat et si, r´ ep´ et´ ee dans des conditions identiques, elle peut donner des r´ esultats diff´ erents:

• succession d’appels ` a un standard t´ el´ ephonique non surcharg´ e;

• observation de la dur´ ee de vie d’un individu anonyme dans une population;

• observation de la dur´ ee de fonctionnement sans panne d’appareil;

• jeu de pile ou face.

Voici d’autres exemples de domaines d’applications des probabilit´ es.

Fiabilit´ e. On consid` ere un syst` eme form´ e par plusieurs composants. On s’int´ eresse

`

a la fiabilit´ e du syst` eme: on va chercher ` a calculer la probabilit´ e que le syst` eme fonc- tionne encore ` a un instant donn´ e. Il faut pour cela connaˆıtre la probabilit´ e que chacun des composants fonctionne ` a cet instant et tenir compte du fait que les composants ne fonctionnent peut-ˆ etre pas ind´ ependamment les uns des autres.

Fatigue des mat´ eriaux. Les donn´ ees de fatigue des mat´ eriaux sont tr` es dis-

pers´ ees. On fait alors appel ` a des mod´ elisations probabilistes et ` a des m´ ethodes statis-

tiques afin, par exemple, de construire des intervalles de confiance pour le nombre moyen

de cycles jusqu’` a la rupture.

(6)

I.2 Espace probabilis´ e Introduction ` a la th´ eorie des probabilit´ es

el´ ecommunications. En t´ el´ ecommunications, on doit souvent tenir compte du

“bruit” dans les syst` emes. Par exemple, supposons qu’un syst` eme ´ emet soit un 0, soit un 1, et qu’il y a un risque p que le chiffre ´ emis soit mal re¸cu. Il est alors int´ eressant de calculer la probabilit´ e qu’un 0 ait ´ et´ e ´ emis, sachant qu’un 0 a ´ et´ e re¸cu, ou encore la probabilit´ e qu’il y ait une erreur de transmission.

I.2 Espace probabilis´ e

I.2.1 efinitions

efinition 1 On appelle univers associ´ e ` a une exp´ erience al´ eatoire l’ensemblede tous les r´ esultats possibles de cette exp´ erience.

Le choix de l’ensemble Ω comporte une part d’arbitraire. Il d´ epend de l’id´ ee que l’on a, a priori, sur les r´ esultats de l’exp´ erience al´ eatoire. Donnons quelques exemples:

1. On lance une pi` ece de monnaie. Pour l’ensemble Ω, on peut choisir soit Ω = { pile, face } , soit Ω = { pile, face, tranche } .

2. On s’int´ eresse ` a l’´ etat de fonctionnement d’un syst` eme. Dans ce cas Ω = { 0, 1 } avec la convention 0 si le syst` eme est en panne et 1 s’il fonctionne.

3. Le r´ esultat de l’exp´ erience al´ eatoire est le nombre de tirages n´ ecessaires dans un jeu de pile ou face jusqu’` a l’obtention du premier “pile”. Dans ce cas, Ω = { 1, 2, 3, · · · } = N

.

4. On consid` ere la succession des appels ` a un standard t´ el´ ephonique non surcharg´ e et l’on ´ etudie la r´ epartition des instants o` u le standard re¸coit un appel, ` a partir d’un instant choisi comme origine (on admet que deux appels ne peuvent se produire rigoureusement au mˆ eme instant et que le ph´ enom` ene est limit´ e dans le temps).

Une r´ ealisation de cet ´ ev´ enement est une suite croissante de nombres r´ eels positifs t

i

o` u t

i

d´ esigne l’instant d’enregistrement du i` eme appel: Ω = { 0 < t

1

< t

2

<

· · · < t

n

< t

n+1

< · · · } . L’univers Ω est donc une partie de ( R

+

)

N

.

5. On consid` ere l’exp´ erience al´ eatoire “dur´ ee de vie d’un individu”. L’ensemble Ω est soit l’ensemble N , soit R

+

selon le proc´ ed´ e discontinu ou continu de cette mesure.

Nous constatons que Ω peut ˆ etre fini (exemples 1 et 2), d´ enombrable (exemples 3 et 5) ou non d´ enombrable (exemples 4 et 5). Lorsque Ω est fini ou d´ enombrable, on parle d’univers discret. Sinon on parle d’univers continu.

efinition 2 Etant donn´ ee une exp´ erience al´ eatoire, un ´ ev´ enement al´ eatoire est

une partie de l’ensemble des r´ esultats possibles de l’exp´ erience, c’est donc un sous-

ensemble A de l’univers Ω. On dit que l’´ ev´ enement A est r´ ealis´ e si le r´ esultat ω de

(7)

Introduction ` a la th´ eorie des probabilit´ es I.2 Espace probabilis´ e

On sait que l’´ ev´ enement A est r´ ealis´ e seulement une fois l’exp´ erience al´ eatoire r´ ealis´ ee.

Exemples:

• Si l’on s’int´ eresse ` a l’´ ev´ enement suivant: “on a obtenu un chiffre pair lors d’un lancer d’un d´ e ` a 6 faces”, on introduit A = { 2, 4, 6 } , qui est un sous-ensemble de Ω = { 1, 2, 3, 4, 5, 6 } .

• Si l’on s’int´ eresse ` a l’´ ev´ enement suivant: “la dur´ ee de vie du composant est sup´ erieure ou ´ egale ` a 1000 heures”, A = [1000, + [ est un sous-ensemble de Ω = R

+

.

L’ensemble est appel´ e l’´ ev´ enement impossible et Ω est appel´ e l’´ ev´ enement certain.

I.2.2 Op´ erations sur les ´ ev´ enements

Les ´ ev´ enements al´ eatoires ´ etant des ensembles, introduisons les op´ erations ensemblistes classiques de la th´ eorie des ensembles.

efinition 3 On appelle ´ ev´ enement contraire de A, not´ e A

C

, le compl´ ementaire de A dans Ω:

A

C

= { ω Ω : ω / A } .

L’´ ev´ enement contraire A

C

est r´ ealis´ e si et seulement si A n’est pas r´ ealis´ e.

Exemple : Si A est l’´ ev´ enement “la dur´ ee de vie du composant est sup´ erieure ou ´ egale

`

a 1000 heures”: A = [1000, + [, l’´ ev´ enement contraire est l’´ ev´ enement “la dur´ ee de vie du composant est strictement inf´ erieure ` a 1000 heures”: A

C

= [0, 1000[.

efinition 4 Soient A et B deux ´ ev´ enements d’un univers Ω.

L’´ ev´ enement “A et B” est celui qui est r´ ealis´ e si A et B sont r´ ealis´ es. C’est l’intersection

A B = { ω Ω : ω A et ω B } .

L’´ ev´ enement “A ou B ” est celui qui est r´ ealis´ e si l’un des deux est r´ ealis´ e ou si les deux sont r´ ealis´ es. C’est l’union

A B = { ω Ω : ω A ou ω B } .

L’inclusion A B signifie que l’´ ev´ enement A ne peut ˆ etre r´ ealis´ e sans que B le soit.

efinition 5 Deux ´ ev´ enements A et B sont dits incompatibles si la r´ ealisation de l’un implique la non-r´ ealisation de l’autre.

Dans l’espace Ω, deux ´ ev´ enements incompatibles sont repr´ esent´ es par deux parties dis-

jointes. Si A B = , alors A et B sont incompatibles. Il est clair, par exemple que A

et A

C

sont incompatibles.

(8)

I.2 Espace probabilis´ e Introduction ` a la th´ eorie des probabilit´ es

I.2.3 Probabilit´ e

efinition 6 Soitun univers associ´ e ` a une exp´ erience al´ eatoire et soit A l’ensemble des parties de Ω. Une probabilit´ e P sur l’espace (Ω, A ) est une application de A dans [0, 1] telle que

1. P (Ω) = 1.

2. Si (A

n

)

n1

est une famille d’´ ev´ enements de A 2 ` a 2 incompatibles, P

(

+

n=1

A

n

)

=

n=1

P (A

n

).

Le triplet (Ω, A , P ) est appel´ e espace de probabilit´ e.

On peut d´ eduire de la d´ efinition pr´ ec´ edente un certain nombre de propri´ et´ es.

Proposition 1 Soient A et B deux ´ ev´ enements al´ eatoires.

1. P ( ) = 0.

2. P ( ∪

N

n=1

A

n

)

N

n=1

P (A

n

).

3. Si A

1

, . . . , A

N

sont deux-` a-deux incompatibles, P

(

N

n=1

A

n

)

=

N

n=1

P (A

n

).

4. P (A

C

) = 1 P (A).

5. Si A B , P (A) P (B).

6. P (A B) = P (A) + P (B ) P (A B ).

7. Siest fini ou d´ enombrable, alors pour tout ´ ev´ enement A, P (A) = ∑

ωA

P ( { ω } ).

I.2.4 Probabilit´ e uniforme

Soit Ω un ensemble fini: Ω = { ω

1

, . . . , ω

N

} . Pour tout i ∈ { 1, 2, . . . , N } , on pose

P ( { ω

i

} ) =

N1

. Alors, pour toute partie A de Ω, on a

(9)

Introduction ` a la th´ eorie des probabilit´ es I.2 Espace probabilis´ e

Dans le cas du lancer de d´ e ` a 6 faces, pour tout ω ∈ { 1, 2, . . . , 6 } , P ( { ω } ) = 1/6.

Si on note l’´ ev´ enement “on a obtenu un chiffre pair” par A = { 2, 4, 6 } , alors P (A) = 3/6 = 1/2.

Remarque: Pour un probl` eme donn´ e, il y a souvent plusieurs mod´ elisations possibles, c’est-` a-dire que le choix de l’espace de probabilit´ e n’est pas unique.

Remarque: Choisir un ´ el´ ement au hasard signifie que les divers choix possibles sont

´ equiprobables, donc que l’ensemble Ω est muni de la probabilit´ e uniforme. Dans ce cas, tous les calculs sont simples et se ram` enent souvent ` a des calculs d’analyse combinatoire.

Exercice 1. Une urne contient 12 boules num´erot´ees. Les boules num´erot´ees de 1 `a 8 sont de couleur blanche, celles portant les num´eros de 9 `a 12 sont de couleur noire. On tire une boule au hasard dans cette urne. On s’int´eresse `a la fois au num´ero de cette derni`ere ainsi qu’`a sa couleur.

1. D´ecrire l’espace des issues associ´e `a cette exp´erience.

2. Quelle est la probabilit´e de tirer une boule portant un nombre pair?

3. Calculer la probabilit´e de l’´ev´enement ”la boule tir´ee est blanche”.

4. Quelle est la probabilit´e de tirer une boule noire portant un nombre impair?

Exercice 2. Le paradoxe du chevalier de M´er´e

Voici deux jeux qui ´etaient fort populaires au XVII`eme si`ecle:

• Dans le premier jeu, les joueurs pariaient sur le fait d’obtenir au moins un as en lan¸cant quatre fois un d´e `a six faces.

• Dans le deuxi`eme jeu, ils pariaient sur l’apparition d’au moins un double as en lan¸cant 24 fois une paire de d´es.

Le Chevalier de M´er´e, un noble de l’´epoque, adorait ces jeux et, comme beaucoup d’autres joueurs de son ´epoque, il pensait que la probabilit´e de gagner ´etait la mˆeme pour les deux jeux.

Par contre, son exp´erience lui avait montr´e que le premier jeu ´etait plus avantageux que le deuxi`eme. Le Chevalier de M´er´e demanda alors au fameux math´ematicien Blaise Pascal de l’´eclaircir sur ce probl`eme. Celui-ci, dans un ´echange de lettres avec son ami Pierre Fermat, r´eussit `a r´esoudre le fameux “paradoxe”, que vous ˆetes invit´es `a votre tour `a r´esoudre.

(10)

I.2 Espace probabilis´ e Introduction ` a la th´ eorie des probabilit´ es

(11)

Chapitre II

Probabilit´ es conditionnelles et ind´ ependance

II.1 Probabilit´ es conditionnelles

Dans le chapitre pr´ ec´ edent, on a parl´ e de la probabilit´ e d’un ´ ev´ enement sans tenir compte de la r´ ealisation d’autres ´ ev´ enements. En pratique, on peut consid´ erer plusieurs

´ ev´ enements, certains pouvant avoir une influence sur la r´ ealisation d’autres ´ ev´ enements.

Exemple: On lance deux d´ es. Soient les ´ ev´ enements A = { la somme est 11 } et B = { le lancer du 1er d´ e donne 6 } . Il est clair que la r´ ealisation de B influe sur la r´ ealisation de A.

Supposons que l’on s’int´ eresse ` a la r´ ealisation d’un ´ ev´ enement A , tout en sachant qu’un ´ ev´ enement B est r´ ealis´ e. Si A et B sont incompatibles, alors la question est r´ egl´ ee: A ne se r´ ealise pas. Mais si A B ̸ = , il est possible que A se r´ ealise. Cepen- dant, l’espace des ´ ev´ enements possibles n’est plus Ω tout entier, mais il est restreint ` a B. En fait, seule nous int´ eresse la r´ ealisation de A ` a l’int´ erieur de B, c’est-` a-dire A B par rapport ` a B. Ceci justifie la d´ efinition suivante.

efinition 7 Soit (Ω, A , P ) un espace de probabilit´ e. Soient A et B deux ´ ev´ enements al´ eatoires tels que P (B) ̸ = 0. On appelle probabilit´ e conditionnelle de A sachant B la quantit´ e

P (A | B ) = P (A B) P (B) . Remarque: On a les ´ egalit´ es suivantes:

Si P (B ) > 0, P (A B) = P (A | B) × P (B).

Si P (A) > 0, P (A B) = P (B | A) × P (A).

(12)

II.2 Ind´ ependance Probabilit´ es conditionnelles et ind´ ependance

Proposition 2 (formule des probabilit´ es totales) Soit (A

i

)

iI

une famille d’´ ev´ enements al´ eatoires formant une partition de Ω, c’est-` a-dire tels que:

iI

A

i

= Ω;

A

i

A

j

= pour tout i ̸ = j.

On suppose de plus que P (A

i

) ̸ = 0 pour tout i I. Alors P (A) = ∑

iI

P (A | A

i

) P (A

i

).

Proposition 3 (formule de Bayes) Sous les mˆ emes hypoth` eses que la proposition pr´ ec´ edente, on a:

P (A

i

| A) = P (A | A

i

) P (A

i

)

jI

P (A | A

j

) P (A

j

) .

La formule de Bayes (publi´ ee apr` es sa mort en 1763) pr´ esente un grand int´ erˆ et car elle permet de modifier notre connaissance des probabilit´ es en fonction d’informations nouvelles. Cette formule joue donc un rˆ ole tr` es important dans la statistique bay´ esienne.

II.2 Ind´ ependance

efinition 8 Soit (Ω, A , P ) un espace de probabilit´ e, et soient A et B deux ´ ev´ enements al´ eatoires. On dit que A et B sont ind´ ependants si

P (A B ) = P (A) P (B).

Remarque: A et B sont ind´ ependants si et seulement si P (A | B) = P (A). Cette con- dition signifie que la probabilit´ e de r´ ealisation de l’´ ev´ enement A n’est pas modifi´ ee par une information concernant la r´ ealisation de l’´ ev´ enement B.

Proposition 4 Si A et B sont deux ´ ev´ enements ind´ ependants alors:

A

C

et B sont ´ egalement ind´ ependants;

A et B

C

sont ´ egalement ind´ ependants;

A

C

et B

C

sont ´ egalement ind´ ependants.

Nous allons maintenant d´ efinir l’ind´ ependance de plus de 2 ´ ev´ enements al´ eatoires.

efinition 9 Soit (Ω, A , P ) un espace de probabilit´ e. Pour n 2, soient A

1

, A

2

, . . . A

n

,

des ´ ev´ enements al´ eatoires.

(13)

Probabilit´ es conditionnelles et ind´ ependance II.2 Ind´ ependance

Ces ´ ev´ enements sont ind´ ependants (dans leur ensemble) si pour tout k ∈ { 2, 3, . . . , n } et tout choix d’indices distincts i

1

, . . . , i

k

, on a

P (A

i1

A

i2

. . . A

ik

) = P (A

i1

) P (A

i2

) . . . P (A

ik

).

Exercice 1. On s’int´eresse `a la dur´ee de vie d’un t´el´ephone mobile. Pour tout t 0, on noteDtl’´ev`enement Dt:={le t´el´ephone fonctionne encore `a la datet}, et l’on suppose que P(Dt) = exp(−ct)/(1 +t), c >0. Calculer la probabilit´e que le t´el´ephone fonctionne encore au bout de 2 ans sachant qu’il a d´ej`a fonctionn´e 1 an.

Exercice 2. On consid`ere un syst`eme de communication qui ´emet soit un 0 soit un 1 avec ´equiprobabilit´e. A cause du bruit, le signal ´` emis est parfois mal re¸cu. Soit Ei l’´ev´enement ”iest ´emis” et soit Ri l’´ev´enement ”i est re¸cu”, pour i= 0 et 1. On suppose queP(R0/E0) = 0.7 etP(R1/E1) = 0.8.

a) CalculerP(E0/R1).

b) Calculer la probabilit´e d’une erreur de transmission.

Exercice 3. On consid`ere un syst`eme form´e de 5 constituants ind´ependants. La probabilit´e qu’un constituant soit d´efectueux est de 0,2. Quelle est la probabilit´e que ce syst`eme fonctionne si les constituants sont branch´es:

• en s´erie ?

• en parall`ele ?

Exercice 4. On lance deux d´es et on consid`ere les ´ev´enements A: “le premier d´e donne un nombre pair”, B: “le deuxi`eme d´e donne un nombre pair” etC: “la somme des d´es est un nombre pair”. Montrer que les ´ev´enements A, B et C sont deux `a deux ind´ependants.

Sont-ils ind´ependants dans leur ensemble?

(14)

II.2 Ind´ ependance Probabilit´ es conditionnelles et ind´ ependance

(15)

Chapitre III

Variables al´ eatoires r´ eelles

III.1 Introduction

Dans de nombreuses exp´ eriences al´ eatoires, on n’est pas int´ eress´ e directement par le r´ esultat de l’exp´ erience, mais par une certaine fonction de ce r´ esultat. Consid´ erons par exemple l’exp´ erience qui consiste ` a observer, pour chacune des n pi` eces produites par une machine, si la pi` ece est d´ efectueuse ou non. Nous attribuerons la valeur 1 ` a une pi` ece d´ efectueuse et la valeur 0 ` a une pi` ece en bon ´ etat. L’univers associ´ e ` a cette exp´ erience est Ω = { 0, 1 }

n

. Ce qui int´ eresse le fabricant est la proportion de pi` eces d´ efectueuses produites par la machine. Introduisons donc une fonction de Ω dans R qui

`

a tout ω = (ω

1

, ω

2

, . . . , ω

n

) de Ω associe le nombre X(ω) =

n

i=1

ω

i

n ,

qui correspond ` a la proportion de pi` eces d´ efectueuses associ´ ee ` a l’observation de ω. Une telle fonction X d´ efinie sur Ω et ` a valeurs dans R s’appelle une variable al´ eatoire r´ eelle.

III.2 efinitions

III.2.1 Variable al´ eatoire

efinition 10 Etant donn´ ´ e un univers Ω, une variable al´ eatoire r´ eelle (v.a.r.) est une application dedans R :

X : ω 7→ X(ω) R .

III.2.2 Loi de probabilit´ e

efinition 11 Soitun univers muni d’une probabilit´ e P , et soit X une v.a.r. On appelle loi de probabilit´ e de X, not´ ee P

X

, l’application qui ` a toute partie A de R associe

P

X

(A) = P ( { ω Ω : X(ω) A } ) .

(16)

III.2 D´ efinitions Variables al´ eatoires r´ eelles

Remarque : Dans la suite du cours, on utilisera la notation abr´ eg´ ee: P ( { ω Ω : X(ω) A } ) = P (X A). De mˆ eme, on notera P (X = x) la probabilit´ e P ( { ω Ω : X(ω) = x } ).

Proposition 5 L’application P

X

efinit une probabilit´ e sur R .

III.2.3 Fonction de r´ epartition

efinition 12 La fonction de r´ epartition de la v.a.r. X est d´ efinie par F

X

(x) = P (X x), x R .

Propri´ et´ es de la fonction de r´ epartition:

1. 0 F

X

(x) 1, x R .

2. F

X

tend vers 0 en −∞ et vers 1 en + . 3. F

X

est croissante.

4. F

X

est continue ` a droite.

Proposition 6 On a l’identit´ e

P (a < X b) = F

X

(b) F

X

(a), (a, b) R

2

, a < b.

Remarque: On montre facilement que F

X

est continue si et seulement si P (X = x) = 0 pour tout x R . On parle alors de loi diffuse ou de v.a.r. continue (voir d´ efinition 15).

efinition 13 Soit X une v.a.r. de fonction de r´ epartition F

X

suppos´ ee strictement croissante de I R dans ]0, 1[. Le quantile d’ordre α ]0, 1[ de X est le nombre x

α

I tel que F

X

(x

α

) = α, ce qui signifie que

P (X x

α

) = α.

Remarques:

x

1/2

est appel´ e ediane de X. La m´ ediane v´ erifie les deux ´ egalit´ es P (X x

1/2

) = 1/2 = P (X > x

1/2

).

• Dans le cas o` u F

X

n’est pas strictement croissante mais simplement croissante, on d´ efinit le quantile d’ordre α par

x

α

= inf { x R : F

X

(x) α } .

(17)

Variables al´ eatoires r´ eelles III.3 Diff´ erents types de variables al´ eatoires r´ eelles

III.3 Diff´ erents types de variables al´ eatoires r´ eelles

III.3.1 Variables al´ eatoires discr` etes

efinition 14 Une v.a.r. X ` a valeurs dans un ensemble X fini ou d´ enombrable est appel´ ee v.a.r. discr` ete. Dans ce cas, la loi de X est d´ etermin´ ee par l’ensemble des probabilit´ es:

P

X

(x) = P (X = x), x ∈ X . Ainsi, pour toute partie A de X , on a alors:

P

X

(A) = P (X A) =

xA

P (X = x) et P

X

( X ) = ∑

x∈X

P (X = x) = 1.

Exemple: Supposons que l’on observe la dur´ ee de vie T d’une ampoule ´ electrique et que cette dur´ ee de vie T , exprim´ ee en heures, satisfait pour tout 0 < a < b,

P (a < T b) = exp( a/100) exp( b/100).

On note X le nombre de p´ eriodes compl` etes de 100 heures que dure l’ampoule. Les valeurs possibles de X etant enti` eres, la v.a.r. X est donc discr` ete. Calculons la fonction de r´ epartition de X. Comme X est positive, on a

F

X

(x) = P (X x) = 0, x < 0.

De plus, pour tout n N ,

P (X = n) = P (100n T < 100(n + 1)) = exp( n) exp ( (n + 1)) . Ainsi, on a donc pour tout x 0:

P (X x) =

[x]

n=0

P (X = n)

= 1 exp ( ([x] + 1)) . On notera que la fonction F

X

est une fonction en escalier.

Exercice 1. On lance une paire de d´es et on appelleX le minimum etY le maximum des deux nombres obtenus. D´eterminer les lois des variables al´eatoiresX etY.

(18)

III.3 Diff´ erents types de variables al´ eatoires r´ eelles Variables al´ eatoires r´ eelles

III.3.2 Variables al´ eatoires continues

D´efinition 15 SoitX une v.a.r. qui prend un nombre infini non d´enombrable de valeurs. SiFX est une fonction continue, on dit queX est une v.a.r. continue. Dans ce cas, la loi deX est d´etermin´ee par l’ensemble des probabilit´esP(a < X < b), pour touta < b.

Remarque: Notons que l’on peut mettre<oudans ce qui pr´ec`ede car la variable ´etant continue, on aP(X =x) = 0 pour toutx∈R.

Exemple : Soitλ >0. Une v.a.r. X de fonction de r´epartition FX(x) =

{ 1exp(−λx) six≥0

0 six <0

est continue.

D´efinition 16 Si l’on peut ´ecrire la fonction de r´epartition d’une variable continue sous la forme

FX(t) =

t

−∞

fX(x)dx,

o`u fX est une fonction deRdansR, alors on dit que fX est la densit´e de probabilit´e de la v.a.r. X.

Ceci implique que l’on a pour touta < b:

P(a < X < b) =FX(b)−FX(a) =

b a

fX(x)dx.

Cette int´egrale ´etant positive pour touta < b, il en r´esulte quefX 0. De plus, puisque limt+FX(t) =

1,on a ∫ +

−∞

fX(x)dx= 1.

Une densit´e de probabilit´e est donc une fonction positive ou nulle, d’int´egrale 1, et qui caract´erise la loi d’une v.a.r. continue. De plus, en tout pointx0Ro`uFX est d´erivable, on afX(x0) =FX (x0).

Exemple: Dans l’exemple de la dur´ee de vieT d’une ampoule ´electrique,T a pour densit´e de proba- bilit´e

f(x) =

{ exp(−x/100)/100 pour toutx≥0

0 pour toutx <0.

Enfin, ´etablir que deux v.a.r. (discr`etes ou continues)X etY ont mˆeme loi, c’est d´emontrer que l’on a l’´egalit´e suivante:

P(a < X ≤b) =P(a < Y ≤b), a, b∈R. Ainsi, en faisant tendreavers−∞, on obtient le r´esultat suivant:

Th´eor`eme 1 Deux v.a.r. `a valeurs dans le mˆeme ensemble d’arriv´ee ont la mˆeme loi si et seulement si leurs fonctions de r´epartition sont ´egales.

(19)

Variables al´ eatoires r´ eelles III.4 Exemples fondamentaux

III.4 Exemples fondamentaux

III.4.1 Variables discr` etes

SoitX une v.a.r. discr`ete prenant ses valeurs dans un ensemble{x1, x2, . . . , xn}, ´eventuellement infini.

Alors la loi de X est caract´eris´ee par l’ensemble des probabilit´esP(X =xi), c’est-`a-dire les nombres r´eels positifspi tels que

P(X =xi) =pi avec 0≤pi1 et

n i=1

pi = 1.

a) Loi de Bernoulli

On dit qu’une v.a.r. X `a valeurs dans {0,1} suit une loi de Bernoulli de param`etre p∈]0,1[, not´ee B(p), si

P(X= 1) = 1P(X = 0) =p.

Par exemple, cette loi intervient lorsque l’on mod´elise l’´etat de fonctionnement d’un syst`eme. La probabilit´e que le syst`eme fonctionne vautp et la probabilit´e que le syst`eme ne fonctionne pas vaut 1−p. Cette loi s’applique aussi aux jeux de hasard de type binaire comme pile ou face. . .

b) Loi binomiale

On dit qu’une v.a.r. X `a valeurs dans {0,1, . . . , n} suit une loi binomiale de param`etres (n, p), not´ee B(n, p), si

P(X=k) =Cnkpk(1−p)nk, ∀k∈ {0, . . . , n}.

Cette loi intervient par exemple pour mod´eliser le nombre de pi`eces d´efectueuses dans un lot de n pi`eces, qui ont chacune une probabilit´epd’ˆetre d´efectueuse, ind´ependamment les unes des autres.

c) Loi g´ eom´ etrique

On dit qu’une v.a.r. X `a valeurs dansN suit une loi g´eom´etrique de param`etrep∈]0,1[, not´eeG(p), si

P(X =k) =p(1−p)k1, ∀k∈N.

Cette loi permet de mod´eliser le nombre de r´ealisations ind´ependantes d’une exp´erience `a 2 issues (succ`es-´echec), jusqu’`a l’obtention du premier succ`es, si `a chaque r´ealisation la probabilit´e de succ`es estp.

d) Loi de Poisson

On dit qu’une v.a.r. X `a valeurs dansNsuit une loi de Poisson de param`etreλ >0, not´eeP(λ), si P(X=k) =eλλk

k! k∈N.

Cette loi intervient comme comportement limite de la loi binomiale lorsquen→+et np→λ.

III.4.2 Variables continues

SoitX une v.a.r. continue. Alors la loi deX est caract´eris´ee par l’ensemble des probabilit´es P(a < X < b) =

b a

fX(x)dx,

o`u fX est la densit´e de probabilit´e de X et a et b sont deux nombres r´eels, ´eventuellement infinis.

Comme nous l’avons vu plus haut, il suffit de connaˆıtre cette densit´e pour connaˆıtre la loi deX.

(20)

III.4 Exemples fondamentaux Variables al´ eatoires r´ eelles

a) Loi exponentielle

On dit queX suit une loi exponentielle de param`etreλ >0, not´eeE(λ), si la loi deX a pour densit´e fX(x) =

{ λexp(−λx) six≥0, 0 six <0.

La loi exponentielle est utilis´ee en fiabilit´e. Le param`etreλ repr´esente le taux moyen de d´efaillance alors que son inverseθ= 1/λ est “le temps moyen de bon fonctionnement”.

La loi exponentielle s’applique bien aux mat´eriels ´electroniques ou aux mat´eriels subissant des d´efaillances brutales.

b) Loi Gamma

La loi exponentielle est un cas particulier de la famille des lois Gamma.

Soienta >0 etλ >0. On dit queX suit une loi Gamma de param`etres (a, λ), not´ee γ(a, λ), si la loi deX a pour densit´e

fX(x) = { λa

Γ(a)xa1exp(−λx) six≥0,

0 six <0,

o`u pour tout a > 0, la c´el`ebre fonction gamma est donn´ee par Γ(a) = ∫+

0 xa1exp(−x)dx. Pour a = 1, on retrouve la loi exponentielle de param`etre λ. Le param`etre aest un param`etre de forme alors que le param`etreλest un param`etre d’´echelle.

Trac´e de la densit´e de la loi Gamma:

0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8

(0.5,1) (2,1) (3,1)

c) Loi normale de param` etres (m, σ

2

)

Soientm∈Retσ >0. On dit queX suit une loi normale de param`etres (m, σ2), not´eeN(m, σ2), si la loi deX a pour densit´e

fX(x) = 1 σ√

2π exp {

(x−m)22

}

, x∈R.

(21)

Variables al´ eatoires r´ eelles III.4 Exemples fondamentaux

−6 −4 −2 0 2 4 6

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4

A cause de sa forme, cette courbe est souvent appel´` ee “courbe en cloche”. Elle pr´esente un axe de sym´etrie vertical pour x=m. De plus, comme il n’existe pas d’expression analytique de la fonction de r´epartition deX, on utilise alors des tables obtenues par des calculs approch´es d’int´egrales.

Exemple:La loi de la v.a.r. X repr´esentant le diam`etre d’un roulement `a bille peut ˆetre mod´elis´ee par une loiN(m, σ2). Dans ce cas, mrepr´esente le diam`etre moyen d’un roulement `a bille, etσ2 d´esigne la pr´ecision de cette mesure.

La loi normale s’applique `a de nombreux ph´enom`enes, en physique, en ´economie (erreurs de mesure).

Comme on le verra au chapitre V, elle est la forme limite de nombreuses lois discr`etes. Elle peut aussi repr´esenter la fin de vie des dispositifs subissant un ph´enom`ene de vieillissement: usure, corro- sion, etc ... Il faut cependant remarquer que les variables utilis´ees dans les domaines technologique ou

´economique sont bien souvent positives. Pour que la loi normale puisse ˆetre repr´esentative d’un tel ph´enom`ene, il faut que la probabilit´e d’obtenir des valeurs n´egatives de la variable soit tr`es faible. Il faut en particulier ´eviter d’utiliser cette mod´elisation pour les queues des distributions.

(22)

III.4 Exemples fondamentaux Variables al´ eatoires r´ eelles

(23)

Chapitre IV

Manipulation de variables al´ eatoires

IV.1 Caract´ eristiques des variables al´ eatoires

IV.1.1 Esp´ erance

D´efinition 17 Soit X une v.a.r. et h une application de R dans R. Donc h(X) est elle aussi une v.a.r.

- SiX est discr`ete `a valeurs dans un ensembleX, l’esp´erance de h(X)est la quantit´e E(h(X)) = ∑

x∈X

h(x)P(X =x),

pourvu que cette s´erie converge (dans le cas o`uX est infini).

- SiX est continue et admettant une densit´efX, l’esp´erance deh(X)est la quantit´e

E(h(X)) =

+

−∞

h(x)fX(x)dx,

`

a condition que cette int´egrale soit convergente.

Notons que sih(x) =x, on obtientE(X) appel´ee esp´erance math´ematique (oumoyenne) de la v.a.r. X. Par ailleurs, pourA⊂R, si l’on d´efinit la v.a.r. suivante:

1{XA}=

{ 1 siX ∈A 0 sinon

qui est appel´ee fonction caract´eristique de l’´ev´enement{X∈A}, alors l’esp´erance de cette v.a.r. est:

E(1{XA}) =P(X ∈A) =PX(A), d’o`u le lien ´etroit entre probabilit´e et esp´erance.

Exemple : Une roulette contient 18 cases rouges, 18 cases noires et une case verte. Si on mise sur une couleur et cette couleur sort, on gagne encore une fois la mise, sinon on perd la mise. SoitGle gain obtenu quand on joue une fois en misant 1 euro sur le rouge. La loi de la variable al´eatoireGest donn´ee parP(G=1) = 19/37, P(G= 1) = 18/37. Le gain moyen estE(G) = (1)×1937+ 1×1837 =371.Le jeu n’est donc pas ´equitable et il est en faveur de la banque.

(24)

IV.1 Caract´ eristiques des variables al´ eatoires Manipulation de variables al´ eatoires

IV.1.2 Propri´ et´ es de l’esp´ erance

1. L’esp´erance est lin´eaire: pour tout α, β∈R, et pour toutes v.a.r. X etY E(αX+βY) =αE(X) +βE(Y).

2. Si X est une v.a.r. constante ´egale `a a R, c’est-`a-dire pour tout ω Ω, X(ω) = a, alors P(X=a) = 1 etE(X) =a.

3. L’esp´erance d’une v.a.r. positive est positive. En particulier, siX≥Y (ce qui signifie que pour toutω∈Ω,X(ω)≥Y(ω)), alorsE(X−Y)0 doncE(X)E(Y).

L’esp´erance d’une v.a.r. X est un indicateur de “localisation” de sa loi:

E(X)“valeur moyenne de X”.

N´eanmoins, la connaissance de l’esp´erance math´ematique donne peu de renseignements sur cette v.a.r.

Ainsi, il faut ´etudier “l’´etalement” de sa loi, c’est-`a-dire la dispersion de la v.a.r. X autour de sa moyenneE(X).

IV.1.3 Variance et ´ ecart-type

Pour rendre positifs les ´ecarts entreX et son esp´eranceE(X), un autre outil plus facile `a manipuler que la valeur absolue, est `a notre disposition: la mise au carr´e. On ne va donc pas calculer la moyenne des ´ecarts mais la moyenne des ´ecarts au carr´e. C’est ce qu’on appelle la variance.

D´efinition 18 La variance de la v.a.r. X est la quantit´e:

Var(X) =E[

(XE(X))2 ]

.

Propri´et´es :

• Var(X) =E(X2)(E(X))2.

• Var(aX+b) =a2Var(X) pour touta, b∈R. En particulier, Var(X+b) = Var(X).

Afin d’ˆetre en mesure de comparer, en termes d’ordre de grandeur, variance et esp´erance, il faut prendre la racine carr´ee de la variance. C’est ce qu’on appelle l’´ecart-type.

D´efinition 19 La racine carr´ee deVar(X), not´eeσX, est appel´ee ´ecart-type deX.

Remarque : SiX est une v.a.r. telle queE(X) =met Var(X) =σ2, alors la variableY = (X−m)/σ est d’esp´erance nulle et de variance 1. On dit que Y est centr´ee (d’esp´erance nulle) et r´eduite (de variance 1).

Exemples :

• Loi de BernoulliB(p): E(X) =p et Var(X) =p(1−p).

• Loi binomialeB(n, p): E(X) =np et Var(X) =np(1−p).

• Loi g´eom´etriqueG(p): E(X) = 1p et Var(X) = 1p2p.

• Loi de PoissonP(λ): E(X) = Var(X) =λ.

• Loi normaleN(m, σ2): E(X) =m et Var(X) =σ2.

(25)

Manipulation de variables al´ eatoires IV.2 Ind´ ependance de variables al´ eatoires

Exercice 1. SoitX une variable al´eatoire de densit´e de probabilit´e f(x) =

{ (1 +θx)/2 si 1≤x≤1,

0 sinon.

1. Donner les valeurs du param`etreθ pour quef soit bien une densit´e de probabilit´e.

2. Calculer l’esp´erance et la variance deX.

IV.2 Ind´ ependance de variables al´ eatoires

D´efinition 20 Deux v.a.r. X etY sont ditesind´ependantessi et seulement si

P({X ∈A} ∩ {Y ∈B}) =P(X∈A)×P(X∈B), ∀A, B⊂R. On peut montrer que l’ind´ependance est ´equivalente `a

P({X ≤a} ∩ {Y ≤b}) =P(X≤a)×P(Y ≤b), (a, b)R2, ou encore en termes de fonctions de r´epartition:

FX,Y(a, b) =FX(a)FY(b), (a, b)R2.

Th´eor`eme 2 Deux v.a.r. discr`etes X et Y sont ind´ependantes si et seulement si, pour tout couple (x, y)∈ X × Y, on aP(X =x∩Y =y) =P(X =x)P(Y =y).

Exemple : On lance une paire de d´es et on note X (respectivementY) le minimum (respectivement maximum) des deux nombres sortis. On remarque que X et Y peuvent prendre toutes deux des valeurs de 1 `a 6, maisP(X =i∩Y =j) = 0, pour touti > j. Les variablesX etY ne sont donc pas ind´ependantes.

(26)

IV.2 Ind´ ependance de variables al´ eatoires Manipulation de variables al´ eatoires

(27)

Chapitre V

Th´ eor` emes limites

Deux th´eor`emes math´ematiques ont une place particuli`ere en th´eorie des probabilit´es et en statistiques:

la loi des grands nombres et le th´eor`eme central limite. Ils interviennent dans l’´etude de ph´enom`enes al´eatoires comportant un grand nombre de v.a.r. ind´ependantes de mˆeme loi. Par exemple, pour le premier cit´e, il apparaˆıt lorsque l’on ´etudie la proportion de “pile” dans un jeu de pile ou face, ou encore la moyenne de lancers de d´e successifs. Quant au second, il nous donne de fa¸con informelle une estimation pr´ecise de l’erreur que l’on commet en approchant l’esp´erance math´ematique par la moyenne arithm´etique.

V.1 In´ egalit´ e de Chebychev

Th´eor`eme 3 (in´egalit´e de Chebychev)

Soitϵ >0 et soitX une v.a.r. admettant une variance. Alors on a:

P(|X−E(X)| ≥ϵ)≤ Var(X) ϵ2 .

Cette in´egalit´e permet de comprendre la signification de l’´ecart-type σX =√

Var(X), au sens o`u il caract´erise la dispersion de la v.a.r. autour de son esp´erance math´ematique:

P(|X−E(X)| ≥ϵσX) 1 ϵ2 P(|X−E(X)|< ϵσX) 1 1

ϵ2.

Supposons queϵ= 10. Alors l’´ev´enement {|X−E(X)| ≥10σX} a peu de chances de se r´ealiser car P(|X−E(X)| ≥10σX) 1

100. Supposons maintenant queσX= 0. Alors nous obtenons pour tout ϵ >0

P(|X−E(X)| ≥ϵ)≤0.

Par cons´equent

P(|X−E(X)|>0) = 0, et doncX est presque sˆurement ´egale `a E(X).

On doit cependant remarquer que, malgr´e son int´erˆet th´eorique certain, l’in´egalit´e de Chebychev pr´esente peu d’int´erˆet en pratique, car ne faisant pas intervenir la loi de probabilit´e suivie par la v.a.r.

consid´er´ee, elle donne une majoration de la probabilit´e beaucoup trop grande.

(28)

V.2 Loi (faible) des grands nombres Th´ eor` emes limites

V.2 Loi (faible) des grands nombres

Th´eor`eme 4 (LGN) Soient X1, . . . , Xn des v.a.r. ind´ependantes, de mˆeme loi, et admettant une variance. On notem=E(X1). Alors, pour toutϵ >0,

P(

X1+. . .+Xn

n −m

> ϵ )

n−→→∞0.

Dans ce cas, on dit que la moyenne arithm´etique X1+...+Xn n converge en probabilit´evers l’esp´erance math´ematique mlorsquentend vers +∞.

V.3 Th´ eor` eme central limite

On a vu que deux v.a.r. ont la mˆeme loi si et seulement si leur fonctions de r´epartition sont ´egales.

Ainsi, la fonction de r´epartition est souvent utilis´ee en pratique afin de d´emontrer l’´egalit´e en loi.

On est donc amen´e `a d´efinir la convergence en loi comme la convergence des fonctions de r´epartition associ´ees.

D´efinition 21 Soit (Yn)n∈N une suite de v.a.r. et soit Y une v.a.r. On dit que (Yn)n∈N converge en loi versY si pour tout x0 point de continuit´e de la fonction de r´epartitionFY deY,

FYn(x0) =P(Yn≤x0) −→

n+FY(x0) =P(Y ≤x0).

On note la convergence en loiYnL Y.

La convergence en loi est r´ealis´ee aux points de continuit´e de FY. C’est la convergence simple de la suite de fonctions de r´epartitionFYn.

Propri´et´e d’additivit´e de la loi normale: si X1, . . . , Xn sont des v.a.r. ind´ependantes et de mˆeme loi N(m, σ2), alors la v.a.r. X1+. . .+Xnsuit la loiN(nm, nσ2).Ce r´esultat implique que la v.a.r. centr´ee r´eduite∑n

i=1 Xim

σn suit la loi normaleN(0,1).

Que se passe-t-il dans le cas g´en´eral o`u les v.a.r. Xi ne sont pas n´ecessairement normales? Le r´esultat ci-dessus se transforme alors en un r´esultat de convergence en loi.

Th´eor`eme 5 (TCL) Soient X1, . . . , Xn des v.a.r. ind´ependantes, de mˆeme loi, et admettant une variance. On notem=E(X1)etσ2= Var(X1). Alors

X1+. . .+Xn−nm σ√

n

−→ NL (0,1) lorsque n→+∞.

(29)

Th´ eor` emes limites V.4 Approximation d’une loi binomiale

V.4 Approximation d’une loi binomiale

On contrˆolenpi`eces et on introduit les v.a.r. X1, . . . , Xnd´efinies parXi= 1 si la i`eme pi`ece contrˆol´ee est d´efectueuse, et 0 sinon. On noteY =X1+. . . Xn le nombre total de pi`eces d´efectueuses dans le lot. Alors la v.a.r. Y suit une loi binomiale de param`etres (n, p) o`u pest la probabilit´e qu’une pi`ece soit d´efectueuse.

V.4.1 Approximation par une loi normale

Puisque les v.a.r. Xi sont ind´ependantes, de mˆeme loi, et de variance finie:

P(Xi= 1) =p, P(Xi= 0) = 1−p, E(Xi) =p et Var(Xi) =p(1−p), on peut appliquer le TCL:

X1+. . .+Xn−np

np(1−p)

−→L Z ∼ N(0,1) lorsque n→+∞.

On peut donc approcher la loi de la v.a.r. (Y −np)/

np(1−p) par une loi normale N(0,1). Ceci revient `a approcher la loi deY par une loiN(np, np(1−p)).En pratique, on utilise cette approximation si

min(np, n(1−p))≥5.

Ainsi, sip= 1/2, l’approximation est correcte pourn≥10, par contre sip= 1/100, il faut n≥500 pour pouvoir l’utiliser.

0 5 10 15 20 25 30 35 40

0 0.02 0.04 0.06 0.08 0.1

B(100,0.2) N(20;16)

Deux remarques importantes doivent ˆetre faites. Tout d’abord, une v.a.r. binomiale est une variable discr`ete `a valeurs dans {0, . . . , n}, alors qu’une v.a.r. normale est continue et `a valeurs dansR. Par ailleurs, dans le cas d’une loi binomiale, un point a une probabilit´e non nulle alors que dans le cas d’une loi normale, un point est un ensemble de probabilit´e nulle. Pour ces deux raisons, il faut faire une

“correction de continuit´e” quand on utilise l’approximation d’une loi binomiale par une loi normale.

La repr´esentation graphique de la densit´e d’une variable al´eatoire de loi normale est une courbe en

“cloche” alors que celle d’une variable al´eatoire binomiale est un diagramme en “bˆatons”. Une valeur approch´ee deP(X=k) est donn´ee par l’aire comprise entre la courbe en cloche et les droites d’abcisses k−0,5 etk+ 0,5. On obtient alors

P(X=k)≃P (

k−0,5−np

np(1−p) < Z < k+ 0,5−np

np(1−p) )

,

(30)

V.4 Approximation d’une loi binomiale Th´ eor` emes limites

ou encore

P(X ≤k)≃P (

Z < k+ 0,5−np

np(1−p) )

.

V.4.2 Approximation par une loi de Poisson

Lorsque pest tr`es petit, on utilise plutˆot l’approximation de la loi binomiale par une loi de Poisson, qui est satisfaisante pourp <0,1 etn >50.

Proposition 7 Soit Yn une v.a.r. binomiale de param`etres (n, p). On suppose que n + et p=λ/n, o`uλ >0. Alors, pour tout k∈N,

nlim+P(Yn=k) = exp(−λ)λk k!.

0 2 4 6 8 10 12 14 16 18 20

0 0.05 0.1 0.15

0.2 B(100,0.05)

P(5)

(31)

Chapitre VI Estimation

VI.1 Introduction

Le cadre est le suivant: on dispose d’un nombre fini d’observations sur une population donn´ee.

L’objectif est de pouvoir tirer des conclusions sur certaines caract´eristiques de cette population `a partir de ces observations. On fait alors une hypoth`ese raisonnable: il existe une loi de probabilit´e sous-jacente telle que les “valeurs observables” des diff´erents ´el´ements de la population ´etudi´ee puissent ˆetre consid´er´ees comme des variables al´eatoires ind´ependantes ayant cette loi.

Un aspect important de l’inf´erence statistique consiste `a obtenir des ”estimations fiables” des car- act´eristiques d’une population (de grande taille) `a partir d’un ´echantillon (de petite taille) extrait de cette population. C’est un probl`eme de d´ecision concernant des param`etres qui le plus souvent sont:

• une esp´erance math´ematique m;

• une proportionp;

• une varianceσ2.

Ces param`etres sont a priori inconnus car la taille r´eelle de la population ´etant tr`es grande, il serait trop coˆuteux de tester tous les ´el´ements de la population. Ainsi, comme un ´echantillon ne peut donner qu’une information partielle sur la population, les estimations que l’on obtiendra seront in´evitablement entach´ees d’erreurs qu’il s’agit d’´evaluer et de minimiser autant que possible.

En r´esum´e, estimer un param`etre inconnu, c’est en donner une valeur approch´ee `a partir des r´esultats obtenus sur un ´echantillon al´eatoire extrait de la population sous-jacente.

Exemple: Une usine produit des composants ´el´ectroniques. Le fabriquant d´esire connaˆıtre la propor- tionpde composants d´efectueux `a l’issue du processus de fabrication. Pour obtenir la valeur exacte de p, il suffirait de tester chacun des composants, op´eration qui peut se r´ev´eler extrˆemement couteuse en temps ou en argent (voire de facto impossible). Une alternative int´eressante consiste `a ne tester qu’un nombre fininde composants pr´elev´es au hasard sur la chaˆıne de montage. On obtient un ensemble de nr´ealisationsxide v.a.r. ind´ependantes de BernoulliXi d´efinies par:

Xi=

{ 1 si le composantiest d´efectueux 0 sinon.

Il est naturel d’estimerp, la proportion d’objets defectueux dansla population, par ¯xn=n1n i=1xi, correspondant `a la proportion de composants defectueux dansl’´echantillon. En effet, la LGN nous assure de la convergence en probabilit´e de la v.a.r. n1n

i=1Xi vers l’esp´erance deX1, c’est-`a-dire p.

On estimera doncppar ¯xn. C’est une estimation dite ponctuelle.

Références

Documents relatifs

Etudier la dérivabilité de f à droite en et interpréter graphiquement le résultat obtenu.. Etudier les variations

On consid`ere une classe de 30 ´el`eves, et on note X la variable al´eatoire ´egale au nombre de gauchers dans cette classe. Combien d’´el`eves gauchers peut-on s’attendre `a

Lorsque l’on applique une diff´ erence de potentiel d’environ 10 kV entre les ´ electrodes, on observe les billes de Sagex contenues dans le cylindre s’agiter dans tout le

Dans de nombreuses exp´ eriences al´ eatoires, on n’est pas int´ eress´ e directement par le r´ esultat de l’exp´ erience, mais par une certaine fonction de ce r´ esultat.

Quelle est la probabilit´ e que Monsieur Benoit entende le r´ eveil au moins quatre fois au cours d’une semaine.. Arrondir le r´ esultat ` a la quatri` eme

En alg` ebre lin´ eaire, une matrice de Vandermonde est une matrice avec une progression g´ eom´ etrique dans

Soit l’exp´ erience “une personne lance simultan´ ement deux d´ es cubiques ` a 6 faces et note la valeur obtenue sur la face sup´ erieure de chaque d´ e”.. Soit l’exp´

[r]