• Aucun résultat trouvé

Probabilit ´es

N/A
N/A
Protected

Academic year: 2022

Partager "Probabilit ´es"

Copied!
18
0
0

Texte intégral

(1)

Ev ´enement ´el ´ementaire

le r ´esultat d’une exp ´erience incertaine

Univers des possibles ( ´ev ´enement certain)

l’ensemble de tous les ´ev ´enements ´el ´ementaires

Ev ´enement ´

sous-ensemble de l’univers des possibles

ensemble d’ ´ev ´enements ´el ´ementaires

(2)

Ev ´enements A et B

A∪B: soit A soit B ont lieu

A∩B: les deux, A et B ont lieu

A⊆ B: si A a lieu, alors B aussi

A: A n’a pas lieu

/0: ´ev ´enement impossible

Ω: ´ev ´enement certain

(3)

Fr ´equence

une exp ´erience est r ´ep ´et ´ee n fois

l’ ´ev ´enement A a lieu r fois

la fr ´equence est

fn(A) = r n

la probabilit ´e r ´ef `ere `a la fr ´equence en long terme P(A) = lim

n→∞ fn(A)

(4)

Axiomes de probabilit ´e

0 P(A) 1

P(Ω) = 1

si A∩B= /0 alors P(A∪B) =P(A) +P(B)

(5)

Ev ´enements ind ´ependants

l’occurrence de A ne donne aucune information sur B

P(A∩B) = P(A)·P(B)

Ev ´enements ´ exclusifs

A et B n’ont pas au lieu en m ˆeme temps

A∩B= /0

(6)

La r `egle d’addition

P(A∪B) = P(A) +P(B)−P(A∩B)

´ev ´enements ind ´ependants: P(A∪B) =P(A) +P(B)−P(A)P(B)

´ev ´enements exclusifs: P(A∪B) =P(A) +P(B)

La probabilit ´e conditionnelle

P(A|B) = P(A∩B) P(B)

´ev ´enements ind ´ependants: P(A|B) =P(A)

(7)

La r `egle de multiplication

P(A∩B) = P(A|B)P(B) = P(B|A)P(A)

´ev ´enements ind ´ependants: P(A∩B) =P(A)P(B)

Le th ´eor `eme de Bayes

P(A|B) = P(B|A)P(A) P(B)

La loi de la probabilit ´e totale

P(A) = P(A∩B) +P(A∩B)

(8)

Variables al ´eatoires

X

: un ensemble (de valeurs possibles), par.ex. R o `u Z

unevariable al ´eatoire X associe aux ´ev `enements al ´eatoires possibles une valeur dans

X

soit ξ

X

P(X ξ): la probabilit ´e qu’un des ´ev `enements al ´eatoires possibles corresponde `a une valeur qui soit dans ξ

(9)

Distribution cumulative

si

X

est un ensemble ordonn ´e (R,Z)

P(X x): probabilit ´e cumulative

FX(x) =P(X x): fonction de probabilit ´e cumulative

cas multivari ´e: FX(x) = P(X x) = P(X1 x1,··· ,Xn xn)

Fˆ(x) = #(xi x)

n : distribution cumulative empirique

(10)

X est continue (par.ex. R ):

FX(x) est une fonction continue

on dit que X est une variable al ´eatoire continue

X est discret (par.ex. Z ):

FX(x) est une somme de “pas” (constante par parties)

on dit que X est une variable al ´eatoire discr `ete

(11)

Densit ´e d’une variable al ´eatoire continue

f(x) est la fonction de densit ´e de X: P(X ξ) =Z

ξ

f(x)dx.

pour

X

R: f(x) = dFX(x) dx

pour

X

Rn: f(x) = dnFX(x) dx1...dxn

Distribution de probabilit ´e d’une variable al ´eatoire discr `ete

X

={x1,x2,...}

p(xi) =P(X = xi) est la probabilit ´e que X = xi

(12)

Union

P(X ξ1 ou X ξ2) = P(X ξ1) +P(X ξ2)−P(X ξ1 et X ξ2)

P(X ξ1 ou X ξ2) P(X ξ1) +P(X ξ2)

Probabilit ´e jointe

P(X = x,Y =y) =P(X = x et Y = y) avec x

X

,y

Y

pour la variable al ´eatoire Z = (X,Y), qui prend ses valeurs dans

X

×

Y

.

(13)

P(X = x|Y = y) = P(X = x,Y =y)

P

(Y = y) (si P(Y = y) = 0)

Ind ´ependance

X etY sont ind ´ependants ssi

P(X ξ,Y ζ) = P(X ξ)P(Y ζ)

distribution cumulative: FX,Y(X,Y) = FX(X)FY(Y)

fonction de densit ´e: fx,y(x,y) = fx(x)fy(y)

distribution de probabilit ´e: px,y(xi,yj) = px(xi)py(yj)

(14)

Esp ´erance

la “moyenne” d’une variable al ´eatoire

µ= E[X] =Z

X x f(x)dx

µ= E[X] =

i

xip(xi)

E[aX +b] =aE[X] +b

(15)

Variance

la “largeur” d’une variable al ´eatoire

σ2 =Var[X] = E[(X−E[X])2] = Z

X(x−E[X])2f(x)dx

σ2 =Var[X] = E[(X−E[X])2] =

i

(xi−E[X])2p(xi)

Var[aX +b] = a2Var[aX]

Ecart-type ´

σ=

Var[X]

(16)

Matrice de covariance

la “largeur” d’une variable al ´eatoire multivari ´ee

X= (X1,...,Xd)

cov[X] = Z

X(x−E[X])(x−E[X])tf(x)dx

cov[X]i,j = E

(Xi−E[Xi])(Xj−E[Xj])

Moments

E[Xk]: k-i `eme moment de X

E[(X −E[X])k]: k-i `eme moment centr ´e de X

(17)

Loi normale

f(x) = 1

2πσe12(xµ)22

µ: moyenne

σ2: variance

Loi normale multivari ´ee

f(x) = 1

(2π)n/2|Σ|1/2e12(xµ)tΣ1(xµ)

Σ: matrice de covariance

(18)

Loi des grands nombres

(X1,··· ,Xn): n variables ind ´ependantes

E[X1] = ... = E[Xn] = µ

Var[X1],...,Var[Xn] <

lim

n→∞E[X¯] = µ

Th ´eor `eme de limite centrale

La moyenne X¯ d’une s ´equence iid converge en probabilit ´e vers une loi Normale avec esp ´erance E[X] et variance Var[X]/n

Références

Documents relatifs

Sans rentrer dans les d´ etails, car c’est un sujet tr` es connu et en g´ en´ eral tr` es bien trait´ e avec un chapitre particulier (dans le livre de Barbe et Ledoux ou dans le

Oui car chaque enfant ayant la mˆeme probabilit´e d’ˆetre n´e un jour quelconque de l’ann´ee, chacun des triplets de Ω aura la mˆeme probabilit´e d’ˆetre

• Exp´ erience al´ eatoire : exp´erience dont on connaˆıt parfaitement les conditions mais dont on ne peut pas pr´evoir l’issue.. Ex : un lanc´ e de

L’´ epreuve qui consiste ` a lancer le d´ e peut ˆ etre consid´ er´ ee comme une ´ epreuve de Bernouilli dont le succ` es est l’´ ev´ enement A.. Cette ´ epreuve ´

Avoir au moins deux appartements rentables est l’´ ev´ enement contraire d’en avoir 0 ou 1.. Si elle s’arrˆ ´ ete au deux feux elle perd 2 minutes, elle met donc

Lire graphiquement le coefficient direc- teur ou indiquer s’il n’existe pas la

Une machine produit des pi`eces, dont certaines sont d´efectueuses `a cause de deux d´efauts possibles, le d´efaut A et le d´efaut B, ` a l’exclusion de tout autre d´efaut.. On

Ayant identifi´ e la broche sur laquelle nous connecterons le 1 PPS (ou sa simulation que nous venons de concevoir dans le chapitre pr´ ec´ edent), nous allons proposer un module