• Aucun résultat trouvé

Licence 3  Probabilités Exercices corrigés de TD

N/A
N/A
Protected

Academic year: 2022

Partager "Licence 3  Probabilités Exercices corrigés de TD"

Copied!
50
0
0

Texte intégral

(1)

Licence 3 Probabilités Exercices corrigés de TD

Cécile Mercadier, Johannes Kellendonk, Laurent Tournier Associés au cours de Stéphane Attal

Année universitaire : 2008-2009

(2)

Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009

Feuille de TD 1

Dénombrement

Exercice 1

Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements suivants :

(i) Trois piques (ii) Aucun pique (iii) Un pique et deux "non-piques"

(iv) Au moins un pique (v) Trois cartes de la même famille (vi) Trois cartes de familles diérentes

(vii) Trois as (viii) Aucun as (ix) Trois cartes rouges

lorsque :

1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le jeu.2. On suppose que les cartes sont tirées simultanément au hasard.

Exercice 2 Soit n et pdeux entiers non nuls.

1. De combien de façons peut-on répartir p enveloppes identiques dans n boîtes aux lettres ?

2. En déduire le cardinal de l'ensemble E1 ={(x1, . . . , xn)∈Nn, x1 +. . .+xn =p}.

3. Supposonsp≥n. De combien de façons peut-on répartirpenveloppes identiques dans n boîtes aux lettres de sorte qu'aucune boîte aux lettres ne reste vide ?

4. De quel ensembleE2(construit de façon similaire àE1) peut-on en déduire le cardinal ? 5. De combien de façons peut-on répartir p enveloppes distinctes dans n boîtes aux lettres ?

Exercice 3 Soit n et pdeux entiers non nuls.

1. Déterminer le cardinal de l'ensemble des suites croissantes (au sens strict) depéléments de{1, . . . , n}.

2. Déterminer le cardinal de l'ensemble des suites croissantes (au sens large) depéléments de{1, . . . , n}.

Caractérisation d'une loi de probabilité

Exercice 4 Soit X une variable aléatoire à valeurs dans N ou Z dénie sur l'espace de probabilité discret(Ω,P). Démontrer que sa fonction de répartition, notée FX, dénie par

∀x∈R, FX(x) = P(X ≤x) vérie les propriétés suivantes :

1. FX est croissante aveclimx→−∞FX(x) = 0 et limx→−∞FX(x) = 1.

(3)

2. FX est continue à droite en tout point et admet des limites à gauche en tout point. De plus limy→xFX(y) =P(X < x).

3. FX caractérise la loi de X.

Exercice 5 Soit X une variable aléatoire à valeurs dansN dénie sur l'espace de proba- bilité discret (Ω,P). On dénit sa fonction génératrice par

GX(s) =E(sX) = X

k∈N

P(X =k)sk. 1. Montrer queGX est bien dénie sur [−1,1].

2. Montrer queGX caractérise la loi de X.

3. Supposons que X et X2 sont intégrables. Notons G0X et G00X les dérivées première et seconde de GX. Montrer que E(X) = G0X(1) et E(X2) = G00X(1) + G0X(1). En déduire l'expression de Var(X).

(4)

Correction feuille de TD 1

Référence

Introduction aux probabilités Delmas, Jean-Pierre

Ellipses

BU Maths 19.2 DEL

Rappel de cours : Dénombrement

Le nombre d'applications d'un ensmble à péléments vers un ensemble à n éléments estnp.

Le nombre de permutations d'un ensemble àn éléments bijections de cet ensemble dans lui-même est n!.

Le nombre d'arangements injections d'un ensmble àpéléments dans un ensemble à n éléments est Apn = n!

(n−p)!.

Le nombre de combinaisons ou sous-ensembles à péléments dans un ensemble à n éléments (≥p) est Cnp = n!

p!(n−p)!.

Rappel de cours : Probabilités sur un ensemble ni

On convient de représenter une expérience aléatoireE, c'est-à-dire, une expérience soumise au hasard, par Ω l'ensemble des résultats possibles. Une réalisation ω, un élément de Ω est aussi appelé expérience élémentaire.

Un événement aléatoire A est l'ensemble des expériences élémentaires ω qui réalisentA. Comme Ω est ni, la probablité P sur Ω dénie par P({ω}) = 1/card(Ω) s'appelle la probablité uniforme surΩ. C'est la probabilité qui rend toutes les expériences élémentaires ω équiprobables. On a alors P(A) = card(A)

card(Ω) = ” nombre de cas favorables nombres de cas possibles”.

Exercice 1 On peut décider qu'un jeu de cartes est l'ensemble {1, . . . ,52} avec par exemple {1, . . . ,13} les piques, puis les trèes, puis les coeurs, puis les carreaux.

1. L'univers Ωest {1, . . . ,52}3 donc card(Ω) = 523.

Comme les tirages sont faits au hasard, on peut munirΩde la probabilité uniforme : tous les événements élémentaires E ont la même probabilité : 1/523. Plus généralement, on sait que la probabilité d'un événement A quelconque se calcule commecard(A)/card(Ω). (i)1/64car à chaque fois un pique soit 133 cas favorables

(ii) 27/64car il s'agit de faire cette expérience sur52−13 = 39cartes, autrement dit, 393 cas favorables

(iii) 27/64 car on a 3×13×392 cas favorables (iv) 37/64complémentaire de (ii)

(v) 1/16 car 3×133 cas favorables (vi) 3/8 car 52×39×26cas favorables (vii) 1/2197 car 43 cas favorables (viii)1728/2197 car 483 cas favorables (ix) 1/8 car 263 cas favorables

2. Dans cette expérience, Ω est l'ensemble des combinaisons de 3 éléments parmi 52.

(5)

Son cardinal vaut donc C523 . Comme les tirages sont faits au hasard, on peut munirΩ de la probabilité uniforme : tous les événements élémentaires E ont la même probabilité : 1/C523 . Plus généralement, on sait que la probabilité d'un événement A quelconque se calcule comme card(A)/card(Ω).

(i)C133 /C523 (ii) C393 /C523 (iii) C131 C392 /C523 (iv)1−C393 /C523 (v) 4C133 /C523 (vi) 4(C131 )3C523 (vii)4/C523 (viii)C483 /C523 (ix) C263 /C523 Exercice 2 1. On peut modéliser les n boîtes aux lettres à l'aide de n−1 séparateurs donc une conguration est un ensemble de n −1 +p éléments qui est déterminée par exemple par la position des séparateurs, soit en tout Cn+p−1n−1 possibilités.

2. On peut voir ce problème comme le nombre de répartitions de p enveloppes dans n boîtes aux lettres avec xi le nombre d'enveloppes dans la boîte aux lettres i. On a bien xi ∈N etx1+. . .+xn =p. Donc Card(A) = Cn−1+pn−1 .

3. On commence par mettre une enveloppe par boîte aux lettres. Il s'agit alors de calculer le nombre de façons de répartir p− n enveloppes dans n boîtes aux lettres soit Cp−1n−1 possibilités.

4. E2 ={(x1, . . . , xn)∈(N?)n, x1+. . .+xn=p}.

5. Pour chaque enveloppe on attribue une boîte aux lettres, soit np possibilités.

Exercice 3 1. L'ensemble des suites strictements croissantes de péléments de{1, . . . , n}

est en bijection avec l'ensemble des parties à p éléments de {1, . . . , n}. En eet, on peut associer à toute suite strictement croissante(s1, . . . , sp)une partie{s1, . . . , sp}àpéléments de {1, . . . , n}, et l'application réciproque consiste à ordonner les éléments d'une partie {s1, . . . , sp}. Le cardinal recherché est donc le nombre de combinaisons de p éléments parmi n, soit Cnp.

2. Se donner une suite croissante (au sens large) de péléments de {1, . . . , n} revient à se donner, pour i= 1, . . . , n, le nombre xi d'éléments de la suite égaux ài, avec la condition Pn

i=1xi = p et xi ≥ 0. On voit ainsi que l'on est ramené à la question 1 de l'exercice 2, donc la réponse est Cn−1+pn−1 .

Autre solution : on se ramène à la question précédente par la bijection φ: (x1, x2. . . , xp)7→(x1, x2+ 1, . . . , xp+p−1),

qui envoie les suites croissantes (au sens large) depéléments de{1, . . . , n}dans l'ensemble des suites strictement croissantes depéléments de{1, . . . , n+p−1}. Pour le voir, noter que si(y1, . . . , yn)est strictement croissante à valeurs dans{1, . . . , n+p−1}, alorsyi ≥yi−1+1 et yi ≥ i pour tout i (par récurrence). L'image par φ de notre ensemble est l'ensemble décrit dans la question précédente dans lequelndevientn+p−1donc le cardinal recherché estCn+p−1p =Cn−1+pn−1 éléments.

Exercice 4 1. FX est croissante puisque six < y, FX(y) = FX(x) +µX(]x, y])≥FX(x). limn→+∞]− ∞,−n] = ∩n∈N]− ∞,−n] = ∅ comme limite d'une suite décroissante d'en- sembles et limn→+∞]− ∞, n] = ∩n∈N]− ∞, n] = R comme limite d'une suite croissante d'ensembles Par continuité de l'application probabilité, on a limn→−∞FX(n) =P(∅) = 0 etlimn→∞FX(n) =P(R) = 1.

2. FX est continue à droite carlimn→∞]− ∞, x+ 1/n] =∩n∈dN]− ∞, x+ 1/n] =]− ∞, x]. De plus, limn→∞]− ∞, x−1/n] =∩n∈dN]− ∞, x−1/n] =]− ∞, x[.

3. On a FX(x)−FX(x) = µX({x}). En particulier, on retrouve toutes les probabilités µX({k}) =P(X =k) = P(X−1({k})) =P({ω, X(ω) =k}).

(6)

Exercice 5 1. La série P

P(X = n)sn est absolument convergente pour |s| ≤ 1 car

|P(X =n)sn| ≤P(X =n) etP

P(X =n) = 1. La fonction est bien dénie sur [−1,1]. 2. GX est la somme de la série entière de terme général P(X = n)sn. Elle est donc indéniment dérivable sur ]−1,1[. De plus, on sait que ses dérivées s'obtiennent par dérivation terme à terme de la série. On a donc G(k)X (s) = P

n=kn(n−1). . .(n −k + 1)P(X =n)sn−k et G(k)X (0) =k!P(X =k). On peut donc reconstruire la loi deX à l'aide de la formule suivante :P(X =k) =G(k)X (0)/k!.

3. Si X est intégrable, par dénition la série P

nP(X = n) est convergente. La série PnP(X =n)sn−1est normalement convergente pour|s| ≤1carsups|nP(X =n)sn−1|= nP(X =n). Par conséquent, sa somme est la dérivée de la somme de la série P

P(X = n)sn = GX(s), autrement dit G0X(s). En résumé G0X(s) = P

n=1nP(X = n)sn−1 et G0X est bien dénie sur[−1,1].

On montre de la même manière que si E(X(X−1)) existe alors G00X(s) = P

n=2n(n− 1)P(X =n)sn−2 etG00X bien dénie sur [−1,1].

Pour s = 1, G0X(1) =P

n=1nP(X =n) = E(X) etG00X(1) =P

n=2n(n−1)P(X =n) = E(X(X−1)). On en déduit que Var(X) =G00X(1) +G0X(1)−G0X(1)2.

(7)

Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009

Feuille de TD 2

Rappels : Lois usuelles discrètes

Bernoulli(p) avecp∈[0,1] : P(X = 0) = 1−p etP(X = 1) =p.

Binomiale(n, p)avecn >0etp∈[0,1]:P(X =k) = Cnkpk(1−p)n−k pourk = 0, . . . , n. Géométrique(p) avecp∈[0,1]: P(X =k) =p(1−p)k pourk ∈N?.

Poisson(λ) avecλ >0 :P(X =k) = e−λλk

k! pour k ∈N.

Lois discrètes usuelles

Exercice 1 Donner l'expression et "tracer" les fonctions de répartitions de loi de Bernoulli de paramètre 2/3puis de loi géométrique de paramètre 3/4.

Exercice 2

1. Rappeler la formule du binôme de Newton.

2. En déduire que la loi binomiale de paramètres n ∈N? etp∈[0,1] dénit bien une loi de probabilité puis calculer sa moyenne et sa variance.

3. Rappeler le comportement des séries P

n≥0an, P

n≥1nan−1 et P

n≥2n(n − 1)an−2 lorsque |a|<1.

4. En déduire que la loi géométrique de paramètre p∈]0,1[ dénit bien une loi de pro- babilité puis calculer sa moyenne et sa variance.

Exercice 3 Au cours d'une expérience un certain événement E se réalise avec une pro- babilitép∈]0,1[. On répète de façon indépendante l'expérience jusqu'à obtenir r foisE. Soit X la variable aléatoire associée au nombre de réalisations de Ec. Déterminer la loi deX.

Exercice 4 Calculer la fonction génératrice deX lorsque X est une variable aléatoire 1. de loi de Bernoulli de paramètre p∈[0,1];

2. de loi binomiale de paramètresn ∈N? etp∈[0,1]; 3. de loi de Poisson de paramètre λ >0;

4. de loi géométrique de paramètre p∈]0,1[.

5. En déduire l'espérance et la variance de X dans chacun des cas.

Inégalités

Exercice 5

1. Soit X une variable aléatoire intégrable. Montrer que pour tout a∈R+?

(Markov) P(|X| ≥a)≤ E(|X|) a .

(8)

2. En déduire que si X est de carré intégrable alors pour touta∈R+?

(Tchebyche) P(|X−E(X)| ≥a)≤ V ar(X) a2 .

Exercice 6 Soitn ∈N. On extraitnfois avec remise une boule dans une urne composée de 2 boules vertes et 6 boules blanches. Soit Xn la variable aléatoire associée au nombre de boules vertes obtenues lors des n tirages. On pose Fn=Xn/n.

1. Donner la loi de Xn. En déduire l'espérance et la variance de Xn puis de Fn.

2. On suppose dans cette question que n= 10 000. A l'aide de l'exercice précédent, don- ner une borne inférieure pour la probabilité de l'événement{Fn∈]0.22,0.26[}.

3. Donner une estimation du nombre minimal n de tirages nécessaires pour que la pro- babilité de l'événement {Fn ∈]0.22,0.26[}soit au moins 0.99.

(9)

Correction feuille de TD 2

Exercice 1 Si X suit la loi de Bernoulli de paramètre p = 2/3, X est à valeurs dans {0,1}, doncFX(x) = P(X ≤x) = 0six <0etFX(x) = 1six≥1. De plus, si0≤x <1, FX(x) = P(X ≤x) = P(X = 0) = 1−p= 1/3. Faire le dessin correspondant.

SoitXune variable aléatoire de la loi géométrique de paramètrep= 3/4. CommeXest à valeurs dans N, on a FX(x) = 0 pour tout x < 1. De plus, FX(x) = P(X = 1) = 3/4 si x ∈ [1,2[, FX(x) = P(X = 1) + P(X = 2) = 3/4 + 3/16 = 15/16 si x ∈ [2,3[, FX(x) = FX(2) +P(X = 3) = 15/16 + 3/64si x∈[3,4[,. . .

Exercice 2 1. Pour x, y réels (ou dans un quelconque anneau commutatif) et n ∈ N, la formule du binôme de Newton s'écrit (x+y)n=

n

X

k=0

Cnkxkyn−k.

2. Pour vérier que P(X = k) = ak (où k ∈ N et ak ∈ R) dénit bien une mesure de probabilités sur N, il faut vérier ak ≥ 0 et P

k=0ak = 1. Pour la loi binomiale de paramètres n etp, la positivité est évidente, et la seconde condition résulte de la formule du binôme : Pn

k=0Cnkpk(1−p)n−k = (p+ 1−p)n= 1.

À l'aide des formuleskCnk=nCn−1k−1 etk(k−1)Cnk−1 =n(n−1)Cn−2k−2 (la première se vérie via la dénition des Cnk et la deuxième se déduit de la première), et de la formule du binôme, on calcule :

E(X) =

n

X

k=1

kCnkpk(1−p)n−k =n

n

X

k=1

Cn−1k−1pk(1−p)n−k =np

n−1

X

k=0

Cn−1k pk(1−p)n−1−k=np

E(X(X−1)) =

n

X

k=2

k(k−1)Cnkpk(1−p)n−k=

n

X

k=2

n(n−1)Cn−2k−2pk(1−p)n−k =n(n−1)p2, d'oùVar(X) =E(X2)−E(X)2 =E(X(X−1))+E(X)−E(X)2 =n(n−1)p2+np−n2p2 = np(1−p).

3. Si a 6= 1 on a, pour tout n, Pn

k=0ak = 1−an+1

1−a . Pour |a| < 1, limnan+1 = 0, donc la série géométrique est alors convergente avec P

k≥0ak = 1

1−a. Par propriété de dérivation des séries entières dans leur intervalle ouvert de convergence, on en déduit P

k≥1kak−1 = d da

1 1−a

= 1

(1−a)2 etP

k≥2k(k−1)ak−2 = d2 da2

1 1−a

= 2

(1−a)3. 4. Si pour tout k≥1 on a P(X =k) =p(1−p)k−1, alors P

k≥1P(X =k) =pP

k≥0(1− p)k= 1. Ceci montre que la loi géométrique de paramètrepest bien une loi de probabilités.

On calcule :

E(X) = X

k≥1

kP(X =k) =pX

k≥1

k(1−p)k−1 = 1 p E(X(X−1)) =X

k≥2

k(k−1)P(X =k) =p(1−p)X

k≥2

k(k−1)(1−p)k−2 = 21−p p2 Var(X) =E(X(X−1)) +E(X)−E(X)2 = 21−p

p2 +1 p − 1

p2 = 1−p p2 .

(10)

Exercice 3 On a Ω = {E, Ec}N. L'événement {E, . . . , E, Ec, . . . , Ec, . . .} où E apparait r fois et Ec apparait n fois dans les r+n premiers termes a une probabilité pr(1−p)n. Pour trouver la probabilitéP(X =n)il faut calculer le nombre de manières de construire des r +n uplets se terminant par E, et contenant r fois E. C'est donc le nombre de combinaisons der−1éléments parmir+n−1puisque un des éléments ainsi que sa position est imposée, soit encoreCr+n−1r−1 . Donc pour toutn∈Non a :P(X =n) = Cn+r−1r−1 pr(1−p)n. Il s'agit de la loi binomiale négative de paramètres r∈N? etp∈]0,1].

Exercice 4 1. Loi de Bernoulli de paramètre p. On a, pour s∈R, GX(s) = E[Xs] = (1−p) +ps,

doncG0X(s) = petG00X(s) = 0. Il suitG0X(1) =petG00X(1) = 0. Par conséquent (cf. feuille 1, exercice 5 et remarque à la n du corrigé), E(X) =p etVar(X) =p−p2 =p(1−p). 2. Loi binomiale de paramètres n et p. Pours∈R, la formule du binôme donne :

GX(s) =

n

X

k=0

skCnkpk(1−p)n−k =

n

X

k=0

Cnk(sp)k(1−p)n−k = (1−p+sp)n.

On obtient G0X(s) = np(1− p+sp)n−1 et G00X(s) = n(n − 1)p2(1− p+sp)n−2, d'où G0X(1) =np et G00X(1) =n(n−1)p2.

3. Loi de Poisson de paramètre λ > 0. Rappelons que dans ce cas P(X = n) = λn n!e−λ pour n ∈ N. Le développement en série de l'exponentielle eλ = P

n=0 λn

n! (et le fait que

λn

n!e−λ ≥ 0) montre qu'il s'agit bien d'une probabilité. Ce même développement fournit, pour touts ∈R:

GX(s) =

X

n=0

snλn

n!e−λ =eλse−λ =eλ(s−1),

donc G0X(s) = λeλ(s−1) et G00X(s) = λ2eλ(s−1). G0X(1) = λ et G00X(1) = λ2 impliquent E(X) =λ et Var(X) =λ.

4. Loi géométrique de paramètre p. On a, pour tout s∈]− 1

1−p, 1 1−p[, GX(s) =

X

k=1

sk(1−p)k−1p= sp 1−s(1−p). Pour ces valeurs des, on en déduit queG0X(s) = p

(1−s(1−p))2 etG00X(s) = 2p(1−p) (1−s(1−p))3. En particulier,G0X(1) = 1p etG00X(1) = 2(1−p)

p2 , d'où E(X) = 1p etVar(X) = 2(1−p) p2 + 1

p− 1

p 2

= 1−p p2 .

Remarque 1. Pour déduire le calcul de l'espérance et de la variance, on utilise à vrai dire une réciproque partielle de la question 5.3 de la feuille 1. À savoir : si G0X(1) < ∞ (c'est-à-dire, si la série dérivée converge en s = 1), alors X est intégrable, et E(X) = G0X(1). Et si G00X(1) < ∞ (idem pour la série dérivée seconde), alors X est de carré in- tégrable et E(X2) = E(X(X−1)) +E(X) = G00X(1) +G0X(1). La preuve est quasiment

(11)

la même puisque par exemple les propriétés X est intégrable et G0X(1) <∞ se tra- duisent exactement par la même condition de convergence : P

kkP(X =k)<∞.

Remarque 2. Dès que le rayon de convergence de GX est strictement plus grand que 1 (ce qui est le cas dans les exemples précédents), GX est de classe C en 1, donc X est intégrable, X2 aussi et, de façon plus générale, Xk est intégrable pour tout k (considérer la dérivée k-ième de GX).

Exercice 5 Voir page 13 du cours.

Exercice 6 1. Xn est de loi binomiale de paramètresn etp= 2/8 = 1/4. DoncE(Xn) = n/4 etV ar(Xn) = 3n/16. On obtient alors E(Fn) = 1/4et V ar(Fn) = 3/(16n).

2. P(Fn∈]0.22,0.26[) =P(Fn−E(Fn)∈]−0.03,0.01[)>P(|Fn−E(Fn)|<0.01) donc P(Fn ∈]0.22,0.26[)>1−P(|Fn−E(Fn)| ≥0.01) ≥1−V ar(Fn)/0.012 = 1−3/16 = 13/16. 3. P(Fn ∈]0.22,0.26[) >P(|Fn−E(Fn)| < 0.01) donc si P(|Fn−E(Fn)| < 0.01) > 0.99 alors on aura

P(Fn ∈]0.22,0.26[)>0.99. Il sut de chercher n tel que P(|Fn−E(Fn)| ≥0.01)<0.01. Or P(|Fn−E(Fn)|>0.01)< V ar(Fn)/0.012 donc n >3/(16 0.013) = 187500.

(12)

Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009

Feuille de TD 3

Exercice 1 Fonctions indicatrices

Soit (Ω,P) un espace de probabilité discret. Si A ⊂ Ω est un événement, on note 1A : Ω→ {0,1} la fonction indicatrice deA :

pour toutω ∈Ω, 1A(ω) =

1 si ω ∈A 0 si ω /∈A.

1. Pour des événements A etB, exprimer 1Ac et1A∩B en fonction de 1A et1B. 2. Vérier que, pour tout événement A, P(A) =E[1A].

3. Montrer que si X est une variable aléatoire intégrable à valeurs dans N, alors : E[X] =

X

n=1

P(X ≥n).

Indépendance

Exercice 2 Indépendance entre 3 événements

On jette deux dés (non pipés), l'un après l'autre. On note respectivement A, B et C les événements Le chire du premier dé est pair, Le chire du deuxième dé est pair et Les deux chires ont même parité.

1. Montrer que les événements A, B et C sont deux à deux indépendants.

2. Montrer queA,B et C ne sont pas indépendants dans leur ensemble.

Exercice 3 Indépendance et passage au complémentaire

Soit (Ω,P) un espace de probabilité discret, et A1, . . . , An des événements indépendants.

1. Montrer queAc1, A2, . . . , An sont indépendants aussi.

2. En déduire par récurrence la propriété plus générale : pour tousB1 ∈ {A1, Ac1}, . . . , Bn∈ {An, Acn}, les événementsB1, . . . , Bn sont indépendants.

3. Démontrer que les événements A1, . . . , An sont indépendants si, et seulement si les variables aléatoires 1A1, . . . ,1An sont indépendantes.

Exercice 4 Soit X et Y des variables aléatoires réelles indépendantes, dénies sur un espace de probabilité discret (Ω,P).

1. Montrer que, pour toutes fonctionsf etg deRdansR,f(X)etg(Y)sont des variables aléatoires indépendantes.

2. On supposeX etY intégrables. Montrer queXY est intégrable etE[XY] =E[X]E[Y]. 3. On suppose X2 etY2 intégrables. Montrer que Var(X+Y) = Var(X) + Var(Y). 4. Généraliser ces résultats à n variables aléatoires X1, . . . , Xn indépendantes.

Exercice 5 Si X est une variable aléatoire indépendante de Y et si Y est indépendante deZ, est-ce que X est indépendante de Z?

(13)

Lois usuelles et indépendance

Exercice 6 Interprétation des lois usuelles

On considère une suite d'expériences indépendantes dont l'issue est un succès avec pro- babilitép et un échec avec probabilité1−p.

1. Montrer que le nombre de succès parmi les n premières expériences suit une loi bino- miale de paramètres n et p.

2. Montrer que l'instant où a lieu le premier succès suit une loi géométrique de paramètre p.

Exercice 7 SoitX,Y des variables aléatoires indépendantes suivant des lois géométriques de paramètres respectifspX et pY. On dénit Z = min(X, Y).

1. Calculer les fonctions de répartition deX, Y, Z. 2. En déduire la loi de Z.

Conditionnement

Exercice 8 Formule de Bayes

1. Soit (Ω,P) un espace de probabilité discret, et (H1, . . . , Hn) une partition de Ω en n événements de probabilité non nulle. Montrer que, pouri= 1, . . . , n, siAest un événement de probabilité non nulle :

P(Hi|A) = P(A|Hi)P(Hi) Pn

j=1P(A|Hj)P(Hj).

2. Une maladie M aecte une personne sur 1000 dans une population donnée. On dispose d'un test sanguin qui détecte M avec une abilité de 99% lorsque cette maladie est eec- tivement présente. Cependant, on obtient aussi un résultat faussement positif pour 0,2%

des personnes saines testées. Quelle est la probabilité qu'une personne soit réellement malade lorsque son test est positif ?

Exercice 9

Soient X1 et X2 des variables aléatoires, indépendantes, de loi de Poisson de paramètres λ1 et λ2 respectivement.

1. Calculer la loi de X1+X2.

2. Calculer la loi conditionnelle de X1 sachantX1+X2. Identier une loi connue.

(14)

Correction de la feuille de TD 3

Exercice 1 Fonctions indicatrices

1. On a facilement 1Ac = 1−1A et1A∩B =1A1B. 2. D'après les dénitions,

E[1A] =X

ω∈Ω

1A(ω)P({ω}) =X

ω∈A

P({ω}) =P(A).

3. On remarque que : pour tout ω ∈Ω, X(ω) =

X(ω)

X

k=1

1 =

X

k=1

1{X≥k}(ω),

d'où par théorème de convergence dominée (les sommes partielles sont inférieures à X, intégrable) (ou convergence monotone) :

E[X] =

X

k=1

E[1{X≥k}] =

X

k=1

P(X ≥k).

Indépendance

Exercice 2 Indépendance entre 3 événements

L'espace des épreuves estΩ = {1, . . . ,6}2, où la première composante représente la valeur du premier dé, et la seconde celle du second dé. Les couples de résultats sont équiprobables, donc on munit Ωde la loi uniforme P.

1. On a Card(A) = 3·6 = 18 = Card(B) et Card(C) = 6·3 = 18 donc P(A) =P(B) = P(C) = 1/2. D'autre part, on voit que A∩C ={deux lancers pairs}=B∩C =A∩B et P(A∩B) = (3·3)/36 = 1/4.

2. On a : A∩B∩C =A∩B donc P(A∩B∩C) = 1/46= 1/8 =P(A)P(B)P(C). Exercice 3 Indépendance et passage au complémentaire

1. Pour tous 2≤i1 < . . . < ik ≤n, on a :

P(Ac1∩Ai1 ∩ · · · ∩Aik) = P(Ai1 ∩ · · · ∩Aik)−P(A1 ∩Ai1 ∩ · · · ∩Aik) = (1−P(A1))P(Ai2)· · ·P(Ain)

= P(Ac1)P(Ai2)· · ·P(Aik) etP(Ai1 ∩ · · · ∩Aik) =P(Ai1)· · ·P(Aik).

2. On raisonne par récurrence : on sait que les événements B1, A2, . . . , An sont indépen- dants grâce à la question 1 (ou trivialement si B1 =A1), donc on peut leur appliquer la question 1 pour voir que B1, B2, A3, . . . , An sont indépendants, etc.

3. Supposons les variables aléatoires 1A1, . . . ,1An indépendantes. Alors, pour tous 1 ≤ i1 <· · ·< ik ≤n,

P(Ai1 ∩ · · ·Aik) = E[1Ai

1∩···∩Aik] =E[1Ai

1]· · ·E[1Aik]

= P(Ai1)· · ·P(Aik)

(15)

d'où l'indépendance des événements. Supposons réciproquement les événementsA1, . . . , An indépendants. Pour tout événement A, lorsque x parcourt R, l'événement {1A = x} est ou bien égal à A ou à Ac. Il apparaît donc que l'événement {Ai1 =c1, . . . , Aik =ck} est de la forme de ceux considérés dans l'exercice 3, d'où :

P(1Ai

1 =c1, . . . ,1Aik =ck) = P(Bi1)· · ·P(Bik) =P(1Ai

1 =c1)· · ·P(1Aik =ck), oùBi =Ai si ci = 1, Bi =Aci si ci = 0. D'où l'indépendance de 1A1, . . . ,1An.

Exercice 4

1. On a, pour a, b∈R (ou ∈f(X(Ω)) et g(Y(Ω)) :

P(f(X) = a, g(Y) =b) =P(X ∈f−1(a), Y ∈g−1(b)) = P(X ∈f−1(a))P(Y ∈g−1(b)) =P(f(X) = a)P(g(Y) = b).

2. On a : (on peut changer l'énoncé et prendre X et Y à valeurs dans Z pour coller au cours)

E[|XY|] = X

k∈X(Ω),l∈Y(Ω)

|kl|P(X =k, Y =l) = X

k∈X(Ω),l∈Y(Ω)

|kl|P(X =k)P(Y =l)

= X

k∈X(Ω)

|k|P(X =k) X

l∈Y(Ω)

|l|P(Y =l) =E[|X|]E[|Y|]<∞

donc XY est intégrable, et en refaisant le calcul sans les valeurs absolues (justié par Fubini), on trouve E[XY] =E[X]E[Y].

3. On a :

Var(X+Y) =E[(X+Y)2]−E[X+Y]2 =E[X2+Y2+XY]−(E[X]+E[Y])2 =E[X2]−E[X]2+E[Y2]−E[Y]2 en développant et en utilisant la question précédente.

4. Pas de vraie diculté pour généraliser, sinon dans l'écriture. On remarque que la question ci-dessus requiert juste l'indépendance des variables 2 à 2.

Exercice 5 Prendre un contre-exemple.

Lois usuelles et indépendance

Exercice 6 Interprétation des lois usuelles

On considère une suite de variables aléatoiresX1, X2, . . .indépendantes, telle queP(Xi = 1) =p (on représente le succès par 1) et P(Xi = 0) = 1−p (et l'échec par 0).

1. On note S le nombre de succès parmi les n premières expériences. Pour tout k ∈ {1, . . . , n}:

P(S =k) = X

S⊂{1,...,n},Card(S)=k

P(∀i∈S, Xi = 1,∀i /∈S, Xi = 0)

= X

S⊂{1,...,n},Card(S)=k

pk(1−p)n−k = n

k

pk(1−p)n−k.

(16)

2. L'instant N de premier succès est tel qu'il est précédé de N −1 échecs, d'où, pour k ≥1:

P(N =k) =P(X1 = 0, . . . , Xk−1 = 0, Xk= 1) = (1−p)kp.

Autrement dit, N suit la loi géométrique de paramètrep. Exercice 7 Soit k un entier non nul.

1. P(X ≤ k) = 1−P(X > k) = (1−pX)k donc FX(x) = 1−(1−pX)k si x > 0 et k ≤x < k+ 1; 0 sinon.

De même FY(y) = 1−(1−pY)k si y >0 etk ≤y < k+ 1; 0 sinon.

P(Z ≤ z) = 1 −P(Z > z) = 1 −P(X > z, Y > z) = 1 −P(X > z)P(Y > z) = 1−(1−pX)k(1−pY)k si z >0et k≤z < k+ 1; 1 sinon.

2. Z est de loi Géométrique de paramètrepZ = 1−(1−pX)(1−pY) =pX +pY −pXpY.

(17)

Conditionnement

Exercice 8 Formule de Bayes.

1. On a, en remarquant queAest la réunion disjointe des événementsA∩H1, . . . , A∩Hn: P(Hi|A) = P(Hi ∩A)

P(A) = P(A∩Hi) P

jP(A∩Hj) = P(A|Hi)P(Hi) P

jP(A|Hj)P(Hj).

2. Ici, Ω est la population considérée, dont une partie E est atteinte par la maladie M, et dont une partie T a une réaction positive au test. Par hypothèse, P(E) = 1/1000, P(T|E) = 0,99et P(T|Ec) = 0,002, d'où (cas particulier de la formule de Bayes pour la partition de ΩenE et Ec) :

P(E|T) = P(E)P(T|E)

P(E)P(T|E) +P(Ec)P(T|Ec) = 1/1000·0,99

1/1000·0,99 + 0,999·2/1000 '0,33 Ainsi, le test a deux chances sur trois de donner une réponse positive à une personne saine, ce qui est loin d'être négligeable !

Exercice 9

1. Si X (resp. Y) suit la loi de Poisson de paramètre λ1 (resp. λ2), alors : GX+Y(s) =GX(s)GY(s) =eλ1(1−s)eλ2(1−s)=e12)(1−s), donc X+Y suit la loi de Poisson de paramètre λ12.

Méthode directe :P(X+Y =k) = Pk

j=0P(X =j)P(Y =k−j) = Pk j=0

λj1

j!e−λ1λj2 j!e−λ2

= (λ12)k/k!e−(λ12). C'est bien la loi de Poisson de paramètre la somme des para- mètres de X etY.

2. P(X =j|X+Y =k) = P(X =j)P(Y =k−j) P(X+Y =k) = λj1

j!e−λ1 λk−j2

(k−j)!e−λ2 k!

12)ke−(λ12)

=Ckj

λ1

λ12 j

λ1

λ12 k−j

Par conséquent, la loi deXsachantX+Y =ksuit la binomiale de paramètre(k, λ1 λ12).

(18)

Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009

Feuille de TD 4

Somme de v.a. indépendantes et fonction génératrice

Exercice 1 Soit(Ω,P)un espace de probabilité discret, etX, Y deux variables aléatoires indépendantes dénies sur Ω, à valeurs dansN.

1. Exprimer la loi de X+Y en fonction de celles de X etY.

2. Montrer que, pour tout s∈[−1,1], GX+Y(s) = GX(s)GY(s). (on pourra donner deux preuves)

3. Généraliser ce qui précède au cas de n variables aléatoires indépendantes X1, . . . , Xn. 4. Quelle est la loi de la somme denvariables aléatoires indépendantes de loi de Bernoulli de paramètre p? Retrouver alors l'espérance et la variance de cette loi.

5. Quelle est la loi de la somme de :

deux variables aléatoires indépendantes de loi binomiale de paramètres (n, p) et (m, p)?

deux variables aléatoires indépendantes de loi de Poisson de paramètre λ et µ? Exercice 2 Dés truqués

1. Quelle est la fonction génératrice de la loi uniforme sur {2, . . . ,12}?

2. Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans {1, . . . ,6}. En étudiant les racines du polynômeGX1GX2, montrer que la loi deX1+X2 ne peut pas être la loi uniforme sur {2, . . . ,12}.

Indication : on remarquera que GXi(s) =sϕi(s)où ϕi est un polynôme à coecients réels de degré impair, qui admet donc une racine réelle (pourquoi ?).

3. Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et 12 équiprobables ?

Lois continues usuelles

Exercice 3 Calculer l'espérance et la variance de X lorsque X est une variable aléatoire 1. de loi uniforme U([a, b]) sur l'intervalle [a, b]⊂R;

2. de loi normale N(m, σ)de paramètre m∈R, σ >0; 3. de loi exponentielle E(λ) de paramètre λ >0.

Exercice 4 SoitX une variable aléatoire de densitéf(x) = π(a2a+x2) aveca >0. La loi de X est appelée loi de Cauchy de paramètre a.

Vérier que f est bien une densité. Pour quelles valeurs de α∈Rla variable|X|α est-elle intégrable ?

Exercice 5 Une variable aléatoire positive X est sans mémoire si P(X > t+s|X > t) = P(X > s), ∀t, s≥0.

(19)

Montrer qu'une variable aléatoire positive dont la loi admet une densité est sans mémoire si, et seulement si elle suit une loi exponentielle.

Exercice 6 Soit X une variable aléatoire réelle.

1. Supposons queXa pour densitéf. Quel lien y a-t-il entref et la fonction de répartition FX?

2. Réciproquement, donner une condition sur FX pour que la loi de X admette une densité.

3. Soit r un réel>0. On suppose X à valeurs positives. Montrer que E[Xr] =

Z 0

rxr−1P(X > x)dx,

où les deux membres sont nis ou innis. On pourra donner une preuve dans le cas à densité (à l'aide de ce qui précède), et une preuve dans le cas général (dans l'esprit de la question 1.3 de la feuille 3).

Exercice 7 Soit X1, . . . , Xn des variables aléatoires indépendantes de loi E(λ) de para- mètre λ >0.

1. Calculer la loi de maxi=1,...,nXi. (Indication : calculer la fonction de répartition.) 2. Calculer la loi de mini=1,...,nXi.

(20)

Correction de la feuille de TD 4

Somme de v.a. indépendantes et fonction génératrice

Exercice 1 Somme de v.a. indépendantes et fonctions génératrices

1. L'événement {X +Y =n} est la réunion disjointe des {X = k, Y =l} pour k, l ∈N tels que k+l =n, d'où :

P(X+Y =n) = X

k,l∈N,k+l=n

P(X =k, Y =l) = X

k+l=n

P(X =k)P(Y =l), soit : µX+Y({n}) =Pn

k=1µX({k})µY({n−k}).

2. On reconnaît dans la formule précédente l'expression des coecients de la série en- tière produit de GX et GY. Comme ces deux séries entières convergent sur [−1,1], on a donc, pour tout s ∈ [−1,1], GX+Y(s) = GX(s)GY(s). Autre méthode : X et Y sont indépendantes, donc sX et sY aussi, et celles-ci sont intégrables pours∈[−1,1], d'où :

GX+Y(s) =E[sX+Y] =E[sXsY] =E[sX]E[sY] =GX(s)GY(s).

3. La généralisation à n variables ne pose pas de problème.

4. SoitX1, . . . , Xndes variables de Bernoulli indépendantes de paramètrep. On aGX1(s) =

· · ·=GXn(s) = p+ (1−p)s, d'où, pour tout s :

GX1+···+Xn(s) = GX1(s)· · ·GXn(s) = (p+ (1−p)s)n=GS(s),

oùS est une variable aléatoire de loi binomiale de paramètresn et p. Comme la fonction génératrice caractérise la loi, Y =X1+· · ·+Xnsuit une loi binomiale de paramètresn et p. En particulier, l'espérance de cette loi est :E[Y] =E[X1+· · ·+Xn] =Pn

i=1E[Xi] =np, et sa variance est (vu l'indépendance) :Var(Y) = Var(X1+· · ·+Xn) = Pn

i=1Var(Xi) = np(1−p). Remarquons que l'exercice précédent donnait déjà la loi loi binomiale comme somme de Bernoullis indépendantes.

5. Si X (resp. Y) suit la loi binomiale de paramètres n et p (resp.m etp), alors :

GX+Y(s) =GX(s)GY(s) = (p+ (1−p)s)n(p+ (1−p)s)m = (p+ (1−p)s)m+n, doncX+Y suit la loi binomiale de paramètres m+netp(ce qui se comprend bien par l'interprétation précédente).

Si X (resp. Y) suit la loi de Poisson de paramètre λ (resp. µ), alors : GX+Y(s) =GX(s)GY(s) = eλ(1−s)eµ(1−s)=e(λ+µ)(1−s), donc X+Y suit la loi de Poisson de paramètre λ+µ.

(21)

Exercice 2 Dés truqués

1. Soit X une variable de loi uniforme sur {2, . . . ,12}. Pours∈[−1,1](ou R), GX(s) =

12

X

i=2

1

11si = s 11

1−s11 1−s .

2. Supposons que l'on ait GX1GX2 = GX (donné ci-dessus). Remarquons que, pour i = 1,2,

GXi(s) =

6

X

j=1

P(Xi =j)sj =sϕi(s),

où ϕi est un polynôme, à coecients réels, et que la conditionP(X1+X2 = 12) = 1/11 implique 1/11 =P(X1 = 6, X2 = 6) = P(X1 = 6)P(X2 = 6) et donc que ϕi est de degré 5, impair. Par un argument de valeurs intermédiaires, les polynômes ϕ1 et ϕ2 ont donc chacun au moins une racine réelle. Or :

11sϕ1(s)ϕ2(s) = 1−s11 1−s ,

et le polynôme du membre de droite a pour racines les racines onzièmes de l'unité autres que 1, dont aucune n'est réelle : contradiction.

3. Tant que les dés sont indépendants, on ne peut donc les piper (i.e. modier leur loi) de façon à rendre toutes les sommes entre 2 et 12 équiprobables.

Lois continues usuelles

Exercice 3 UNIFORME la densité est 1[a,b](x)

b−a et la f.r. est F(x) = x−a

b−a1[a,b[(x) + 1[b,∞[(x).

Pour toutr >0, la fonction|x|rfX(x)est bornée par max(|a|, b)r

b−a intégrable sur[a, b]donc X admet des moments de tout ordre. En particulierE(X) = a+b

2 etV ar(X) = (b−a)2 12 . On peut également noter que si X ∼ U(0,1) alors Y = (b−a)X+a ∼ U(a, b). On en déduit facilement les moment de Y à partir de ceux de X.

NORMALE La densité est fm,σ(x) = exp(−(x−m)2/(2σ2)

√2πσ , la fonction de répartition n'a pas d'expression explicite, seulement la forme intégrale Rx

−∞fm,σ(y)dy. C'est bien une loi de proba : I = R

−∞fm,σ(y)dy = R

−∞f0,1(y)dy = 2

√π R

0 e−x2dx par changement de variablex−> x−m

σ , la parité puis le changement de variablex−>√ 2x. D'autre part :

R

R+e−x2dx 2

=RR

R+×R+e−x2−y2dxdy=RR

R+×[0,π/2]e−r2rdrdθ = R

0 e−r2rdr Rπ/2 0

= 1/2×π/2 =π/4. DoncI = 2

√π

pπ/4 = 1. Cette loi admet des moments de tous les ordres.

En eet, pour toutr >0, on a |x|rfm,σ(x) est intégrable.

(22)

On peut également montrer que si X ∼ N(m, σ) alors Y = X−m

σ ∼ N(0,1). On en déduit facilement queE(X) =m+E(Y)σ etV ar(X) = σ2V ar(Y). Il sut de calculer les moments de la N(0,1). Par parité, on a que pour tout m entier impair, E(Ym) = 0. Soit maintenant un entier pair. On a E(Ym) =R

ym−1yf0,1(y)dy= (m−1)R

ym−2f0,1(y)dy en intégrant par parties. Donc on obtient la relation E(Ym) = (m−1)E(Ym−2) lorsque m est pair.

CommeE(Y2) = 1 on obtientE(Ym) = 1. . .3. . .(m−1) = (2k)!

2kk! en posant m= 2k. EXPONENTIELLE La densité est fλ(x) = λe−λx1x∈R+. Donc la f.r. est Fλ(x) = 1− e−λx1x∈R+. La loi exponentielle sert à modéliser les durées de vie. On a E(X) = 1/λ et V ar(X) = 1/λ2.

Exercice 4

1. π(aa|x|2+xα2) est intégrable ssiα−2<−1, i.e. α <1. 2. R

e−|t|eiξtdt=R0

−∞e−t(1+iξ)dt+R

0 e−t(1+iξ)dt= 1

1−iξ + 1

1 +iξ = 2 1 +ξ2.

3. On déduit de la question précédente et de la transformée de fourier inverse que e−|t| = 1

2π R 2

1 +ξ2eiξtdξ. En particulier, la fonction caractéristique de Y une variable de loi de cauchy de paramètre 1 est e−|t|.

De plus, il faut noter que si X est de loi cauchy de paramètre a alors Y =X/aest de loi cauchy de paramètre 1.

En eet,P(X/a≤x) = P(X ≤ax) =Rax

−∞

a

π(a2+x2)dx=Rx

−∞

a

π(a2+(ay)2)ady =Rx

−∞

1 π(1+y2)dy. E(eitX) =E(eitaa−1X) =E(eitaY) =e−|ta|=e−a|t|.

Exercice 5 Soit f la densité de notre variable et posons F¯(x) = 1−F(x) = R

x f(t)dt. F¯ est diérentiable avec dérivée F¯0(x) = −f(x). La propriété sans mémoire s'écrit F¯(s+t) = ¯F(t) ¯F(s). Dériver cette equation par rapport à t en t = 0 donne l'equation diérentielle

0(s) = −f(0) ¯F(s)

qui a comme solution F¯(s) = ce−f(0)s. Donc f(t) = cf(0)e−f(0)t et c = 1 est déterminé par la normalisation. On obtient donc les lois exponentielles.

Exercice 6 Soit X une variable aléatoire à valeurs dans R+ de densité f etr >0. Z

0

rxr−1P(X > x)dx= Z

0

Z y

rxr−1f(y)dydx = Z

0

Z y 0

rxr−1f(y)dxdy= Z

0

xrf(y)dy=E(Xr).

On peut justier l'échange d'intégration dans le cas où E(Xr) est ni car cette nitude est l'hypothèse dans le Thm de Tonelli.

SiE(Xr) est ni alors E(Xr) = lim

b→∞

Z b 0

xrF{dx}=−br(1−F(b)) + Z b

0

rbr−1(1−F(x))dx en appliquant avec G= 1−F la formule

Z b a

u(x)G{dx}=u(b)G(b)−u(a)G(a)− Z b

a

u0(x)G(x)dx.

(23)

On sait que limR

xrF{dx}nie donc R

b xrF{dx} ≥br(1−F(b))permet de déduire que la limite du terme de droite vaut 0. Il suit le résultat. On a d'autre part Rb

0 xrF{dx} ≤ Rb

0 rbr−1(1−F(x))dx car pourb positif on a br(1−F(b))positif. Donc lorsque E(Xr) est inni alors il en est de même de R

0 rbr−1(1−F(x))dx.

Exercice 7 Pour une loi exponentielle de paramètre λ > 0, on a une densité f(x) = λe−λx1x>0 et une fonction de répartition F(x) = 1−e−λx si x >0 etF(x) = 0 sinon.

Il suit P(maxi=1,...,nXi ≤x) =P(X ≤x)n= (1−e−λx)n.

D'autre part, P(mini=1,...,nXi ≤ x) = 1 −P(mini=1,...,nXi > x) = 1 −P(X > x)n = 1−e−nλx.

(24)

Université Claude Bernard Lyon 1 Probabilités Année universitaire 2008-2009

Feuille de TD 5

Obtenir une loi à partir d'une autre

Exercice 1 SoitXune variable aléatoire à valeurs dansE ⊂Retf :E →Rune fonction mesurable. Soit Y la variable aléatoire dénie par Y =f(X).

1. On suppose que X admet une densité et que f est injective et C1 par morceau.

Déterminer la densité de Y à l'aide d'un changement de variable.

2. On suppose que la loi de X est uniforme sur [0,1] et f(x) =−lnx. Quelle est la loi deY ?

3. SiX est de loi normaleN(m, σ), trouver une fonction f telle queY est de loi normale N(0,1).

4. Soit U une variable aléatoire de loi uniforme sur [0, π]. Donner la loi de sin(U). 5. Soit U une variable aléatoire de loi uniforme sur [−1,1]. Donner la loi de

(a) |U| (b) U2 (c) 1

2ln1 +U 1−U.

Exercice 2 Soit X, Y deux variables aléatoires indépendantes de loi normaleN(0,1). 1. Calculer la loi de la variable XY.

2. En déduire la loi de Z−1 si Z est une variable aléatoire de loi de Cauchy.

Exercice 3 SoitXetY deux variables aléatoires indépendantes de loi normaleN(m, σ2). Calculer, en fonction de m etσ, l'espérance E[(X+Y)2].

Quelques inégalités

Exercice 4 SoitXetY des variables aléatoires positives de carré intégrable sur(Ω,A,P). 1. A quelle condition a-t-onE(X2) = 0? On exclut cette possibilité dans la suite.

2. En considérant la fonctionλ 7→E[(X+λY)2], retrouver l'inégalité de Cauchy-Schwarz E(XY)2 ≤E(X2)E(Y2).

3. Montrer que pour tout a∈[0,1]:

(1−a)E(X)≤E X1[aE(X),∞[(X) . 4. En déduire que pour tout a∈[0,1] :

P(X ≥aE(X))≥(1−a)2E(X)2 E(X2).

(25)

Exercice 5 L'inégalité de Jensen

Soit f : E ⊂ R → R une fonction convexe dénie sur un intervalle E qui contient les valeurs d'une variable aléatoire X. On suppose que X et f(X) sont intégrables. Montrer que

f(E(X))≤E(f(X)).

Montrer que si f est strictement convexe, alors l'égalité f(E(X)) = E(f(X)) implique que X est constante sur un événement presque sûr (c'est-à-dire de mesure 1 pour P).

Exercice 6 Soit Ωun ensemble ni.

L'entropie d'une probabilité P sur Ω est H(P) =−X

ω∈Ω

P({ω}) log2P({ω}), où log2 est le logarithme en base 2 et on adopte la convention 0 log20 = 0. Pour P, Q probabi- lités sur Ω avec Q({ω}) > 0 pour tout ω ∈ Ω, leur entropie relative est D(PkQ) = X

ω∈Ω

P({ω}) log2

P({ω}) Q({ω})

.

1. Montrer à l'aide de l'inégalité de Jensen que D est positive et que D(PkQ) = 0 im- plique P =Q.

2. En déduire que, parmi les probabilités sur Ω, l'entropie est maximale pour la loi uni- forme sur Ωet uniquement pour celle-ci.

Entropie

Soit (Ω,P) un espace de probabilité ni. L'entropie (sur la base b) de la distribution P est la valeur

Hb(P) :=−X

ω∈Ω

P({ω}) logb(P({ω})) oùb >0 est la base du logarithme. Ici on dénit 0 logb(0) = 0.

Remarque : En théorie de l'information on utilise surtout b = 2, c'est l'entropie binaire qu'on va noterH. Autrement dit, l'entropie binaire H est l'espérance de la variable aléa- toire Z(ω) = −log2(P({ω})). L'entropie binaire de la loi µX d'une variable aléatoire nie X est notée H(µX)ou bien H(X) .

Exercice 7 On considère un jeux de 32cartes et la variable aléatoire X dénie par

X(carte) =





a si la carte est noir b si la carte est un coeur

c si la carte est le 7,8,9,10de carreau d pour les autres cartes

oùa, b, c, d sont quatre réels distincts.

1. Déterminer H(X).

2. Alice et Bob jouent au jeu suivant : Alice tire une carteCet demande Bob de déterminer la valeur X(C)en posant des questions de type X(C) appartient-il àA? où A est une partie de{a, b, c, d}. Supposons que Bob choisit les questions X(C) =a?, X(C) =b? et X(C) =c? dans cet ordre. Montrer que la valeur moyenne du nombre de questions que Bob à besoin de poser vaut H(X).

(26)

Exercice 8 Soit maintenant P et P0 deux probabilités sur Ω. L'entropie relative notée D(PkP0) est dénie comme l'espérance de la variable ω → log2(P({ω}))−log2(P0({ω})) par rapport à P :

D(PkP0) = X

ω∈Ω

P({ω}) log2(P({ω}) P0({ω})).

1. Montrer à l'aide de l'inégalité de Jensen queDest positif et queD(PkP0) = 0implique P=P0.

2. Soit ula distribution uniforme sur Ω. Montrer que D(Pku) = H(u)−H(P).

3. En déduire que l'entropie binaire d'une distribution surΩ prend ses valeurs entre0 et log2|Ω| et que la distribution uniforme est l'unique point maximal de H.

Références

Documents relatifs

Soit (X n ) n≥1 une suite de variables aléatoires indépendantes et toutes de carré intégrable.. Lemme de

Théorème 2.2 Soit (X n ) une suite de variables aléatoires réelles, indépendantes, as- sociées à la répétition d’un même évènement aléatoire dont le succès est noté

Soit (X n ) n≥1 une suite de variables aléatoires réelles indépendantes, de même loi ayant chacune la même espérance m et la même variance σ 2.. Soit (T n ) n≥1 une suite

On considère toujours X et Y deux variables aléatoires indépendantes de même loi géométrique de

On considère toujours X et Y deux variables aléatoires indépendantes de même loi géométrique de

La loi d’une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même loi.. Soit X et Y des variables aléatoires indépendantes de

Soit (X n ) n∈ N ∗ une suite de variables aléatoires indépendantes et identiquement distribuées de loi uniforme sur

Soit (X i ) i≥1 une suite de varaibles aléatoires indépendantes de même loi uniforme sur [0, θ] , θ &gt; 0. constante) et une suite (X k ) k≥1 de variables aléatoires