Examen 2012 — Corrig´ e
Probabilit´e et Statistiques SIC
Corrig´e 1. (16 points)
(a) (2 points) Pour avoir assez d’argent, il faut choisir 3 pi`eces de 1 CHF ou 2 pi`eces de 1 CHF et 1 de 0.5 CHF, soit une probabilit´e de
C53+C52×C21
C73 = 0.8571.
(b) (2 points) Soient B et J les ´ev´enements : B : ”je prend le bon chemin”, J : ”je connais le bon chemin”. On cherche
Pr(J|B) = Pr(B|J)Pr(J) Pr(B) .
On a :P(B) = Pr(B|J)×Pr(J) + Pr(B|Jc)×Pr(Jc) = 1×0.7 + 0.2×0.3 = 0.76. D’o`u Pr(J|B) =Pr(B|J)Pr(J)
Pr(B) = 0.7
0.76 ≃0.92.
(c) (2 points) A chaque essai, la probabilit´e de choisir la bonne cl´e est de 1/n. Le nombre d’essais n´ecessaires suit donc une loi g´eom´etrique de param`etre 1/n. La probabilit´e que la porte ouvre ap`res leki`eme essai vaut
1 n
n−1 n
k−1
, k= 1,2, . . . . (d) (2 points)On a, pour tout y >0,
Pr(Y ≤y) = Pr(eX ≤y) = Pr{X≤log(y)}, d’o`u
fY(y) = 1 y
fX{log(y)}= 1 y
√1
2πe−{log(y)}2/2, y >0.
(e) (2 points) On a n = 300, µ = 1.1 et σ = 0.4. On note X1, . . . , Xn la taille des n images et Sn=Pn
i=1Xnl’espace n´ecessaire au stockage desnimages.n´etant assez large, on peut appliquer le th´eor`eme central limite :
Pr(Sn≤350) = Pr
n
X
i=1
Xn≤350
!
≃Pr
Sn−nµ
σ√n ≤350−300×1.1 0.4×√
300
= 0.9980 L’espace libre du disque sera tr`es vraisemblablement suffisant.
(f ) (2 points) Il suffit de montrer que E( ¯Xn) =µ. Or E( ¯Xn) = E 1
n
n
X
i=1
Xi
!
= 1 n
n
X
i=1
E(Xi) = 1 n
n
X
i=1
µ= 1
n×n×µ=µ.
(g) (2 points)√ On est dans le cas o`u on observeY1, . . . , Yn de loi normaleN(µ, σ2), avecσ2= 9 connu.
20
3 (µ−y) suit alors¯ exactement une loiN(0; 1), donc un IC au niveau 99% deµest donn´e par : [¯y− σ
√nz1−α/2,y¯+ σ
√nz1−α/2]
avecn= 20,σ= 3, ¯y= 100.9,α= 0.01, z1−α/2= 2.58, d’o`u l’IC pourµ: [99.17,102.63].
Donc on ne rejette pas l’hypoth`eseµ= 100 au seuil 99%.
(h) (2 points)Cela signifie qu’il y a 95% de chance que la dur´ee de vie moyenne des smartphones soit comprise entre 4 et 5 ans.
1
Corrig´e 2. (9 points)
(a) (i) (2 points=1 point : loi normale, 0.5 point :µ, 0.5 point :σ2)PuisqueX1etX2sont normales, Ssuit ´egalement la loi normale comme combinaison lin´eaire de variables normales. De plus,
E(S) = E(X1−2X2) = E(X1)−2 E(X2) = 0−2×0 = 0, Var(S) = Var(X1−2X2) = Var(X1) + 4Var(X2) = 5.
DoncS∼ N(µ= 0, σ2= 5).
(ii) (1.5 point=1 point : covariance, 0.5 point : ind´ependance) On a
Cov(X1, S) = Cov(X1, X1−2X2) = Cov(X1, X1)−2Cov(X1, X2)
= Var(X1)−0 = 1.
Puisque Cov(X1, S)6= 0,X1 etS ne sont pas ind´ependants.
(iii) (1.5 point=1 point : covariance, 0.5 point : ind´ependance) On a
Cov(X1, T) = Cov(X1, X12+X2) = Cov(X1, X12) + Cov(X1, X2)
= E(X13)−E(X1)E(X12) + 0 = 0−0 = 0.
Puisque Cov(X1, T) = 0, on ne peut pas d´eduire de ce seul calcul siX1etT sont ind´ependants ou non (en r´ealit´e elles ne le sont pas).
(b) (4 points =0.5 point : bon graphe, 0.5 point : justification) Le graphe 1 correspond `a l’animalB car on voit une correlation positive dans le nuage de points : lorsqu’une des variables est grande, l’autre a ´egalement tendance `a ˆetre grande. De mani`ere similaire, le graphe 3 correspond `aC car on voit une correlation n´egative dans le nuage de points : lorsqu’une des variables est grande, l’autre a tendance `a ˆetre petite. Le graphe 4 correspond `a des variables ind´ependantes, c’est-`a-dire
`aA. Par ´elimination, le graphe 2 correspond `aD: les variables sont d´ependantes, et pourtant de corr´elation nulle.
2
Corrig´e 3. (10 points) On note doncX la note au test etY la note `a l’examen final.
(a) (3 points=1 point : f(x)pour0≤x≤1, 1 point :F(x) pour0≤x≤1, 1 point : casF(x) = 0) CalculonsfX(x), pour 0≤x≤1 :
fX(x) = Z 1
0
(x+y)dy
= x+ [y2/2]10
= x+ 1/2, 0≤x≤1.
La fonction de r´epartition deX est donc FX(x) =
((x2+x)/2, 0≤x≤1,
0, sinon.
(b) (2 points = 1 point : fY|X=x pour 0 ≤ x, y ≤ 1, 1 point : cas fY|X=x = 0) On a, pour tout 0≤x, y,≤1,
fY|X=x(y) = fX,Y(x, y)
fX(x) = x+y x+ 1/2, d’o`u
fY|X=1(y) = ( 1+y
1+1/2 =23(1 +y), 0≤y≤1,
0, sinon.
(c) (2 points)On a, pour 0≤x≤1, E[Y|X = 1] =
Z 1
0
yfY|X=1(y) dy=2 3
Z 1
0
y(1 +y) dy
= 2
3 y2
2 +y3 3
1
0
= 2 3
1 2+1
3
= 5 9. (d) (2 points)On cherche
Pr(X+Y ≥1) = 1−Pr(X+Y ≤1) = 1− Z 1
0
Z 1−x 0
(x+y) dy
dx
= 1− Z 1
0
xy+y2
2 1−x
0
dx
= 1− Z 1
0
x−x2+ 1/2 +x2/2−x dx
= 1− Z 1
0 {1/2−x2/2}dx
= 1−1 2
x−x3/31
0= 1−1 2×2
3 =2 3.
(e) (1 point = 0.5 point : d´ependants, 0.5 point : justification) Puisque fX|Y 6=fX, alorsX et Y ne sont pas ind´ependantes.
3
Corrig´e 4. (10 points)
(a) (2 points=1 point :L(θ), 1 point l(θ)) La densit´e, poury >0, est ´egale `a f(y) =2y
θ2e−(y/θ)2.
La vraisemblance s’´ecrit donc :
L(θ) =
n
Y
i=1
2yi
θ2 e−(yi/θ)2yi≥0.
Donc la log-vraisemblance est l(θ) =
n
X
i=1
log 2yi
θ2
−
N
X
i=1
yi
θ2 2
=nlog 2−2nlogθ+
n
X
i=1
log(yi)− 1 θ2
n
X
i=1
y2i.
(b) (2 points=1 point : l′(θ), 1 point : θ)ˆ On a l′(θ) =−2n
θ + 2 θ3
n
X
i=1
yi2
L’estimateur de maximum de vraisemblance v´erifiel′(ˆθ) = 0, soit
−2n+ 2 θˆ2
n
X
i=1
y2i = 0, c’est-`a-dire
θˆ= 1 n
n
X
i=1
y2i
!1/2
.
(c) (2 points)L’information observ´ee est J(ˆθ) =−l′′(ˆθ) =−2n
θˆ2 + 6 θˆ4
n
X
i=1
yi2=−2n t + 6
t2
n
X
i=1
yi2=−2n t +6nt
t2 =4n t .
(d) (2 points=1 point : gaussien, 0.5 point :µ, 0.5 point :σ2)L’estimateur de maximum de vraisem- blance est asymptotiquement sans biais, gaussien, de variance l’inverse de l’information observ´ee : pourngrand, ˆθ∼ N {µ=θ, σ2=t/(4n)}.
(e) (2 points) Un IC approximatif au seuil 100×(1−α)% est hθˆ−J(ˆθ)−1/2z1−α/2,ˆa+J(ˆθ)−1/2z1−α/2
i=
t1/2− t1/2 2√
nz1−α/2, t1/2+ t1/2 2√
nz1−α/2
.
Avect= 4, n= 100,α= 0.1,z1−α/2= 1.645, on obtient l’IC [1.8355,2.1645].
4