Somme et produits de variables consécutives de Bernoulli
Degrave, Probabilités-Statistiques ECS 2ème année, pages 141 à 148 Exercice :
Soit (X
n)
n≥1une suite de v.a.i.i.d. de loi de Bernoulli de paramètre p ∈]0, 1[.
1. On pose Y
n= X
n+ X
n+1et S
n= Y
1+ . . . + Y
n. Alors, la suite
µ S
nn
¶
n≥1
converge en probabilité vers la v.a. constante égale à 2p . 2. On pose U
n= X
nX
n+1et Z
n= U
1+ . . . + U
n.
Alors, la suite µ Z
nn
¶
n≥1
converge en probabilité vers la v.a. constante égale à p
2.
1. Déterminons déjà la loi de Y
n.
Les X
nétant indépendantes, on sait donc que pour tout n ≥ 1, Y
nsuit la loi binomiale B(2, p). On a donc immédiatement :
E(Y
n) = 2p et V(Y
n) = 2p(1 − p) Calculons l'espérance et la variance de S
n.
E(S
n) = X
n k=1E(Y
k) = 2np
On a aussi S
n= X
nk=1
(X
k+ X
k+1) = X
1+ 2 X
nk=2
X
k+ X
n+1. Comme les X
ksont indépendantes on en déduit que : V(S
n) = V(X
1) + 4
X
n k=2V(X
k) + V(X
n+1) = p(1 − p) + 4(n −1)p(1 − p) + p(1 − p) = (4n − 2)p(1 − p)
D'après l'inégalité de Bienaymé-Tchebychev, on a donc pour tout ε > 0 : P
µ¯ ¯
¯ ¯ S
nn − E µ S
nn
¶¯ ¯
¯ ¯ ≥ ε
¶
≤ 1 ε
2V
µ S
nn
¶
c'est-à-dire :
∀ε > 0, P µ¯ ¯
¯ ¯ S
nn − 2p
¯ ¯
¯ ¯ ≥ ε
¶
≤ (4n − 2)p(1 − p) ε
2n
2V
µ S
nn
¶
−→
n∞0 Ainsi, la suite
µ S
nn
¶
n≥1
converge en probabilité vers la variable constante égale à 2p .
2. Pour tout k ∈ N
∗, U
kprend les valeurs 0 et 1 et :
P(U
k= 1) = P ([X
k= 1] ∩ [X
k+1= 1]) = P ([X
k= 1]) P ([X
k+1= 1]) = p
2(car X
ket X
k+1sont indépendantes).
On en déduit donc que P(U
k= 0) = 1 − p
2.
Donc U
ksuit la loi de Bernoulli de paramètre p
2. On en déduit donc que E(U
k) = p
2et V(U
k) = p
2(1 − p
2)
Discutons selon les valeurs de i et j l'indépendance de Y
iet Y
j.
• Si j > i + 1 (ou si i > j + 1), Y
iest fonction de X
iet X
i+1et Y
jest fonction de X
jet X
j+1. Les X
kétant indépendantes, Y
iet Y
jsont donc indépendantes.
1
• Si j = i + 1 (ou i = j + 1), alors :
P ([Y
i= 1] ∩ [Y
j= 1]) = P([X
i= 1] ∩ [X
i+1= 1] ∩ [X
i+2= 1]) = p
3Or,
P(Y
i= 1)P(Y
j= 1) = p
4Comme p ∈]0, 1[ , p
36= p
4et les deux v.a. Y
iet Y
jne sont pas indépendantes.
E µ Z
nn
¶
= 1 n
X
n k=1E(U
k) = p
2et d'après l'inégalité de Bienaymé-Tchebychev, pour tout ε > 0, P
µ¯ ¯
¯ ¯ Z
nn − p
2¯ ¯
¯ ¯ ≥ ε
¶
≤ V(Z
n) n
2ε
2Le calcul de la variance de Z
ndonne : V(Z
n) =
X
n i=1V(U
i) + 2 X
1≤i<j≤n
cov(U
i, U
j)
Si j > i + 1 , cov (U
i, U
j) = 0 car U
iet U
jsont indépendantes.
Si j = i + 1, cov(U
i, U
j) = E(U
iU
j) − E(U
i)E(U
j).
Or :
E(U
iU
j) = P(U
iU
j= 1) = P([U
i= 1] ∩ [U
j= 1]) = p
3Donc cov(U
i, U
j) = p
3− p
4= p
3(1 − p)
On en déduit que :
V(Z
n) = np
2(1 − p
2) + 2(n − 1)p
3(1 − p) = p
2(1 − p) ¡
n(1 − p) + 2(n − 1)p ¢
= p
2(1 − p)(n + 3np − 2p) On en déduit donc que lim
n∞
V(Z
n) n
2ε
2= 0 La variable
µ Z
nn
¶
n≥1