Problème 1 : Grandes déviations.
Partie 1 : généralités
1. Mettons en facteur l'exponentielle p
Ne
yNtd'exposant maximal ϕ(t) = (ε − y
N)t − ln(p
N) − ln (1 + r(t))
avec r(t) =
N−1
X
k=1
p
kp
Ne
−(yN−yk)t∼ p
N−1p
Ne
−(yN−yN−1)t→ 0 à cause de la stricte croissance des y
k. En développant le ln :
ϕ(t) = (ε − y
N)t − ln(p
N) − r(t) + o(r(t))
= (ε − y
N)t − ln(p
N) − p
N−1p
Ne
−(yN−yN−1)t+ o(e
−(yN−yN−1)t) 2. D'après la formule de transfert :
E(e
tY) = X
xk∈X(Ω)
P (X = k)e
t(xk−m)3. a. D'après la question précédente,
ψ(t) = εt − ln
p
1e
t(x1−m)+ · · · + p
Ne
t(xN−m)= ϕ(t)
en notant X(Ω) = {x
1, · · · , x
N} (du plus petit au plus grand), y
k= x
k− m et p
k= P (X = x
k) . On en déduit
ψ(0) = 0 et ψ
0(t) = ε − p
1(x
1− m)e
t(x1−m)+ · · · + p
N(x
N− m)e
t(xN−m)p
1e
t(x1−m)+ · · · + p
Ne
t(xN−m)⇒ ψ
0(0) = ε − p
1(x
1− m) + · · · + p
N(x
N− m) p
1+ · · · + p
N= ε car p
1(x
1− m) + · · · + p
N(x
N− m) = m − m = 0 (la variable Y est centrée).
Comme la fonction est C
∞, elle est strictement croissante au voisinage de 0 donc strictement positive dans un petit intervalle ]0, a] .
b. Le développement obtenu dans la première question s'applique à la fonction ψ . On en déduit que
ψ −−→ −∞ ⇔
+∞ε < y
N= max(X (Ω)) − m.
c. Comme ψ diverge vers −∞ en +∞ , il existe un réel b tel que ψ(x) ≤ 0 pour x ≥ b . La fonction ψ prend des valeurs strictement positives dans [0, b] . Elle est majorée et atteint sa borne supérieure car elle est continue dans le segment [a, b] . Cette valeur maximale est strictement positive donc c'est aussi la plus grande valeur de ψ sur [0, +∞[ car ψ est négative au delà de b . On note h
+(ε) cette valeur.
4. La variable aléatoire e
t(Sn−nm)est à valeurs strictement positives, on peut donc lui appliquer l'inégalité de Markov :
P
e
t(Sn−nm)≥ e
ntε≤ E e
t(Sn−nm)e
ntεOr, la fonction exponentielle étant strictement croissante, on dispose d'une égalité entre événements :
e
t(Sn−nm)≥ e
ntε= (t(S
n− nm) ≥ ntε) = ((S
n− nm) ≥ nε)
ce qui permet de conclure pour t > 0 . Si t = 0 , le membre de droite vaut 1 donc l'inégalité est évidente (probabilité).
5. D'après l'expression de ϕ trouvée en 3 :
e
−nψ(t)= e
−nεt
X
y∈Y(Ω)
P (Y = y)e
ty
n
= e
−nεtY
i∈J1,nK
X
yi∈Yi(Ω)
P (Y
i= y
i)e
tyi
= e
−nεtX
(y1,···,yn)∈Y1[Ω)×···×Yn(Ω)
P (Y
1= y
1) · · · P (Y
n= y
n)e
t(y1+···+yn)= e
−nεtX
(y1,···,yn)∈Y1[Ω)×···×Yn(Ω)
P ((Y
1= y
1) ∩ · · · ∩ (Y
n= y
n)) e
t(y1+···+yn)car les variables Y
i= X
i− m sont mutuellement indépendantes. La variable somme S
n− nm = Y
1+ · · · + Y
napparait alors :
e
−nψ(t)= e
−nεtX
s∈(Sn−m)(Ω)
X
y1+···+yn=s
P ((Y
1= y
1) ∩ · · · ∩ (Y
n= y
n)) e
ts!
= e
−nεtE
e
t(Sn−nm)On aurait aussi pu rédiger en utilisant des résultats de cours plutôt qu'en les redémon- trant. Si X et Y sont des variables aléatoires indépendantes, alors f (X) et g(Y ) le sont aussi (avec la fonction exponentielle). L'espérance du produit de variables aléatoires mutuellement indépendantes est le produit des espérances.
6. On peut utiliser la question 4 ; avec
(S
n− nm ≥ εn) = S
nn − m ≥ ε
⇒ P S
nn − m ≥ ε
≤ e
−nεtE
e
t(Sn−nm)= e
−nψ(t)Cette inégalité est valable pour tous les t > 0 . On a vu en question 3.c. qu'il existe un t
maxtel que ψ(t
max) = h
+(ε) . En appliquant l'inégalité précédente justement en ce t
max, on obtient
P S
nn − m ≥ ε
≤ e
−nh+(ε)Partie 2 : cas des variables de Bernoulli
1. L'espérance de
Snnest p donc en prenant la racine n -ème de l'inégalité de la n de la première partie (question 6). On obtient
P
S
nn − p ≥ ε
1n≤ e
−h+(ε)2. a. D'après la formule de transfert :
E(e
tY= P (X = 0)e
−tp+ P (X = 1)e
(1−p)t= (1 − p)e
−tp+ pe
(1−p)t= 1 − p + pe
te
−ptb. Utilisons l'espérance calculée à la question précédente pour préciser ψ et ψ
0.
ψ(t) = εt − ln q + pe
te
−pt= (ε + p)t − ln(q + pe
t) ψ
0(t) = 1
q + pe
t(ε + p)q + (ε − q)pe
ten posant q = 1 − p et après réduction au même dénominateur.
Comme 0 < ε < q = 1 − p , la fonction est croissante de 0 à t
maxpuis décroissante ensuite avec
t
max= ln p + ε
q − ε q p
= ln p + ε
p
− ln(q − ε) + ln q h
+(ε) = ψ(t
max) = (ε + p)t
max− ln
q + p + ε q − ε q
= (ε+p)t
max−ln q−ln(p + q)
| {z }
=0
+ln(q−ε) = (ε+p) ln p + ε
p
+(1−ε−p) ln q − ε
q
Finalement
h
+(ε) = (p + ε) ln p + ε
p
+ (q − ε) ln q − ε
q
3. Dans cette partie, comme les variables X
isuivent une loi de Bernoulli de paramètre p , la somme S
nsuit une loi binomiale d'espérance np . On traduit l'événement considéré à l'aide de la loi binomiale. Il est important de remarquer que p + ε < 1 car ε < q . On en déduit que k
n≤ n
S
nn − p ≥ ε
= (S
n≥ (p + ε)n) Or k
n> (p + ε)n donc (S
n= k
n) ⊂
Snn− p ≥ ε d'où
P S
nn − p ≥ ε
≥ P (S
n= k
n) = k
nn
p
knq
n−kn4. a. Pour obtenir un développement de ln(u
n) , factorisons par αn :
ln(u
n) = ln(αn + O(1)) = ln(αn) + ln
1 + O( 1 n )
= ln(n) + ln(α) + O( 1 n ) On en déduit
u
nln(u
n) = (αn + O(1))
ln(n) + ln(α) + O( 1 n )
= αn ln(n) + αn ln(α) + O(ln(n)) = αn ln(αn) + O(ln(n))
| {z }
∈o(n)
car O(1) ∈ O(ln(n)) .
b. Les suites (k
n) et n − k
nsont de la forme traitée en question a.
( k
n=(p + ε)n + O(1) n − k
n=(q − ε)n + O(1)
⇒
( k
nln(k
n) =(p + ε)n ln ((p + ε)n) + o(n) (n − k
n) ln(n − k
n) =(q − ε)n ln ((q − ε)n) + o(n) En utilisant le fait que o(k
n) ∈ o(n) et o(n − k
n) ∈ o(n) ainsi que le début de la formule de Stirling rappelée par l'énoncé, on obtient un développement du coecient du binôme
ln k
nn
= ln
n!
k
n!(n − k
n)!
= n ln(n) − n
− (p + ε)n ln ((p + ε)n) + (p + ε)n
− (q − ε)n ln ((q − ε)n) + (q − ε)n + o(n)
= (1 − (p + ε) − (q − ε)) n ln(n)
+ (−1 − (p + ε) ln(p + ε) + (p + ε) − (q − ε) ln(q − ε) + (q − ε)) n + o(n)
= − ((p + ε) ln(p + ε) + (q − ε) ln(q − ε)) n + o(n) On dispose aussi de développements de k
net n − k
n(avec O(1) ∈ o(n) )
ln k
nn
= − ((p + ε) ln(p + ε) + (q − ε) ln(q − ε)) n + o(n) ln(p
kn) =(p + ε)n ln(p) + o(n)
ln(q
n−kn) =(q − ε)n ln(q) + o(n) On peut tout combiner
ln k
nn
p
knq
n−kn=
(p + ε) ln p
(p + ε)
(q − ε) ln p
(q − ε)
n + o(n)
∼ −nh
+(ε) 5. Notons z
n= ln
kn
n
p
knq
n−kn. Les questions 6. et 9. conduisent à l'encadrement
e
zn≤ P S
nn − p ≥ ε
≤ e
−nh+(ε)dont on prend la racine n -ième
e
znn≤
P S
nn − p ≥ ε
n1≤ e
−h+(ε)Comme (
znn) converge vers −h
+(ε) on en déduit par le théorème d'encadrement que la suite converge vers e
−h+(ε).
Problème 2 : Matrices stochastiques.
Partie 1 : Un exemple en dimension 2
1. a. On trouve A 1
1
= 1
1
et A −α
β
= λ −α
β
.
b. Notons u ∈ L( R
2) l'endomorphisme canoniquement associé à A . Posons e
1= (1, 1) et e
2= (−α, β) . D'après la question précédente, u(e
1) = e
1et u(e
2) = λe
2. Dans la base B = (e
1, e
2) la matrice de u vaut diag(1, λ) . Notons P la matrice de passae de la base canonique vers la base B . On a par la formule de changement de bases :
P
−1AP = 1 0
0 λ
.
De plus :
P =
1 −α
1 β
et P
−1= 1 α + β
β α
−1 1
.
c. Pour tout n ∈ N, on a : A
n= P
1 0 0 λ
nP
−1=
β + αλ
nα(1 − λ
n) β(1 − λ
n) α + βλ
n.
2. a. D'après la formule des probabilités totales et les hypothèses de l'énoncé
P (X
k+1= 0) = P
(Xk=0)(X
k+1= 0) P (X
k= 0) + P
(Xk=1)(X
k+1= 0) P (X
k= 1)
= (1 − α) P (X
k= 0) + β P (X
k= 1) De même
P (X
k+1= 1) = P
(Xk=0)(X
k+1= 1) P (X
k= 0) + P
(Xk=1)(X
k+1= 1) P (X
k= 1)
= α P (X
k= 0) + (1 − β ) P (X
k= 1)
Soit
P (X
k+1= 0) P (X
k+1= 0)
=
1 − α β α 1 − β
P (X
k= 0) P (X
k= 0)
=
tA
P (X
k= 0) P (X
k= 0)
b. D'après la question précédente, P (X
n= 0)
P (X
n= 0)
= (
tA)
nP (X
0= 0) P (X
0= 0)
On en déduit les formules annoncées avec l'expression de A
ntrouvée en 1.c..
c. Admettons que
P
(X0=0)(X
n= 0) = β + αλ
nα + β P
(X0=1)(X
n= 0) = β (1 − λ
n) α + β P
(X0=0)(X
n= 1) = α(1 − λ
n)
α + β P
(X0=1)(X
n= 1) = α + βλ
nα + β
ce qui est justié par la formule des probabilités totales. On peut alors écrire une union disjointe
(X
n= X
0) = (X
n= 0) ∩ (X
0= 0) ∪ (X
n= 1) ∩ (X
0= 1)
⇒ P (X
n= X
0) = P
(X0=0)(X
n= 0) P (X
0= 0) + P
(X0=1)(X
n= 1) P (X
0= 1)
= β + αλ
nα + β P (X
0= 0) + α + βλ
nα + β P (X
0= 1) d. Montrons l'inégalité demandée à l'aide de la fonction auxiliaire Φ donnée par
l'énoncé. On a Φ
0(x) = 1 − λ
n≥ 0 puisque −1 < λ = 1 − α − β < 1 . Donc Φ est croissante. Pour tout x ≥ r , Φ(x) ≥ Φ(r) . Or :
P (X
n= X
0) = Φ β
α + β
P (X
0= 0) + Φ α
α + β
P (x
0= 1) donc :
P (x
n= X
0) ≥ Φ(r).
C'est le résultat demandé.
On pouvait aussi démontrer le résultat sans étude de fonction. Pour plus de com- modité, notons u = P (X
0= 0) et v = u = P (X
0= 1) . Alors :
P (X
n= X
0) = β
α + β u + α α + β v +
α
α + β u + β α + β v
λ
nDans la deuxième parenthèse, remplaçons u par 1 − v et v par 1 − u
P (X
n= X
0) = β
α + β u(1 − λ
n) + α
α + β u(1 − λ
n) + λ
n≥ r(u + v)(1 − λ
n) + λ
n= r + (1 − r)λ
n3. On note X
0le message initial et pour tout k ∈ J 1, n K, X
kle message après le passage
du k -ème relais. On a pour tout k ∈ J 0, n − 1 K : P (X
k+1= |X
k= 0) = 1 − α
P (X
k+1= 1|X
k= 0) = α et
P (X
k+1= 1|X
k= 0) = α P (X
k+1= 1|X
k= 1) = 1 − α Ainsi, la probabilité pour que le message nal soit identique au message initial vaut :
P (X
n= X
0) ≥ Φ(r) avec r = 1
2 (puisque α = β ). Donc :
P (X
n= X
0) ≥ 1 + (1 − 2α)
n2 .
Mais il faudrait majorer cette probabilité et non la minorer ! Pour cela, reprenons l'expression de la question 2.c. On a comme α = β :
P (X
n= X
0) = 1 + (1 − 2α)
n2 P (X
0= 0) + 1 + (1 − 2α)
n2 P (X
0= 1) = 1 + (1 − 2α)
n2 .
On cherche n tel que P (X
n= X
0) ≤ 1 − ε . Pour cel il sut d'avoir : 1 + (1 − 2α)
n2 ≤ 1 − ε ⇔ n ln(1 − 2α) ≤ ln(1 − 2ε) ⇔ n ≥ ln(1 − 2ε) ln(1 − 2α) car les deux logaritmes sont négatifs. En posant :
n
ε=
ln(1 − 2ε) ln(1 − 2α)
on a :
∀n ∈ N , n ≥ n
ε= ⇒ P (X
n= X
0) ≤ ε.
Partie 2 : Spectre d'une matrice stochastique
1. Soit (i, j) ∈ J 1, n K
2
. Par dénition, a
i,j≥ 0 ( > 0 si A est strictement stochastique).
Alors :
a
i,j≤
n
X
k=1
a
i,k= 1 et l'inégalité est stricte si A est strictement stochastique.
2. Soit A = (a
i,j)
1≤i,j≤n∈ M
n( R ) à coecients positifs. Pour tout i ∈ J 1, n K, la i -ème ligne de la matrice colonne AU vaut :
n
X
j=1
a
i,j.
Ainsi, AU = U si et seulement si A est stochastique.
3. Soient A = (a
i,j)
1?eqi,j≤n, B = (b
i,j)
1≤i,j≤n∈ M
n( R ) deux matrices stochastiques.
Notons (c
i,j)
1≤i,j≤n= AB . Pour tout (i, j) ∈ J 1, n K
2
:
c
i,j=
n
X
k=1
a
i,kb
k,j.
Pour tout (i, j) ∈ J 1, n K
2
et tout k ∈ J 1, n K, a
i,kb
k,j≥ 0 donc c
i,j≥ 0 . Si A et B sont strictement stochastiques, l'inégalité est stricte.
Pour tout i ∈ J 1, n K :
n
X
j=1
c
i,j=
n
X
j=1 n
X
k=1
a
i,kb
k,j=
n
X
k=1 n
X
j=1
a
i,kb
k,j=
n
X
k=1
a
i,k nX
j=1
b
k,j| {z }
=1
=
n
X
k=1
a
i,k= 1.
Donc AB est stochastique (strictement stochastique si A et B le sont).
4. Notons X =
x
1...
x
n
. Pour tout i ∈ J 1, n K, la i -ème ligne de AX vaut :
n
X
j=1
a
i,jx
j= λx
i= ⇒ (a
i,i− λ)x
i= −
n
X
j=1
a
i,jx
j.
Notons i un indice tel que |x
i| = max{|x
j| , j ∈ J 1, n K } . Comme X 6= 0 , alors |x
i| > 0 . On a en divisant l'égalité précedente précedente par |x
i| on obtient par l'inégalité triangulaire :
|a
i,i− λ| ≤
n
X
j=1 j6=i
a
i,jx
jx
i|{z}
≤1
≤
n
X
j=1 j6=i
a
i,j.
5. Raisonnons par contraposée et supposons A non inversible : il existe X =
x
1...
x
n
∈ M
n,1( R ) tel que AX = 0 . D'après la question précédente :
|a
i,i| ≤
n
X
j=1 j6=i
|a
i,j| .
Donc A n'est pas à diagonale dominante.
6. a. Soit i ∈ J 1, n − 1 K. Alors :
1 = a
i,i+
n
X
j=1 j6=i
a
i,j> a
i,i+
n−1
X
j=1 j6=i
a
i,jpuisque a
i,n−1> 0 . Donc :
|1 − a
i,i| = 1 − a
i,i>
n−1
X
j=1 j6=i
a
i,j=
n−1
X
j=1 j6=i
|a
i,j| .
Donc A
1− I
n−1est à diagonale dominante.
b. A
1− I
n−1est inversible donc A − I
npossède une sous-matrice inversible de taille (n−1)×(n−1) . On en déduit que rg(A−I
n) ≥ n−1 . Mais comme U ∈ Ker(A−I
n) , alors dim(Ker(A − I
n)) ≥ 1 soit rg(A − I
n) ≤ n − 1 par la formule du rang. On en déduit que dim(Ker(A − I
n)) = 1 .
7. a. D'après la question 8, on a par la minoration de l'inégalité triangulaire :
|λ| − a
i,i≤
n
X
j=1 j6=i
a
i,j= ⇒ |λ| ≤
n
X
j=1