M´ethode de Monte Carlo par chaˆınes de Markov - II
TD5-MAPI3 2016-2017
1 Gradient stochastique
1) Montrer que si V : R → R est strictement convexe et tend vers l’infini, alors la solution θ de l’´ equation diff´ erentielle θ
0= −∇V (θ) converge vers le minimum θ
∗de V .
2) Rappeler la m´ ethode du gradient, version discr´ etis´ ee du flot de gradient, qui permet de minimiser une fonction V par un algorithme d´ eterministe.
Supposons maintenant que nous n’avons pas acc` es directement au gradient mais ` a ∇V (θ) + ξ
n, o` u ξ
nsont des variables al´ eatoires de moyennes nulles et de valeurs absolues born´ ees |ξ
n| ≤ K. On utilise alors l’algorithme de gradient stochastique suivant pour approcher le minimum θ
∗de V :
θ b
n+1= θ b
n− γ
n(∇V (b θ
n) + ξ
n+1),
o` u θ b
0est arbitraire et (γ
n) est une suite d´ ecroissante positive non sommable et de carr´ e sommable.
3) Montrer que si ∇V ≤ C et V (θ) − V (θ
∗) ≥ c(θ − θ
∗)
2(pour deux constantes c, C ≥ 0), alors
E [(b θ
n+1− θ
∗)
2|b θ
n] ≤ (1 − 2γ
nc)(b θ
n− θ
∗)
2+ γ
n(C + K)
2. 4) Montrer que Q
nk=0
(1 − 2γ
kc) converge vers 0.
5) Montrer par r´ ecurrence que, pour tout k
0≤ n, on a
E [(b θ
n− θ
∗)
2] ≤
n
Y
k=k0
(1 − 2γ
kc)
!
· E [(b θ
k0− θ
∗)
2] +
n
X
k=k0
γ
k2!
· (C + K)
2.
6) En d´ eduire la convergence en moyenne quadratique de l’algorithme : E [(b θ
n− θ
∗)
2] converge vers 0 quand n tend vers l’infini.
2 Estimation r´ ecursive d’un quantile
Soit (X
n) une suite de variables al´ eatoires i.i.d. de fonction de r´ epartition F r´ eguli` ere et de densit´ e F
0> 0.
Pour α ∈]0, 1[, on note θ
αle quantile d’ordre α de la loi F : F(θ
α) = 1 − α. Afin d’estimer r´ ecursivement θ
αon utilise l’algorithme stochastique r´ ecursif :
θ b
n+1= θ b
n− γ
n(1I
{Xn+1≤bθn}