• Aucun résultat trouvé

AntoineGodichon-Baggioni Algorithmesstochastiques

N/A
N/A
Protected

Academic year: 2022

Partager "AntoineGodichon-Baggioni Algorithmesstochastiques"

Copied!
86
0
0

Texte intégral

(1)

Algorithmes stochastiques

Antoine Godichon-Baggioni

(2)
(3)

1 Introduction 5

1.1 Cadre . . . . 5

1.1.1 Fonctions fortement convexes . . . . 5

1.1.2 Fonctions strictement convexes . . . . 6

1.2 M-estimateurs . . . . 8

1.2.1 Définition et exemples . . . . 8

1.2.2 Un résultat de convergence . . . . 11

1.3 Estimation en ligne . . . . 12

1.4 Algorithmes de gradient stochastiques . . . . 12

1.4.1 Algorithmes de gradient stochastiques . . . . 13

1.4.2 Approche non-asymptotique . . . . 14

1.4.3 Exemple : regression lineaire . . . . 16

2 Martingales 19 2.1 Martingales réelles . . . . 19

2.1.1 Définitions . . . . 19

2.1.2 Théorème de Robbins-Siegmund . . . . 20

2.1.3 Lois des grands nombres . . . . 22

2.1.4 Théorème limite centrale . . . . 28

2.2 Martingales vectorielles . . . . 31

2.2.1 Définition . . . . 31

2.2.2 Vitesses de convergence des martingales vectorielles . . . . 32

2.2.3 Théorème Central Limite . . . . 33

3 Vitesses de convergence des algorithmes de gradient stochastiques 35 3.1 Convergence presque sûre . . . . 35

3.1.1 Approche directe . . . . 35

3.1.2 Approche via le développement de Taylor de la fonction G . . . . 37

3.1.3 Approche Lyapunov . . . . 38

3.1.4 Application au modèle linéaire . . . . 39

3.1.5 Application à la régréssion logistique . . . . 40

3

(4)

3.2 Vitesses de convergence presque sûre . . . . 41

3.2.1 Cadre . . . . 41

3.2.2 Vitesses de convergence . . . . 42

3.2.3 Application au modèle linéaire . . . . 45

3.2.4 Application à la régression logistique . . . . 47

3.2.5 Remarques . . . . 49

4 Accélération des méthodes de gradient stochastiques 51 4.1 Algorithmes de gradient stochastiques moyennés . . . . 51

4.1.1 Vitesse de convergence presque sûre . . . . 52

4.1.2 Normalité asymptotique . . . . 57

4.1.3 Application au modèle linéaire . . . . 59

4.1.4 Application à la régression logistique . . . . 63

4.1.5 Remarques . . . . 65

4.2 Algorithme de Newton stochastique . . . . 65

4.2.1 Idée de l’algorithme de Newton stochastique . . . . 65

4.2.2 L’algorithme de Newton stochastique . . . . 67

4.2.3 Vitesses de convergence . . . . 70

4.2.4 Normalité asymptotique . . . . 73

4.2.5 Application au modèle linéaire . . . . 75

4.2.6 Application à la régression logistique . . . . 79

Bibliographie 85

(5)

Introduction

1.1 Cadre

Dans ce cours, on s’intéresse à l’estimation du minimiseur m d’une fonction convexe G : R

d

−→ R définie pour tout h ∈ R

d

par

G ( h ) : = E [ g ( X, h )]

avec g : X × R

d

−→ R, et X un espace mesurable. On peut par exemple considérer X = R ou X = R

d0

. Dans ce cours, on se concentrera sur deux catégories de fonctions : fortement convexes et strictement convexes.

1.1.1 Fonctions fortement convexes

Moyenne d’une variable aléatoire : Soit X une variable aléatoire à valeurs dans R

d

. On peut voir la moyenne m de X comme le minimiseur de la fonction G définie pour tout h ∈ R

d

par

G ( h ) = 1 2 E h

k X − h k

2

− k X k

2

i

A noter que le terme k X k

2

dans la définition de la fonction G permet de ne pas avoir à faire d’hypothèse sur l’existence du moment d’ordre 2 de X. De plus, on a

∇ G ( h ) = − E [ X − h ]

et donc m = E [ X ] est l’unique zéro du gradient de la fonction G. Enfin, on a

2

G ( h ) = I

d

et la Hessienne est donc définie positive et uniformément minorée sur R

d

. Ainsi, la fonction G est fortement convexe et la moyenne m est bien son unique minimiseur.

Régression linéaire : Soit ( X, Y ) un couple de variables aléatoires à valeurs dans X = R

d

× R tel

(6)

que

Y = θ

T

X + e, (1.1)

θR

d

et e est une variable aléatoire indépendante de X vérifiant E [ e ] = 0. On admet que X et e admettent des moments d’ordre 2 et que la matrice E

XX

T

est définie positive. Alors le paramètre θ est l’unique minimum de la fonction G : R

d

−→ R

+

définie pour tout h ∈ R

d

par

G ( h ) = 1 2 E

Y − h

T

X

2

.

En effet, comme X et e admettent un moment d’ordre 2, la fonction G est différentiable et

∇ G ( h ) = − E h Y − h

T

X X i En particulier, on a

∇ G ( θ ) = − E h Y − θ

T

X X i

= − E [ eX ] = − E [ E [ e | X ] X ] = 0.

De plus, comme X admet un moment d’ordre 2, la fonction G est deux fois différentiable et pour tout h ∈ R

d

,

2

G ( h ) = E h XX

T

i .

Cette matrice étant (supposée) définie positive, la Hessienne est uniformément minorée sur R

d

et la fonction G est donc fortement convexe, ce qui fait de θ son unique minimiseur.

Remarque 1.1.1. Bien que la matrice XX

T

soit au plus de rang 1, la matrice E XX

T

peut être définie po- sitive. En effet, si considère un vecteur aléatoire gaussien Z ∼ N ( 0, I

d

) , sa matrice de variance-covariance

E h ZZ

T

i

= Var [ Z ] = I

d

est définie positive.

1.1.2 Fonctions strictement convexes

Régression logistique : On considère un couple de variables aléatoires ( X, Y ) à valeurs dans R

d

× { 0, 1 } tel que

L( Y | X ) = B π

θ

T

X

, (1.2)

avec π ( x ) =

exp(x)

1+exp(x)

. On peut voir le paramètre θ comme un minimiseur de la fonction G : R

d

−→

R définie pour tout h ∈ R

d

par

G ( h ) = E h log

1 + exp

h

T

X

− h

T

XY i

.

(7)

En effet, si la variable aléatoire X admet un moment d’ordre 2, la fonction G est différentiable et pour tout h ∈ R

d

,

∇ G ( h ) = E

"

exp h

T

X

1 + exp ( h

T

X ) X − XY

#

= E h π

h

T

X

X − XY i . En particulier, comme E [ Y | X ] = π θ

T

X

, on a

∇ G ( θ ) = E h π

θ

T

X

− Y X i

= E h E h π

θ

T

X

− Y X | X ii

= E h π

θ

T

X

E [ Y | X ] X i

= 0.

De plus, comme X admet un moment d’ordre 2, la fonction G est deux fois différentiable et

2

G ( h ) = E h π

h

T

X 1 − π

h

T

X XX

T

i

qui est au moins semi-définie positive. On supposera par la suite que la Hessienne en θ est définie positive, et donc que la fonction G est strictement convexe et que θ est son unique minimiseur.

Médiane d’une variable aléatoire : Soit X ∈ R une variable aléatoire et on suppose que sa fonction de répartition est strictement croissante et continue au voisinage de sa médiane notée m. Celle ci est alors le minimiseur de la fonction G : R −→ R définie pour tout h ∈ R par

G ( h ) = E [| X − h |] .

En effet, on rappelle que pour toute variable aléatoire X, grâce au théorème de Fubini-Tonelli, Z

+

0

P [ Z ≥ t ] dt =

Z

+

0

E [ 1

Z≥t

] dt = E Z

+

0

1

t≤Z

dt

= E Z

Z

0

1dt

= E [ Z ] . Ainsi, on peut réécrire, pour tout h ∈ R

G ( h ) =

Z

+

0

P [| X − h | ≥ t ] dt =

Z

+

0

P [ X ≥ t + h ] dt +

Z

+

0

P [ X ≤ h − t ] dt Z

+

h

( 1 − F ( t )) dt +

Z

h

F ( t ) dt Ainsi on a pour tout h dans un voisinage de m, G

0

( h ) = 2F ( h ) − 1 et donc m est bien l’unique

minimiseur de la fonction G. A noter que pour ne pas avoir à faire d’hypothèse sur l’existence du moment d’ordre 1 de | X | , on peut réécrire la fonction G comme

G ( h ) = E [| X − h | − | X |] .

Médiane géométrique : On considère une variable aléatoire X à valeurs dans R

d

. La médiane géométrique de X est un minimum de la fonction G : R

d

−→ R définie pour tout h ∈ R

d

par

G ( h ) : = E [k X − h k − k X k] ,

(8)

où k . k est la norme euclidienne de R

d

. A noter que la fonction G est différentiable avec pour tout h ∈ R

d

,

∇ G ( h ) = − E

X − h k X − h k

.

Sous certaines hypothèses, la fonction G est deux fois continûment différentiable avec pour tout h ∈ R

d

,

2

G ( h ) = E

"

1

k X − h k I

d

− ( X − h )( X − h )

T

k X − h k

2

!#

.

La Hessienne de G est donc au moins semi-définie positive. On supposera par la suite qu’elle est strictement positive en m, et donc que la fonction G est strictement convexe.

1.2 M-estimateurs

1.2.1 Définition et exemples

On rappelle que l’objectif est d’estimer le minimisieur m de la fonction G définie pour tout h ∈ R

d

par

G ( h ) = E [ g ( X, h )] .

Comme on ne sait généralement pas calculer explicitement G (ou son gradient), on ne peut géné- ralement pas calculer (ou approcher) directement la solution. Pour pallier ce problème, on consi- dère maintenant des variables aléatoires indépendantes et identiquement distribuées X

1

, . . . , X

n

. Une possibilité pour estimer m est alors de considérer la fonction empirique G

n

définie pour tout h ∈ R

d

par

G

n

( h ) = 1 n

n k=1

g ( X

k

, h )

A noter que par la loi des grands nombres, si g ( X, h ) admet un moment d’ordre 1 (ce qui est la condition sine qua none pour que la fonction G soit bien définie en h),

G

n

( h ) −−−−→

p.s

n→+

G ( h ) .

Un M-estimateur de m est un minimiseur ˆ m

n

de la fonction empirique G

n

. A noter que ˆ m

n

n’est pas toujours explicite, mais il existe tout de même quelques exemples où on sait le calculer.

Exemple 1 : estimation de la moyenne. Dans le cas de l’estimation de la moyenne, la fonction empirique est définie pour tout h ∈ R

d

par

G

n

( h ) = 1 2n

n k=1

k X

k

− h k

2

− k X

k

k

2

,

(9)

et on obtient donc ˆ m

n

= X

n

. A noter que si X admet un moment d’ordre 2, le TLC nous donne

√ n X

n

− m

L

−−−−→

n→+

N ( 0, Var ( X )) . Remarque 1.2.1. En notant que H : = ∇

2

G ( m ) = I

d

et que

Σ : = E h

h

g ( X, m ) ∇

h

g ( X, m )

T

i

= E h ( X − m )( X − m )

T

i = Var ( X ) ,

où ∇

h

g ( X, h ) est le gradient de g par rapport à la deuxième variable, on peut réécrire le TLC précédent comme

√ n ( m ˆ

n

− m ) −−−−→

L

n→+

N 0, H

1

Σ H

1

.

Exemple 2 : la régression linéaire. Dans le cas de l’estimation du paramètre de la régression linéaire, on a

G

n

( h ) = 1 2n

n k=1

X

kT

h − Y

k

2

.

Si la matrice X = ( X

1

, . . . X

n

)

T

est de rang plein, on rappelle que le minimiseur de la fonction G

n

est l’estimateur des moindres carrés est défini par

θ ˆ

n

= XX

T

−1

X

T

Y

avec Y = ( Y

1

, . . . , Y

n

)

T

.

Remarque 1.2.2. Sous certaines hypothèses, on peut montrer que si la matrice Hessienne H : = E XX

T

est définie positive (et donc inversible), on a la normalité asymptotique

√ n θ ˆ

n

θ

L

−−−−→

n→+

N 0, Var [ e ] H

1

. De plus, en remarquant que

Σ : = E h

h

g ( X, θ ) ∇

h

g ( X, θ )

T

i = E h Y − X

T

θ

XX

T

Y − X

T

θ i

= E h e

2

XX

T

i

= E h E e

2

| X XX

T

i

= Var [ e ] H, on peut réécrire la normalité asymptotique comme

√ n θ ˆ

n

θ

L

−−−−→

n→+

N 0, H

1

ΣH

1

.

Exemple 3 : médiane d’une variable aléatoire réelle. Dans le cas de l’estimation de la médiane

(10)

d’une variable aléatoire X, la fonction empirique s’écrit G

n

( h ) = 1

n

n k=1

| X

k

− h | − | X

k

| ,

et on rappelle qu’un minimiseur de G

n

est la médiane empirique ˆ m

n

= X (d

n2

e) .

Cependant, dans une grande majorité des cas tels que l’estimation de la médiane géométrique ou l’estimation des paramètres de la régression logistique, on ne sait pas calculer explicitement le minimum de la fonction G

n

. On peut néanmoins utiliser les méthodes d’optimisation déterministes usuelles pour approcher ˆ m

n

.

Exemple 1 : la régression logistique. Dans le cadre de la régression logistique, on a G

n

( h ) = 1

n

n i=1

log

1 + exp h

T

X

i

− h

T

X

i

Y

i

,

et il n’existe pas de solution explicite. Cependant, on peut, par exemple, utiliser un algorithme de gradient pour approcher ˆ m

n

. Celui-ci est défini de manière itérative pour tout t ≥ 0 par

m

n,t+1

= m

n,t

η

t

∇ G

n

( m

n,t

)

η

t

est une suite de pas positifs (cf cours d’optimisation pour plus de précisions).

Exemple 2 : estimation de la médiane géométrique. Dans le cas de la médiane géométrique, la fonction empirique est définie pour tout h ∈ R

d

par

G

n

( h ) = 1 n

n k=1

k X

k

− h k − k X

k

k

et un minimiseur de G

n

est donc un zéro du gradient de G

n

, i.e 0 = − 1

n

n k=1

X

k

− m ˆ

n

k X

k

− m ˆ

n

k .

Là encore, il n’existe pas de solution explicite, mais on peut réécrire l’égalité précédente comme

ˆ m

n

=

nk=1 Xk kXk−mˆnk

nk=1 1 kXk−mˆnk

et on peut donc approcher ˆ m

n

à l’aide d’un algorithme de point fixe, conduisant à l’algorithme itératif suivant (algorithme de Weiszfeld [Wei37])

m

n,t+1

=

nk=1 Xk kXk−mn,tk

nk=1 1 kXk−mn,tk

(11)

Remarque 1.2.3. A noter que l’on peut réécrire l’algorithme de Weiszfeld comme m

n,t+1

= m

n,t

+ n

nk=1 1 kXk−mn,tk

1 n

n k=1

X

k

− m

n,t

k X

k

− m

n,t

k = m

n,t

n

nk=1 1 kXk−mn,tk

∇ G

n

( m

n,t

)

et l’on peut donc voir l’algorithme de Weiszfeld comme un algorithme de gradient avec

η

t

= n

nk=1 1 kXk−mn,tk

.

1.2.2 Un résultat de convergence

Le théorème suivant généralise les résultats donnés dans les remarques 1.2.1 et 1.2.2. A noter que les hypothèses présentées ne sont pas minimales mais rendent la preuve plus accessible.

Théorème 1.2.1. On suppose que les hypothèses suivantes sont vérifiées :

• m ˆ

n

converge en probabilité vers m.

• Pour presque tout x, la fonction g ( x, . ) est deux fois continûment différentiable.

• Pour presque tout x, la Hessienne ∇

2h

g ( x, . ) est L ( x ) -lipschitz, i.e pour tout h, h

0

R

d

,

2h

g ( x, h ) − ∇

2h

g x, h

0

op

≤ L ( x ) h − h

0

où k . k

op

est la norme spectrale.

• L ( X ) et ∇

2h

g ( X, m ) admettent des moments d’ordre 1.

• La Hessienne de G en m est inversible.

Alors

√ n ( m ˆ

n

− m ) −−−−→

L

n→+

N 0, H

1

ΣH

1

avec

H = ∇

2

G ( m ) et Σ = E h

h

g ( X, m ) ∇

h

g ( X, m )

T

i .

Ainsi, sous une certaine forme de régularité du modèle, on a une certaine forme d’efficacité asymp- totique, i.e un résultat optimal "bornant" les résultats possibles pour les estimateurs. De plus, lorsque l’on ne sait pas calculer explicitement ˆ m

n

et que l’on doit donc l’approcher via m

n,t

, si m

n,t

converge vers ˆ m

n

, on obtient la convergence en loi

n→+

lim

lim

t→+

√ n ( m

n,t

− m ) = N 0, H

1

Σ H

1

Ainsi les méthodes itératives sont particulièrement efficaces, mais sous une certaine forme de ré-

gularité du modèle, on ne pourra pas avoir de meilleurs résultats que la normalité asymptotique,

problème que l’on rencontrera quel que soit le type d’estimateur choisi. Cependant, pour les mé-

thodes itératives, un gros problème peut être rencontré si l’on doit traiter des données en ligne : si

on a déjà traité 1000 données (avec le temps de calcul que cela implique), que devons-nous faire

si 1000 nouvelles données arrivent ? Une option serait de tout reprendre depuis le début, ce qui

(12)

nécessite fatalement plus de calculs. S’intéresser aux estimateurs en ligne permet entre autre de régler ce problème.

1.3 Estimation en ligne

Dans ce qui suit, on considère des variables aléatoires X

1

, . . . , X

n

, X

n+1

, . . . arrivant de manière sé- quentielle. L’objectif est de mettre en place des algorithmes permettant de mettre facilement à jours les estimateurs. Un exemple simple est celui de la moyenne. Considérant que l’on a calculé X

n

et qu’une nouvelle donnée arrive. Comment obtenir X

n+1

en faisant le moins de calculs possibles ? Une version brutale serait de repasser sur toutes les données afin de calculer X

n+1

, ce qui repré- senterait O (( n + 1 ) d ) nouvelles opérations. Une version plus subtile est de calculer X

n+1

comme suit :

X

n+1

= X

n

+ 1

n + 1 X

n+1

− X

n

,

ce qui, quand n est grand, représente bien évidemment beaucoup moins de calculs (O ( d ) ). Pour l’estimateur de la variance S

2n

, il faut se casser un peu plus la tête. Il faut d’abord remarquer que celui-ci peut s’écrire

S

2n

= n

n − 1 Σ

2n

n

n − 1 X

n

X

Tn

et Σ

2n

= 1 n

n k=1

X

k

X

kT

Ainsi, on peut construire S

2n

de manière récursive comme suit X

n+1

= X

n

+ 1

n + 1 X

n+1

− X

n

Σ

2n+1

= Σ

2n

+ 1

n + 1

X

n+1

X

nT+1

Σ

2n

S

2n+1

= n + 1

n Σ

n+1

n + 1

n X

n+1

X

nT+1

.

A noter qu’en plus du fait que le temps de calcul pour mettre à jours les estimateurs est réduit, l’estimation en ligne permet de ne pas avoir à garder en mémoire toutes les données, i.e on peut

"jeter" les données dès qu’elles ont été traitées, ce qui peut permettre de réduire les coûts en terme de mémoire. Même si dans de nombreux cas, il n’est pas possible ou évident de construire des estimateurs en ligne, dans le cas de la minimisation de la fonction G, on peut souvent construire ce type d’estimateurs à l’aide d’algorithmes de gradient stochastiques.

1.4 Algorithmes de gradient stochastiques

On rappelle que l’on s’intéresse à l’estimation du minimiseur de la fonction G : R

d

−→ R définie pour tout h ∈ R

d

par

G ( h ) = E [ g ( X, h )] .

(13)

et on considère des variables aléatoires indépendantes et identiquement distribuées X

1

, . . . , X

n

, X

n+1

, . . . arrivant de manière séquentielle. On rappelle qu’un algorithme de gradient pour approcher m au- rait été de la forme

m

t+1

= m

t

η

t

∇ G ( m

t

) .

Cependant, ici, on n’a pas accès au gradient de G (car sous forme d’espérance). Pour régler ce problème, on a vu précédemment que l’on peut remplacer ∇ G par le gradient de la fonction em- pirique, ce qui représente O ( nd ) opérations à chaque itération, et en notant T ce nombres d’itéra- tions, on arrive donc à O ( ndT ) opérations. De plus, on a vu que ces méthodes ne permettent pas de traiter les données en ligne. Pour pallier ces problèmes, on s’intéresse à l’algorithme de gradient stochastique, qui permet de traiter les données en lignes, et ce, avec seulement O ( nd ) opérations.

1.4.1 Algorithmes de gradient stochastiques

L’algorithme de gradient stochastique, introduit par [RM51], est défini de manière récursive pour tout n ≥ 0 par

m

n+1

= m

n

γ

n+1

h

g ( X

n+1

, m

n

) avec m

0

borné et ( γ

n

) est une suite de pas positifs vérifiant

n

≥1

γ

n

= + et ∑

n≥1

γ

2n

< + ∞. (1.3)

A noter que l’on peut réécrire l’algorithme de gradient stochastique comme

m

n+1

= m

n

γ

n+1

∇ G ( m

n

) + γ

n+1

ξ

n+1

(1.4) avec ξ

n+1

= ∇ G ( m

n

) − ∇

h

g ( X

n+1

, m

n

) . De plus, en considérant la filtration (notion que l’on dé- finira par la suite) (F

n

) engendrée par l’échantillon, i.e F

n

= σ ( X

1

, . . . , X

n

) , ( ξ

n+1

) est une suite de différences de martingale adaptée à la filtration (F

n

) , i.e comme m

n

est F

n

-mesurable, et par indépendance,

E [ ξ

n+1

|F

n

] = ∇ G ( m

n

) − E [∇

h

g ( X

n+1

, m

m

) |F

n

] = 0.

On peut donc voir l’algorithme comme un algorithme de gradient bruité (par γ

n+1

ξ

n+1

).

Exemple 1 : la régression linéaire. On se place dans le cadre de la régression linéaire et on consi- dère des couples de variables aléatoires i.i.d ( X

1

, Y

1

) , . . . , ( X

n

, Y

n

) , ( X

n+1

, Y

n+1

) , . . . à valeurs dans R

d

× R. L’algorithme de gradient stochastique est alors défini récursivement pour tout n ≥ 0 par

θ

n+1

= θ

n

+ γ

n+1

Y

n+1

θ

Tn

X

n+1

X

n+1

. (1.5)

Exemple 2 : la régression logistique. On se place dans le cadre de la régression logistique et on

considère des couples de variables aléatoires i.i.d ( X

1

, Y

1

) , . . . , ( X

n

, Y

n

) , ( X

n+1

, Y

n+1

) , . . . à valeurs

dans R

d

× { 0, 1 } . L’algorithme de gradient stochastique est alors défini de manière récursive pour

(14)

tout n ≥ 0 par

θ

n+1

= θ

n

γ

n+1

π

θ

Tn

X

n+1

− Y

n+1

X

n+1

(1.6)

avec π ( x ) =

exp(x)

1+exp(x)

.

Exemples 3 : la médiane géométrique. On considère des variables aléatoires i.i.d X

1

, . . . , X

n

, X

n+1

, . . . à valeurs dans R

d

. L’algorithme de gradient stochastique est défini de manière récursive pour tout n ≥ 0 par

m

n+1

= m

n

+ γ

n+1

X

n+1

− m

n

k X

n+1

− m

n

k .

1.4.2 Approche non-asymptotique

On suppose à partir de maintenant que la suite de pas γ

n

est de la forme γ

n

= c

γ

n

α

avec c

γ

> 0 et α ∈ ( 1/2, 1 ) . On voit bien que cette suite de pas vérifie la condition (1.3). Le théorème suivant nous donne la vitesse de convergence en moyenne quadratique des estimateurs obtenus à l’aide de l’algorithme de gradient stochastique dans le cas où la fonction G est fortement convexe.

Théorème 1.4.1. On suppose que les hypothèses suivantes sont vérifiées : 1. Il existe un minimiseur m de la fonction G.

2. La fonction G est µ-fortement convexe : pour tout hR

d

,

h∇ G ( h ) , h − m i ≥ µ k h − m k

2

. De plus, on suppose que l’hypothèse suivante est vérifiée :

(PS0) Il existe une constante positive C telle que pour tout h ∈ R

d

, E h

k∇

h

g ( X, h )k

2

i ≤ C

1 + k h − m k

2

Alors pour tout n ≥ 1,

E h

k m

n

− m k

2

i ≤ 2 exp

C

0

c

2γ

2α 2α − 1

exp

µc

γ

4 n

1α

E h

k m

0

− m k

2

i + 1

+ 2c

γ

C µn

α

avec C

0

= max

C, 2µ

2

.

En d’autres termes, les estimateurs convergent en moyenne quadratique à la vitesse

n1α

.

Démonstration. On a

k m

n+1

− m k

2

= k m

n

− m k

2

− 2γ

n+1

h∇

h

g ( X

n+1

, m

n

) , m

n

− m i + γ

n2+1

k∇

h

g ( X

n+1

, m

n

)k

2

.

(15)

En passant à l’espérance conditionnelle et par linéarité, on obtient donc, comme m

n

est F

n

-mesurable, E h

k m

n+1

− m k

2

|F

n

i = k m

n

− m k

2

− 2γ

n+1

h E [∇

h

g ( X

n+1

, m

n

) |F

n

] , m

n

− m i + γ

2n+1

E h

k∇

h

g ( X

n+1

, m

n

)k

2

|F

n

i

≤ k m

n

− m k

2

− 2γ

n+1

h∇ G ( m

n

) , m

n

− m i + γ

2n+1

E h

k∇

h

g ( X

n+1

, m

n

)k

2

|F

n

i Grâce à l’hypothèse (PS0), il vient

E h

k m

n+1

− m k

2

|F

n

i ≤ 1 + Cγ

2n+1

k m

n

− m k

2

− 2γ

n+1

h∇ G ( m

n

) , m

n

− m i + Cγ

2n+1

. Par forte convexité, on obtient donc

E h

k m

n+1

− m k

2

|F

n

i ≤ 1 − 2µγ

n+1

+

2n+1

k m

n

− m k

2

+

2n+1

. En passant à l’espérance, on a

E h

k m

n+1

− m k

2

i ≤ 1 − 2µγ

n+1

+ Cγ

2n+1

E h

k m

n

− m k

2

i + Cγ

2n+1

, et on conclut la preuve à l’aide du lemme suivant [BM13]

Lemma 1.4.1. Soit ( δ

n

) une suite positive vérifiant

δ

n+1

≤ 1 − 2µγ

n+1

+ 2L

2

γ

2n+1

δ

n

+ 2σ

2

γ

2n+1

avec γ

n

= c

γ

n

α

, c

γ

, L ≥ µ > 0, σ

2

0 et α ∈ ( 1/2, 1 ) . Alors pour tout n ≥ 1,

δ

n

≤ 2 exp

µ 4 n

1α

exp

2L

2

c

2γ

1 − n

1

2α − 1 δ

0

+ σ

2

L

2

+ 4c

γ

σ

2

µn

α

On admettra ce lemme. En prenant C

0

= max

C, 2µ

2

, il suffit de vérifier que √

C

0

/2 ≥ µ et que l’on a également

E h

k m

n+1

− m k

2

i ≤ 1 − 2µγ

n+1

+ C

0

γ

2n+1

E h

k m

n

− m k

2

i + Cγ

2n+1

, et les hypothèses du lemme sont donc vérifiées.

Afin de simplifier les preuves par la suite, on donne maintenant une proposition (admise) que l’on peut voir comme une généralisation du lemme précédent.

Proposition 1.4.1. Soit δ

n

, γ

n

deux suites positives telles que

γ

n

= c

γ

n

α

avec c

γ

> 0 et α ∈ ( 1/2, 1 ) .

• Il existe un rang n

0

, une constante c

0

∈ 0, γ

n01

et une suite positive v

n

telle que pour tout n ≥ n

0

,

δ

n+1

≤ ( 1 − c

0

γ

n+1

) δ

n

+ γ

n+1

v

n+1

.

(16)

Alors pour tout n ≥ 2n

0

,

δ

n

≤ exp

c

0

c

γ

4 n

1α

δ

n0

+

n/2−1 k

=n0

γ

k+1

v

k+1

!

+ max

n/2≤k+1≤n−1

v

k+1

En paritculier, si v

n

= C

v

( ln n )

β

n

v

avec β ≥ 0 et v ∈ R0, alors δ

n

= O ( v

n

) .

1.4.3 Exemple : regression lineaire

On se place dans le cadre du modèle linéaire défini par (1.1) et on rappelle que sous certaines hypothèses, θ est l’unique minimiseur de la fonction G : R

d

−→ R

+

définie pour tout h ∈ R

d

par

G ( h ) = 1 2 E

Y − X

T

h

2

.

Théorème 1.4.2. On suppose que e admet un moment d’ordre 2 et que X admet un moment d’ordre 4. De plus, on suppose que la matrice E

XX

T

est définie positive et on note µ sa plus petite valeur propre. La suite d’estimateurs du gradient ( θ

n

) définie par (1.5) vérifie pour tout n ≥ 0,

E h

k θ

n

θ k

2

i ≤ 2 exp

Cc

2γ

2α 2α − 1

exp

µc

γ

4 n

1α

E h

k m

0

− m k

2

i + 1

+ 2c

γ

C µn

α

avec C = max n

2E h

k e k

2

i E h k X k

2

i , 2E h k X k

4

io .

On admettra ce théorème. Dans la Figure 1.1, on s’intéresse à l’évolution de l’erreur quadratique moyenne des estimateurs (obtenus à l’aide d’algorithmes de gradient stochastiques) du paramètre de la régression linéaire en fonction de la taille d’échantillon n. Pour cela, on considère le modèle

θ = (− 4, − 3, − 2, − 1, 0, 1, 2, 3, 4, 5 )

T

R

10

, X ∼ N ( 0, I

10

) , e ∼ N ( 0, 1 ) .

De plus, on choisit c

γ

= 1 et α = 0.75. Enfin, on a calculé l’erreur quadratique moyenne des

estimateurs en générant 50 échantillons de taille n = 1000. On voit bien que l’on a une décroissance

assez rapide de l’erreur quadratique moyenne, et lorsque l’on prend l’échelle logarithmique, une

heuristique de pente nous donne que pour n ≥ 100, on a bien une pente proche de − α = − 0.75.

(17)

0 200 400 600 800 1000

0123

Sample size

Quadratic mean errror

1 5 10 50 500

0.050.201.00

Sample size

Quadratic mean errror (logaritmic scale)

F

IGURE

1.1 – Evolution de l’erreur quadratique moyenne de θ

n

en fonction de la taille d’échantillon

n dans le cadre de la régression linéaire.

(18)
(19)

Martingales

On a vu que l’on peut considérer l’algorithme de gradient stochastique comme un algorithme de gradient bruité par le terme γ

n+1

ξ

n+1

, où ( ξ

n

) est une suite de différences de martingale par rapport à une filtration (F

n

) . L’objectif de ce chapitre est donc, dans un premier temps, de définir les notions de filtration et de martingale. Dans un deuxième temps, on donnera des résultats de convergence type loi des grands nombres et TLC pour les martingales, qu’elles soient réelles ou vectorielles.

2.1 Martingales réelles

Cette section s’inspire très largement de [BC07] et [Duf90].

2.1.1 Définitions

Dans ce qui suit, on considère un espace probabilisé ( , A , P ) .

Definition 2.1.1. On appelle filtration (F

n

)

n0

de ( Ω, A , P ) une suite croissante de sous-tribus de A , i.e une suite de tribus telle que

F

0

⊂ F

1

⊂ ... ⊂ A .

On dit qu’une suite de variables aléatoires ( X

n

)

n0

est adaptée à la filtration (F

n

)

n0

si pour tout n, X

n

est F

n

-mesurable.

En considérant une suite de variables aléatoires ( X

n

)

n1

, un exemple classique de filtration est de considérer la suite des tribus engendrée par les X

i

. Plus précisément, pour tout n, on consi- dère la plus petite tribu rendant ( X

1

, . . . , X

n

) mesurable et on la note F

n

= σ ( X

1

. . . , X

n

) . Alors, F = (F

n

) est une filtration. Rappelons également au passage que par définition de l’espérance conditionnelle, E [ X

n+1

|F

n

] est F

n

-mesurable.

Definition 2.1.2. Soit M = ( M

n

)

n0

une suite de variables aléatoires adaptée à une filtration F = (F

n

) .

(20)

On dit que M est une martingale par rapport à la filtration F si pour tout n ≥ 0, M

n

est intégrable et E [ M

n+1

|F

n

] = M

n

.

Exemple : On considère une suite de variables aléatoires indépendantes ( X

n

)

n1

et on note M

n

=

n k=1

X

k

E [ X

k

] .

Alors M

n

est une martingale par rapport à la filtration engendrée par les X

i

.

2.1.2 Théorème de Robbins-Siegmund

Le théorème de Robbins-Siegmund suivant est crucial pour démontrer la consistance des estima- teurs obtenus à l’aides d’algorithmes stochastiques, et particulièrement pour les algorithmes de gradient

Théorème 2.1.1 (Robbins-Siegmund). Soit ( V

n

) , ( A

n

) , ( B

n

) , ( C

n

) trois suites de variables réelles posi- tives adaptées à une filtration F . On suppose que

E [ V

n+1

|F

n

] ≤ ( 1 + A

n

) V

n

+ B

n

− C

n

et que les suites ( A

n

) , ( B

n

) vérifient

n

≥0

A

n

< + p.s et ∑

n≥0

B

n

< + p.s.

Alors V

n

converge presque sûrement vers une variable aléatoire V

finie et

n

≥0

C

n

< + p.s.

On admettra ce théorème mais sa preuve est disponible dans [Duf90] ou [BC07].

Exemple : estimation en ligne des quantiles. Soit X

1

, . . . , X

n+1

, . . . des variables aléatoires indé- pendantes et identiquement distribuées. Soit p ∈ ( 0, 1 ) , et on s’intéresse à l’estimation en ligne du quantile d’ordre p, que l’on notera m. Pour cela, on considère l’estimateur obtenu à l’aide de l’algorithme de Robbins-Monro, défini de manière récursive pour tout n ≥ 0 par

m

n+1

= m

n

γ

n+1

1

Xn+1≤mn

− p . avec

n

≥0

γ

n+1

= + et ∑

n≥0

γ

2n+1

< + ∞.

(21)

On pose alors V

n

= ( m

n+1

− m )

2

, et on a

V

n+1

= V

n

− 2γ

n+1

( m

n

− m ) 1

Xn+1≤mn

− p

+ γ

2n+1

1

Xn+1≤mn

− p

2

≤ V

n

− 2γ

n+1

( m

n

− m ) 1

Xn+1≤mn

− p

+ γ

2n+1

On considère la filtration (F

n

) engendrée par l’échantillon, i.e définie pour tout n ≥ 1 par F

n

= σ ( X

1

, . . . , X

n

) . Comme l’estimateur m

n

ne dépend que de X

1

, . . . , X

n

, il est F

n

-mesurable, et on a donc, en notant F

X

la fonction de répartition de X

1

, et en remarquant que p = F

X

( m ) ,

E [ V

n+1

|F

n

] ≤ V

n

− 2γ

n+1

( m

n

− m ) E 1

Xn+1≤mn

|F

n

− p

+ γ

2n+1

= V

n

− 2γ

n+1

( m

n

− m ) ( F

X

( m

n

) − F

X

( m ))

| {z }

=:An

+ γ

2n+1

Comme la fonction de répartition est croissante, on a A

n

≥ 0 et comme ∑

n≥0

γ

2n+1

< + ∞, le théorème de Robbins-Siegmund nous donne que V

n

converge presque sûrement vers une variable aléatoire finie et que

n

≥0

A

n

< + p.s.

Or , comme la somme des γ

n

diverge, cela implique que lim inf

n

( m

n

− m ) ( F

X

( m

n

) − F ( m )) = 0.

Si on suppose que la fonction F est strictement croissante sur un voisinage de F, on obtient lim inf

n

| m

n

− m | = 0,

et comme | m

n

− m | converge vers une variable aléatoire finie, cela implique que | m

n

− m | converge presque sûrement vers 0, i.e que l’estimateur est fortement consistant.

Exemple : estimation des quantiles de la loi exponentielle. On considère X ∼ E ( 1 ) et on s’inté-

resse à l’estimation des quantiles d’ordre 0.25 et 0.5. Figure 2.1, on voit que dans les deux cas les

estimateurs convergent assez rapidement vers le quantile.

(22)

0 200 400 600 800 1000

0.20.40.60.81.01.21.4

n mn

0 200 400 600 800 1000

0.00.20.40.60.8

n mn

F

IGURE

2.1 – Evolution de l’estimation des quantiles d’ordre 0.25 (à gauche) et 0.5 à droite pour la loi exponentielle de paramètre 1.

2.1.3 Lois des grands nombres

Dans ce qui suit, on dit qu’une martingale ( M

n

) est de carré intégrable si pour tout n ≥ 0, E

M

2n

< + ∞.

Definition 2.1.3. Soit ( M

n

) une martingale de carré intégrable. On appelle processus croissant associé à ( M

n

) la suite (h M i

n

)

n

définie par h M i

0

= 0 et pour tout n ≥ 0 par

h M i

n+1

= h M i

n

+ E h ( M

n+1

− M

n

)

2

|F

n

i .

En d’autres termes, si pour tout k ≥ 0 on note ξ

k+1

= M

k+1

− M

k

la différence de martingale, on a pour tout n ≥ 1

h M i

n

=

n k=1

E

ξ

2k

|F

k1

.

Ainsi, on peut voir le processus croissant comme la somme des variance des différences de mar- tingales. On peut maintenant introduire les lois des grands nombres pour les martingales de carré intégrable.

Théorème 2.1.2 (Première loi des grands nombres). Soit ( M

n

) une martingale de carré intégrable.

1. Si lim

n→+

h M i

n

< + presque sûrement, alors la suite ( M

n

) converge presque sûrement vers une variable aléatoire M

.

2. Si lim

n→+

h M i

n

= + presque sûrement, alors la suite

Mn

hMin

converge presque sûrement vers

0.

(23)

En d’autres termes, si le processus croissant converge presque sûrement, alors ( M

n

) = O ( 1 ) presque sûrement, et si il diverge, alors

| M

n

| = o (h M i

n

) p.s.

On ademmtra ce résultat. La preuve est disponible dans la version longue ainsi que dans [BC07]

et [Duf97].

Exemple : Si on considère la martingale M

n

=

nk=1

ξ

k

avec ( ξ

k

) une suite de différences de martingales telle qu’il existe C vérifiant E

ξ

2k

|F

k1

≤ C pour tout k. Alors h M i

n

≤ Cn . Donc soit la limite du processus croissant est finie et dans ce cas M

n

converge presque sûrement vers une variable aléatoire M

, soit elle est infinie et on a alors n

1

M

n

qui converge presque sûrement vers 0.

On peut remarquer que la différence avec la loi des grands nombres pour des variables aléatoires i.i.d est que l’on se passe des hypothèses d’indépendance et d’identique distribution, mais le prix à payer est que l’on doit faire des hypothèses sur le comportement du crochet h M i

n

. A noter éga- lement que dans l’exemple précédent, on aurait pu s’attendre à obtenir une meilleure vitesse de convergence, ce que nous donne la deuxième loi des grands nombres suivante.

Théorème 2.1.3 (Deuxième loi des grands nombres). Soit ( M

n

) une martingale de carré intégrable.

1. Si h M i

n

−−−−→

p.s

n→+

+ ∞, alors

M

2n

= o (h M i

n

ln (h M i

n

))

1+δ

p.s.

2. De plus, si il existe des constantes a > 2 et b > 0 telles que E

| M

n+1

− M

n

|

a

|F

n

≤ b E h

( M

n+1

− M

n

)

2

|F

n

i

a/2

p.s alors

M

2n

= O (h M i

n

ln (h M i

n

)) p.s.

On admettra ce résultat. La preuve est disponible dans la version longue ainsi que dans [BC07] et [Duf97]. A noter que les hypothèses (notamment pour la deuxième partie du théorème) peuvent sembler indigestes, mais on peut voir dans l’exemple suivant qu’elles sont généralement "facile- ment" vérifiables.

Exemple : Soit M

n

=

nk=1

ξ

k

avec E [ ξ

k

|F

k1

] = 0. Si il existe une constante C telle que pour tout k, E

ξ

2k

|F

k1

≤ C, alors pour tout δ > 0, M

2n

= o

n ( ln n )

1+δ

p.s

(24)

ce que l’on peut réécrire comme 1 n

n k=1

ξ

k

2

= o

( ln n )

1+δ

n

p.s.

Si il existe des constantes a > 2 et C

a

≥ 0 telles que E

| ξ

k

|

a

|F

k1

≤ C

a

presque sûrement, alors, la loi des grands nombres nous donne

1 n

n k=1

ξ

k

2

= O ln n

n

p.s.

Remarque 2.1.1. A noter que l’on aurait pu retrouver directement le premier point de cet exemple avec une application directe du théorème de Robbins-Siegmund. En effet, pour tout δ > 0, on peut considérer la variabe aléatoire V

n

=

1

n(lnn)1+δ

| M

n

|

2

=

( n

lnn)1+δ

1

n

M

n

2

. Comme M

n

est F

n

-mesurable et par linéarité, on a

E h

| M

n+1

|

2

|F

n

i = M

2n

+ 2 E [ ξ

n+1

|F

n

] M

n

+ E h | ξ

n+1

|

2

|F

n

i

= | M

n

|

2

+ E h | ξ

n+1

|

2

|F

n

i Ainsi, on obtient

E [ V

n+1

|F

n

] = 1

( n + 1 )( ln ( n + 1 ))

1+δ

| M

n

|

2

+ 1

( n + 1 )( ln ( n + 1 ))

1+δ

E

h | ξ

n+1

|

2

|F

n

i

= n ( ln n )

1+δ

( n + 1 )( ln ( n + 1 ))

1+δ

V

n

+ 1

( n + 1 )( ln ( n + 1 ))

1+δ

E

h | ξ

n+1

|

2

|F

n

i

≤ V

n

+ 1

( n + 1 )( ln ( n + 1 ))

1+δ

C.

En appliquant le théorème de Robbins-Siegmund, on a donc V

n

qui converge presque sûrement vers une variable aléatoire finie, ce que l’on peut réécrire comme

1 n M

n

2

= O

n ( ln n )

1+δ

a.s.

A noter que pour cet exemple, avec des hypothèses un peu plus restrictives, on peut trouver une meilleure vitesse grâce à la loi du log-itéré pour les martingales. Celle-ci est disponible dans la verson longue ainsi que dans [DST90] et [Duf90] (page 31).

Estimation en ligne des quantiles : On considère l’estimateur en ligne du quantile d’ordre p (noté m) défini de manière récursive pour tout n ≥ 0 par

m

n+1

= m

n

γ

n+1

1

Xn+1≥mn

− p

On a déjà vu que m

n

est une estimateur fortement consistant de m. On note F la fonction de répar-

(25)

tition de X

1

, et on peut réécrire

m

n+1

− m = m

n

− m − γ

n+1

( F ( m

n

) − F ( m )) + γ

n+1

ξ

n+1

avec ξ

n+1

= F ( m

n

) − 1

Xn+1mn

. Si on note F = (F

n

) avec F

n

= σ ( X

1

, . . . , X

n

) la filtration en- gendrée par l’échantillon, on a que ( ξ

n

) est une suite de différences de martingales. On suppose maintenant que F est dérivable en m. On note f sa dérivée et on a alors pour tout x ∈ R,

F ( x ) − F ( m ) = ( f ( m ) + r ( x )) ( x − m )

avec r continue en m et r ( m ) = 0. On suppose également que f ( m ) > 0 et on peut réécrire m

n+1

comme

m

n+1

− m = ( 1 − γ

n+1

f ( m )) ( m

n

− m ) + γ

n+1

ξ

n+1

+ γ

n+1

r ( m

n

) ( m

n

− m )

Dans tout ce qui suit, pour simplifier un peu les calculs, on supposera que c

γ

f ( m ) < 1. A l’aide d’une récurrence, on a

m

n

− m = β

n,0

( m

0

− m ) +

n−1 k

=0

β

n,k+1

γ

k+1

ξ

k+1

| {z }

=:Mn

+

n−1 k

=0

β

n,k+1

γ

k+1

r ( m

k

) ( m

k

− m )

| {z }

=:Rn

(2.1)

avec β

n,k

=

nj=k+1

1 − γ

j

f ( m ) et β

n,n

= 1. En effet, pour n = 0, il est clair que cette égalité est vérifiée et en supposant qu’elle est vérifiée pour n, on a, comme β

n,n

= 1,

m

n+1

− m = ( 1 − γ

n+1

f ( m )) ( m

n

− m ) + γ

n+1

ξ

n+1

+ γ

n+1

r ( m

n

) ( m

n

− m )

= ( 1 − γ

n+1

f ( m )) β

n,0

( m

0

− m ) +

n−1 k

=0

β

n,k+1

γ

k+1

ξ

k+1

+

n−1 k

=0

β

n,k+1

γ

k+1

r ( m

k

) ( m

k

− m )

!

+ β

n+1,n+1

γ

n+1

ξ

n+1

+ β

n+1,n+1

γ

n+1

r ( m

n

) ( m

n

− m )

= β

n+1,0

( m

0

− m ) +

n k=0

β

n+1,k+1

γ

k+1

ξ

k+1

+

n k=0

β

n,k+1

γ

k+1

r ( m

k

) ( m

k

− m )

On va donc maintenant donner les vitesses de convergence de chacun des termes à droite de l’éga- lité (2.1).

Vitesse de convergence de β

n,0

( m

0

− m ) . Remarquons d’abord que comme on a supposé c

γ

f ( m ) <

1, β

n,k

> 0. De plus, comme pour tout x on a 1 + x ≤ exp ( x ) , il vient

β

n,0

n j=1

exp − γ

j

f ( m ) = exp − f ( m )

n j=1

γ

j

!

(26)

et à l’aide d’une comparaison série-intégrale, on obtient c

γ

1 − α

( n + 1 )

1α

− 1

=

Z

n+1

1

c

γ

t

α

dt ≤

n j=1

γ

j

γ

1

+

Z

n+1

1

c

γ

t

α

dt ≤ c

γ

+ c

γ

1 − α

( n + 1 )

1α

− 1 et β

n,0

converge donc à vitesse exponentielle, i.e

β

n,0

≤ exp

− f ( m ) c

γ

1 − α

( n + 1 )

1α

− 1

(2.2)

Vitesse de convergence de M

n

. Remarquons d’abord que l’on peut réécrire M

n

comme M

n

= β

n,0

n−1 k

=0

β

k+11,0

ξ

k+1

= : β

n,0

M ˜

n

et on remarque que ˜ M

n

est une martingale. En appliquant la loi du log-itéré, on peut montrer que (on l’admettra, mais la preuve est dans la version longue)

M

2n

= O ln n

n

α

p.s. (2.3)

Vitesse de convergence de R

n

. Remarquons d’abord que l’on a les relations de récurrence R

n+1

= ( 1 − γ

n+1

f ( m )) R

n

+ γ

n+1

r ( m

n

) ( m

n

− m )

| R

n+1

| ≤ ( 1 − γ

n+1

f ( m )) | R

n

| + γ

n+1

| r ( m

n

)| | m

n

− m | . De plus, comme

| m

n

− m | ≤ β

n,0

| m

0

− m | + | M

n

| + | R

n

| on peut réécrire l’inégalité précédente comme

| R

n+1

| ≤ ( 1 − γ

n+1

f ( m )) | R

n

| + γ

n+1

| r ( m

n

)| ( β

n,0

| m

0

− m | + | M

n

|) + γ

n+1

| r ( m

n

)| | R

n

| De plus, comme m

n

converge presque sûrement vers m, par continuité de r en m, on a r ( m

n

) qui converge presque sûrement vers 0. Ainsi, on peut réécrire grossièrement l’inégalité précédente comme

| R

n+1

| ≤ ( 1 − γ

n+1

f ( m ) + o ( γ

n+1

)) | R

n

| + o ( γ

n+1

( β

n,0

| m

0

− m | + | M

n

|)) p.s.

et comme

β

n,0

| m

0

− m | + | M

n

| = O

√ ln n n

α/2

!

p.s

Références

Documents relatifs

Devoir d’approfondissement sur moyennes et fonctions. I. 2°) Démontrer que l’ordre trouvé est indépendant de x

possibilit´es (la division par 2! correspond au fait que la d´ecomposition en produit de cycles `a supports disjoints est unique modulo l’ordre des cycles, et pour arranger

En utilisant un tableau de signes, étudier le signe de f 0 et donner le tableau de variations de la fonction f sur l’intervalle [0 ; 7].. Compléter le graphique donné par le tracé de

Dans le cadre spécifique des chaînes V -géométriquement ergodiques, on trouvera dans [8], sous des conditions de moment assez fortes, des résultats de vitesse de convergence dans

THEOREME 3 (théorème ergodique presque sous-additf bis). fA converge en norme L1 selon le filtre moyennant vers un element invariant.. Demonstration. - Ce résultat

9/ Quelle est la vitesse moyenne d’Usaïn Bolt sur la course dans le référentiel de la caméra embarquée sur un rail qui suit Usaïn Bolt à la même vitesse?. Document n°1

Rappeler les définitions de la convergence en loi, en probabilité, presque sûre et en moyenne quadratique.. Montrer que la convergence en moyenne quadratique implique la convergence

1ere version : Comme la convergence en loi vers une constante implique la convergence en probabilité, il suffit de montrer la convergence en loi de h ( X n ) vers h ( a ).. En