• Aucun résultat trouvé

Il est commun que les optimisateurs num´eriques utilis´es ne convergent que vers des minimums locaux. Ceci est justement le cas pour la m´ethode de Nelder-Mead propos´ee par d´efaut par la fonction optim en R. Le minimum local trouv´e par l’algorithme d´epend du vecteur de param`etres initial choisi. Comme le note Andrews(1997), si ce probl`eme est ignor´e, notre estimateur perd ses propri´et´es de consistance et de distribution normale asymptotique. Alors, il faut pr´ef´erablement initialiser l’optimisateur avec un vecteur appartenant `a l’espace de para- m`etres Ω et ´etant le plus pr`es possible des vrais param`etres afin de converger plus facilement vers le minimum global. Ceci n’est pas un enjeu lorsque seulement des donn´ees simul´ees par des param`etres connus sont utilis´ees, comme c’est le cas lorsque l’efficacit´e entre deux m´ethodes d’inf´erences est ´etudi´ee. Avec des donn´ees empiriques, il devient important de trouver des m´ethodes efficaces pour converger vers le minimum global, surtout dans une situation o`u il y a seulement une intuition limit´ee sur la valeur des vrais param`etres. Dans cette section-ci, quelques solutions possibles `a cet enjeu sont pr´esent´ees.

Andrews (1997) sugg`ere l’utilisation d’un crit`ere bas´e sur le test d’ad´equation afin de choisir un bon vecteur de param`etres initial, β(0), qui permettra `a l’optimisateur num´erique de mieux approximer le minimum global. Le vecteur β(0) doit satisfaire

sinon, un autre vecteur initial est choisi. Donc, cela revient `a choisir un vecteur initial o`u les distributions param´etrique et empirique ne sont pas significativement diff´erentes au seuil de 5%. L’optimisateur est appliqu´e `a diff´erents vecteurs β(0) respectant le crit`ere et celui donnant le meilleur r´esultat est conserv´e. Si aucun vecteur initial satisfaisant la contrainte n’est trouv´e, l’hypoth`ese nulle du test d’ad´equation est g´en´eralement rejet´ee. Luong(2017b) sugg`ere d’inclure le crit`ere4.20 dans la fonction objective4.17, soit

OL(λ, β) = n

i=1 πi∗(λ, β)ln πi(λ, β) + K 2   n

i=1 πi∗(λ, β)[g1(xi, β)] !2 +. . . + n

i=1 πi∗(λ, β)[gr(xi, β)] !2 + H 2 c +2 , o`u c+=max  2KL(π∗(λ, β), pn) − χ 2 0.95(k−p) n , 0 

et H est une constante de p´enalit´e. D’une certaine fa¸con, la nouvelle condition limite la recherche de param`etres `a une zone o`u ils sont jug´es plausibles. Cette m´ethode est utile pour s’assurer de conserver les propri´et´es de l’estimateur, par contre, il reste qu’il faut encore une approche pour trouver un vecteur initial.

4.4.1 Recherche d’un vecteur initial

Dans cette sous-section, des approches possibles afin de trouver de bons vecteurs initiaux pour un optimisateur num´erique sont sugg´er´ees. Les deux premi`eres approches sont de type recherche al´eatoire. La troisi`eme approche est simple et a une forme analytique.

L’utilisation d’algorithmes de recherche al´eatoire est une avenue int´eressante pour trouver le minimum global. L’id´ee de ces algorithmes est de survoler l’espace de param`etresΩ et d’´eviter de rester pi´eg´e pr`es d’un minimum local. Dans son processus it´eratif, la m´ethode simulated annealing pr´esent´ee dansChong and Zak(2013) est capable de sortir d’une r´egion proche d’un minimum local en choisissant, de temps `a autre, des vecteurs de param`etres moins optimaux. Par contre, la rapidit´e de convergence est affect´ee par le nombre ´elev´e de param`etres ; dans notre cas, la fonction objective, O(λ, β), en a r+p. La recherche al´eatoire peut ˆetre limit´ee

sur le vecteur β et d´eduire le vecteur λ correspondant par les ´equations

π∗(λ, β)0[gj(x, β)] =0, (4.21)

pour j=1, . . . , r. Comme il est mentionn´e `a la sous-section 4.3.2, le vecteur λ est d´ependant de β. Les ´equations4.21sont r´esolues `a l’aide d’un optimisateur classique. Ainsi, cette m´ethode se r´esume par les ´etapes suivantes :

2. Simuler un vecteur ˜β(k) ∈ω 

β(k)



et d´eduire ˜λ(k);

3. Le vecteur β(k+1) ´egale `a ˜β(k), et λ(k+1) =λ˜(k), avec une probabilit´e

pk, O ˜λ(k), ˜β(k)



, Oλ(k), β(k)



et `a β(k), et λ(k+1) = λ(k), avec une probabilit´e

1−pk, O ˜λ(k), ˜β(k)



, Oλ(k), β(k)

 ;

4. Conserver le meilleur vecteur ; si Oλ(Meilleurk) , β(Meilleurk)



> Oλ(k+1), β(k+1)

 , alors

β(Meilleurk+1) =β(k+1)et λ(Meilleurk+1) = λ(k+1), sinon, β(Meilleurk+1) = β(Meilleurk) et λ(Meilleurk+1) = λ(Meilleurk) ;

5. Arrˆeter l’algorithme si un certain crit`ere est satisfait, par exemple, un nombre d’it´erations pr´ed´efini ;

6. Retourner `a l’´etape 2 aveck =k+1. L’expression ω



β(k)



repr´esente un sous-ensemble deΩ proche de β(k). Le vecteur al´eatoire e

β

(k)

peut ˆetre simul´e `a l’aide de lois uniformes ; par exemple, le param`etre σ du mod`ele de Merton peut ˆetre choisi par une loi uniforme d´efinie sur[max(0, σ−0.1), σ+0.1]. Aussi, la probabilit´e de l’´etape 3 est d´efinie par

pk, O ˜λ(k), ˜β(k)  , O  λ(k), β(k)  =min 1, e− O(λ˜(k), ˜β(k))O( λ(k)(k)) Tk ! , (4.22) o`u Tk = γ log(k+2), γ>0.

L’´equation 4.22´egale `a 1 lorsque O ˜λ(k), ˜β(k)



≤ Oλ(k), β(k)



; donc, le vecteur de para- m`etres al´eatoire est conserv´e s’il est meilleur. Toutefois, il a toujours une probabilit´e que le vecteur al´eatoire soit conserv´e mˆeme s’il est moins bon. Cette probabilit´e diminue lorsque le vecteur β(k) est de plus en plus meilleur. De plus, le facteur Tk rend moins probable le

choix du vecteur al´eatoire lorsque le nombre d’it´erations atteint est grand. L’id´ee derri`ere ce facteur est que l’algorithme puisse survoler l’espaceΩ en d´ebut d’it´erations et, donc, facilement s’´eloigner des minimums locaux. Ensuite, avec un nombre d’it´erations grandissant, le facteurTk

augmente les chances que l’algorithme passe plus de temps `a explorer les param`etres proches du minimum global. Le param`etre γ est une constante `a ajuster selon les besoins ; plus il est grand, plus l’algorithme choisira le vecteur de param`etres al´eatoire. Finalement, cette recherche al´eatoire est pr´ef´erablement utilis´ee dans une ´etape pr´eliminaire `a l’optimisateur de Nelder-Mead. En effet, le r´esultat de la m´ethode simulated annealing procure un vecteur initial potentiellement proche du minimum global.

Dorsey and Mayer (1995) propose l’utilisation de l’algorithme g´en´etique pour l’estimation de param`etres d’un mod`ele ´econom´etrique. Comme pour le cas du simulated annealing, c’est un type de recherche al´eatoire et son utilisation est compl´ementaire `a un optimisateur classique. Cette m´ethode est applicable mˆeme si la fonction objective est discontinue et non d´erivable.

L’algorithme imite la s´election naturelle telle que d´ecrite par Charles Darwin. En fait, des populations de vecteurs β sont successivement cr´e´ees o`u chacune de celle-ci h´erite, en g´en´eral, des meilleures caract´eristiques de la population pr´ec´edente. Le processus est bri`evement d´ecrit par les ´etapes suivantes :

1. La premi`ere ´etape consiste `a choisir une population initiale dem vecteurs de param`etres, soit G(1) = {β(1), . . . , β(m)}.m doit ˆetre pair. Contrairement aux m´ethodes tradition-

nelles, il n’y a pas qu’un seul point de d´epart. Cette ´etape n’est pas r´ep´et´ee par la suite.

2. Ensuite, `a chaque vecteur β(i), une probabilit´e pi qu’il ait une contribution `a la prochaine

g´en´eration G(2) est assign´ee pouri=1, . . . , m. Les probabilit´es prennent la forme pi = Th−Oλ(i), β(i) i ∑m j=1T h −Oλ(j), β(j) i , i=1, . . . , m,

o`u T[.]est une fonction positive et monotone croissante. Donc, plus un vecteur minimise la fonction objective, plus elle a de chance de contribuer `a la prochaine g´en´eration. 3. m vecteurs sont pig´es, avec remplacement et avec les probabilit´es de l’´etape pr´ec´edente,

afin de former H(1)= {β

0(1)

, . . . , β0(m)}. 4. Des paires de vecteurs(β

0(d)

, β0(v))sont choisies au hasard parmiH(1)sans remplacement. Ensuite, un entier I entre 1 et p−1 est choisi al´eatoirement. Y ´etant une r´ealisation d’une Bernoulli ; si Y=1, (β

0(d)

, β0(v)) est m´elang´e comme suit

β 00(1) = (β 0(d) 1 , . . . , β 0(d) I , β 0(v) I+1, . . . , β 0(v) p )0 β 00(2) = (β 0(v) 1 , . . . , β 0(v) I , β 0(d) I+1, . . . , β 0(d) p )0; sinon, β00(1)= β 0(d) et β00(2) =β 0(v) . Aussi, Pr(Y=1) =ξ.

5. L’´etape pr´ec´edente est r´ep´et´ee jusqu’`a ce queH(1)soit vide. Alors,G(2)= {β

00(1)

, . . . , β00(m)}

est obtenu.

6. Pour chacun des m×p param`etres contenus dans G(2), ils sont remplac´es, avec une probabilit´e γ, par un param`etre tir´e au hasard dans Ω. Cette ´etape correspond `a la mutation.

Les ´etapes 2 `a 6 peuvent ˆetre r´ep´et´ees un grand nombre de fois. L’algorithme g´en´etique obtient de meilleurs r´esultats que la m´ethode simulated annealing dans Dorsey and Mayer(1995).

Une derni`ere approche pour obtenir un bon vecteur initial s’inspire de la technique pro- pos´ee parSeneta(2004) pour le mod`ele Variance-Gamma. L’id´ee est de supposer un param`etre ´

egal `a 0 afin de calculer analytiquement les autres par la m´ethode des moments. Pour le mod`ele de Merton, βMerton = (θ, σ, λ, τ, δ)0, il suffit de poser θ=0 et d’utiliser l’estimation propos´ee par Press et pr´esent´ee `a la sous-section1.2.3. Similairement pour le mod`ele de Tsay,

βTsay = (θ, σ, λ, κ, η)0, une estimation analytique est obtenue par les ´equations 4.6, 4.7, 4.8

Documents relatifs