• Aucun résultat trouvé

Estimation locale : compromis régression-variance

N/A
N/A
Protected

Academic year: 2021

Partager "Estimation locale : compromis régression-variance"

Copied!
5
0
0

Texte intégral

(1)

HAL Id: hal-00539212

https://hal.archives-ouvertes.fr/hal-00539212

Submitted on 24 Nov 2010

HAL

is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire

HAL, est

destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Olivier Barrière, Jacques Lévy Véhel

To cite this version:

Olivier Barrière, Jacques Lévy Véhel. Estimation locale : compromis régression-variance. Colloque

GRETSI, Sep 2007, Troyes, France. pp.593-596. �hal-00539212�

(2)

Estimation locale : compromis r´ egression-variance

OlivierBarri`ere1, JacquesL´evy-V´ehel2

1IRCCyN, 1 rue de la No¨e BP 92101, 44321 Nantes Cedex 03, France

2INRIA Rocquencourt, Domaine de Voluceau BP 105, 78153 Le Chesnay Cedex, France olivier.barriere@irccyn.ec-nantes.fr, jacques.levy-vehel@inria.fr

R´esum´e –Nous proposons une m´ethode permettant sous certaines hypoth`eses de diminuer la variance d’un estimateur optimal sans d´egrader son risque, en utilisant conjointement plusieurs estimateurs grˆace `a une technique tr`es simple pour arriver `a un estimateur hybride profitant du meilleur des deux. Cette m´ethode peut s’appliquer dans de nombreux cas, typiquement `a des estimateurs obtenus par r´egression lin´eaire.

Abstract – We present a method allowing under some hypothesis to decrease the variance of an optimal estimator without causing damage to its risk, using many estimators jointly, thanks to a very basic technique leading to a hybrid estimator that takes advantage of the best of them. This method can be applied in various fields, typically on estimators that were obtained using linear regressions.

1 Introduction

SoitX(t) un processus qui d´epend d’un param`etre fonc- tionnelα(t). L’estimation de α(t) est un probl`eme usuel qui a de nombreuses applications en traitement du signal et des images. Classiquement, le probl`eme `a r´esoudre s’ex- prime comme la recherche d’un estimateur minimisant le risque, c’est `a dire r´ealisant le meilleurcompromis biais- variance : on parvient alors `a la solution optimale en r´esolvant l’´equationbiais2≈variance[1] [2]. Cependant, en ce qui concerne l’aspect visuel, la variance apparaˆıt plus perturbante que le biais parce qu’elle introduit des fausses irr´egularit´es que l’on peut confondre avec les vraies irr´egularit´espropres `aα[3]. A risque constant, un estimateur ayant une variance plus faible est donc sou- vent pr´ef´erable.

Nous proposons une m´ethode g´en´erale permettant de r´eduire la variance d’un estimateur ˆα2sans augmenter son risque, `a condition que l’on dispose d’un autre estimateur αˆ1et que certaines hypoth`eses reliant les biais et variances de ces deux estimateurs soient v´erifi´ees. Cette technique tr`es simple ne n´ecessite presque aucun calcul suppl´emen- taire une fois qu’ ˆα1 et ˆα2 ont ´et´e obtenus.

Une situation typique o`u notre m´ethode s’applique est la suivante : supposons que l’on connaisse un estimateur αˆ1qui est performant dans le cas o`u c’est bien le processus Xqui est observ´e, mais fortement biais´e quand c’estG·X qui est observ´e, o`u Gest une constante. Pour ´eliminer le biais dˆu `a G, on d´efinit g´en´eralement un deuxi`eme esti- mateur ˆα2calcul´evia une r´egression lin´eaire sur plusieurs

´echelles [4]. Cette technique ´elimine bien le biais d´etermi- niste dˆu `a G, mais souvent au prix d’une forte augmen- tation de la variance. Nous disposons alors de deux esti- mateurs dont le premier pr´esente un fort biais mais une petite variance, et le second poss`ede une grande variance.

La technique que nous proposons permet ici de garder le meilleur des deux mondes, c’est `a dire de diminuer la variance de ˆα2 tout en gardant son aspect optimal.

Nous pr´esentons la m´ethode dans un cadre g´en´eral dans la section 2, et nous l’appliquons pour l’estimation de la r´egularit´e locale d’un processus fractal dans la section 3.

Nous pensons que cette approche pourrait ˆetre mise `a pro- fit dans divers cadres autres que celui de la r´egression.

2 Principe

2.1 Hypoth` eses

On cherche ici `a estimer une fonctionα, param`etre d’un processusX(t) =Xα(t)(t) index´e part∈Iun intervalle de R, `a partir d’un ´echantillonnage surNpoints. On suppose que l’on dispose de deux estimateurs de cette fonction, ˆα1 et ˆα2, eux-mˆemes param´etr´es par des r´eelsδ1etδ2. Notons alors :

B(Ni )i, t) = E( ˆαii, t))−α(t) Vi(N)i, t) = E‡

ii, t)−E( ˆαii, t)))2

·

R(Ni )i, t) = Bi(N)i, t)2+Vi(N)i, t) et°°°Bi(N)i)°°°

= sup

t∈I

B(Ni )i, t)·

, etc., i= 1,2

Posons les hypoth`eses suivantes : Il existe des para- m`etresδ1 etδ2tels que :

(3)

¨

§

¥

H1¦∃R(N)−−−→

N→∞ 0 tel que°°°Ri(N)i)°°°

≤R(N)

¨

§

¥

H2¦∀t B(N1 )1, t) =B1C(N)+B(N1V)1, t)

¨

§

¥

H3¦°°°B1V(N)1)°°°

=o

B1C(N)

·

¨

§

¥

H4¦°°°B2(N)(δ2)°°°

=o

B1C(N)

·

¨

§

¥

H5¦°°°V1(N)1)°°°

=o‡°°°V2(N)2)°°°

·

Nous disposons alors de deux estimateurs consistants (H1) : le premier pr´esente un biais en deux parties, dont une qui est ind´ependante detet de δ1 (H2) et pr´epond´e- rante (H3). Le second poss`ede un biais pas n´ecessairement ind´ependant det, mais dont la norme infinie est bien plus faible (H4) alors que sa variance est beaucoup plus forte (H5). Un cas typique o`u ces conditions sont v´erifi´ees est ce- lui o`u l’on observe non pas le processusX(t) maisG·X(t), o`u G est une constante d´eterministe, mais inconnue. Le biais du premier estimateur est dˆu `a ce facteur d’´echelle et il est n´ecessaire d’effectuer une r´egression lin´eaire pour s’en affranchir et ainsi obtenir le second estimateur au prix d’une augmentation de la variance.

Supposons de plust∈[0,1] et que pour des valeurs suf- fisamment ´eloign´ees en temps, les valeurs des estimateurs soient ind´ependantes (cette hypoth`ese peut ˆetre affaiblie et remplac´ee par une hypoth`ese sur la vitesse de d´ecrois- sance des corr´elations) :

¨

§

¥

H6¦ |t−t0| ≥Nδi−1 αˆii, t) et ˆαii, t0) ind´ependants

2.2 R´ esultat principal

Th´eor`eme 2.1. Soit l’estimateur αˆ d´efini pour tout t par :

¨

§

¥ ˆ ¦

α(t) = ˆα1(t)−<αˆ1>+ˆ2>

o`u < . > d´esigne la moyenne temporelle :

ˆi>=N1 PN

k=1

αˆi(tk)

Soient B etV respectivement le biais et la variance de αˆ. Alors, sous les hypoth`esesH1 `aH6, on a :

¯¯B(N)1, δ2, t)¯¯ 2°°°B1V(N)1)°°°

+°°°B(N2 )2)°°°

H3,H4

= o‡°°°B1(N)1)°°°

· V(N)1, δ2, t) V11, t) +O

Nδ2−1°°°V2(N)2)°°°

·

H=5 o‡°°°V2(N)2)°°°

·

Ce nouvel estimateur cumule le meilleur des deux mondes : son biais ne comporte plus la partie pr´epond´erante (constante) du biais de ˆα1, et dans le mˆeme temps sa variance reste n´egligeable par rapport `a celle de ˆα2. La figure 1 met en

´evidence ce r´esultat. On constate en outre que le second estimateur n’est utilis´e que dans l’unique but de faire dis- paraˆıtre cette partie constante.

Fig. 1 –A partir de ˆα1 et ˆα2 (en haut), on construit ˆα(en bas)

Le param`etre δ1 du premier estimateur sera classique- ment choisi de sorte qu’il r´ealise le meilleur compromis entre B1V(N)1)2 et V1(N)1). Il est important de noter qu’en revanche, δ2 ne sera pas la valeur qui minimise R(N2 )2), mais celle minimisantB2(N)2)2+N2−1)V2(N)2).

3 Exemple d’application

3.1 D´ efinition d’un processus fractal ` a par- tir de ses coefficients d’ondelettes

Pour illustrer le th´eor`eme 2.1, nous d´efinissons un pro- cessus `a r´egularit´e prescrite par ses coefficients d’onde- lettes : ils sont ind´ependants et d´efinis en loi par :

cj,kÃG· N‡ 0, σ2j,k

·

, v.a gaussienne centr´ee pour toutj= 0. . . n−1, k= 0. . .2j1

o`uσj,k= 2−jα(k2−j), α(t) =H(t) +12 suffisamment r´eguli`ere etG >0est un facteur d’´echelle d´eterministe

Soit (tn1, . . . , tn2n) un ´echantillonnage de l’intervalleI = [0,1] sur N = 2n points. En tout point t=tnk, on consi- d`ere l’ensemble '

cj,k(j,t), j= 0. . . n−1“

des coefficients d’ondelettes situ´es au dessus de lui, avec k(j, t) =

¥(t+ 1)2j+1−n¦

(Pour une raison de simplicit´e d’´ecriture, il sera simplement not´ekpar abus de notation).

Dans le but d’identifier la fonction α nous d´efinissons

(4)

αˆ1(δ, j, t)

Biais

δ < 23 O

2−jδ j

·log2j(G)

δ≥23 O¡

22j(2δ−2)¢

log2j(G) optimal δB1 23ln

µ

j2β2 ln(2)2 6

3jln(2)

j=n−1

Variance O

2−jδ j2

·

Risque optimal (G= 1) δR1 45ln

µ

j4β4 ln(2)4 72

5jln(2)

j=n−1 αˆ2(δ, m, t)

Biais

δ < 23 O

2−(n−m)δ m2

·

δ≥23 O

(n−m)2β22(n−m)(2δ−2)

m2

·

optimal δB2 23ln

µ(n−m)2β2 ln(2)2 6

3(n−m) ln(2)

m≈2

Variance O

2−(n−m)δ m4

·

Risque optimal δR2 45ln

µ(n−m)4β4 ln(2)4 24

5(n−m) ln(2)

m≈6

deux estimateurs :

Avec pr´emoyennage : αˆ1(δ, j, t)

2j1 log2 ˆ

2p+11

Pp i=−pc2j,k+i

!

Pr´emoyennage et r´egression : αˆ2(δ, m, t)

m(m−1)(m+1)12 n−1P

j=n−m

¡j−2n−m−12 ¢



log2

ˆ

2p+11

Pp i=−pc2j,k+i

! 2



Le pr´emoyennage s’effectue sur2p+ 1 =¥ 2¦

coefficients avec0< δ <1et la r´egression sur lesmderniers niveaux.

Grˆace `a ce processus simple, `a voir comme un outil permettant de mener des calculs explicites, nous pouvons alors obtenir des ´equivalents pr´ecis pour les biais, variances, et param`etres optimaux de ces estimateurs, en fonction du nombre de coefficientsN = 2n, de la largeur de l’intervalle de pr´emoyennage ajust´ee parδ, de l’´echellej, du nombre de niveaux de r´egressionmet de la valeur de la d´eriv´ee de αent, βj,k. Ces r´esultats sont regroup´es dans le tableau suivant :

Il reste maintenant `a s’assurer que les hypoth`eses du th´eor`eme 2.1 sont v´erifi´ees : les deux estimateurs sont consistants (H1), le biais de ˆα1 est bien en deux parties (H2) et la seconde partie en log2j(G) est pr´epond´erante devant 2−jδj d`es que Gest diff´erent de 1 (H3). En outre,

´etant donn´e qu’il n’y a pas de chevauchement pour des points suffisamment ´eloign´es en temps, on obtient (H6)

grˆace `a l’ind´ependance des coefficients d’ondelettes.

Fig. 2 – δ1 choisi pour minimiser le risque standard de α1(δ, j, t) (en haut), etδ2pour minimiser le biais deα2(δ, m, t) (en bas)

Enfin, un r´eglage optimal des param`etres des deux esti- mateurs va permettre de valider les deux derni`eres hypo- th`eses. Pour ˆα1, il faut choisirjle plus grand possible, soit j =n−1 etδ1de sorte qu’il minimise le risque de l’esti- mateur sans la partie constante du biais. Nous prendrons doncδ1=δR1 (figure 2 `a gauche).

En ce qui concerne ˆα2, il faut chercher `a minimiser B(N2 )2)2+N2−1)V2(N)2). Or∀δ2, N2−1)V2(N)2) = O¡

N−1¢

, o`u δ2 n’apparaˆıt plus en puissance. Par cons´e- quent, la minimisation revient essentiellement `a minimiser le biais, soit une r´egression sur deux niveaux, etδ2=δB2 (figure 2 `a droite).

Comparons maintenant la variance de ce nouvel estima- teur avec ses param`etres optimaux ˆα¡

R1, n−1),(δB2,2)¢ avec celle de ˆα2¡

δR2,

, qui r´ealise le meilleur compromis sans cette m´ethode, en se pla¸cant dans le cas asympto- tique :

V ¡¡

δR1, n−,¡

δB2,2¢¢

= O

µ

2−nδR1 n2 + 2−n

= O

µ

2−nδR1 n2

¶ et V2¡

δR2,

= O

2−nδR2·

On remarque que mˆeme si les taux exponentiels de conver- gences asymptotiques optimaux sont les mˆemes pour ˆαet αˆ2, la pr´esence du terme 1/n2 assure de r´eduire la va- riance. De fait, ˆαdonne de meilleurs r´esultats`a l’oeil que ˆα2. Ceci est illustr´e par la figure 1, obtenue en im-

(5)

pl´ementant les trois estimateurs pour le processus d´ecrit ci-dessus ´echantillonn´e sur 216 points.

Notons par ailleurs que les param`etres optimaux asymp- totiques 4/5 et 2/3 ne sont atteint que pour des tailles de signaux inaccessibles, de l’ordre de 2200. En pratique, ils sont proches de 0.65 et 0.5 pour des valeurs raison- nables des param`etres, comme on le constate sur figure 2 : celle ci repr´esente les choix optimaux deδ1et δ2pour un ´echantillonnage sur 216points et la fonction αpr´esen- t´ee sur la figure 1.

La mˆeme principe a ´et´e appliqu´e avec succ`es sur des mouvements Browniens multifractionnaires [4], o`u H(t) est estim´e soit par des oscillations, soit par des varia- tions quadratiques g´en´eralis´ees, et il est impl´ement´e dans la boˆıte `a outils FracLab [5].

R´ ef´ erences

[1] Jacques Istas et Gabriel Lang, Quadratic variations and estimation of the local Holder index of a gaussian process. Ann. Inst. Poincar´e, Vol. 33, n 4, p. 407–

436, 1997.

[2] X. Guyon et G. Leon, Convergence en loi des h−variations d’un processus Gaussien stationnaire, Ann. Inst. Poincar´e 25, 265-282, 1989.

[3] David L. Donoho, De-noising by soft thresholding, IEEE Transactions on Information Theory, 1994.

[4] Antoine Ayache et Jacques L´evy-V´ehel, Identification of the pointwise Holder exponent of Generalized Mul- tifractional Brownian Motion, Stochastic Processes and their Applications 111, 119-156, 2004.

[5] FracLab, A fractal analysis toolbox for signal and image processing, http://www.irccyn.ec-nantes.

fr/FracLab/

Références

Documents relatifs

R´esum´e : Dans le contexte des Processus de D´ecision Markoviens (PDM) `a grands espaces d’´etats avec approximation lin´eaire de la fonction de valeur, nous proposons un

• Standardiser la mise en forme des fonctions de calcul de variance, avec des fonctions déjà présentes dans le package, pour permettre au chargé d’études de récupérer une

(2011) ont montré que l’estimateur proposé par Berger et Priam (2010) peut donner des estimations plus précises que les estimateurs de variance standard (Tam, 1984 ; Qualité et

Remarque : le nombre de degrés de liberté de l’interaction faisant intervenir la quantité (ν – 1), il en résulte qu’il est nécessaire de disposer d’au moins deux résultats

ABSTRACT: Expressing the density of the determinant of a sample covariance matrix in terms of Meijer’s G-function , we provide a confidence interval for the determinant if

Pour tout r , nous plongeons ïïl dans JR et nous notons V.. De même, une matrice M.. 2) L'hypothèse (H ) signifie que l'influence d'un facteur pris isolé- ment n'est pas

Abstract: For a large class of distributions and large samples, it is shown that estimates of the variance σ 2 and of the standard deviation σ are more often Pitman closer to

Universit´ e Pierre et Marie Curie LM256 : Analyse vectorielle, int´ egrales multiples Ann´ ee universitaire 2009–2010 1er semestre, 1` ere session.. Examen du 12