• Aucun résultat trouvé

Application en test statistique

Dans cette section nous allons illustrer l’in´egalit´e de superconcentration (4.8), obtenue pour un ´echantillon gaussien, sur un probl`eme de test statistique ´etudi´e dans [3]. Dans cet article les auteurs utilisent des r´esultats de concentration classique, `a savoir (1.13), pour obtenir une r´egion d’acceptation de leur test. En utilisant le mat´eriel d´evelopp´e durant cette th`ese, la conclusion de leur article peut-ˆetre renforc´e dans certains cas sous la forme d’une borne de superconcentration. En suivant le cadre et les notations de [3], nous observons un vecteur gaussien X = (X1, . . . , Xn)

et ´etudions le test d’hypoth`eses suivant :

— Sous l’hypoth`ese nulle H0, les coordonn´ees de X sont ind´ependantes et identiquement

distribu´ees selon une loi normale standard. Notons alors par P0 et E0 respectivement les

mesures de probabilit´es et les esp´erances sous jacentes, sous l’hypoth`ese H0.

— Pour d´ecrire l’hypoth`ese alternative H1, consid´erons une classe C = {S1, . . . , SN} de N

ensembles d’indices tels que Skµ {1, . . . , n} pour tout k = 1, . . . , N. Sous H1, il existe un

ensemble S œ C tel que

Xi a pour loi

;

N (0, 1) si i œ Sc,

N (µ, 1) si i œ S,

avec µ > 0 un param`etre strictement positif. Les coordonn´ees de X sont suppos´ees ind´ependantes sous H1 ´egalement. Pour tout S œ C, notons alors par PS et ES res-

pectivement les mesures de probabilit´es et les esp´erances sous jacentes, sous l’hypoth`ese

H1. Nous supposerons aussi que tous les ensembles S œ C poss`edent le mˆeme nombre

d’´el´ements Card(S) = K.

Rappelons qu’un test est une fonction `a valeurs binaire f : Rn

æ {0, 1}. Si f(X) = 0, le test accepte l’hypoth`ese nulle, tandis qu’elle rejette H0 si f(X) = 1. Comme dans [3], mesurons le

risque associ´e au test f par

R(f) = P0!f(X) = 1)" + 1 N

ÿ

SœC

PS!f(X) = 0)".

Les auteurs de [3] cherchent `a d´eterminer, ou au moins `a estimer, la valeur de µ sous laquelle le risque peut-ˆetre rendu petit. Parmi d’autres r´esultats, ils utilisent un test bas´e sur le maximum, appell´e leπtest de scan∫, pour lequel ils montrent que

f(X) = 1 ≈∆ 2 max SœCXS Ø µK + E0 Ë max SœCXS È o`u XS = qiœSXi pour un ensemble S œ C. Ils obtiennent le r´esultat suivant.

Proposition 4.5.1. Le risque du test f, associ´e au maximum, satisfait R(f) Æ ” `a condition que µØ 1 KE0 Ë max SœCXS È + 2 Ú 2 Klog 2 ”.

En utilisant (4.8), cette borne peut-ˆetre am´elior´ee en refl´etant l’ordre de grandeur correct de la variance du maximum d’un vecteur gaussien standard.

Proposition 4.5.2. Pour tout n Ø 2, le risque du test f v´erifie R(f) Æ ” lorsque µØK1 E0 Ë max SœCXS È + log6 ◊ 2 cÔKlog N avec c > 0 une constante num´erique.

D´emonstration. Nous suivons la d´emonstration de [3] pour obtenir simultan´ement, pour tout

tØ 0, P0 1 max SœCXS Ø E0 Ë max SœCXS È + t2Æ 3e≠ctÔlog(N)/K

et, pour tout S œ C, PS 1 max SÕœCXSÕ Æ µK ≠ t 2 Æ PS 1 max SÕœCXSÕ Æ ESÕ Ë max SÕœCXSÕ È ≠ t2 Æ 3e≠ctÔlog(N)/K

puisque, sous H1, pour un ensemble S œ C fix´e, µK = ES[XS] Æ ES[maxSÕœCXSÕ] et XS est de

mˆeme loi que n’importe quel XSÕ. Posons alors t tel que

2t = µK ≠ EËmax

SœC XS

È

qui est positif d’apr`es les hypoth`eses. A l’aide des in´egalit´es pr´ec´edentes, nous obtenons une majoration du risque

R(f) Æ 6e≠ctÔlog(N)/K

qui permet d’obtenir R(f) Æ ” comme annonc´e dans la proposition.

La nouvelle borne obtenue dans la proposition4.5.2 est aussi bonne que celle de la propo- sition 4.5.1 lorsque ” ƒ 1/N– avec – > 0. Elle est meilleure que celle de la proposition 4.5.1

lorsque ” ƒ 1/ log–(N) avec – > 0. N´eanmois, la proposition4.5.1est plus performante que la

proposition4.5.2lorsque ” ƒ e≠N–

, avec – > 0. Cependant, il n’est peut-ˆetre pas pertinent de consid´erer un risque si petit.

Chapitre 5

Extremalit´e

Ce chapitre reprend une th´ematique pr´esente dans le livre de Chatterjee [48]. Dans son ouvrage, Chatterjee propose une m´ethode alternative `a l’hypercontractivit´e pour obtenir de la superconcentration. Il s’agit de la notion d’extremalit´e, reposant sur la taille de l’esp´erance du maximum. Apr`es une br`eve introduction `a cette notion, nous proposons d’utiliser des outils hypercontractifs pour ´etendre, au niveau exponentiel, les r´esultats de Chatterjee. Une in´egalit´e de concentration similaire `a ´et´e obtenue dans [69], nous comparons notre r´esultat au leur en dernier lieu.

5.1 Introduction

Le cadre est le suivant : nous consid´erons un vecteur gaussien centr´e X = (X1, . . . , Xn) dans

Rn, n Ø 1 de matrice de covariance et nous supposons que Var(X

i) = 1, ’i œ {1, . . . , n}. A

nouveau, le maximum des coordonn´ees du vecteur X sera not´e par Mn= maxi=1,...,nXi. D’apr`es

Chatterjee, [48], le vecteur X est dit extremal si E[Mn] se comporte comme le cas ind´ependant,

autrement dit E[Mn] ƒ Ô2logn. De nombreux mod`eles gaussiens, pr´esent´es dans le chapitre

deux, v´erifient cette propri´et´e : mod`eles de percolation, le mod`ele de verres de spin de Sherrington et Kirpatrick, le champ libre gaussien discret sur Z2, suite gaussienne stationnaire,. . . (cf. [48]).

Par la suite, nous noterons par – œ]0, 1[ le rapport E[Mn]

Ô2logn = –. Dans son livre [48], Chatterjee a obtenu le th´eor`eme suivant

Th´eor`eme 5.1.1. Pour n Ø e et tout – œ]0, 1[, nous avons la majoration suivante

Var(Mn) Æ C

1 ≠ – +3 loglog nlog n 41/46

avec C > 0.

Remarque. Cette approche est une mani`ere alternative `a la m´ethode hypercontractive pour

am´eliorer l’in´egalit´e de Poincar´e satisfaite par la mesure gaussienne “n sur Rn. Rappelons, une

fois de plus, que cette in´egalit´e fonctionnelle s’exprime commes suit, pour f : Rn

æ R suffisam- ment r´eguli`ere,

Var“n(f) Æ

Rn|Òf| 2d“

n. (5.1)

Appliqu´ee `a la fonction f(x) = maxi=1,...,nxi, elle fournie

Var(Mn) Æ 1.

Comme nous le savons, ceci est loin d’ˆetre optimal. Chatterjee sugg`ere dans son livre que l’ex- tremalit´e du vecteur X entraine que Mn est superconcentr´e. En effet, si – = 1 ≠ ‘n avec ‘næ 0

lorsque n æ Œ alors le th´eor`eme (5.1.1) entraine la majoration suivante , pour tout n Ø e, Var(Mn) Æ C max 3 Ô n,3 loglog nlog n 41/44 .

Cette borne ´etant meilleure que celle obtenue via (5.1), nous obtenons donc de la superconcen- tration pour Mn.

Cette notion d’extr´emalit´e est ´egalement utilis´ee dans l’article [69], dans lequel les auteurs obtiennent l’in´egalit´e de concentration suivante

Th´eor`eme 5.1.2. Pour tout 0 Æ t Æ C–Ôlogn, avec C–= –/100, – œ]0, 1[ et n Ø 2, on a

P!|Mn≠ E[Mn]| Ø t"Æ Cet2

2[1≠c(–)], (5.2)

avec c(–) = 2–210≠6 , C > 0.

Remarque. Il est important de faire quelques commentaires sur le th´eor`eme pr´ec´edent. Celui-ci

doit ˆetre compar´e avec la concentration gaussienne classique (1.13) (cf. [112]). Celle-ci fournissant, pour le choix de la fonction lipschitzienne f(x) = maxi=1,...,nxi, le r´esultat suivant

P!|Mn≠ E[Mn]| Ø t"Æ 2e≠t

2/2

, tØ 0. (5.3)

Il est ´evident que l’in´egalit´e (5.2) est meilleure que celle fournie par la concentration classique (cf. par exemple (5.3)) pour les petites valeurs de t (i.e. lorsque t Æ CÔlogn). Ceci sugg`ere donc que l’extremalit´e de X renforce la concentration du maximum. Nous comparerons `a la fin de cette section l’in´egalit´e (5.2) avec notre r´esultat.

En combinant des arguments hypercontractifs `a la d´emonstration de Chatterjee (du th´eor`eme

5.1.1), nous obtenons le th´eor`eme suivant

Th´eor`eme 5.1.3. Sous le cadre pr´ec´edent, pour tout ◊ œ R et tout n Ø e, nous avons

Var(e◊Mn/2) Æ 2

4 C

1 ≠ – +3 loglog nlog n 41/44E[e◊Mn]. En particulier, cela entraine que, pour tout t Ø 0,

P(|Mn≠ E[Mn]| Ø t) Æ 6e≠ct/

ÔÔ1≠–+‘

n, (5.4)

avec c > 0 et ‘n= log log n1 .

Remarque. On constate facilement que l’int´egration de (5.4) entraine, pour n Ø e, Var(Mn) Æ C

1 ≠ – +log log n1 4

qui est similaire au r´esultat de Chatterjee (th´eor`eme 5.1.1) et montre que l’extremalit´e en- traine de la superconcentration. Toutefois cette m´ethode est clairement non-optimale, comme on peut le constater sur l’exemple classique du maximum des coordonn´ees d’un vecteur gaussien ind´ependant, et n’entraine qu’une l´eg`ere am´elioration de l’in´egalit´e de Poincar´e. N´eamoins, elle conserve un int´erˆet puisqu’il est en g´en´eral difficile d’obtenir des bornes optimales sur la va- riance de Mn(rappelons par exemple le cas du champ libre discret gaussien sur Z2et les articles

de Zeitouni et al.), tandis que l’estimation de l’esp´erance de Mn peut-ˆetre obtenue de mani`ere

plus algorithmique. Nous renvoyons pour cela le lecteur, lorsqu’une structure d’arbre est sous- jacente, au cours de Kistler [104] qui expose de quelle mani`ere les m´ethodes deπsecond moment

modifi´ee∫ peuvent facilement fournir des asympotiques pr´ecises de E[Mn]. D’un point de vue

plus th´eorique, l’´etude de supremum de variables gaussiennes `a ´et´e achev´ee par Talagrand dans [153,156] via des m´ethodes de chainage et de mesures majorantes.

Le reste de ce chapitre est organis´e de la mani`ere suivante : tout d’abord nous pr´esentons la d´emonstration du th´eor`eme5.1.3, ensuite nous ferons un rapide survol de la litt´erature concernant les champs gaussiens extremaux et comparerons notre r´esultat `a celui de [69].