• Aucun résultat trouvé

Dans cette section, nous utilisons les exemples 2.1 et 2.2 ci-dessus pour illustrer le lien entre la solution de viscosité et la fonction que l’on obtient en utilisant l’algorithme sous-optimal avec la norme L2 (equation (4.1.6)). Pour cela, nous allons utiliser un noyau

kV = X n∈Z

1

(1 +|n|2)sv en

dont le paramètre sv va tendre vers 0. Nous terminons cette section en illustrant la

convergence de la fonction source vers la fonction cible dans le cas des fonctions sinus présentées à la fin de la section 6.2.

La méthode numérique que nous utilisons pour discrétiser le système

             ∂tft(x) + vt(x)· ∇xft= 0 ∀ (t, x) ∈ (0, T ) × R, vt = kV ⋆ (∇ft (ft− g)) , f (0, x) = f0(x), ∀ x ∈ R.

est celle décrite dans la section 4.4.

Commençons par l’exemple 2.1 dans lequel la fonction source est f0(x) = |x| et la

fonction cible est g = 0. D’après la formule (6.3.4), la solution de viscosité est donnée par

f (t, x) = √|x| 1 + 2t.

Numériquement, on se restreint à l’intervalle [−1, 1]. La figure suivante représente la suite de fonctions f(tn,·), sur l’intervalle [−1, 1], pour tn appartenant à une discrétisation

Figure6.4 – Évolution théorique de la solution de viscosité.

On introduit la notation ˜fsv(t

n, x) pour désigner la fonction qui est calculée par

l’algorithme sous-optimale au temps tn avec un noyau dont le paramètre est sv ≥ 0. On

donne ensuite la même représentation pour la fonction ˜fsv(t

n,·) que celle que nous venons

de donner pour la fonction théorique f(t, ·). De plus, on fait varier le paramètre sv dans

l’ensemble {1, 0.5, 0.25, 0.05}. Cela nous donne les figures suivantes.

Figure 6.6 – Évolution de l’algorithme sous-optimal pour sv = 0.5.

Figure6.8 – Évolution de l’algorithme sous-optimal pour sv = 0.05.

Les figures6.4 et 6.8 sont proches ce qui va dans le sens d’une convergence de ˜fsv vers

la solution de viscosité f quand sv tend vers 0. Cependant, la convergence est assez lente

et une bonne adéquation nécessite de prendre un paramètre sv très petit.

Une autre illustration possible consiste à estimer numériquement la distance uniforme entre ˜fsv et f sur l’ensemble temps/espace correspondant à [0, 2] × [−1, 1]. On définit donc

la fonction : D(sv) = sup (t,x)∈ [0,2]×[−1,1] f˜sv(t, x)− f(t, x) , sv ∈ [0, 1].

Une estimation directe de la fonction D sur [0, 1] nous donne la figure ci-dessous. Comme la convergence est lente, on présente aussi le graphe de D élevée à la puissance 8.

Figure 6.9 – À gauche : distance uniforme sur [0, 2] × [−1, 1] entre la solution théorique et la sortie de l’algorithme sous-optimal, en fonction du paramètre sv ∈ [0, 1]. À droite :

même fonction élevée à la puissance 8.

f0(x) = (1− |x|) 1[−1,1]. D’après la formule (6.3.5), la solution de viscosité est

f (t, x) = (1− |x|) 1[−1,1]×

s

1 2t + 1.

Numériquement, l’application de cette formule nous donne l’évolution suivante :

Figure 6.10 – Évolution de la solution de viscosité pour le deuxième exemple.

À nouveau, l’algorithme sous-optimal nous donne une suite de fonctions qui se rap- prochent de la solution de viscosité quand sv devient petit (on pourra comparer les figures

6.10 et 6.13).

Figure6.12 – Évolution de l’algorithme sous-optimal pour sv = 0.5.

Figure6.13 – Évolution de l’algorithme sous-optimal pour sv = 0.05.

Enfin, le calcul de la distance uniforme entre les deux fonctions nous donne le même résultat que pour le premier exemple.

Figure 6.14 – Distance uniforme sur [0, 2] × [−1, 1] élevée à la puissance 8, pour le deuxième exemple.

Nous terminons en illustrant les propriétés obtenues à la fin de la section 6.2. Nous avons vu que la solution de viscosité convergeait vers la fonction cible dans différentes situations. Certaines situations ne sont pas réalistes du point de vue du recalage. Nous avons par exemple considéré le cas des fonctions f0 = sin(10πx) et g(x) = sin(2πx)

en se limitant à l’intervalle [0, 1]. Nous avons vu que la solution de viscosité associée à ces données allait converger vers la cible g. La figure suivante montre que l’algorithme sous-optimal, utilisé avec un paramètre sv petit (ici sv = 0.1), fait la même chose.

Figure 6.15 – L’image en haut à gauche représente la source en bleu et la cible en rouge. Les autres images représentent l’évolution de l’algorithme (de gauche à droite et de haut en bas) pour sv = 0.1.

est alors plus naturelle au sens où l’algorithme fait de son mieux pour déformer f vers g, même si c’est impossible.

Chapitre 7

Change-point analysis.

7.1

Introduction.

Consider a realization of a centered Gaussian process Y = (Yn(k)) with a change in

variance at an unknown moment t⋆ ∈ (0, 1),

Yn(k) = Yn(1)(k) 1k6[nt⋆] + Yn(2)(k) 1k>[nt], n∈ N⋆, 1≤ k ≤ n. (7.1.1) Here Y(1) =ÄY(1) n (k) ä and Y(2) =ÄY(2) n (k) ä

are two stationary Gaussian sequences such that ÄY(1), Y(2)ä is a zero mean Gaussian process with values in R2. The processes Y(1)

and Y(2) have distinct variance parameters : for each n ∈ N

EhÄY(1) n (k) ä2i = σ2 1,n and E hÄ Y(2) n (k) ä2i = σ2 2,n, ∀ k ∈ N with σ2

1,n6= σ2,n2 . The problem is to estimate the moment t⋆ of change in variance of the

process Y.

The change-point problem is a classical problem of statistics that has been studied for more than fifty years (see [31,19,10,22] and the references therein for the state-of-the-art). In the case of independent data, the theory is well developed, especially in the case of the change in mean where the CUSUM statistics is optimal with the rate of convergence of order O(n−1) [31]. The case of the change in variance is reduced to the problem of a

change in mean for the squared observations which leads to chi-squared type statistics [31, 46, 41]. The case of dependent data is much less studied. Lavielle and Moulines [52] considered the problem of estimation of multiple changes in mean for time series under certain mixing conditions. Further this result was extended in [50] to the case of detecting changes in the parameter of a marginal distribution function of a sequence of dependent variables. In [51] the problem of detecting an unknown number of change-points in the spectrum of a second-order stationary random process was considered. Some earlier work on the change-point estimation in the spectral density of a time series includes the works of Giraitis and Leipus [53, 37] and Picard [69].

The usual approach suggests to introduce a contrast function estimating a parameter before and after the change and then use the point of its maximum as a change-point estimator. The design of a contrast function depends a lot on the covariance structure of the data. Surprisingly, the rate of convergence in the change-point problems does not depend much on the dependency structure. It has been shown (see [50] and [51]), that the correlation structure does not alter the asymptotic behavior of change-point estimators and their rate of convergence remains to be of order O(n−1) like in the case of independent

observations.

We will focus on the problem of estimating a change-point in variance for centered stationary Gaussian sequences (7.1.1). The main feature of our model is that we work with infill data. This mean that the nature of the data can evolve jointly with the size of the

sample. Basically, we will not work with sequences but with arrays of random variables. From here, a further difficulty arises because the disorder quantity σ2

1,n− σ2,n2 may vanish

when the sample size n goes to infinity.

We propose a contrast function based on p-variation statistics and study its asymptotic behaviour. We prove a central limit theorem for p-variations in the case when the sequence is no longer stationary but piecewise stationary (see TheoremC.6). This result provides us with an information about asymptotics of the fluctuations of the contrast function around its mean function (see Theorem 7.2). As a consequence, we get the consistency of the change-point estimator and the first rough bound on the rate of convergence. Then, we will use the theory developed in [12] to analyze precisely the rate of convergence of the estimator. We will see that despite the ’infill’ framework characteristics of our data (in particular the progressive disappearance of the contrast), a suitable choice of a contrast function and the Gaussianity of our data allow us to obtain the optimal rate in O(n−1).

One of the main tools of the study presented here is an invariance principle demonstrated in [9]. This result is related to the asymptotic behavior of partial sums of functions of stationary Gaussian sequence. The use of the Malliavin calculus, the Wiener chaos representation and a powerful theory developed by Nourdin, Nualart, Ortiz-Latorre, Peccati, Tudor and other authors (see, for example, [62, 64,63]) allows to generalize central limit theorems for nonlinear functionals of stationary Gaussian processes initially obtained in [17] to more complex situations. In particular, we can consider p-variations instead of classical quadratic variations [48] for p = 2, often used for estimating the Hurst parameter [40].

We apply our general result to the estimation of the moment of change in the Hurst parameter of a fractional Brownian motion (fBm) observed on a discrete grid. More precisely, consider two fractional Brownian motions (WH1(t))t∈[0,1] and (WH2(t))t∈[0,1] with

Hurst parameters H1 and H2 ∈ (0, 1). Given a change-point t⋆ ∈ (0, 1), assume that we

observe a trajectory of the process

Xn(k) =          WH1( k n) k 6 nt ⋆, ∆n( t⋆) + WH2( k n) k > nt ⋆.

The variable ∆n( t⋆) is the correction due to the discretization of continuous paths,

∆n( t⋆) = WH1 Ç [nt⋆] n å − WH2 Ç [nt⋆] n å . A typical realization of Xn is presented in Figure 7.1.

The estimation of t⋆ corresponds to the change-point in variance problem described

above. Indeed, if we consider the increments of Xn, namely

Yn(k) = Xn(k)− Xn(k− 1),

then the process Yn(k) satisfies the definition of process (7.1.1). Note that this process

depends on n, the size of the grid, and that it might be highly correlated. This process has the so-called long-range dependence property when H > 1/2. More precisely, this means that

H > 1/2 =⇒ X

l∈Z

|E [Yn(k + l)Yn(k)]| = +∞.

We will show that independently of the long memory parameter H, our estimator has the same rate of convergence O(n−1).

Let us note that the main focus of this paper is the estimation of a single change-point. The method could be generalized to the multiple change-point case as, for example, it was done in [50, 51] or [5] and [13].