• Aucun résultat trouvé

et on d´efinit le temps d’arrˆet de la r`egle du “CUSUM approch´e” comme suit :

ˆt = inf ( n : max 1≤j≤n n X i=j ˆ Zi,jN ≥ h ) . (4.1)

Dans le chapitre 2, nous avons ´evoqu´e les nombreux r´esultats d’optimalit´e pour les r`egles classiques, et notamment pour celle du CUSUM. Une des premi`eres ques-tions essentielles est donc de savoir quelles sont les propri´et´es d’une r`egle de d´ecision construite `a partir des estimations des vraisemblances, et plus particuli`erement, si l’optimalit´e est conserv´ee, et sous quelles hypoth`eses. Pour cela, revenons un peu plus en d´etails sur ces r´esultats d’optimalit´e.

4.2 Optimalit´e de la r`egle du CUSUM

G´en´eralement, l’optimalit´e d’une r`egle de d´ecision s’obtient en deux ´etapes. D’une part, en consid´erant tout un ensemble de r`egles v´erifiant une contrainte fix´ee,

Optimalit´e de la r`egle du CUSUM

on cherche `a ´etablir une borne inf´erieure pour le crit`ere d’optimalit´e choisi. Et dans un second temps, on montre que la r`egle en question v´erifie la contrainte, et atteint la borne inf´erieure.

Les premiers r´esultats d’optimalit´e pour la r`egle du CUSUM ont ´et´e obtenus par Lorden [62] dans un cadre asymptotique et pour des donn´ees ind´ependantes pour le crit`ere du pire retard moyen `a la d´etection ¯Eθ1(.) (d´efini en (2.11)), sous la contrainte ARL du temps moyen entre deux fausses alarmes. Toujours pour des donn´ees ind´ependantes, Moustakides [70] et Ritov [86] ´etablissent l’optimalit´e dans un cadre non asymptotique.

Dans le cas de donn´ees d´ependantes, l’´etude des propri´et´es d’optimalit´e repose sur la stabilit´e du logarithme du rapport de vraisemblance. Tous les r´esultats d’op-timalit´e propos´es ces derni`eres ann´ees supposent donc plus ou moins fortement que la quantit´e 1/nPk+n−1i=k Zi tend vers une constante I. Dans le cas de donn´ees ind´ependantes, cette hypoth`ese est v´erifi´ee et I repr´esente l’information de Kulbach-Leibler entre les distributions sous H0 et H1.

Les premiers r´esultats d’optimalit´e pour la r`egle du CUSUM dans un cadre d´ependant sont ceux de Bansal et Papantoni-Kazokos [3] qui consid`ere tout de mˆeme des mod`eles assez restrictifs o`u il est n´ecessaire d’avoir ind´ependance entre les ob-servations avant et apr`es le temps de changement.

Nous allons maintenant nous int´eresser aux r´esultats d’optimalit´e pour la r`egle CUSUM obtenus par Lai [50] puisque c’est `a partir de ses travaux que nous allons ´etudier les propri´et´es de la r`egle du CUSUM approch´e. On consid`ere un change-ment de param`etre dans la densit´e conditionnelle des observations qui est donc : pθ0(xn|X1:n−1) sous H0 et pθ1(xn|X1:n−1) sous H1.

Remarque : Lai [50] se place dans le cas o`u la densit´e conditionnelle, sous r´egime de panne, ne d´epend pas de l’instant d’apparition de la panne.

Sous l’hypoth`ese suivante :

lim n→∞sup tp≥1 sup ess P(tp)    max t≤n tp+t X i=tp Zi ≥ I(1 + δ)n|X1:tp−1    = 0 ∀ δ > 0, (4.2) Lai [50] obtient la borne minimale du pire retard moyen `a la d´etection :

¯

Eθ1(ta) = sup

tp≥1

sup essE(tp)[(ta− tp+ 1)+|X1:tp−1], (4.3) pour toutes les r`egles ta v´erifiant la contrainte :

Eθ0(ta)≥ γ, (4.4) c’est `a dire parmi toutes les r`egles ta ayant un temps moyen entre deux fausses alarmes sup´erieur `a γ. Cette borne minimale est donn´ee par le th´eor`eme suivant :

Th´eor`eme 4.1 (Lai [50]) Si l’hypoth`ese (4.2) est v´erifi´ee, alors lorsque γ → ∞, on a :

inf{ ¯Eθ1(ta) : Eθ0(ta)≥ γ} ≥ (I−1+ o(1)) log γ. (4.5) Lai ([50] Th´eor`eme 4, ii)) montre ensuite que sous l’hypoth`ese suivante,

lim n→∞sup tp≥1 sup j≥tp sup ess P(tp) ( n−1 j+n X i=j Zi ≤ I(1 − δ)|X1:j−1 ) = 0, ∀ δ > 0, (4.6) la r`egle du CUSUM atteint la borne inf´erieure (4.5) et est donc asymptotiquement optimale pour le crit`ere ¯Eθ1(.) introduit par Lorden. On parle ainsi d’optimalit´e au sens de Lorden.

La r`egle du CUSUM `a fenˆetre limit´ee,

˜ tCU SU M = inf ( n : max n−mα≤j≤n n X i=j Zi ≥ h ) , (4.7)

est, elle aussi, asymptotiquement optimale au sens de Lorden lorsque la taille de la fenˆetre, mα, tend vers l’infini.

Au vue de ces r´esultats, une question naturelle se pose. Quels sont les mod`eles qui v´erifient les hypoth`eses (4.2) et (4.6) ? Pour des mod`eles autor´egressifs de la forme Xn+1 = g(Xn, θ) + n, nous verrons dans le prochain chapitre que ces hypoth`eses sont v´erifi´ees si le bruit est gaussien et si la fonction g v´erifie de bonnes propri´et´es. Mais des auteurs comme Fuh [32], Mei [66] ou encore Tartakovsky [107] ´evoquent la difficult´e de v´erifier ces hypoth`eses en g´en´eral.

Tartakovsky [107] ´etablit l’optimalit´e asymptotique de l’approche bay´esienne dont le temps d’arrˆet est d´efini en (2.18). Les hypoth`eses de stabilit´e qu’il effectue sur le rapport de vraisemblance sont moins restrictives que les hypoth`eses (4.2) et (4.6) puisqu’il n’apparaˆıt plus le supremum essentiel sur la trajectoire avant l’instant de panne. Et c’est justement, d’apr`es Tartakovsky, le point gˆenant des hypoth`eses de Lai [50] puisque sans ce supremum essentiel, “les hypoth`eses sont alors v´erifiables pour de nombreuses situations”.

De la mˆeme fa¸con, Lai [50] ´etablit l’optimalit´e asymptotique du CUSUM `a fenˆetre limit´ee pour un crit`ere plus souple que le pire retard moyen `a la d´etection, le retard moyen :

Optimalit´e de la r`egle du CUSUM

Lai montre que la r`egle du CUSUM `a fenˆetre limit´ee atteint la borne inf´erieure du crit`ere (4.8) lorsqu’elle v´erifie une contrainte plus s´ev`ere que la contrainte ARL (4.4), `a savoir la contrainte sur la probabilit´e de fausse alarme suivante :

sup

t≥1

Pθ0(t≤ ta < t + mα)≤ α, (4.9) o`u lim inf mα

| log α| > I

−1 mais log mα = o(log α) quand α→ ∞. Il y a deux avantages `a utiliser une contrainte plus s´ev`ere que la contrainte ARL : d’une part, le fait qu’il y ait un temps moyen fix´e entre deux fausses alarmes n’entraˆıne pas forc´ement que la probabilit´e d’avoir une fausse alarme dans les tout premiers instants de la surveillance soit faible. La contrainte (4.9), tout comme la contrainte que nous avons utilis´e lors de la construction du seuil adaptatif permet de contrˆoler la probabilit´e de fausse alarme (cette fois-ci sur un intervalle). D’autre part, la contrainte (4.9) associ´ee au crit`ere (4.8) permet d’assouplir l’hypoth`ese (4.2) sur la stabilit´e du rapport de vraisemblance puisque le supremum essentiel n’est plus n´ecessaire. L’hypoth`ese suivante est alors suffisante pour s’assurer de l’optimalit´e de la r`egle du CUSUM `a fenˆetre limit´ee :

lim n→∞sup tp≥1 P(tp)    max t≤n tp+t X i=tp Zi ≥ I(1 + δ)n    = 0 ∀ δ > 0. (4.10)

La borne minimale pour le crit`ere (4.8) est donn´ee par le th´eor`eme suivant : Th´eor`eme 4.2 (Lai [50], Th´eor`eme 2) Supposons que (4.9) et (4.10) soient v´eri-fi´ees pour une constante positive I. Alors, lorsque α→ 0,

E(tp)(ta− tp+ 1)+Pθ0(ta≥ tp)

I + o(1) | log α| (4.11) uniform´ement sur tp ≥ 1.

Lai [50] montre que le CUSUM `a fenˆetre limit´ee atteint cette borne sous l’hy-poth`ese (4.6).

Remarques sur la borne inf´erieure (4.11) :

- L’avantage du crit`ere pr´ec´edent est que, contrairement au pire retard moyen `a la d´etection (4.3), il est valable sur tous les instants de changement possibles et non pas sur l’instant de changement qui maximise le retard moyen.

- Le crit`ere permet d’assouplir une des deux hypoth`eses de stabilit´e, (4.10), qui devient alors, d’apr`es Tartakovsky, v´erifiable dans de nombreuses situations.

∗ ∗

Dans les parties qui suivent, nous montrons l’optimalit´e du CUSUM approch´e construit `a partir d’estimations consistantes des vraisemblances conditionnelles, d’une part au sens de Lorden, mais aussi en utilisant le crit`ere (4.8) sous la contrainte (4.9) qui n´ecessite des hypoth`eses moins restrictives sur le logarithme du rapport de vraisemblance. Ces r´esultats d’optimalit´e tr`es g´en´eraux seront appliqu´es dans les chapitres suivants.

Documents relatifs