• Aucun résultat trouvé

Résultats obtenus dans cette thèse

Pour décrire le phénomène de non-robustesse, on souhaite comprendre le comportement de l’application X 7→ ˜θ(X). En fait, on va se pencher sur une application définie un peu différement3. Notant Dθ,θ la différentielle seconde en la variable θ, on obtient

Dθ,θC(θ, Sθ) = 2I(θ) .

Ainsi, pour une trajectoire Sθ telle que la matrice de Fisher correspondante soit inversible, on peut, par le théorème des fonctions implicites, définir localement une application ¯θ à valeurs dans Θ

une partie de Rd telle que

DθC(θ, X) = 0 ⇐⇒ θ = ¯θ(X) .

Cette application est de classe C1 ce qui permet d’écrire, au voisinage de la trajectoire Sθ, le développement de Taylor-Young à l’ordre 1

¯

θ(Sθ+ H) = θ+ DXθ(S¯ θ)(H) + o(kHk) , et l’expression de la différentielle en Sθ est donnée par le résultat suivant :

Proposition 3.1.

DXθ(S¯ θ)(H) = I−1) Z 1

0

θm(θ, t)h∇xΨ[Sθ(t), t], H(t)iR2dt .

On montre alors que, pour une perturbation périodique ou cyclostationnaire à fréquence élevée, la différentielle est de faible amplitude et l’estimation peu dégradée.

−10 −8 −6 −4 −2 0 2 4 6 8 −5 −4 −3 −2 −1 0 1 2 3 4 5 km km Trajectories Target Platform BLSE

Fig. 3.2 – Perturbation périodique sur une trajectoire MRU

On montre également que le terme différentiel se décompose selon des directions et des intensités précises qui sont fonctions de la trajectoire porteur et du paramètre θ.

Théorème 3.1. Soit Sθ une trajectoire paramétrique de matrice de Fisher associée inversible. Alors, on a, au voisinage de Sθ, le développement suivant

¯ θ(Sθ+ H) = θ+ d X i=1 hiD(i)) + o(kHk) ,

où les hi sont fonctions de H telles que khkRd ≤ kHkL2, les vecteurs {D(i))}1≤i≤d sont orthogonaux de normes kD(i))kRd = µ(i)), µ(i)) désignant la i-ème valeur propre d’un opérateur compact Kθ

complètement déterminé par la donnée θ et la trajectoire porteur.

Ce résultat, outre qu’il décrit comment se dégrade l’estimation, permet de construire une per-turbation surcritique, celle qui, pour une norme de perper-turbation donnée, génère une dégradation maximale de l’estimation. On peut alors mesurer l’ampleur du phénomène de non-robustesse en trajectographie passive. Ce résultat ouvre également des perspectives encourageantes pour des stratégies de commande optimale.

Dans la continuité de l’étude de robustesse, on propose un modèle de trajectographie passive avec un bruit d’état stochastique de loi inconnue. La cible est vue comme une trajectoire paramé-trique à laquelle s’ajoute un bruit d’état, éventuellement dépendant, pour modéliser au mieux la trajectoire réelle d’un mobile cherchant à suivre une dynamique donnée (MRU par exemple). Les équations d’état et d’observation sont

(

Xk= Sθ(tk) + ζk, Yk= Ψ(Xk, tk) + εk,

où θ ∈ Θ ⊂ Rd et {εk}k≥0 est une suite de variables centrées i.i.d. de densité g et de variance

σ2. Dans un premier temps, on suppose les variables {ζk}k≥1 indépendantes et identiquement distribuées. On s’intéresse au comportement de l’estimateur des moindres carrés pour les mesures

Résultats obtenus dans cette thèse 21 angulaires défini par

¯

θndef= arg min

θ∈Θ n

X

k=1

{Yk− Ψ[Sθ(tk), tk]}2 .

On fait alors une hypothèse clé qui va permettre d’obtenir les propriétés de consistance et de normalité asymptotique pour cet estimateur. On suppose que le bruit d’état vérifie la condition :

(N1) La distribution de ζ1 est isotrope dans R2 et telle que, pour tout t ∈ [0, 1],

Sθ∗,2(t) + ζ1,2− O2(t) > 0 P − p.s. O(t) β(t) S(t) α r Cible Porteur

Fig. 3.3 – Bruit d’état isotrope On définit, pour tout θ ∈ Θ,

IR(θ) def= Z 1 0 θΨ[Sθ(t), t]∇θΨ[Sθ(t), t]Tdt , IΨ(θ) def= Z 1 0 E {Ψ[Sθ(t) + ζ1, t] − Ψ[Sθ(t), t]}2θΨ[Sθ(t), t]∇θΨ[Sθ(t), t]Tdt . On a le résultat suivant :

Théorème 3.2. Pour une trajectoire paramétrique Sθ observable, de matrice de Fisher inversible, l’esti-mateur ¯θn est consistant et vérifie

n¡θ¯n− θ¢= IR−1)n−1/2 n X k=1 {Ψ[Sθ(tk) + ζk, tk] − Ψ[Sθ(tk), tk] + εk} ∇θΨ[Sθ(tk), tk] + oPθ∗(1) . En particulier, n¡θ¯n− θ¢

converge en loi, pour n → ∞, vers N¡0, IM−1)¢ IM−1) = IR−1)£IΨ) + σ2IR)¤IR−1) .

confiance pour θ. En effet, la variance limite fait intervenir IΨ), matrice dans laquelle apparaît la loi du bruit d’état qui est inconnue. Sous une hypothèse peu contraignante, on construit une région de confiance conservative, complètement déterminée par l’observation. On suppose que :

(N2) la trajectoire Sθ est telle que, pour tout t ∈ [0, 1],

kSθ(t) − O(t)k ≥ Rmin,

et on connaît une constante A2 qui vérifie

π2 ³ 1 + π−2/3 ´3E¡ 1k2¢ R2 min ≤ A2.

Théorème 3.3. Soit Sθ une trajectoire paramétrique observable et de matrice de Fisher inversible. Si les conditions (N1) et (N2) sont satisfaites, alors, pour tout α > 0, notant Cα une région de confiance de niveau 1 − α pour la loi normale standard dans Rd, on a

lim inf

n→∞ Pθh√

n(A2+ σ2)−1/2IR1/2¡θ¯n¢ ¡θ¯n− θ¢∈ Cα

i

≥ 1 − α .

Dans un deuxième temps, on étudie le comportement asymptotique de l’estimateur du maxi-mum de vraisemblance. On note F l’ensemble des densités de probabilité f telles que pour tout

t ∈ [0, 1] et tout θ ∈ Θ, Z

Ψ[Sθ(t) + ζ, t]f (ζ) dζ = Ψ[Sθ(t), t] . La log-vraisemblance normalisée est définie par

Jn(θ, f )def= n−1 n X k=1 log µZ g {Yk− Ψ[Sθ(tk) + u, tk]} f (u) du.

et si la densité f est connue, l’estimateur du maximum de vraisemblance est donné par ˜

θndef= arg max

θ∈ΘJn(θ, f) .

On démontre la consistance et la normalité asymptotique de ˜θn. On s’intéresse ensuite à l’op-timalité des estimateurs dans le cas semiparamétrique quand la densité du bruit d’état f est inconnue et on démontre le caractère LAN du modèle statistique (Pn,(θ,f ))(θ,f )∈Θ×F.

Enfin, on décrit comment les différents résultats s’étendent au cas de variables dépendantes, sous condition sur les coefficients de mélange {αk}k≥1 du bruit d’état [100].

Chapitre 4

Le filtrage

Les méthodes les plus prisées en poursuite (tracking) et notamment pour le BOT sont les méthodes dites de filtrage qui appartiennent à la catégorie des méthodes en ligne (online methods), par opposition aux méthodes batch1.

On distingue deux familles parmi les techniques de filtrage utilisées en trajectographie passive : les méthodes apparentées au filtre de Kalman et les méthodes de Monte Carlo séquentielles (Sequential Monte Carlo Methods, SMC), encore appelées filtres particulaires (Particle filters), voir [6] ou [42] pour une synthèse récente. Ces techniques présentent un intérêt évident qui est l’adéquation à un traitement temps réel, point crucial pour les situations tactiques. Un autre aspect qui explique l’engouement pour ces méthodes est leur facilité d’implémentation.

Le filtre conçu par Kalman [70] ,[22], résout un cas très particulier de problème de filtrage, communément appelé le cas linéaire gaussien. Pour les cas non linéaires ou non gaussiens, un grand nombre de stratégies ont été développées qui sont des extensions ou qui utilisent le filtre de Kalman. Ces méthodes dérivées sont sujettes, de par leur conception, à une source d’erreur intrinsèque et ce quelque soit la puissance de calcul disponible.

Les filtres particulaires, dont le succès ne se dément pas depuis une quinzaine d’années, n’ont pas ce défaut majeur. Ces nouvelles générations de filtres adressent des modèles très généraux et leurs performances sont essentiellement liées à la puissance des calculateurs. Le coût de ces algorithmes est d’ailleurs le prix à payer pour s’affranchir du calcul approximatif des méthodes héritées de Kalman. Toutefois, vue la croissance remarquable des capacités des moyens de calculs, ce point ne constitue pas un handicap véritable pour l’usage de ces méthodes.

4.1 Les Chaînes de Markov Cachées

Avant d’aborder le principe du filtrage, il convient de préciser le cadre mathématique qu’est celui des Chaînes de Markov cachées ou Hidden Markov Model (HMM). Une chaîne de Markov cachée est une suite de couples de variables aléatoires {(Xk, Yk)}k≥0 à valeurs dans des espaces probabilisés. La suite {Xk}k≥0est une chaîne de Markov qui n’est pas observée directement et la suite {Yk}k≥0représente la séquence des observations de ces états cachés. On fait l’hypothèse que, conditionnellement aux états cachées, les observations sont indépendantes et que la loi de Yk ne dépend que de l’état associé Xk, hypothèse dite de canal sans mémoire. L’hypothèse markovienne

1Voir page 17.

s’écrit Pν(X0 ∈ dx0, · · · , Xn∈ dxn) = P(X0∈ dx0) | {z } ν(dx0) n Y k=1 P (Xk∈ dxk|Xk−1= xk−1) | {z } Qk(xk−1,dxk) ,

et l’hypothèse de canal sans mémoire

P (Y0 ∈ dy0, . . . , Yn∈ dyn|X0 = x0, . . . , Xn= xn) = n Y k=0 P (Yk∈ dyk|X0= x0, . . . , Xn= xn) , = n Y k=0 P (Yk∈ dyk|Xk= xk) | {z } gk(xk,yk)µ(dyk) .

On définit la fonction de vraisemblance Ψk par

Ψk(x)def= gk(x, Yk) .

On représente habituellement la chaîne de Markov cachée {(Xk, Yk)}k≥0 par le diagramme syn-thétique suivant : //Xk−1 // ²² Xk // ²² Xk+1 ²² // Yk−1 Yk Yk+1

Pour illustrer ce type de dépendance, on peut décrire la chaîne de Markov cachée par les équations (

Xk= ak(Xk−1, ζk) ,

Yk= bk(Xk, εk) ,

avec {ζk}k≥0 et {εk}k≥0 des suites mutuellement indépendantes de variables aléatoires i.i.d. éga-lement indépendantes de X0.

Décrivons la formulation la plus couramment utilisée du BOT en tant que chaîne de Markov cachée. Les équations d’état et d’observation sont données par

½

Xk= F Xk−1+ ζk , (1)

Yk = h(Xk, tk) + εk, (2)

avec Xk la matrice colonne Xk = ¡xk yk x˙k y˙k¢T, F = µ

I2TI2

0 I2

où ∆T représente la période d’échantillonnage, {ζk}k≥0 définie par ζk= βGVk où β > 0, G =

à ∆2 T 2 I2TI2 ! et {Vk}k≥0

est une suite de variables indépendantes gaussiennes standards dans R2, {εk}k≥0 une suite de variables i.i.d. de loi N (0, σ2) indépendantes de {ζk}k≥0 et h l’application définie, pour X = ¡

x y ˙x ˙y¢T, par

h(X, t)def= Ψ[(x, y), t] = angle[x − O1(t), y − O2(t)] .

gaus-Le Filtre Optimal 25 sien avec l’hypothèse que ce bruit est constant sur un intervalle d’échantillonnage. La partie non bruitée de cette équation « Xk = F Xk−1» correspond à une dynamique MRU. Ce modèle s’ins-crit dans la catégorie des dynamiques dites non-manœuvrantes, voir [10], [11], [80]. Il existe des modèles plus sophistiqués où la dynamique peut basculer entre plusieurs modes et où la suc-cession de ces modes constitue une chaîne de Markov. Ainsi, dans [17], [11], [7], on trouve des dynamiques manœuvrantes où la cible peut alterner des régimes MRU bruités et MCU bruités, avec une accélération de giration fixée. Ces modèles sont abondamment utilisés pour la définition des filtres particulaires.

La modélisation du BOT en chaîne de Markov cachée est une approche véritablement diffé-rente de celles rencontrées dans les méthodes batch. En effet, dans le cas des techniques d’es-timation, la dynamique de la cible est décrite par un modèle paramétrique, paramétrique par morceaux ou éventuellement paramétrique bruité. Ces dynamiques sont relativement rigides et constituent un fort a priori sur la trajectoire de la cible. Le choix de la modélisation HMM donne de la souplesse à cette dynamique et permet d’envisager des trajectoires non conformes à des mo-dèles rigides. Les ingénieurs qui emploient des filtres en trajectographie passive utilisent d’ailleurs les niveaux de bruit d’état et bruit d’observation comme des variables d’ajustement pour traduire la confiance qu’ils ont respectivement dans le modèle de dynamique et dans les observations. Toutefois, dès lors que la trajectoire cible est vue comme une réalisation aléatoire, l’objectif n’est plus l’estimation d’un paramètre mais l’acquisition de l’information maximale sur l’état courant de la cible sachant les observations acquises, ce qui amène à la notion de filtre optimal.

Documents relatifs