• Aucun résultat trouvé

2.3 Les données secondaires

2.3.1 Cas particulier

2.3.1.2 La matrice de covariance

Choix de la loi f (Ms|Mp) On suppose dans notre modèle connaître la distribution de

Ms|Mp. Cette distribution doit garantir la non-homogénéité du milieu Ms 6= Mp tout en assu-

rant que les deux matrices partagent une certaine information, sans quoi les données secondaires seraient inutiles pour l’estimation de Mp. On suppose alors que la distribution conditionnelle de

Ms|Mp est une loi de Wishart inverse complexe avec ν degrés de liberté et de moyenne Mp

f (Ms|Mp) ∝ |Ms|−(ν+ζ)etr−(ν − ζ)M−1s Mp |Mp|ν . (2.10)

Dans (2.10), ν est un scalaire entier tel que ν > ζ. La matrice Msconstitue le second paramètre

du modèle alors que ν est un hyperparamètre. On note cette distribution

Ms|Mp∼ ˜Wζ−1((ν − ζ)Mp, ν) . (2.11)

Notons que (2.11) est la loi a priori conjuguée pour le paramètre Ms, ce qui facilitera certains

calculs par la suite.

Interprétation De même que pour la matrice de covariance primaire, l’observation des mo- ments d’ordres 1 et 2 de la loi (2.11) permet d’interpréter physiquement le modèle. L’expression de l’espérance montre que l’environnement est en moyenne homogène

2.3. Les données secondaires

Ceci traduit bien un partage d’information entre données primaire et secondaires, tout en assurant avec une probabilité 1 que Ms6= Mp. Le moment d’ordre 2 permet d’exprimer la distance entre les matrices de covariance de Ms et Mp

E(Ms− Mp)2|Mp =

Mp2+ (ν − ζ)Tr {Mp} Mp

(ν − ζ + 1)(ν − ζ − 1) . (2.13)

Lorsque la valeur de ν augmente dans (2.13), la distance entre les matrices primaire et secondaires diminue. Inversement, lorsque ν diminue, les deux matrices sont de plus en plus distantes l’une de l’autre. L’hyperparamètre ν permet donc de régler, à l’image du facteur d’étalement d’une loi gamma [112], le niveau d’hétérogénéité du milieu.

2.3.2 Cas général

Dans un cas plus général, on suppose que les données secondaires sont scindées en G groupes, chacun contenant Lk échantillons et partageant la même matrice de covariance Mk. Si G = 1,

on retrouve le cas particulier explicité précédemment. Si G = K, chacune des données secon- daires a sa matrice de covariance propre. Ce découpage peut correspondre, par exemple, à une segmentation a priori effectuée par un processeur KA sur les données suivant le type de terrains éclairés [111,34].

On note {zk,`}L`=1k les données du k-ième groupe. La distribution de Zk =zk,1 · · · zk,Lk

 conditionnellement à Mk est

f (Zk|Mk) = π−ζLk|Mk|−Lketr−M−1k Sk

(2.14) où Sk représente la SCM du groupe k

Sk= ZkZHk. (2.15)

Les matrices Mksont supposées indépendantes conditionnellement à la matrice Mp. Pour chaque

groupe k, les matrices Mk sont distribuées conditionnellement à Mp suivant une loi de Wishart inverse complexe avec νk degrés de liberté et de moyenne Mp

Mk|Mp∼ ˜Wζ−1((νk− ζ)Mp, νk) . (2.16)

La densité de Mk conditionnellement à Mp est alors donnée par

f (Mk|Mp) ∝ |Mp|νk|Mk|−(νk+ζ) etr−(νk− ζ)M−1k Mp

. (2.17)

De même que dans le cas G = 1, l’observation des moments d’ordres 1 et 2 permet d’obtenir une interprétation physique du modèle. En moyenne, chaque groupe est homogène avec la donnée primaire

E {Mk|Mp} = Mp (2.18)

bien que pour chaque réalisation la relation Mk 6= Mp soit assurée. De plus, la distance entre

la matrice de covariance de chaque groupe Mk et la matrice de covariance primaire Mp est contrôlée par l’hyperparamètre νk suivant la relation

E(Mk− Mp)2|Mp =

Mp2+ (νk− ζ)Tr {Mp} Mp

(νk− ζ + 1)(νk− ζ − 1)

2.4

Bilan

On dispose donc d’un modèle de données permettant d’intégrer une relation d’hétérogénéité et de l’information a priori sur la donnée primaire contenue dans une matrice ¯Mp.

Pour cela, nous avons supposé disposer d’une donnée primaire z de matrice de covariance Mp et de K données secondaires zk divisés en groupes selon les valeurs de leurs matrices de

covariance Mk. Nous nous sommes placés dans un contexte Bayésien dans lequel deux classes

de distributions sont supposées connues :

– la première Mk|Mp∼ ˜Wζ−1((νk− ζ)Mp, νk) définit la relation d’hétérogénéité entre don-

nées primaire et secondaires,

– la seconde Mp ∼ ˜Wζ µ−1M¯ p, µ décrit la partie KA du modèle.

Ce modèle est ainsi flexible et contrôlé par un ensemble réduit de paramètres scalaires : – l’hyperparamètre µ traduit le niveau de confiance dans la matrice a priori ¯Mp,

– l’ensemble des hyperparamètres νk représente le niveau d’hétérogénéité de chaque groupe de données secondaires.

À ce stade, une critique principale peut être formulée sur le modèle quant au choix des densités f (Mk|Mp) et f (Mp). Nous avons en effet restreint notre choix à des distributions appartenant à

une famille de lois conjuguées afin de garantir une manipulation mathématique aisée du modèle. Ce choix offre également une simplicité des expressions dans le sens où les lois ne dépendent que de quelques paramètres (les νk et µ). À ce sujet, nous appliquerons au chapitre 5 une méthode permettant d’accroître la robustesse des lois conjuguées en introduisant un niveau hiérarchique dans le modèle [128, Section 3.6]. Plus précisément, nous supposerons que les hyperparamètres νk et µ du modèle sont également des variables aléatoires de lois a priori peu informatives.

Notons également que bien que le modèle proposé ne soit pas un modèle “physique” comme l’est le GCM, il fait partie des rares modèles à ce jour présentés dans un contexte Bayésien per- mettant de construire des détecteurs intégrant hétérogénéité et connaissance a priori [45,44,158]. Après une étude théorique du modèle proposée dans les chapitres 3 et 4, le chapitre 5 permettra de comprendre comment le modèle est capable de capter et/ou de combattre l’hétérogénéité dans un cas pratique.

Chapitre 3

Estimation en milieu hétérogène

Bayésien

Dans ce chapitre, différents estimateurs de la matrice de covariance primaire sont introduits à partir du modèle de donnés précédemment proposé. Le cas spécial où les données secondaires partagent toutes la même matrice de covariance est traité en premier. Ce cas offre la possibi- lité d’expliciter exactement l’un des estimateurs. Il permet également d’introduire la technique de l’échantillonneur de Gibbs avant sa généralisation à plusieurs étapes. Des estimateurs de la matrice de covariance primaire sont également introduits dans le cas où aucune information a priori n’est disponible. Le but est de quantifier l’apport de cette donnée dans le modèle. Ensuite, une étude théorique est menée sur les bornes d’estimation. Enfin, les performances des estima- teurs proposés sont illustrées par des simulations numériques. Ce chapitre constitue l’apport le plus conséquent de la thèse. Les procédures d’estimation mise en place soulèvent essentiellement des problèmes d’intégration et dans une moindre mesure des problèmes d’optimisation.

Sommaire

3.1 Estimation de la matrice de covariance primaire (cas particulier) . 38