• Aucun résultat trouvé

1.2 Généralités et état de l’art

1.2.5 Approche informationnelle pour le diagnostic

Afin d’optimiser la couche de diagnostic, et éviter les fausses alarmes et les détections manquées, la conception du résidu et du seuil doit prendre en compte l’aspect stochastique imposé par la nature des systèmes robotiques. En effet, dû à l’incertitude liée aux systèmes robotiques mobiles et leur environnement, la navigation autonome doit être traitée sous un cadre probabiliste.

Étant donné que les différentes variables mesurées et estimées sont de nature aléatoire, avec des densités de probabilité, il est plus judicieux d’utiliser des outils de la théorie de l’information, qui peuvent prendre en compte toute la forme de la distribution de probabilité d’une variable aléatoire, afin d’élaborer un résidu et un seuil plus robuste aux incertitudes.

Outils de la théorie de l’information

La théorie de l’information fournit des outils et des métriques en forme de distance ou de divergence qui ont la capacité de calculer la similarité ou la dissemblance entre deux distributions de probabilité. En d’autres termes, il est possible de concevoir des résidus qui prennent en compte l’incertitude d’une variable en utilisant des métriques informationnelles. L’entropie de Shannon in- troduite dans (Shannon, 1948), représente le concept le plus fondamental de la théorie de l’information. Elle correspond à la quantité d’information délivrée par une source de données, car elle calcule l’incertitude associée à cette infor- mation. Diverses mesures sont reliées à l’entropie de Shannon, à titre d’exemple l’information mutuelle (Kraskov et al., 2004) et la divergence de Kullback- Leibler (Joyce, 2011).

L’article de Michèle Basseville (Basseville,2013) représente une bibliogra- phie générale des différentes divergences et mesures informationnelles utilisées dans la littérature. Pour rappel, une divergence en statistique est une mesure de dissemblance (ou similarité) entre deux distributions de probabilités (ou plus). Principalement, il y a deux grandes classes de divergences : les f-divergences (Vajda, 1972) et les divergences de Bregman (Bregman, 1967). Au sein de chacune des deux classes, on trouve différentes familles de divergences. À titre d’exemple : -divergence3, distance de Hellinger et la divergence de 2 sont

toutes des instances de la f-divergence, alors que la -divergence et la - divergence font partie de la classe de la divergence de Bregman. Chacune de ces deux classes a ses propres propriétés, mais une attention particulière est donnée aux -divergences.

Plusieurs divergences paramétrées par existent dans la littérature. Les plus utiles ont été introduites dans (Chernoff,1952) et (Rao,1992), mais on s’intéresse particulièrement à la -divergence de Rényi (Rényi, 1961) pour deux valeurs de : = 1 (la divergence de Kullback-Leibler) et = 0:5 (la divergence de Bhattacharyya).

Observateur informationnel

Dans le cadre des systèmes robotiques mobiles, les observateurs à entrées in- connues sont à privilégier pour leur robustesse contre les incertitudes. Comme il a été mentionné dans la section 1.2.2, les filtres bayésiens sont très utilisés et le filtre de Kalman reste l’observateur à entrées inconnues de référence pour la fusion de données multi-capteur et l’estimation d’état. Dans la littérature, il existe une forme informationnelle du filtre de Kalman intitulé le Filtre Infor- mationnel (FI). Mis en avant par Durrant-Whyte (Durrant-Whyte, 2002) pour la fusion de données multi-capteur et le diagnostic, il traite le système d’un point de vue informationnel en calculant l’apport informationnel de chaque ob- servation. À l’encontre du filtre de Kalman, le filtre informationnel utilise la forme informationnelle du vecteur d’état et de la matrice de covariance. Cette forme canonique apporte plusieurs avantages, à titre d’exemples :

3. Il a été prouvé par (Amari,2009) que la -divergence est la seule famille de divergences appartenant aux deux classes de divergences (f-divergence et la divergence de Bregman).

— Elle est plus adaptée pour les architectures de fusion distribuées. — L’étape de mise à jour n’est que la somme des contributions informa-

tionnelles des observations, donc très adaptée pour le diagnostic. — Le coût calculatoire réduit.

Évaluation du résidu et seuillage dans la littérature

Le résidu est souvent affecté par des perturbations et des incertitudes. Concevoir un résidu informationnel n’est pas suffisant. Il est donc important d’évaluer l’information apportée par le résidu afin de générer un seuil qui maxi- mise la probabilité de détection et minimise la probabilité de fausse alarme. La décision se fait sur une simple comparaison entre la valeur du résidu et celle du seuil. Si la valeur du résidu est supérieure à la valeur du seuil, un défaut est détecté. Dans le cas contraire le système n’est pas défaillant.

Dans la littérature, il existe deux classes de méthodes pour l’évaluation des résidus (Ding,2008) : Les méthodes basées sur les normes traitées sous le cadre de la théorie de la commande robuste (Rank et al., 1999), et les méthodes basées sur les tests statistiques traitées sous le cadre de tests d’hypothèses statistiques. Pour les méthodes basées sur la commande robuste, des optimi- sations en utilisant des inégalités matricielles linéaires (LMI : linear matrix inequality) sont souvent utilisées (Scherer et al., 1997). Pour les méthodes statistiques, des méthodes de détection de changement de certains paramètres des fonctions de densité de probabilité sont utilisées, et ceci est généralement fait avec des tests d’hypothèse statistiques (l’hypothèse H0 est synonyme d’ab-

sence de défaut et l’hypothèse H1 correspond à un fonctionnement défaillant),

en l’occurrence en calculant des rapports de vraisemblance.

La sélection d’un seuil robuste se base sur le choix d’un critère adéquat, de sorte que le taux admissible de fausses alarmes et de détections manquées soit le minimum possible, contre un taux élevé de bonnes détections. Dans la littérature, les critères de Neyman-Pearson et Bayes (Varshney, 1996) sont très utilisés pour optimiser les solutions aux problèmes de détection. Le critère de Neyman-Pearson consiste à rechercher la meilleure probabilité de détection étant donné que la probabilité de fausse alarme ne dépasse pas une valeur de tolérance (Poor,1994). Pour le critère de Bayes, un coût est attribué à chaque situation (décision Hi sachant que Hj est correcte), et la moyenne

d’une fonction risque (risque de Bayes) est minimisée. D’autres critères existent dans la littérature, comme le critère de la probabilité a posteriori maximale (Ding, 2008), et le critère basé sur les courbes ROC (Receiver Operating Characteristic) (Wunderlich et al., 2016).

Dans le cadre de cette thèse, on s’intéresse tout particulièrement aux critères basés sur la théorie de l’information, où la quantité d’information est évaluée afin de réduire l’ambiguïté entre l’hypothèse et la décision. À titre d’exemple, il est proposé dans (Hoballah et al.,1989) de maximiser l’information mutuelle et dans (Al Hage et al.,2017) de maximiser la divergence de Kullback-Leibler. On s’intéressera par la suite à un nouveau critère basé sur minimisation de la divergence de Bhattacharyya.

Documents relatifs