• Aucun résultat trouvé

1.3 Fusion en suivi d’objet

1.3.4 Conclusion

La fusion de modèles ou de modules a pour objectif d’améliorer le suivi d’objet en précision et en robustesse, en combinant différents modèles d’apparence et/ou de modèles de mouvement. Diversifier les modèles d’apparence en combinant des caractéristiques de couleur, de forme ou de texture, augmente la représentativité des apparences des objets et du contexte, permettant de mieux gérer les variations d’apparence rencontrées au cours du suivi. Cette perspective améliore la robustesse de suivi. De la même manière, disposer de différents modèles de mouvement permet une description plus fine du mouvement des objets et donc une localisation plus précise de la cible. Un autre intérêt de cette fusion est de permettre de mieux gérer les différentes variations de mouvement possibles des objets pour éviter leur perte (trajectoire complexe, espace de recherche plus large). Dans les deux types de fusion, modèles et modules, l’évaluation des modèles ou modules est une composante importante de la fusion permettant de sélectionner les modèles discriminants ou modules fonctionnels.

La fusion de modèles s’intéresse à estimer une vraisemblance ou une probabilité a posteriori globale à partir des vraisemblances ou probabilités a posteriori conditionnelles aux modèles d’observation. L’état estimé de la cible est souvent l’état qui maximise cette vraisemblance

Table 1.2 – Tableau résumé des approches de fusion décentralisée. Ces approches combinent des trackers et parfois des détecteurs. k et ⊥ indiquent respectivement une fusion parallèle ou en cascade des trackers. La colonne Évaluation indique les critères utilisés pour juger de la qualité des prédictions, les principaux étant le score de confiance, le taux de recouvrement (overlap), la position des prédictions, une incertitude spatiale des particules et un poids d’attraction. La colonne Contrôle indique si les approches contrôlent la mise à jour ou la réinitialisation des trackers et détecteurs. Une mise à jour marquée par un 7, signifie que les trackers et détecteurs suivent leur propre mécanisme de mise à jour du modèle. Lorsque la mise à jour est marquée par un 3, la mise à jour d’un ou plusieurs trackers et/ou détecteurs est contrôlée (sélection, censure de mise à jour). Lorsque la réinitialisation est marquée par un3, les trackers sont réinitialisés par un détecteur hors ligne (HL) ou en ligne (EL) lorsque c’est nécessaire. Lorsque mise à jour et réinitialisation sont marquées par un 7, alors il s’agit d’une fusion en boucle ouverte.

k ou ⊥ Évaluation Contrôle

Mise à jour Réinitialisation

[Santner et al., 2010] ⊥ confiance, overlap 3 7

[Stenger et al., 2009] k et ⊥ confiance 7 3détecteur HL [Kalal et al., 2012] k confiance, overlap 3 3détecteur EL [Vojir et al., 2015] k confiance, position 7 3détecteur HL

[Biresaw et al., 2014b] k incertitude spatiale 3 7

[Zhong et al., 2012] k position 3 7

[Moujtahid et al., 2015b] k confiance, position 3 7

[Bailer et al., 2014] k poids d’attraction 7 7

ou cette probabilité a posteriori. Les modèles sont pondérés en fonction de leur réponse à la situation (vraisemblance, probabilité a posteriori, probabilité du tracker, résultat de classification). Cependant, cette approche ne permet pas de contrôler la qualité des modèles d’observation. Une autre approche cherche à évaluer la qualité des modèles d’observation, par exemple en utilisant des contraintes spatiales, mais elle est peu explorée. Une des limites rencontrées dans la fusion de modèles d’apparence est que les modèles utilisés ne présentent aucune différence structurelle mis à part le type de caractéristiques utilisées.

La fusion de modules combine les entrées et sorties de différents traitements ou fonctions, le plus souvent des trackers et des détecteurs. L’intérêt de combiner des traitements différents est la possibilité d’exploiter des schémas de fonctionnement variés, non seulement les modèles d’apparence peuvent être différents mais aussi les stratégies de recherche et de localisation, et les mécanismes de mise à jour des modèles. Une des possibilités est de pouvoir tirer avantage de la stabilité ou de la plasticité des modèles de certains traitements. Par exemple, un des schémas de fusion répandu est l’association détecteur-tracker. Cette combinaison exploite la stabilité du modèle du détecteur pour évaluer la qualité des trackers et les réinitialiser lorsqu’ils sont en échec. Cette approche n’est pas la seule utilisée pour évaluer l’état des trackers, d’autres modèles plus fiables peuvent être mis à contribution pour évaluer la qualité des prédictions. Une autre méthode utilise des caractéristiques (vraisemblance, etc.) pour évaluer la qualité a priori des prédictions, cependant elle repose souvent sur des seuils déterminés de manière empirique. Lorsque l’état des

trackers n’est pas évalué, la fusion peut exploiter des contraintes de continuité spatio-temporelle des pistes de trackers et des connaissances a priori sur les trackers (performances globales).

Plan des travaux de la thèse

L’approche de fusion que nous proposons est la fusion de modules, l’objectif étant de combiner un répertoire de trackers hétérogènes, de performances et coûts variables, et autorisant un niveau d’interaction générique entre eux. Nous démontrons par une étude de complémentarité, l’intérêt d’une telle fusion pour améliorer la robustesse globale de suivi. Les dynamiques globales de sélection, agrégation et correction d’un ensemble de trackers sont gouvernées par une évaluation en ligne du bon comportement de chaque tracker. Cette évaluation repose essentiellement sur l’utilisation d’a priori spatio-temporels construits à partir de données intrinsèques aux modèles ou sorties de trackers (scores, cartes de scores, variable interne) pour détecter un mauvais fonctionnement. Nous montrons que la simple fusion de sorties de trackers a des avantages et que ces sorties peuvent être facilement utilisées pour écarter les trackers en échec.

Matériel et Méthodes

Sommaire

2.1 Méthodologie d’évaluation des trackers . . . . 59

2.1.1 Bases d’évaluation . . . . 60