• Aucun résultat trouvé

Cohérence Temporelle des Identités. Les expérimentations de cohérence temporelle des identités visent à comparer l’effet de la vitalité et de la paire de mouvements stay-leave proposée dans (KBD05). Pour ce faire, nous avons généré des séquences vidéo de synthèse spécifiques. Ces expérimentations sont menées en2D, sur des objets rectangulaires de21 × 21 pixels, se déplaçant horizontalement de la gauche vers la droite, à une vitesse constante arbitrairement fixée à 2 pixels par image, sur un champ de240 × 240 pixels. Compte tenu d’une marge de20 pixels sur les bords de l’image, la zone de suivi est un champ de 200 × 200 pixels. Chaque objet est donc présent dans cette zone pendant100 images. Un nouvel objet entre sur la gauche du champ toutes les8 images, comme illustré par la figure5.1, où un nouvel objet apparaît dans le champ aux images #10008, #10016, #10024, etc. . .(la numérotation commence à #10000). Il quittera le champ lorsqu’il aura atteint le bord droit de l’image. On a donc en moyenne11.5 objets simultanément perceptibles. La séquence test comporte 700 images, pendant lesquelles 75 objets traversent la zone de suivi. Pour simuler l’éventualité qu’un objet reste non observable pendant plusieurs images consécutives, chaque objet peut disparaître complètement de l’observation à chaque image avec une probabilitéPiarbitrairement fixée àPi = 0.02. Lorsque cela se produit, il reste invisible pendant une durée deI images consécutives, nombre que nous faisons varier de 1 à 10 images au cours des expérimentations. Sur la figure5.1, cette durée vautI = 5 images. Le 1erobjet apparu est ainsi invisible à l’image #10040, le3ièmeobjet est invisible à l’image #10048. La ligne du bas détaille ces phases de disparition : le7ième objet disparaître à l’image #10066, pour être à nouveau visible à l’image #10071. Le but de cette expérimentation est d’établir la probabilité avec laquelle le traqueur lui réaffecte l’identité qu’il portait avant de disparaître. Les résultats sont présentés en section5.3.1. En complément au matériau de synthèse décrit ci-dessus, deux séquences réelles de suivi de piétons ont été analysées :

#10008 #10016 #10024 #10032

#10040 #10048 #10056 #10064

#10065 #10066 #10070 #10071

FIGURE 5.1 – Extraits de la séquence de synthèse dédiée à l’évaluation du maintien de l’identité des objets.

Objets identiques de 21 × 21 pixels, se déplaçant horizontalement de la gauche vers la droite, à une vitesse constante arbitrairement fixée à 2 pixels par image, sur un champ de240 × 240 pixels. Un nouvel objet entre sur la gauche du champ toutes les8 images.

B Suivi de piéton en mono-vision sur un espace très réduit (3.5× 3.5 mètres), pour illustrer qualitativement les limites de l’identification des objets par notre traqueur. Les résultats sont présentés en section5.3.2. B Suivi de piéton en multi-vues. Il s’agit d’analyser les apports d’un observation multi-vues, pour maintenir

les identités des objets malgré les occultations. Les résultats sont présentés en section5.3.3.

Suivi et classification conjoints sous illumination variable. La deuxième partie des expérimentations per-met d’évaluer les performances de notre traqueur FP RJ-MCMC sur des séquences vidéos réelles, aussi bien que sur des séquences de synthèse. Ces données sont échantillonnées sur différents scenarios appartenant à deux domaines d’applications : le suivi de piétons et le suivi de véhicules dans le trafic routier. Dans le premier cas, la classification n’est pas activée. Dans le cas du suivi de véhicule dans le trafic, le système sera expéri-menté avec et sans classification. Comme notre traqueur doit pouvoir fonctionner en conditions dégradées, les séquences réelles sont tirées de webcams de surveillance de voirie publique, non calibrées, de basse résolution : 320 × 240 pixels, et fortement compressées. Les matrices de projection sont approximées à la main. Les objets cibles situés à l’intérieur de la zone de suivi, sont suivis et classifiés par le système. La zone de suivi est définie par l’utilisateur dans le repère absolu, et représentée sur les images par les contours en trait vert : voir figures

5.10page117,5.11page118et5.15page123. Sur ces figures, les lignes vertes définissent les limites de la zone de suivi. Lorsqu’un nouvel objet entre dans ce domaine, il est étiqueté avec un identifiant unique, et la projection de son estimation est tracée.

Séquences d’expérimentation pour le suivi et la classification conjoints sous illumination variable. Le suivi a été mené sur plusieurs scenarios :

1. Suivi d’une moto instrumentée. Il s’agit d’évaluer la précision du suivi de trajectoire. La moto est équipée d’un GPS RTK (précision centimétrique) pour fournir une vérité terrain. Une caméra couleur480 × 640 vise l’entrée de courbe, et une autre la sortie de courbe, comme indiqué sur la figure5.9page115. Les résultats obtenus sont exposés en section5.4.

2. Suivi de piétons sous illumination variable, caméra couleur 480 × 640. Ces expérimentations visent à évaluer la capacité du système à suivre un nombre variable d’objets sous une illumination variable, notamment vis à vis de la génération d’ombres portées et de la direction du soleil. Les résultats obtenus sont exposés en section5.5.

3. Suivi et classification de véhicules (véhicules légers, camionettes, poids-lourds) sur autoroute, sous illu-mination choisie pour ne pas poser de problème d’ombre. Ces expérimentations, précédemment pré-sentées dans (BCR09c), visent à valider le suivi et classification simultanés d’objets, ainsi qu’à évaluer l’intérêt du potentiel d’interaction entre objets présentée dans la section4.8. Le site retenu est la sortie d’une barrière de péage, capturée avec une webcam de faible résolution (320 ×240), faible fréquence (15 images par seconde) (voir figure5.15page123). Les résultats obtenus sont exposés en section5.6. 4. Suivi et classification de véhicules (véhicules légers, camionettes, poids-lourds) sur autoroute sous

illu-mination variable, notamment vis à vis de la génération d’ombres portées. Ces expérimentations visent à comparer les performances du système, en fonction de l’activation de la classification et de la modélisa-tion de l’illuminamodélisa-tion. Les résultats obtenus sont exposés en secmodélisa-tion5.7.

5. Suivi et classification de véhicules (voitures, motos et camions) sur route sinueuse. L’objectif de ces ex-périmentations est de valider la capacité du système à réaliser le suivi sur différents types de trajectoires. Les résultats obtenus sont exposés en section5.8.2.

Critères de performance de suivi et classification. Définissons d’abord les conditions dans lesquelles un objet cible sera considéré comme correctement suivi :

B la distance entre l’objet estimé et l’objet cible n’excède pas la plus grande dimension au sol de l’objet estimé.

Les performances de suivi et classification conjoints sous illumination variable sont alors évaluées grâce à quatre critères :

B Le taux de suivi θT = 1 Jt

P

t,jδT(t, j) où δT(t, j) = 1 si l’objet cible j est correctement suivi à l’instant t, sinon 0. Jt= Ptjt, oùjtest le nombre d’objets cibles dans la zone de suivi à l’instantt.

B Le taux de classification θC = 1 Jt

P

t,jδC(t, j) où δC(t, j) = 1 si l’objet cible j est correctement classifié à l’instantt, sinon 0.

B Le taux de fantômes θG = 1 Jt

P

t,jδG(t, j) où δG(t, j) est le nombre d’objets candidats fantômes, c’est à dire ne correspondant à aucun objet cible.

B Erreur moyenne de localisation T = 1 Jt P t,j q δT p(t, j).δp(t, j), où δp(t, j) = pv(t, j) − ptruth(t, j), oùpv(t, j) est la position de l’objet j à l’instant t estimée par le système de suivi, et ptruth(t, j) est la position réelle« verité terrain » de l’objetj à l’instant t.

Implémentation. Nous utilisons l’extension parallélisée de l’algorithme MCMC PF, sur une unité de trai-tement à deux cœurs. A chaque itération, deux propositions de configurations multi-objets sont générées en parallèle, et les vraisemblances de l’observation, conditionnées à ces configurations, sont calculées en parallèle, par des threads fournis par les Bibliothèques Boost C++1. Le code est écrit pour utiliser la BibliothèqueN T2

C++ 2. Nous utilisons un PC avec processeur Intel E6850 Core 2 Duo cadencé à 3GHz, avec 4Go de RAM, sous Linux. Toutes les experimentations presentée ici ont été menées à la fréquence du temps réel vidéo, i.e. 25 images par seconde, en mono-vision, sur des images de320 × 240. Pour les expérimentations de cohérence temporelle des identités, le nombre de particules est fixé àN = 100, ce qui est peu pour suivre une moyenne de 11.5 objets simultanément présents, mais suffisant dans ce scénario 2D où les objets n’interagissent pas. Pour toutes les autres expérimentations, le nombre de particules est fixé àN = 200.