• Aucun résultat trouvé

Simulation (environnement virtuel d’intérieur)

Chapitre 5 Intégration et expérimentation

5.3 Simulation (environnement virtuel d’intérieur)

Afin de tester autant le contrôleur flou de notre caméra active, que les méthodes de suivi nous avons fait un simulateur pour des environnements d’intérieur. Dans la figure 5.3, nous montrons les résultats d’une simulation : un robot portant une caméra active, décrit une trajectoire circulaire dans un espace ouvert, et exploite sur cette trajectoire, les amers de type poster rajoutés sur les murs, afin de se localiser. Le simulateur est uniquement dédié aux traitements visuels et à la commande de la caméra.

La figure montre deux vues aériennes (vue de dessus et vue perspective) : y apparaissent l’environnement (en gris clair pour les murs, foncé quadrillé de rouge pour le sol), les posters projetés sur les murs dans des positions définies par l’utilisateur ; le robot est représenté par le cylindre noir ; le cône vert symbolise les paramètres de la caméra montée sur le robot : l’orientation et le champ de vue.

(a) (b) Figure 5.3. Deux vues de dessus produites par le simulateur.

Dans cet environnement simulé, il s’agit de valider nos modules dans un contexte de navigation métrique. Le robot doit décrire une trajectoire circulaire ou elliptique dans une salle. Le long de la trajectoire le robot trouvera des affiches qui lui serviront pour actualiser sa localisation par rapport à un repère du monde. Le but principal est de suivre les affiches le plus longtemps possible, en contrôlant l’orientation et le champ de vue de la caméra. Une fois perdues, à cause de la position et/ou du mouvement du robot, le système va sélectionner la configuration suivante de la caméra dans le plan perceptuel, afin d’observer les affiches ou cibles suivantes ; dans ce plan, le robot traite de l’enchaînement entre phases de suivi, effectué en détectant deux amers dans certaines images de la séquence.

Pour l’instant la reconnaissance des objets ne se fait pas automatiquement ; l’initialisation des phases de suivi est faite par un opérateur par des clics souris. Mais une fois finie cette initialisation, le processus de suivi, comme l’ajustement des paramètres de la caméra active, sont effectués automatiquement, par les méthodes décrites précédemment. La détection automatique des cibles sera incorporée dans l’implémentation réelle sur le système embarqué.

La figure 5.4, montre l’ajustement des paramètres de la caméra. Les images de (a) à (d) montrent des vues aériennes de la scène virtuelle. Rappelons que l’axe du cône représente l’axe optique f et l’ouverture du cône représente l’ouverture du champ visuel. Dans les images (e) à (h) sont montrées les images de la scène acquises dans la position courante du robot avec les paramètres estimés de la caméra ainsi que le résultat du suivi de la cible, dans ce cas un affiche dans le mur.

(a) (b) (c) (d)

(e) (f) (g) (h)

Figure 5.4. Ajustement des paramètres de la caméra. En haut, position du robot et champ de

vue de la caméra dans la scène. En bas, images virtuelles générées par le simulateur et données en entrée, au module de suivi des amers.

Le suivi est fait par la méthode de différences de motifs. Le contour en lignes pointillées (rouge) représente l’hypothèse initiale et le contour en lignes continues (vert) représente l’ajustement fait par la différence de motifs.

La simulation permet de faire varier la fréquence de génération des images ; de ce fait, les considérations sur la vitesse autant du robot comme de la caméra sont prises en compte et les images de synthèse sont générées en simulant une fréquence de 20hz.

La figure 5.5 montre le suivi de différentes cibles pendant que le robot suit sa trajectoire. Dans les vues (a) à (c), le robot suit la cible depuis les images acquises présentées de (e) à (f) ; il ajuste les paramètres de la caméra pour avoir une image de la cible de taille presque uniforme. Ces paramètres sont représentés par le cône au-dessus du robot, ce qui nous permet d’apprécier les variations produites sur les paramètres.

Quelques instants après, dans la vue (d), le robot ne peut pas continuer à suivre la même cible du fait des configurations limite de la caméra active et de sa position dans l’espace ; l’image (h) est acquise pendant le mouvement du robot et de la caméra afin de retrouver un amer sur le mur suivant. Le système sélectionne de nouveaux paramètres pour la caméra, à partir du perceptuel, pour arriver à la configuration montrée dans (i), depuis laquelle l’image de synthèse montrée en (m) peut être acquise.

A ce moment la localisation des deux nouvelles cibles pour le suivi est faite, dans ce cas les deux affiches présentes sur le mur dans la vue (i). Le suivi peut reprendre sur ces deux cibles simultanément, avec un ajustement des paramètres de la caméra sur la boite englobante de ces deux cibles (images (j) et (n)).

(a) (b) (c) (d)

(e) (f) (g) (h)

(i) (j) (k) (l)

(m) (n) (o) (p)

Figure 5.5. Suivi et changement de cibles pendant l’exécution d’un plan perceptuel.

Simultanément, ajustement des paramètres de la caméra active.

A un moment donné, dans la situation illustrée dans la vue (k), un des deux amers sort de l’image acquise montrée en (o) ; le robot ne peut pas continuer à suivre les deux cibles, et donc il va continuer à suivre la plus lointaine de ces cibles, ce qui lui est indiqué dans le plan perceptuel. Il va donc ajuster maintenant les paramètres de la caméra pour ces conditions, comme cela apparaît dans la situation montrée dans la vue (l) depuis laquelle l’image (p) est acquise.