• Aucun résultat trouvé

Exp´ erimentation de l’algorithme de navigation autour d’un objetobjet

a : angle de site b : angle d’azimut

4.3.5 Exp´ erimentation de l’algorithme de navigation autour d’un objetobjet

tr`es faibles. Ici, les erreurs quadratiques pr´ec´edente (p) et suivante (s) restent inf´erieures

`a 0.27 alors que dans la premi`ere application, elles pouvaient atteindre la valeur 2.70.

Mˆeme l’erreur quadratique courante (c) reste tr`es inf´erieure (0.07 actuellement contre 0.26 pour le suivi de visages). Ceci s’explique par la diff´erence de nature des objets suivis (un visage et une figurine) avec des formes plus ou moins grossi`eres et une apparence pouvant produire des diff´erences de niveaux de gris plus ou moins importantes (textures homog`ene pour le visage et plus nuanc´ee pour la figurine). De plus, le choix d’une ellipse par image de r´ef´erence dans le cas de la figurine permet de s´electionner plus pr´ecisement le motif de r´ef´erence qu’une seule ellipse pour l’ensemble des vues de r´ef´erence mod´elisant le visage.

– ayant utilis´e le mˆeme objet 3D (la figurine) pour les deux commandes en position, nous nous apercevons que les erreurs quadratiques issues de la simulation sont tr`es diff´erentes : 1. erreurs quadratiques pr´ec´edente (p) et suivante (s) inf´erieures `a 0.70 pour la table

et `a 0.27 pour le robot,

2. erreur quadratique courante (c) inf´erieure `a 0.18 pour la table et `a 0.07 pour le robot.

Cela signifie que pour un mˆeme objet mais avec un ´eclairage de la sc`ene et des motifs de r´ef´erence mod´elisant son apparence 3D diff´erents, nous pouvons obtenir des r´esultats de suivi avec des variations d’amplitude tr`es diff´erentes. C’est pourquoi, il est important de porter une grande attention aux phases de mod´elisation 3D de l’objet et d’apprentissage hors ligne pour garantir la fiabilit´e du suivi avec des conditions donn´ees d’illumination.

Ces diff´erents r´esultats nous ont permis de v´erifier que nous ´etions capables d’assurer le suivi sans ambigu¨ıt´e sur l’ensemble de la s´equence d’images. Nous pourrons, par cons´equent, initialiser correctement notre application quel que soit le motif d´etect´e dans l’image courante et donner par la suite des informations fiables `a la loi de commande pour contrˆoler le d´eplacement du robot autour de l’objet en condition r´eelle d’exp´erimentation.

4.3.5 Exp´ erimentation de l’algorithme de navigation autour d’un objet

Avant de pr´esenter l’application illustr´ee par la figure 4.37, nous rappelons que l’objet est positionn´e de fa¸con que l’axe optique de la cam´era passe au mieux par son centre de gravit´e afin que ce dernier apparaisse centr´e dans l’image.

Le principe de l’exp´erimentation consiste `a tirer de mani`ere al´eatoire une position en site

154 Chapitre 4 : Applications d´edi´ees au suivi 3D

du bras robotique sur la trajectoire circulaire d´efinie lors de l’acquisition de la base d’appren-tissage avant l’initialisation du processus. Nous obtenons une variation angulaireα= 140 degr´es.

Phase de détection et de reconnaissance de la figurine

Acquisition image

VIc

Correction des positions des ellipses

µr (p, c, s)= µp (p, c, s)+(p, c, s)

= µp (p, c, s)+ ADVIp (p, c, s) Tirage aléatoire :

Du motif de référence testé

VIref err_quadrade la différence DVIr

err_quadra> seuil_reco_recherche = 0.1 Test

err_quadra£seuil_reco_recherche = 0.1

Fin de la phase de reconnaissance

VIc (p, c, s) µr (p, c, s) Phase de suivi 3D temps réel

Motif de référence reconnu et suivi

Acquisition image Correction de la position de l’ellipse

µr= µp+Dµ = µp+ ADVIp

VIref (p, c, s) 3 Motifs de référence à tester :

précédent (p), courant (c)

et suivant (s) Test séquentiel

des 3 motifs de référence

DVIr (p, c, s) +

-Estimation des 3 erreurs quadratiqueserr_quadra(p, c, s) de la différence

DVIr (p, c, s) et recherche de la valeur minimaleerr_quadra_min

Test

Motif de référence à suivrenum_motif

Résultat du suivi

err_quadra_min< seuil_suivi = 0.5

&

Commande du robot par pas de 1° sur la trajectoire circulaire

Arrêt du suivi 3D

Figure 4.37 – principe de l’algorithme de navigation du bras robotique autour d’un objet connu.

4.3. Commande en position ”plus ou moins” d’un bras robotique autour d’un

objet connu 155

L’algorithme de d´etection a reconnu le motif de r´ef´erence d’indice 140 comme ´etant le motif de r´ef´erence donnant l’erreur quadratique la plus faible dans l’image courante. Nous fixons en-suite le motif d’indice 70 comme ´etant le motif de r´ef´erence `a atteindre. L’algorithme de suivi 3D et la loi de commande en position contrˆolent alors le d´eplacement en site du bras robotique par pas de 1 degr´e jusqu’`a ce que le motif suivi d’indicenum motif suividans l’image courante soit le motif de r´ef´erence d’indice num motif atteindre = 70. Notons que ce d´eplacement entre deux acquisitions d’image successives correspond `a la variation de position angulaire en site de l’effecteur autour de l’objet utilis´ee lors de l’acquisition de la base d’apprentissage.

Cet algorithme, d´evelopp´e sur une station de travail Silicon Graphics O2, a un temps d’ex´ecution inf´erieur `a 20 ms. Comme pour la commande en position de la table `a d´eplacement microm´etrique, il fournit en temps r´eel les informations associ´ees `a l’erreur quadratique cou-rante, le motif de r´ef´erence suivi et la position de l’ellipse pour chacun des trois motifs de r´ef´erence test´es (figure 4.38).

Motif de référence suivi

Visualisation en temps réel de l’erreur quadratique de l’image de différence entre le motif de référence suivi et le motif échantillonné dans l’ellipse corrigée

Résultats du suivi pour les 3 motifs de référence testés

séquentiellement Suivi

temps réel

Figure 4.38 – visualisation des r´esultats lors de la commande en position du robot.

La figure 4.39 illustre les r´esultats de notre algorithme obtenus `a des instants diff´erents de la navigation. Au cours de l’asservissement visuel, nous sauvegardons, apr`es chaque nouvelle acquisition d’image, les valeurs des diff´erentes erreurs quadratiques associ´ees aux trois motifs de r´ef´erence test´es s´equentiellement et l’indice du motif de r´ef´erence `a suivre dans la prochaine image.

156 Chapitre 4 : Applications d´edi´ees au suivi 3D

Figure 4.39 – exemple de r´esultats de la commande en position du robot.

4.3. Commande en position ”plus ou moins” d’un bras robotique autour d’un

objet connu 157

Ces diff´erents r´esultats pr´esent´es sur la figure 4.40 peuvent ˆetre compar´es avec ceux obtenus lors de la simulation (figures 4.35 et 4.36).

70

Numero du motif de reference suivi

Indice de la sequence d’images

’motif_reference.dat’

(a) num´ero du motif de r´ef´erence suivi (c).

0

Estimation des differentes erreurs quadratiques

Indice de la sequence d’images erreur quadra. courante (c)

(b) estimation des diff´erentes erreurs quadratiques : pr´ec´edente (p), courante (c) et suivante (s).

Figure 4.40 – r´esultats de l’algorithme de navigation en condition r´eelle.

Nous remarquons que le changement de motif de r´ef´erence s’op`ere toujours par paliers et

158 Chapitre 4 : Applications d´edi´ees au suivi 3D

que les valeurs des diff´erentes erreurs quadratiques en pratique et en simulation sont du mˆeme ordre de grandeur (erreur courante < `a 0.07, erreurs pr´ec´edente et suivante < `a 0.30). Ceci s’explique, par le fait, que nous contrˆolons parfaitement l’´eclairage de la sc`ene (illumination artificielle dominante) et que l’objet est positionn´e exactement de la mˆeme mani`ere que pen-dant l’acquisition de la collection d’images 2D utilis´ee pour sa mod´elisation 3D. De plus, les mouvements ´elabor´es en site par la loi de commande sont parfaitement mod´elis´es par la base d’apprentissage et d´etect´es correctement par l’algorithme de suivi permettant ainsi de garantir une fiabilit´e dans le contrˆole du bras robotique. Cette exp´erimentation montre donc que l’al-gorithme de suivi 3D peut ˆetre utilis´e dans diff´erentes applications de la vision artificielle en fournissant toujours d’excellents r´esultats dans la mesure o`u les conditions d’´eclairement va-rient faiblement entre le moment d’acqu´erir la base d’apprentissage et la phase de suivi en ligne.

L’inconv´enient majeur de cette commande en position ”plus ou moins” est que l’objet doit rester centr´e dans l’image au cours de l’asservissement visuel. En effet, la mesure courante S que l’on asservit par rapport `a la consigne S correspond `a l’indice du motif de r´ef´erence suivi (num motif suivi) dans l’image courante et non les param`etres corrig´es de l’ellipse englobant le motif suivi. Pour rem´edier au probl`eme o`u l’objet peut ˆetre en mouvement en mˆeme temps que l’effecteur du robot, nous avons d´evelopp´e une commande en vitesse. Dans ce cas pr´ecis, la consigne S n’est plus le motif de r´ef´erence `a atteindre (num motif atteindre) mais les pa-ram`etres de l’ellipse que l’on souhaite obtenir dans l’image (en position, ´echelle et orientation) pour le motif de r´ef´erence actuellement suivi. Pour cette nouvelle approche, l’algorithme de suivi 3D assure la gestion du changement de motif de r´ef´erence et fournit maintenant, comme information `a la loi de commande en vitesse, les param`etres de l’ellipse corrig´ee englobant le motif suivi dans l’image courante. Cette loi de commande compare alors la forme courante de l’ellipse avec celle d´efinie comme consigne pour la positionner, comme il convient, dans l’image en d´epla¸cant l’effecteur du robot. Le d´eveloppement de cette commande en vitesse fait l’objet de la prochaine section de ce chapitre.