• Aucun résultat trouvé

1.2.1 Problématique

Le problème de la localisation coopérative en robotique mobile est un sujet qui intéresse de plus en plus de chercheurs. Habituellement, ce problème est résolu dans un environnement fermé de dimensions fixes. On utilise des caméras ou des capteurs lasers très performants, générale- ment lourds et très coûteux, en combinaison avec des marqueurs placés dans l’environnement. Il devient alors réalisable de localiser un ou plusieurs robots dans ce type d’environnement contrôlé grâce à différentes techniques de filtrage. Comme cela a été montré à la section 1.1, les chercheurs ont poussé la recherche en robotique afin de rendre une équipe de robots un peu plus autonome dans un environnement inconnu.

Une des composantes essentielles de la localisation coopérative est la localisation relative, où les robots ont accès à des mesures relatives entre eux sans pouvoir utiliser de repères dans l’environnement. Différentes techniques de localisation relative en temps réel ont été conçues et

celles-ci ont une précision et une efficacité toujours croissantes. Cependant, la démocratisation de plus en plus rapide de la robotique nous amène à faire face à des problèmes de localisation beaucoup plus contraignants, que ce soit au niveau des coûts, des dimensions ou du poids total de l’instrumentation utilisée.

Aussi, la communauté artistique s’intéresse à l’intégration de robots mobiles pour des per- formances publiques. Par exemple, les tryphons sont des robots dirigeables volants de forme cubique conçus par St-Onge et al. [2010]. Ils ont été créés dans le cadre d’un projet artis- tique permettant de faire des spectacles de lumière et d’images directement projetée sur leurs surfaces planes. La figure 1.9 illustre l’un de ces tryphons. Ils peuvent être pilotés de façon télécommandée ou de façon autonome. Cependant, pour flotter en groupe de manière auto- nome, ces cubes aériens doivent bénéficier d’un système de localisation relative. La localisation dans ce type de situation devient un problème d’envergure. En effet, l’utilisation de caméras positionnées dans l’aire de vol devient impensable, car cette dernière peut être d’au-delà de 100 m de côté. L’équipement de positionnement qui est utilisé dans ces situations est trop onéreux pour un projet artistique. De plus, comme ce projet offre des représentations un peu partout sur la planète, il est parfois irréalisable d’installer un tel équipement pour localiser les robots. Il est également impossible d’utiliser de l’équipement lourd directement sur les try- phons, car leur charge utile n’est que de quelques centaines de grammes. Aussi, les techniciens n’ont pas toujours les connaissances requises pour installer, opérer et calibrer ces systèmes de localisation par caméras externes.

Figure 1.9 – Image d’un tryphon. L’image est une gracieuseté deSharf et al.[2013].

faible coût et à faible poids représente un défi.Giguere et al.[2012] décrivent une méthode de localisation coopérative qui n’utilise que les mesures angulaires relevées par des robots s’ob- servant mutuellement. Leurs travaux offrent une solution analytique de grande précision pour le problème en deux dimensions et il est possible d’étendre la validité de cette solution à l’en- vironnement tridimensionnel. L’utilisation des caméras est envisageable puisque ces capteurs sont efficaces pour mesurer des angles et peuvent être légers et abordables. Aussi, les récentes avancées en filtrage probabiliste peuvent améliorer davantage cette solution en permettant la localisation supérieure à la précision maximale des capteurs de deux robots éloignés. De surcroît, le développement de cette technologie contribue à rendre la résolution de l’une des difficultés inhérentes en robotique mobile plus abordables à surmonter.

1.2.2 Objectifs

L’objectif de la présente maîtrise est de spécifier, de développer et de valider un système de localisation relative en temps réel de multiples robots volants à six degrés de liberté. Le système est constitué de caméras et de marqueurs lumineux pouvant être installés sur ces robots. Les tryphons étant des robots sur lesquels des jeux de lumière prennent place, les marqueurs lumineux du système de localisation doivent paraître uniquement dans le spectre de la lumière infrarouge. Également, l’utilisation des tryphons implique que le poids d’un tel système ne peut être de plus de 200 g. Ce système doit enfin être robuste aux différents environnements et conditions de vols et avoir une précision de l’ordre du décimètre à de grandes distances. Pour atteindre pleinement ces objectifs, nous devons donc :

– Développer un système de traitement d’images afin de permettre la détection de mar- queurs lumineux robustes aux bruits de l’environnement, en contrôlant divers paramètres d’exposition des caméras utilisées.

– Implémenter un programme donnant au système la faculté de calculer le centre de masse respectif de chaque marqueur lumineux.

– Concevoir un algorithme de localisation relative en trois dimensions. Celui-ci doit être basé sur l’utilisation de caméras et de marqueurs lumineux.

– Étudier et mettre en application différentes techniques de filtrage probabiliste telles que EKF et UKF pour faire le suivi de trajectoires.

– Tester les différentes composantes technologiques pour créer un système pesant moins de 200 gqui résoud le problème de localisation à six degrés de liberté dans un environnement de déploiement artistique réaliste.

1.2.3 Méthodologie

La méthodologie adoptée pour ce problème est basée sur des tests de différentes techniques de suivi de trajectoire et de traitement d’images. Pour réaliser pleinement ce projet, nous avons

d’abord effectué des tests en simulation d’un système de localisation relative impliquant deux caméras mutuellement observables et des marqueurs lumineux. Il a fallu ensuite procéder à des expérimentations de suivi de trajectoire à courte et à longue portée. L’analyse des performances de notre système est faite sur la base d’une comparaison avec un système de positionnement de qualité industrielle. Puis, des simulations ont été produites pour démontrer l’efficacité des filtres probabilistes développés et intégrés à notre système pour améliorer la traque des robots. Enfin, nous avons effectué des essais avec de l’équipement léger fonctionnant à l’infrarouge et pouvant être utilisé avec précision en temps réel.

Chapitre 2

Localisation relative à six degrés de

liberté basée sur les angles

Dans le précédent chapitre, nous avons abordé la théorie de ce mémoire avec une introduction au domaine de la localisation en robotique. Nous y avons présenté ce projet de maîtrise sous ses différents aspects et nous avons mis au jour l’état de l’art dans ce champ d’expertise. Le présent chapitre, tel qu’énoncé précédemment, vise à détailler le travail qui a été réalisé au niveau de la localisation relative par caméra.

Comme mentionné précédemment, il existe de nombreux environnements où les systèmes de positionnement global (Global Positioning Systems, ou GPS) sont inaccessibles. En effet, nous n’avons pas accès à de tels systèmes dans les milieux sous-marins, dans les milieux sous-terrains ou dans tout autre environnement intérieur, comme un entrepôt, une salle de théâtre ou encore une maison. Sans ces systèmes, un robot devant se localiser dans un milieu inconnu fait appel à ses différents capteurs extéroceptifs afin d’y repérer des éléments caractéristiques. Ces éléments sont en fait n’importe quelles particularités de l’environnement suffisamment distinctes pour permettre au robot de les différencier et ainsi les utiliser comme points de repère. Par exemple, un élément de l’environnement est dit caractéristique pour un robot utilisant une caméra s’il est d’une couleur, d’une forme ou d’une intensité lumineuse particulière par rapport son voisinage rapproché.

Cependant, lorsque l’environnement ne contient que très peu d’éléments caractéristiques, le problème de localisation pour une équipe de robots devient plus complexe. Dans de telles situations, il est possible de s’appuyer sur des méthodes de localisation coopérative [Rekleitis et al.,1998]. Pour faire de la localisation coopérative, chaque robot utilise ses propres obser- vations, mais aussi celles des autres robots, pour calculer leur pose relative, c.-à-d. la position et l’orientation relatives des autres robots. Ces poses relatives sont déterminées sans recourir à la mesure d’éléments caractéristiques de l’environnement.

Comme mentionné dans l’état de l’art à la section 1.1, une grande partie des recherches sur la localisation coopérative a été réalisée à l’aide de robots se déplaçant sur le sol. Cependant, avec la venue de robots mobiles plus avancés tels que les robots volants, sous-marins ainsi que les robots pratiquant sur des terrains accidentés extérieurs, le problème de l’estimation de la pose relative en trois dimensions devient incontournable.

Ce chapitre présente une solution analytique pour une transformation en trois dimensions qui, en n’utilisant qu’un nombre limité de mesures d’angle, exprime la pose relative entre deux robots. La prochaine section présente les équations sous-jacentes à cette solution. Nous y utilisons d’abord certaines parties de la solution en deux dimensions de Giguere et al.

[2012] pour ensuite développer celle en trois dimensions. Par la suite, la section 2.2 décrit la simulation informatique qui a été développée afin de tester la validité des calculs. Ensuite, la section2.3donne tous les détails concernant la série d’expérimentations qui ont été réalisées dans le but de vérifier la robustesse de la solution développée tout en permettant de s’assurer qu’elle est réalisable dans le monde réel. Enfin, la section2.4présente une brève analyse de la généralisation de cette solution au cas non colinéaire et ce chapitre se conclut à la section2.5

par une rétrospective sur cette approche.

2.1

Solution analytique au problème

Le problème de la localisation coopérative en trois dimensions n’utilisant que des mesures d’angle peut être décrit comme suit.

Étant donné que cette section décrit une solution analytique impliquant différents types de variables, il s’avère nécessaire de définir une nomenclature. D’abord, toute position à deux dimensions dans une image est exprimée par un point au-dessus de variable, p. ex. ˙X. Ensuite, les vecteurs en trois dimensions sont dénotés par une flèche, comme ~X. Puis, une matrice est plutôt définie par une variable affichée en gras comme X. Également, tout vecteur unitaire servant d’axe de rotation possède comme distinction un chapeau au-dessus de sa variable, p. ex. ˆX. Aussi, les scalaires sont représentés par l’italique. Il en va finalement de même pour les référentiels et autres éléments, mentionnés par souci de clarté, mais n’appartenant pas à la solution analytique.

2.1.1 Définition du problème

Soit deux robots, RobotA et RobotB, libres de se déplacer dans tous les six degrés de liberté, c.-à-d. que ces robots peuvent se déplacer en position [x,y,z] et en orientation [roulis, tangage, lacet]. Chaque robot i, où i ∈ {A, B}, est équipé d’une caméra et de deux marqueurs visuels,

~

Ri et ~Li. Les marqueurs visuels sont placés à une distance d l’un de l’autre. La caméra, elle, est fixée solidement sur chaque robot et placée de sorte que son centre de projection ~Ci passe exactement par la mi-distance séparant les marqueurs du robot i. Chaque robot possède son

propre référentiel local Fitel que l’origine de chaque référentiel ait comme origine son centre de projection ~Ci respectif, avec l’axe des z déterminé comme l’axe optique, l’axe des y pointant à la verticale et l’axe des x, à l’horizontale. Dans le but de respecter la règle de la main droite, il est posé que les z positifs vont en s’éloignant de la caméra, que les y positifs vont vers le haut et que les x positifs sont vers la gauche. Ainsi, dans un référentiel local, les deux marqueurs sont situés à : ~ Ri = [− d 2 0 0] T, L~ i = [ d 2 0 0] T.

Il est important de noter que la coordonnée x du marqueur droit ~Ri est négative, comme stipulé par l’orientation du référentiel Fi. La figure2.1 est référée au lecteur afin de lui offrir une représentation graphique du problème. Finalement, il est supposé dans ce problème qu’en toutes circonstances, la caméra d’un robot peut voir l’autre robot et les deux marqueurs de ce dernier. Si cette dernière condition n’est pas remplie, la localisation est quand même possible si le robot partiellement observable a trois marqueurs non colinéaires [Giguere et al., 2012]. Cependant, la précision de l’estimation sera moindre.

Figure 2.1 – Problème de la localisation relative en trois dimensions pour deux robots A et B opérant sous 6 degrés de liberté. Dans cette représentation graphique du problème, seuls les marqueurs ~RA

et ~LA du robot A sont affichés. Les lignes rouges et vertes représentent les rayons lumineux entre ces

marqueurs et le centre de projection de la caméra ~CB, située à l’origine du référentiel FB.

La localisation relative entre le RobotA et le RobotB est calculée en utilisant deux images prises simultanément par chacune des caméras. Si les images ne sont pas prises en même temps, aucune des équations mathématiques qui suivent n’est applicable. Définissons l’image saisie par le RobotA par IA, et faisons de même pour l’image du RobotB en définissant IB. Alors, chaque robot i, et donc par extensions ses marqueurs Li et Ri, sont présents dans l’image capturée par l’autre robot. En d’autres termes, LB et RB se trouvent dans l’image IA enregistrée par la caméra du RobotAet vice versa. Cette situation est graphiquement exposée par la figure 2.1.

L’orientation et la position relatives entre les référentiels FA et FB peuvent être définies par deux transformations, soit une matrice de translationA

BTet une matrice de rotationABR. Les informations disponibles permettant de déterminer ces transformations sont :

– la position des marqueurs ~Ri= [−d2 0 0]T et ~Li= [d

2 0 0]T à l’intérieur du référentiel de leur robot respectif Fi;

– les paramètres internes de calibration de chaque caméra ;

– la position des sous-pixels APR˙ etAPL˙ dans l’image IA représentant les marqueurs ~RB et ~LB, respectivement ;

– la position des sous-pixelsBP˙

R etBP˙L dans l’image IB représentant les marqueurs ~RA et ~LA, respectivement.

En se basant uniquement sur les informations susmentionnées, il est possible d’inférer la posi- tion approximative en pixels de la caméra du robot opposé dans une image, sachant que cette dernière a été fixée, lors de la construction du robot, entre les deux marqueurs du robot. Ces positions sont :

– la position approximative du sous-pixel dans l’image IAde ~CB AP˙

B ≈ 0.5(AP˙R+AP˙L); (2.1) – et la position approximative du sous-pixel dans l’image IB de ~CA

BP˙

A≈ 0.5(BP˙R+BP˙L). (2.2) Ces dernières approximations sont valides lorsque la distance l séparant les robots l’un de l’autre est sont suffisamment grande, c.-à-d. l  d où l. La nomenclature iPX˙ exprimée ici indique la position du point X dans l’image Imagei, X étant ici la caméra ~CA, la caméra ~CB ou encore l’un des marqueurs ~Ri ou ~Li, dans le référentiel de i.

Le problème de localisation relative étant maintenant posé, la prochaine sous-section expli- quera la stratégie employée pour retrouver la matrice de translation T et celle de rotation R correspondant à la solution de ce problème de localisation.

2.1.2 Réduction à un problème en deux dimensions

Considérons maintenant un plan défini dans l’espace à trois dimensions par les trois points colinéaires ~RA, ~LAet ~CA sur le RobotA, ainsi que par le centre de la caméra fixée au RobotB,

~

CB. Les points ~RA, ~LA et ~CA sont véritablement colinéaires en raison de notre conception initiale du système, telle qu’établie à la section2.1.1. Notez que l’origine dans les deux réfé- rentiels, FA et FB, font également partie de ce plan, puisque l’origine d’un référentiel Fi est définie par le centre de projection ~Ci d’une des caméras. Ce plan est la clé de notre technique.

Effectivement, cette dernière consiste à réduire une partie du problème à trois dimensions à un problème en deux dimensions.

La figure 2.2de gauche illustre la stratégie de réduction en deux dimensions du point de vue de la caméra ~CA, et montre où se trouve le plan en deux dimensions, ici dessiné en jaune. Également, la figure 2.2 de droite montre ce même plan, mais du point de vue de la caméra

~ CB.

Figure 2.2 – Gauche : Points de vue des caméras ~CAet ~CB dans le problème de localisation relative

en trois dimensions. La surface rose correspond au plan image IAet le pointAP˙B est situé sur ce plan.

Le vecteurAP~

B, qui interprète en trois dimensions le pointAP˙B, se situe sur le plan en jaune et pointe

vers la caméra ~CB. Droite : Point de vue de la caméra ~CB. cette caméra voit les deux marqueurs du

robot opposé, ~LA et ~RA, de même que l’autre caméra ~CA. Les points BP˙R,BP˙A et BP˙L sont situés

dans le plan image IB, affiché en rose. Dans chaque figure, l’axe z, qui pointe vers le fond de l’image,

représente l’axe optique de la caméra qui prend l’image. Le lecteur peut remarquer que l’axe x pointe vers la gauche afin de respecter la règle de la main droite des systèmes de coordonnées cartésiennes. Le plan en jaune est le même plan que dans les deux figures et celui-ci permet la réduction au problème à deux dimensions.

Figure 2.3 – Les trois angles ϕ mesurés par une caméra. Les angles ϕ1 et ϕ3 correspondent aux

positions angulaires des marqueurs visuels dans l’image. ϕ2, lui, représente l’angle dans l’image de la

Tel que cela a été expliqué parGiguere et al.[2012], nous supposons deux robots qui s’orientent de sorte que la caméra ~CApeut voir les marqueurs ~LBet ~RB. Puisque la caméra ~CB se trouve entre ces marqueurs, nous posons par extension que la caméra ~CA peut également voir ~CB. Supposons également que la caméra ~CB observe le robot RobotAde la même façon. À partir de cette configuration, on peut extraire des images IAet IB six mesures d’angle, soit ϕA

1, ϕA2, ϕA3, ϕB1, ϕB2 et ϕB3. La figure2.3 montre que ces angles ϕ correspondent aux angles des trois points d’intérêts du robot opposé en partant de l’axe optique de la caméra qui capture l’image, soient les deux marqueurs et la caméra. Par la suite, deux angles sont déduits pour permettre la localisation du RobotB relativement au RobotA en deux dimensions :

– l’angle α = |ϕB

1 − ϕB3|, qui correspond à l’angle entre les deux marqueurs du RobotAvus de la caméra ~CB;

– l’angle β = ϕA

2, qui correspond à l’angle sur la position de la caméra ~CB par rapport à l’axe optique de la caméra ~CA.

Ces deux angles induisent les contraintes énumérées ci-dessous en lien avec le positionnement du RobotB par rapport au RobotA:

– selon les théorèmes de l’angle inscrit et de l’angle au centre, on peut déterminer que la caméra ~CB doit être située sur un cercle de rayon r = d

2 sin α, cercle passant par ~LA et par ~RA;

– la caméra ~CB doit nécessairement se trouver le long de la ligne d’angle β dans le réfé- rentiel de la caméra ~CA.

Il est à noter que les auteurs ont eu recours aux théorèmes de l’angle inscrit et de l’angle au centre. Le théorème de l’angle au centre utilisé ci-dessus affirme que dans un cercle, un angle au centre mesure le double d’un angle inscrit interceptant le même arc. Le théorème de l’angle inscrit, lui, affirme que deux angles inscrits sur un même cercle et interceptant le même arc de cercle ont la même mesure.

La figure 2.4 illustre le problème de localisation en deux dimensions tel que présenté par

Giguere et al. [2012]. Toujours selon les auteurs et d’après les inductions établies ci-haut, la distance l = | ~CAC~B| entre les deux robots peut ainsi être calculée. Nous allons donc évaluer cette distance. Cependant, il nous faut d’abord déterminer les angles α et β dans la formulation en trois dimensions du problème auquel nous nous sommes attaqué. Par conséquent, l’angle α =LA~\CB~ RA~ de la figure2.4est calculé en créant les vecteurs 3D partant de l’origine du plan

Documents relatifs