• Aucun résultat trouvé

Flottes évoluant en intérieur

5.3 Exemples d’algorithmes en FMC

6.1.3 Flottes de drones

6.1.3.1 Flottes évoluant en intérieur

De nombreux groupes de recherches ont fait le choix de travailler en intérieur. Ce choix peut s’expliquer par des raisons de commodité de mise en œuvre des tests, de sécurité ou encore de disponibilité de la plate-forme en dépit des conditions météorologiques.

Les testbed en intérieur fonctionnent souvent avec des systèmes de positionnement basés sur un système de motion capture6 de grande précision (de l’ordre du millimètre). Les mini-drones impliqués évoluent dans un environnement composé d’un ensemble de caméras très rapides capables de déterminer précisément la position dans l’espace de n’importe quel objet, à partir du moment où il est équipé d’une cible (petit marqueur détectable par les caméras). Ce système a l’avantage de (i) permettre de réduire la taille des infrastructures nécessaires aux études menées (e.g. miniaturisation d’un système initialement à l’échelle d’une ville) et de (ii) permettre à un drone de bénéficier d’une grande précision de positionnement dans une phase d’apprentissage de déplacements complexes (e.g. saut périlleux).

Ce type d’installation d’un tel équipement est néanmoins très onéreux.

L’Aerospace Controls Laboratory (ACL) du MIT a mis en place un testbed en intérieur basé sur ce genre de technologie appelé Real-time indoor Autonomous Vehicle test Envi-ronment (RAVEN) [64]. Il dispose de différents types de véhicules tels que des drones à voilure fixe, des drones à voilure tournante (majoritairement) et des robots terrestres. Le RAVEN est notamment utilisé par le UAV SWARM Health Management Project [w119]

qui vise à effectuer des missions continues avec une flotte de drones [15]. Lorsqu’un drone vient à manquer de batterie, il va automatiquement recharger ses batteries et un autre, qui dispose de plus d’autonomie prend sa place. Ce projet a donné lieu à une collaboration avec Boeing dans le cadre du Multi-Vehicle Health Management Project au cours duquel les travaux ont été étendus à de la surveillance continue impliquant également des nœuds au sol [16]. Des tests ont été menés non seulement dans RAVEN mais également dans le testbed de Boeing appelé Vehicle Swarm Technology Lab (VSTL) [97].

La Flying Machine Arena (FMA) [101][w143] de l’ETH Zurich est une autre de ces infrastructures. Il s’agit d’un cube de 10 mètres de côté accolé à une salle vitrée servant de poste de contrôle. Pour éviter des dommages aux drones et aux personnels, les côtés du cube sont pourvus de filets et le sol est recouvert de tapis en mousse déplaçables en fonction des besoins expérimentaux. Il est également équipé de 8 caméras Vicon pour la localisation des mobiles qui s’y trouvent. Parmi les projets qui y sont testés, on peut citer les suivants :

– le projet Dancing in Motion [100] consiste en une flotte de drones (qui ne commu-niquent pas entre eux) dont les mouvements sont préprogrammés en accord avec de la musique. Lors de la planification de la mission, un outil valide la faisabilité des mouvements demandés (du point de vue de la physique du drone et de l’évitement des collisions). Ce projet, bien qu’impliquant une flotte de drones aux déplacements très précis, n’est que peu en rapport avec nos recherches car l’exécution des mouvements est préprogrammée et les drones n’ont pas besoin de communiquer entre eux pour prendre de quelconques décisions.

– le projet Flight Assembled Architecture [w142], fait en partenariat avec les architectes Gramazio & Kohler et exposé au FrAC Centre, consiste à faire construire à l’échelle un “village vertical” de 600m de haut par une flotte de quadrirotors. La structure, composée d’éléments en mousse de 500g chacun, mesure 6m de haut sur 3,5m de diamètre. Ici, c’est un programme central appelé The Foreman qui gère la construction de la structure à partir d’une configuration qui lui est donnée. Il coordonne les drones en réservant au besoin des voies aériennes afin d’éviter les collisions (entre drones et avec la structure). Les drones ne communiquent qu’avec ce programme central et ne font qu’exécuter ses ordres : ils ne prennent aucune décision.

– le projet Blind juggler [84] utilise la plate-forme dans le but de tester l’échange d’une balle (également suivie par le système de capture de mouvements) entre deux drones. Ici non plus, l’ensemble des calculs n’est pas réalisé par les drones eux même mais est déporté au sol.

– le Distributed Flight Array [86] est composé de plusieurs modules de base pouvant s’accrocher les uns aux autres dans différentes configurations avant de s’envoler comme un seul aéronef. Chaque module est composé d’un rotor central intégré dans une coque hexagonale présentant des protubérances destinées à favoriser un arrimage “passif” entre deux modules. Les communications, synchrones, sont supportées par de l’infrarouge. Le déplacement au sol se fait au moyen de trois roues omnidirectionnelles placées sous le module. L’arrimage se fait de manière aléatoire, sans connaissance préalable de l’environnement, à l’intérieur d’un cercle (défini par une lampe au plafond). Ici, la FMA a été utilisée uniquement pour mesurer les performances du système et n’intervient pas dans la partie opérationnelle. Ce projet, bien que novateur

et intéressant du point de vue de l’adaptabilité de la plate-forme, considère des com-munications synchrones de bonne qualité, ce qui va à l’encontre des hypothèses faites dans nos travaux, qui sont nécessaires pour la manœuvrabilité de telles formations.

Le projet SwarMAV [85] (anciennement UltraSwarm), de l’Université de l’Essex, visait à étudier les comportements dits de flocking (comportement des groupes d’oiseaux) sur une flotte de micro-hélicoptères (mesurant quelques centimètres). L’idée était de se reposer dans un premier temps sur des communications Bluetooth puis sur du WiFi, et sur un système de localisation type motion capture pour la localisation. Ce projet semble avoir été un des points de départ du projet SUAAVE présenté plus loin.

Le laboratoire General Robotics, Automation, Sensing and Perception (GRASP) de l’Université de Pennsylvanie a développé un testbed également basé sur de la capture de mouvement [80]. Les auteurs le décrivent en mettant l’accent sur les efforts qui ont été faits pour le rendre accessible aux expérimentations. Les quadrirotors employés (des Hummingbirds d’Ascending Technologies) sont relativement petits (55cm d’envergure avec les hélices pour 8cm de haut), robustes aux chocs et précis en termes de déplacements. Les expérimentations restent limitées par la taille de l’environnement (5x4x3.5m) et le système de capture de mouvements. Les drones sont équipés d’une carte Overo Fire de chez Gumstix et la technologie de communication choisie est le 802.15.4. La précision du testbed du GRASP a permis la mise en œuvre de techniques de navigation complexes et de vol en formation décentralisé [108] : chaque drone détermine sa trajectoire à venir en fonction de celle d’un leader, du nombre de drones présents et de la forme de la formation souhaitée. Dans [79], une flotte de quadrirotors est capable de porter de manière collaborative des objets de formes diverses. Chaque drone est physiquement accroché à un objet. Au départ, chacun d’entre eux connaît le déplacement global que doit suivre l’objet, sa forme ainsi que la position à laquelle on l’a attaché sur celui-ci. À tout moment, chaque drone peut alors déterminer, en fonction de sa position courante et de son orientation par rapport à l’objet (la position de l’objet est calculée à partir de l’estimation de la position des autres drones), quel mouvement il doit effectuer. Des travaux portant sur de la surveillance continue et décentralisée par une flotte de robots ont également été menés au GRASP [44].

La méthode de couverture du terrain utilise une Centroidal Voronoï Tesselation (CVT) : la zone est découpée en dalles dont le centre de chacune correspond à un nœud. La taille de la dalle d’un nœud s’adapte en fonction de ses capacités de surveillance et de celles de ses voisins. Ainsi, cette méthode adaptative permet à un nœud en fin de batterie qui doit retourner charger ses batteries de rester utile à la couverture de la zone alors qu’il se dirige vers son point de chargement.

Il faut noter que certains drones du GRASP sont capables d’effectuer des missions de cartographie de bâtiment sans nécessairement utiliser le GPS ou un système de motion capture. Pour cela, ils utilisent un laser et une Microsoft Kinect. Ceci permet à un drone de créer une carte 3D d’un bâtiment [102]. Dans [81], ce type de drone est associé à deux rovers pour cartographier un bâtiment de l’université du Tohoku ayant subit des dégâts suite à un tremblement de terre. Les deux robots au sol cartographient la zone au maximum de leurs possibilités avant de déployer le drone directement aux endroits qui leur sont inaccessibles (afin d’économiser la batterie du drone).

Le Robust Robotic Group du MIT et le Robotics and State Estimation Lab de l’univer-sité de Washington ont mené des travaux similaires en terme d’autonomie de vol sans GPS. À notre connaissance, on ne retrouve cependant ces capacités dans aucune flotte de drones.

Les travaux que nous avons pu identifier sur des plates-formes en intérieur consistent souvent en un environnement de capture de mouvement certes très précis et réactif, mais peu adapté à de vraies missions et très onéreux. On peut reprocher à ces plates-formes qu’elles ne débouchent que rarement sur des applications directes mais servent plutôt à tester des algorithmes et à prototyper des applications. Elles ne prennent ainsi en compte qu’une partie des paramètres d’une vraie mission.

On notera par ailleurs que les calculs nécessaires au fonctionnement des missions vues ici sont souvent (voire toujours) déportés sur des machines au sol et la prise de décision est généralement centralisée.