• Aucun résultat trouvé

Les applications de la vision en aéronautique

ce pod sont de 26 degrés pour le FLIR, et de 4 et 1 degrés pour la voie infrarouge, permettant de distinguer des objectifs jusqu’à une cinquantaine de kilomètres. Ainsi sur la Fig.1.23b, le porte-avions Charles de Gaulle apparaît dans l’image, la petite tâche blanche à gauche en bas du bâtiment étant l’hélicoptère "Pedro" qui surveille le bon déroulement des opérations aé- riennes. Ainsi ces pods fournissent, en plus de la capacité de désignation, celles de navigation et de reconnaissance.

Un avion de combat possède de nombreux capteurs de grande précision dont des capteurs de vision. Ces derniers sont exploités de manière intensive par les applications aéronautiques qui sont détaillées dans la section suivante.

1.5

Les applications de la vision en aéronautique

Le capteur de vision, de par sa capacité à fournir une information riche, est employé pour la navigation et la commande d’engins volants, là où d’autres capteurs de localisation, comme le GPS ou le radar, sont inopérants ou mal adaptés compte tenu de l’environnement ou de contraintes embarquées (taille, masse, consommation). Cependant, ce senseur est caractérisé par une certaine complexité algorithmique et nécessite d’importantes ressources en calcul pour extraire des informations. Cette remarque ne s’applique pas aux approches bio-inspirées basées sur des capteurs simples, nécessitant peu de traitements [Ruffier 2004,Beyeler 2009]. Pour les capteurs de vision plus complexes, comme des caméras, les méthodes de traitement sont maintenant bien maitrisées, permettant l’embarquement d’un tel capteur et son intégration dans un schéma de commande d’un engin volant pour réaliser une tâche nécessitant une haute fiabilité.

Parmi les nombreuses applications de la vision pour la navigation d’engins volants, la pre- mière et sans aucun doute la plus simple, est la fourniture d’un retour visuel à l’opérateur, ne nécessitant que la transmission des données et l’affichage des images sur un écran. L’ap- plication de génération offline automatique de mosaïques à partir de prises de vue réalisées par un aéronef est maintenant très utilisée par les opérationnels afin de créer des modèles 3D texturés, toutefois la carte générée ne sert pas immédiatement pour la navigation.

Depuis une vingtaine d’années, les capteurs de vision, comme les caméras, sont intégrées dans un schéma de commande. Toutefois, l’usage de la vision pour commander un engin volant est bien plus ancien. En effet, le guidage de missile air-air est sans doute la première utilisation d’un capteur de vision dans une boucle de contrôle et date du début de la Guerre Froide. Certes les premiers capteurs étaient loin de fournir une image puisqu’il s’agissait d’un simple "pixel" sensible à la chaleur émise par le réacteur, monté sur une plateforme qui était asservie pour guider le missile vers une cible [Dansac 1994]. Par la suite, les bombes guidées par laser firent leur apparition lors des années 1970, le principe était le même, avec plus de pixels sensibles au laser de guidage du pod de désignation laser [Optronique 2008a]. À l’heure actuelle, de véritables capteurs de vision fournissent une image, souvent infrarouge, qui est traitée pour obtenir la localisation relative à l’aide d’une image stockée en mémoire, telle celle présen- tée Fig.1.24a. Ce mode de guidage permet d’obtenir une précision métrique [Legrand 2010] tout en bénéficiant d’un guidage terminal autonome indépendant du positionnement GPS,

(a) AASM [Legrand 2010] (b) Ravitaillement en vol [Dibley 2007]

(c) Inspection d’ouvrages [Metni 2007] (d) Évitement d’obstacle [Griffiths 2007]

Figure 1.24 – Quelques applications de la vision en aéronautique.

ce dernier pouvant être éventuellement brouillé. Les techniques de vision et l’usage de don- nées inertielles ont aussi été intégrées dans la stabilisation de caméra pourvue de degrés de liberté, employée pour la surveillance et la désignation d’objectifs [Masten 2008,Hurak 2012]. Toujours dans le domaine militaire, mais à un stade plus exploratoire, le ravitaillement en vol, par panier ou par perche commandée depuis l’avion ravitailleur, nécessite une localisa- tion relative pour que l’aéronef puisse soit placer sa perche dans le panier, soit conserver une position relative constante. La méthode généralement appliquée est de guider l’appareil par GPS différentiel pour l’approche et d’utiliser, en complément, la vision pour se locali- ser par rapport au ravitailleur [Mammarella 2008] et pour suivre le panier de ravitaillement [Kimmett 2002,Valasek 2005,Dibley 2007].

La vision en aéronautique et robotique aérienne trouve aussi des applications de navi- gation dans le domaine civil [Campoy 2009,Bruggemann 2011]. La navigation autour d’ou- vrages d’art [Metni 2007, Derkx 2008], illustrée Fig. 1.24c, et le suivi de lignes électriques [Golightly 2005] ne sont que quelques exemples d’applications dont les méthodologies ont été appliquées pour la surveillance et l’inspection de routes. [Silveira 2001] étudie en simulation le suivi de route par un dirigeable. [Rathinam 2005] propose le suivi d’objets linéiques (routes, pipelines) à l’aide d’un capteur monté sur un drone. Dans le cas de [Egbert 2007], le suivi de route s’effectue avec une caméra fixe, nécessitant la prise en compte de la dynamique de l’avion pour ne pas perdre la route du champ de vision.

1.5 Les applications de la vision en aéronautique 33 La navigation autonome de drones profiterait de l’usage de module d’évitement d’obstacles pour faciliter l’intégration d’avions non pilotés dans le trafic aérien [Geyer 2008]. Le capteur de vision du fait de sa masse réduite et de sa capacité à surveiller un large champ de vue a été étudié pour l’évitement d’obstacles par [He 2006,Lee 2011]. D’une manière plus générale, ce capteur peut aussi venir en complément du guidage classique par capteurs inertiels ou GPS ou en hybridation avec ces derniers [Kaminer 1999,Pham 2009].

Des techniques de commande inspirées par le comportement des animaux, notamment les insectes [Srinivasan 2000,Chahl 2004], ont été mis en œuvre à l’aide de capteurs de vision ru- dimentaires [Ruffier 2004,Zufferey 2007]. Un capteur spécifique a été conçu par [Ruffier 2004] et a été évalué sur une plate-forme pour le décollage, le suivi de terrain et l’atterrissage. Utilisant trois capteurs linéaires du commerce, [Zufferey 2007] les a intégré sur un avion de dix grammes et a réalisé des vols dans des environnements clos nécessitant l’évitement des murs. Ce type de capteur rudimentaire a été employé à l’extérieur. Par exemple, dans [Griffiths 2007, Beyeler 2009], un petit drone équipé de capteurs de souris optique navigue dans des canyons (voir Fig. 1.24d) ou sur un terrain pourvu d’arbres. Un guidage par points de passage a été créé par l’opérateur et la vision permet d’éviter la collision avec des obstacles non pris en compte.

Le suivi de véhicules ou de points mobiles sont des thèmes abordés par [Dobrokhodov 2006,

Li 2010], la vision servant à localiser le mobile dans l’espace, estimer son mouvement et donner des consignes à la commande. Ces techniques ont été testées en vol sur des drones du commerce par [Whitacre 2007,Oliveira 2012] pour différentes conditions de vol.

Une autre application, dans le domaine du spatial, concerne l’atterrissage de sonde inter- planétaire par la vision, étudié par la NASA et l’université du Minnesota dans [Mourikis 2007]. La localisation utilise la fusion par filtre de Kalman entre des amers naturels dont la position est connue à l’aide d’une carte embarquée (3D et texturée) et des points quelconques utilisés pour le suivi d’une image à l’autre. [Van Pham 2012] propose de localiser la sonde par rapport à des images prises depuis l’orbite à l’aide d’un filtre prenant en compte l’image courante et les capteurs inertiels.

Enfin, l’atterrissage basé vision d’avions ou d’hélicoptères fait l’objet d’intenses recherches pour une utilisation où les capteurs de localisation classiques ne sont pas disponibles. Concer- nant les petits drones, la taille et le poids limités du capteur de vision sont un atout sup- plémentaire. Une part importante des travaux concernant l’atterrissage ont pour objet les drones hélicoptères [Shakernia 1999a, Sharp 2001] avec l’usage de marqueurs [Proctor 2005] ou en environnement naturel [Cesetti 2010]. [Hérissé 2012, Lee 2012] ont traité de l’appon- tage d’hélicoptères sur des surfaces mobiles. Pour les avions à voilure fixe, l’usage de la vision permettrait d’étendre l’atterrissage automatique aux avions d’affaires et à l’aviation générale sur des terrains non pourvus d’ILS (Instrument Landing System) [Charnley 1958,

Sanders 1973] et avec des conditions de visibilité réduite. Des études ont porté sur le choix du capteur le plus adapté entre des imageurs du domaine visible, infrarouge ou électro- magnétique [Absi 1993, Norris Jr 1999] et ont bénéficié des recherches sur les dispositifs d’amélioration de la visibilité [Grimberg 2001]. Les premières études de l’atterrissage au- tomatique par vision ont porté sur l’utilisation de la forme de piste ou de son éclairage [Dickmanns 1992, Chatterji 1998] pour estimer la position de l’avion par rapport à la piste [Korn 2000]. Des commandes utilisant les informations visuelles de l’image ont été proposées par [Rives 2002, Miller 2008, Le Bras 2009]. L’atterrissage basé vision a été l’un des objets d’étude du projet européen Pégase [Dassault Aviation 2009], dans lequel des algorithmes de

vision et de commande ont été étudiés et comparés. La présentation des techniques de vision et de commande concernant cette application sera approfondie dans les Sections2.3.1 et3.2. La vision couvre un champ important d’applications en aéronautique et robotique aérienne, dans lesquelles les capteurs classiques de localisation ne sont pas adaptés. La section suivante pose le cadre et les hypothèses de l’étude détaillée dans ce document.