• Aucun résultat trouvé

Capteurs extéroceptifs

Dans le document en fr (Page 44-47)

4.7 Boucle externe : commande de la position

1.6.2 Capteurs extéroceptifs

En environnement non perturbé, les magnétomètres fournissent une mesure du champ ma- gnétique terrestre. En réalité, le champ magnétique est très perturbé autour du drone : des pertur- bations statiques dues à la structure, mais surtout des perturbations dynamiques dues en grande partie aux moteurs36mais également à d’autres éléments comme les servomoteurs et les alimen- tations à découpage, souvent utilisées sur les drones. La position des magnétomètres sur le vé- hicule doit donc être choisie judicieusement, et une calibration (étalonnage) est en général né- cessaire. Les procédures d’auto-calibration sont désormais classiques sur les drones : le champ magnétique est mesuré pour plusieurs orientations du drone, et les offsets et facteurs d’échelle sont estimés par la méthode des moindres carrés, permettant ainsi de s’affranchir au maximum des perturbations statiques. Dans les algorithmes de navigation, le champ magnétique mesuré par les magnétomètres est en général normalisé pour ne retenir que sa direction.

1.6.2.2 Capteurs de pression, baromètres

Un capteur de pression embarqué dans le drone permet d’obtenir une estimation de son al- titude. En effet, un changement de hauteurδh provoque un changement de pression δPs suivant

l’équation de la statique des fluides (Cimen, 2017) :

δh = −δPs

(1.6)

35. Lorsque la centrale n’est pas au centre de gravité, les accélérations mesurées deviennent des fonctions non- linéaires des vitesses angulairesωB: les termes ˙ωB∧ r et ˙ωB∧ (ωB∧ r ) sont alors ajoutés à l’équation de la force spécifique. C’est un point important à considérer lors de la conception d’un drone.

36. Sur un hélicoptère coaxial d’un poids de 1 kg chaque moteur consomme 30 à 40 A en continu sous 10 V, avec des pics jusqu’à 60 A.

M g Ps,r e f

avec Ps,r e f la pression de référence, généralement estimée à la mise sous tension de l’avionique

du véhicule et hr e f la hauteur initiale. L’estimation d’altitude par le baromètre est typiquement

entachée d’une dérive due à la variation des conditions atmosphériques locales, traduite par la va- riable²h. Cette dérive est en général annulée grâce à l’utilisation d’un système de géolocalisation

(comme un système GNSS - Global Navigation Satellite System) pour estimer périodiquement la pression de référence (Barton, 2012).

1.6.2.3 Odométrie visuelle

Les caméras sont des capteurs apportant une information très riche sur l’environnement. L’augmentation de la puissance de calcul des microprocesseurs permet leur utilisation en robo- tique et sur les drones en particulier pour différentes tâches : cartographie, évitement d’obstacles, détection ou suivi de cible, asservissement visuel, ou encore en navigation comme étudié dans ce paragraphe.

Le flux optique (appelé également flot optique ou “défilement visuel”) est un champ du mou- vement apparent des éléments d’une scène causé par le mouvement relatif entre la caméra et cette scène. Il est utilisé sur les drones pour des fonctions d’évitement d’obstacle ou pour estimer la vitesse ou la hauteur du véhicule. L’inspiration vient des insectes volants qui utilisent ces fonc- tions lors de leur vol (Franceschini et al., 1992). Le principe est décrit ici de manière très succincte car il sort du cadre de la thèse. Pour plus de détails, on pourra se référer au travail de Hérissé (2010) sur l’utilisation du flux optique pour drone.

Le flux optique est ici utilisé pour estimer les composantes en xBet yBde la vitesse du drone. Pour cela, la caméra est fixée au drone de manière à pointer vers le sol. Nous utilisons la caméra “intelligente” de la figure 1.30 développée à l’ETH de Zürich (Honegger et al., 2013), qui est asso- ciée à des capteurs et à un microprocesseur. Les images issues de la caméra sont stockées sous forme de matrices dont chaque élément contient la luminosité du pixel correspondant. Le mou- vement de la caméra entre deux images successives est estimé par minimisation de la somme de la valeur absolue des différences (algorithme “SAD” pour “Sum of Absolute Differences”). Ce cal- cul, effectué sur des images de résolution réduite, est très rapide et permet d’atteindre des temps de boucle élevés (typiquement 250 Hz sur le microprocesseur utilisé, avec une image de 64x64 pixels). C’est le même principe de fonctionnement que les souris optiques d’ordinateur, qui ont d’ailleurs été utilisées sur les drones pour la même application (Chao et al., 2013). A partir de ce déplacement entre deux images et de la distance à la scène, on peut estimer la vitesse du drone dans le plan de la caméra. Le déplacement entre deux images ne dépend cependant pas uni- quement des déplacements latéraux de la caméra, mais également de sa rotation. Les équations correspondantes sont développées dans le paragraphe suivant.

Équations liant la vitesse du drone au mouvement dans l’image. Soit un point P de coordon- nées [X , Y , Z ]T dans un repère lié à la caméra. La caméra étant liée au drone, on considère que le repère véhicule B et le repère de la caméra sont confondus, et : PB= [X , Y , Z ]T. La projection de

P dans le plan image est le point p, donné par le vecteur pB= [x, y, f ]T, f étant la distance focale de la caméra. On peut écrire les équations suivantes de la projection perspective :

dans cette étude. Elle intègre une caméra CMOS, un gyromètre trois axes, un capteur de distance à ultrasons et un microcontrôleur ARM Cortex M4 pour le traitement d’images.

x X = y Y = f Z ⇔      x = f ZX y = f ZY (1.9)

En dérivant par rapport au temps la position de p dans le repère image (équation (1.9)), on obtient l’expression de la vitesse (qui est appelée flux optique) :

       ˙ x = f X Z − X ˙˙ Z Z2 ˙ y = fY Z − Y ˙˙ Z Z2 (1.10)

De même, on obtient la vitesse V de P en calculant la dérivée temporelle de la position de P :

VB= [ ˙X , ˙Y , ˙Z ]T. L’équation suivante de composition des vitesses exprime le lien entre l’expres- sion V dans B (lié à la caméra) et son expression dans le repère I lié au sol (et au point P ) :

VB= VI− ωB/I∧ PB (1.11)

avecωB/I= ωB= [p, q, r ]T la vitesse de rotation de la caméra par rapport au sol, et on a VI= −[u, v, w] (opposée de la vitesse du drone). On obtient alors :

   ˙ X = −u − q Z + r Y ˙ Y = −v − r X + p Z ˙ Z = −w − pY + q X (1.12)

Enfin, en remplaçant dans l’équation (1.10) les expressions de X et Y données par l’équation (1.9), et les expressions des dérivées ˙X , ˙Y et ˙Z données par l’équation (1.12), on obtient l’expres-

sion suivante de la vitesse de p dans le plan image :        ˙ x = w x − u f Z − q f + r y + p x y − qx2 f ˙ y = w y − v f Z + p f − r x − q x y + py2 f (1.13)

Cette expression ne dépend plus des coordonnées de P dans le repère lié au sol, mais simple- ment de ses coordonnées dans le plan de la caméra. L’expression dépend également des vitesses de translation et de rotation de la caméra (c’est-à-dire du drone), de la distance focale f , et de la distance à la scène Z (c’est-à-dire la hauteur du drone par rapport au sol).

Les premiers termes des deux équations concernent la translation, les termes suivants concernent la rotation entre la caméra et la scène. Remarquons que ces derniers termes sont indépendants de la profondeur Z .

sont calculées en divisant les déplacements par le temps entre les deux images. Les vitesses de rotations p, q et r sont mesurées par les gyromètres, tandis que la distance Z est mesurée grâce à un télémètre laser ou ultrasonique embarqué.

1.6.2.4 Système de capture de mouvements

Les systèmes de capture de mouvements comme les systèmes VICON et Optitrack sont très utiles pour fournir une estimation de l’attitude et de la position d’un véhicule en environnement intérieur. Nous utilisons dans cette étude le système VICON Bonita, présenté en figure 1.31, com- posé de six caméras infrarouges permettant de suivre la position de marqueurs réfléchissants fixés sur le corps du véhicule. La position et l’attitude sont reconstruits avec une précision de l’ordre du millimètre37sur un ordinateur au sol, et le système peut fournir une estimation à une fréquence maximale de 200 Hz. Ces systèmes ont été utilisés, par exemple, comme retour de po- sition et d’attitude en temps réel pour la commande en position des drones par Mellinger et al. (2011) et pour l’identification d’un modèle d’hélicoptère coaxial par Fankhauser et al. (2011). Des détails supplémentaires sur le système utilisé sont donnés par Chellal et al. (2015).

Caméra infrarouge

Commande manuelle

Hélicoptère

Reconstruction

Figure 1.31 – Dispositif de capture de mouvements.

Dans le document en fr (Page 44-47)