1.1 Contexte
1.1.2 Int´ egration de modules de d´ etection d’obstacles routiers
Dans le cadre de la conception de syst`emes d’aide `a la conduite automobile,
l’int´egration d’un module de d´etection d’obstacles est une tˆache essentielle. Ce
module pourra aider le conducteur dans sa perception, car malheureusement, il
n’est pas toujours vigilant. Les facteurs qui peuvent intervenir dans la perte de
vi-gilance du conducteur sont la fatigue occasionn´ee par une conduite de nuit, ou une
conduite prolong´ee. De plus, plusieurs ´ev´enements perturbateurs peuvent d´
econ-centrer le conducteur, lorsqu’il r`egle le son de l’autoradio par exemple, ou quand il
parle au t´el´ephone ou `a un autre passager. Plusieurs situations dangereuses
pour-raient ˆetre ´evit´ees si le conducteur re¸coit d’avance une alerte. Une petite histoire
pourrait en r´esumer l’importance : Un conducteur est press´e d’arriver `a un
mee-ting o`u il est attendu pour donner un discours important `a des clients. Il s’arrˆete
avec h´esitation au feu rouge qui vient juste de s’allumer. Il n’est pas sˆur de savoir
comment mieux pr´esenter son produit. Il est tr`es important que ses clients soient
int´eress´es, il pourrait conclure une grosse vente. Peut-ˆetre devrait-il pr´esenter son
produit comme ´etant leur unique solution, ou bien leur meilleur choix. Le feu passe
au vert, il acc´el`ere, tourne en trombe au coin de la rue, esp´erant que les clients
vont tol´erer son retard. Sortant `a toute vitesse du virage derri`ere la maison, il
ne voit pas la fille qui traverse la rue en courant. Quelques minutes plus tard,
l’ambulance arrive. . . Une situation pareille est malheureusement tr`es fr´equente.
En France, 12% des causes de d´ec`es d’accidents routiers sont des pi´etons renvers´es
par des voitures.
L’int´egration d’un module intelligent de d´etection vise `a ´eviter les collisions avec
n’importe quel type d’obstacle (voiture, pi´eton, cycliste, animal, ...). La
percep-tion de l’environnement routier est assur´ee par l’implantation d’un syst`eme de
capteurs embarqu´e jouant le rˆole des organes de sens chez l’homme. Le traitement
des donn´ees issues des capteurs par des algorithmes temps-r´eel permet de d´etecter
et d’identifier de mani`ere fiable les obstacles routiers (On notera d´esormais OR
obstacles routiers). Le syst`eme pourra intervenir dans des situations `a risques en
utilisant diff´erents d´eclencheurs tels que l’assistance au freinage ou le freinage
au-tonome. Ainsi, l’intervention du syst`eme permet d’´eviter la collision ou d’att´enuer
consid´erablement l’impact en r´eduisant la vitesse du v´ehicule avant la collision. Si
l’accident ne peut ˆetre ´evit´e, des d´eclencheurs de protection peuvent ˆetre activ´es
(comme les airbags). Toutes ces mesures permettront d’assurer une conduite plus
s´ecuris´ee et de sauver ainsi des vies.
Bien que dans la litt´erature nous trouvons une tr`es grande vari´et´e de syst`emes de
d´etection d’obstacles, il n’existe jusqu’`a nos jours, aucun syst`eme qui a pu ˆetre
commercialis´e. Pourtant dans le cadre des projets de recherches, de nombreux
cap-teurs actifs et passifs ont ´et´e utilis´es pour percevoir l’environnement. Les m´ethodes
propos´ees pour traiter les donn´ees afin de d´etecter les obstacles sont ´egalement tr`es
diverses. Dans la section suivante, nous faisons le point sur les capteurs embarqu´es
et sur les m´ethodes de d´etection sp´ecifiques `a leur traitement.
1.1.2.1 Les capteurs embarqu´es
Dans ce paragraphe, nous donnons une vue d’ensemble des principaux capteurs
utilis´es pour la d´etection d’OR. Les capteurs peuvent ˆetre regroup´es, d’une part,
en capteurs proprioceptifs/ext´eroceptifs. D’autre part, ils peuvent ˆetre aussi
clas-s´es comme ´etant actifs ou bien passifs. Les capteurs proprioceptifs sont capables de
mesurer un attribut en fonction de leur propre ´etat. Cet attribut peut ˆetre l’acc´el´
e-ration, l’orientation ou la vitesse de l’objet sur lequel ils sont mont´es. Par exemple,
les capteurs d’inclinaison, les acc´el´erom`etres et les odom`etres
1sont des capteurs
proprioceptifs. Par contre, les capteurs ext´eroceptifs sont capables de mesurer un
attribut d’un objet externe pr´esent dans la sc`ene. Les cam´eras qui fonctionnent
dans le spectre visible ou infrarouge, les sonars, les Lidars et les Radars sont des
exemples de capteurs ext´eroceptifs. Deux approches pr´edominent dans la
percep-tion de l’environnement d’un v´ehicule par un capteur ext´eroceptif : les capteurs
actifs et la vision par capteurs passifs. Le capteur actif transmet un signal dans
un environnement donn´e et mesure ensuite l’interaction de ce signal avec
l’envi-ronnement (exemple : Lidar, Radar, sonar). `A la diff´erence des capteurs actifs,
les capteurs passifs r´ecup`erent l’information de mani`ere non-intrusive. Ainsi, ils
1.1 Contexte 27
n’´emettent pas de radiation, ils ne font donc que recevoir un signal qui peut ˆetre
r´efl´echi, ´emis ou transmis par des sources d’´energie externes. Les cam´eras visibles
et certaines cam´eras infrarouges sont des exemples de capteurs passifs. Dans la
suite, nous dressons les points forts et les points faibles des principaux capteurs
utilis´es dans les syst`emes de d´etection d’OR avant de justifier le choix des capteurs
que nous allons utiliser.
Les Radars
Le Radar est un syst`eme compos´e principalement d’une antenne ´
emet-trice/r´eceptrice d’une onde. Il ´emet des ondes radios ou des radiations microondes
en une s´erie de pulsions `a partir de l’antenne et re¸coit la partie d’´energie qui est
r´efl´echie par la cible. Le temps n´ecessaire `a l’onde pour voyager de la cible jusqu’`a
l’objet permet de d´eterminer la distance et la vitesse (dans le cas de plusieurs
´
emissions) de l’objet.
Le Radar a sa propre source d’´energie qui peut p´en´etrer `a travers les nuages et la
pluie. Ainsi, il est consid´er´e comme un d´etecteur toute saison. De plus, il a une
port´ee tr`es ´elev´ee offrant la possibilit´e de d´etecter des objets tr`es distants. Tous
ces avantages ont contribu´e de fa¸con ´evidente `a l’apparition de syst`emes ACC avec
Radar en option dans des v´ehicules haut de gamme (par exemple Mercedes classe
S).
N´eanmoins, la faible r´esolution spatiale (surtout dans le sens lat´eral) du Radar
entraˆıne des d´etections moins fiables voir mˆeme inexistantes pour les petits
obs-tacles. En outre, les parties m´etalliques pr´esentent entre autres une r´eflectivit´e
sup´erieure compar´ee aux autres objets comme les ˆetres humains. Ainsi, les objets
qui pr´esentent une forte r´eflexion minimisent l’effet des autres r´eflexions moins
fortes et conduisent donc `a des fausses d´etections. Enfin, un inconv´enient majeur
du Radar est le probl`eme d’interf´erences qui se d´egrade en pr´esence de plusieurs
voitures utilisant la mˆeme technologie dans le trafic.
Les Lidars
Le principe de fonctionnement du Lidar (appel´e aussi t´el´em`etre laser) est bas´e
sur la mesure du temps mis par la lumi`ere r´efl´echie sur l’obstacle se trouvant dans
l’axe de tir du laser. Les Lidars se basent sur le mˆeme principe que les Radars ´etant
donn´e que la distance aux objets est d´etermin´ee par le temps s´eparant les pulsions
transmises et re¸cues. Ils sont utilis´es pour des distances d’environ 40m et ont une
grande pr´ecision dans les deux directions : longitudinale et lat´erale. G´en´eralement,
les m´ethodes utilis´ees pour d´etecter les obstacles sont similaires `a celles utilis´ees
en traitement d’images : la segmentation, le clustering et le tracking. Toutefois,
le contenu des images Lidar est diff´erent de celui des images visibles. En effet, le
Lidar fournit une image de profondeur, tandis que les cam´eras captent la r´eflexion
de la lumi`ere visible.
Ce capteur est largement utilis´e par la communaut´e robotique pour la navigation
de robots en terrain inconnu. N´eanmoins, le coˆut, l’encombrement et la
consom-mation d’´energie ´elev´ee limitent son utilisation en embarqu´e sur un v´ehicule.
Les cam´eras visibles
Une cam´era re¸coit des ´energies ´emises sans qu’elle mˆeme n’irradie la sc`ene. Les
images captur´ees par les cam´eras visibles (On notera d´esormais VIS la modalit´e
visible), en couleurs ou en niveaux de gris, sont d’un cˆot´e tr`es riches en contenu,
de l’autre, difficiles `a interpr´eter. Ceci est peut ˆetre la raison pour laquelle la
re-cherche s’est beaucoup focalis´ee dans cette direction. Dans la litt´erature, on trouve
une tr`es grande vari´et´e d’approches, de techniques et d’algorithmes de traitement
d’images qui ont ´et´e propos´es pour la d´etection, le suivi et la reconnaissance
d’ob-jets dans les images. De plus, avec les avanc´ees technologiques, les cam´eras visibles
sont devenues moins ch`eres et faciles `a embarquer sur des v´ehicules.
Deux approches sont possibles en perception passive : l’utilisation d’une seule
ca-m´era visible ou l’exploitation de plusieurs points de vue avec plusieurs cam´eras
reli´ees de mani`ere rigide sur le v´ehicule. La vision monoculaire consiste `a ´equiper
le v´ehicule avec une seule cam´era pr´esentant des avantages de coˆut et de
simpli-cit´e de mise en œuvre. N´eanmoins, l’inconv´enient de cette m´ethode est qu’elle ne
permet pas de restituer la profondeur de la sc`ene observ´ee. L’utilisation de deux
cam´eras (technique de st´er´eovision) permet, quant `a elle, d’acc´eder `a l’information
tridimensionnelle.
Le principe de la st´er´eovision est d’inf´erer de l’information sur la structure et les
distances 3D d’une sc`ene `a partir de deux images optiques prises de points de
vue diff´erents. La st´er´eovision dont nous exposerons le principe se d´eroule en trois
´etapes successives : calibrage, appariement et triangulation. La mise en
correspon-dance entre les images gauches et droites (appariement) est la phase du traitement
la plus difficile. En effet, les deux images de la sc`ene peuvent pr´esenter de grandes
diff´erences aussi bien en terme de morphologie que d’illumination puisque les
ca-m´eras sont d´ecal´ees. Un point localis´e dans l’une des images peut se retrouver sans
homologue dans l’autre image `a cause des probl`emes de recouvrement ou
d’occlu-1.1 Contexte 29
sion. En outre, il est difficile de rep´erer des indices visuels permettant d’effectuer
la mise en correspondance dans une sc`ene faiblement textur´ee. Ces circonstances
expliquent pourquoi aucun syst`eme bas´e sur la st´er´eovision n’a pu ˆetre
commer-cialis´e.
Bien que les cam´eras visibles aient ´et´e plus ´etudi´ees par rapport aux cam´eras
in-frarouges, les cam´eras sensibles au spectre visible souffrent de limitations li´ees aux
conditions climatiques et aux conditions d’illumination (surtout pendant la nuit).
Ces difficult´es peuvent ˆetre surmont´ees grˆace `a l’utilisation de cam´eras infrarouges.
Les cam´eras infrarouges
Les cam´eras infrarouges ont ´et´e utilis´ees dans une grande vari´et´e
d’applica-tions. Le spectre infrarouge (On notera d´esormais IR la modalit´e infrarouge) est
typiquement subdivis´e en bandes, dont la s´eparation n’est pas bien d´efinie et varie
selon les auteurs. Dans le domaine de d´etection d’obstacles routiers, deux
techno-logies ont ´et´e consid´er´ees pour des applications li´ees principalement `a la d´etection
de pi´etons. Il s’agit de l’infrarouge actif et l’imagerie thermique, qui correspondent
aux bandes r´eflectives et thermiques. La diff´erence principale entre l’imagerie en
bandes r´eflectives et thermales est que la premi`ere retient les informations r´efl´
e-chies par les objets, quant `a la seconde, elle enregistre la temp´erature ´emise par
les objets.
L’utilisation de l’infrarouge actif est limit´ee car ses performances d´ependent de
plusieurs facteurs comme les changements des conditions d’illumination, de forme,
de vitesse et de la couleur de l’objet `a d´etecter. Ce sont les cam´eras thermiques
qui sont fortement utilis´ees avec des longueurs d’ondes longues offrant une
percep-tion large de l’environnement routier. Ces cam´eras sont appel´ees aussi capteurs
infrarouges passifs, puisqu’ils capturent les rayonnements infrarouges ´emises par
les objets chauds sans utiliser une source artificielle d’illumination.
La loi de Planck
2(Max Planck 1858-1947) montre que les distributions de l’´
ener-gie selon la longueur d’onde se retrouvent toujours sous une mˆeme forme et que
pour chaque longueur d’onde la luminance augmente avec la temp´erature. Les
cam´eras thermiques sont en fait des capteurs permettant la mesure d’une
lumi-nance. Ils permettent de transformer une image capt´ee dans le domaine infrarouge
et fonction de la luminance de l’objet observ´e, en une image visible et analysable
par l’oeil humain. L’avantage majeur des cam´eras thermiques est qu’elles peuvent
produire des images lisibles dans l’obscurit´e compl`ete. Leur port´ee est d´ependante
des conditions atmosph´eriques, du type de la cam´era et de la diff´erence de temp´
e-rature de la cible avec le fond. Le brouillard et la pluie limitent cette port´ee car le
rayonnement IR peut ˆetre affaibli. Mais toutefois, cette port´ee reste plus grande
dans la bande IR que dans le VIS.
On distingue entre deux types de cam´eras thermiques infrarouges : refroidies et
non-refroidies. Les cam´eras thermiques refroidies ont un capteur int´egr´e `a un
sys-t`eme de refroidissement qui fait descendre la temp´erature du capteur `a une valeur
tr`es basse. Ainsi, le bruit issu de la chaleur de fonctionnement du capteur
de-meure inf´erieur au signal qui provient de la sc`ene observ´ee. Ces cam´eras peuvent
ˆetre utilis´ees pour produire des images dans les infrarouges moyens (MWIR,
lon-gueur d’onde entre 3−5µm). D’une mani`ere g´en´erale, les images nocturnes d’une
cam´era MWIR sont plus contrast´ees que celles produites dans une autre bande de
l’infrarouge.
Les cam´eras infrarouges non-refroidis comportent souvent un micro bolom`etre :
une minuscule r´esistance qui fait que toute variation de temp´erature dans la sc`ene
observ´ee provoque une variation de la temp´erature du bolom`etre. Cette
varia-tion est convertie en un signal ´electrique, qui est utilis´e pour am´eliorer l’image.
Les capteurs non refroidis sont con¸cus pour travailler dans l’infrarouge lointain
(LWIR, longueur d’onde entre 7−14µm) o`u les objets terrestres ´emettent la plus
grande part de leur ´energie infrarouge. La radiation thermique qui ´emane des ˆetres
humains et des animaux est `a son maximum entre 8 et 14µ m. Ainsi, ces objets
pr´esentent un contraste plus important dans les images produites dans la bande
LWIR.
Il existe une troisi`eme bande d’IR `a courte longueur d’onde (entre 1−2µm)
appe-l´ee SWIR. Cette bande se propage mieux au travers des atmosph`eres humides et
sera donc choisi de pr´ef´erence pour des applications maritimes. Par temps de pluie,
la port´ee de la cam´era est `a peu pr`es la mˆeme en LWIR et SWIR. Par ailleurs, le
LWIR traverse mieux les fum´ees et sa port´ee en brouillard est plus grande.
La figure 1.1 pr´esente diff´erentes prises d’une image avec des longueurs d’ondes
diff´erentes et montre que le contraste change en fonction des longueurs d’ondes.
Il est ind´eniable que plus le contraste thermique est ´elev´e, plus il est facile de
d´etecter des cibles sur un fond de temp´erature constante. C’est ainsi que la grande
majorit´e des syst`emes qui sont apparus sur des v´ehicules, ces derni`eres ann´ees,
reposent sur l’utilisation de cam´eras infrarouges de type LWIR. Tout r´ecemment,
des constructeurs automobiles comme Honda, Mercedes et BMW commercialisent
un assistant de vision nocturne. Ce dernier permet de restituer sur l’´ecran central
1.1 Contexte 31
Figure 1.1.Pr´esentation de l’image d’un visage prise avec diff´erentes longueurs d’ondes