• Aucun résultat trouvé

Chapitre 3 Visibilit´ e routi` ere

3.2 Visibilit´e g´eom´etrique

3.2.3 Outils de diagnostic de la visibilit´e g´eom´etrique

Outre les consid´erations th´eoriques pr´esent´ees pr´ec´edemment permettant d’estimer grossi`e-rement la visibilit´e g´eom´etrique `a partir de connaissance topographiques et environnementales de la route, plusieurs outils d´edi´es `a une appr´eciation plus fine de cette notion ont ´et´e d´evelopp´es. Une m´ethode d´evelopp´ee par le LRPC de Saint-Brieuc, VISULINE, consiste en deux v´ehicules g´eor´ef´erenc´es se suivant sur la route et reli´es par une liaison radio. Pour chaque position du v´ehicule suiveur sur la route, le v´ehicule le pr´ec´edant avance jusqu’`a ce qu’il ne soit plus visible, on rel`eve alors la distance de visibilit´e g´eom´etrique, puis le v´ehicule suiveur est avanc´e `a sa position suivante (cf. Fig. 3.5).

Figure 3.5 – M´ethode d’estimation de la visibilit´e sur obstacle (ici deux feux). La cible est progressivement avanc´ee jusqu’`a disparition compl`ete puis la mˆeme m´ethode est appliqu´ee apr`es avoir avanc´e le point d’observation.

Ce processus, bien que parfaitement adapt´e `a la situation car il est appliqu´e en conditions ´ecologiques (v´ehicules r´eels se d´epla¸cant sur la voie, jugement humain de la part du conducteur du v´ehicule suiveur) est lourd en termes de coˆut et de temps. De plus, il demande de bloquer la voie sur laquelle les v´ehicules circulent.

Des m´ethodes plus r´ecentes s’appuyant sur une mod´elisation 3D plus ou moins compl`ete de l’environnement routier `a l’aide de v´ehicule auscultateurs, permettent d’estimer a posteriori la distance de visibilit´e g´eom´etrique. L’une de ces m´ethodes, expos´ee dans [Tarel 09] consiste en une analyse d’images de sc`enes routi`eres acquises par une cam´era monoculaire embarqu´ee dans

un v´ehicule. Une premi`ere phase de traitement consiste en une segmentation de la sc`ene entre espace navigable et environnement routier par propagation et apprentissage non-supervis´e des pixels de route (Cf. Fig 3.6). Le masque situ´e dans la partie sup´erieure de l’image 3.6(a) est utilis´e `

a chaque image pour apprendre les propri´et´es d’intensit´e et de couleur des pixels « non route » et le masque situ´e dans la partie inf´erieure sert lui `a l’apprentissage des pixels appartenant `a la voie (pixels « route »).

(a) (b)

Figure 3.6 – (a) Image source et zones d’apprentissage de l’espace roulable et de l’environne-ment, (b) apr`es segmentation de la voie.

Une fois la route segment´ee, en se fondant sur une hypoth`ese « monde plan », la distance du plus lointain point de la route (le plus haut dans l’image) est calcul´e `a l’aide de l’´equation 3.3.

D= H f

hy(v − vh)cos(θ) (3.3)

avec H la hauteur de la cam´era en m`etres, f sa focale en mm, hy la hauteur d’un pixel en mm,

θl’angle de tangage, vh l’indice de la ligne image contenant la ligne d’horizon et v l’indice de la ligne contenant le point consid´er´e.

Les r´esultats de la m´ethode d’estimation de la ligne d’horizon et de segmentation de la voie sont illustr´es dans la figure 3.7 (a) et (b). Cette m´ethode mono-cam´era renseigne sur la visibilit´e g´eom´etrique de la chauss´ee bien que l’assertion « monde plan » en limite la port´ee aux routes planes. Elle peut ais´ement ˆetre embarqu´ee sur un v´ehicule auscultateur roulant `a la vitesse limite autoris´ee. Il faut toutefois que la voie ne soit pas occup´ee par du trafic, ce qui pourrait ´egalement fausser l’estimation de la distance de visibilit´e.

Cette m´ethode a ult´erieurement ´et´e affin´ee dans [Charbonnier 10] par l’utilisation d’un cap-teur st´er´eoscopique. La m´ethode est assez similaire : extraction de la voie, identification des bords de voie dans les deux vues, estimation du profil de chauss´ee puis estimation du point le plus distant appartenant `a la voie. L’utilisation de la st´er´eo permet de s’abstraire de l’hypo-th`ese « monde plan » et des erreurs associ´ees `a celle-ci dans le cas o`u la route n’est pas plane. L’estimation de la distance du point de la route le plus lointain est am´elior´ee par l’utilisation de la st´er´eo ainsi que par une correction de la d´eformation g´eom´etrique de la cam´era. Elle reste cependant sensible au masquage de la route par d’autres v´ehicules.

Ces m´ethodes d’analyse d’images ne permettent toutefois pas d’obtenir une distance de visibilit´e en consid´erant un obstacle `a une hauteur et un positionnement donn´es sur la voie, ce qui correspond aux sc´enarios retenus dans la r´eglementation pr´esent´es en section 3.2.

(a) (b)

Figure 3.7 – (a) Image source, (b) apr`es segmentation et extraction des lignes de fuite.

D’autres m´ethodes d’estimation de la distance de visibilit´e g´eom´etrique s’appuient sur la 3D. Le processus consiste en une acquisition haute r´esolution de l’ensemble des coordonn´ees relatives de l’environnement de la voie `a l’aide d’outils tels que des LIDARs. Un v´ehicule g´eor´ef´erenc´e est ´equip´e d’un ou plusieurs LIDARS. Il permet de num´eriser l’environnement avec une plus ou moins grande pr´ecision, souvent li´ee `a sa vitesse de d´eplacement, `a la distance des points vis´es par le ou les LIDARs et `a la technologie des LIDARs (circulaire, lin´eaire, mono-plan, multi-plans, fr´equence de balayage, pr´ecision mat´erielle). `A partir des nuages de points mesur´es et plac´es dans un r´ef´erentiel commun, l’environnement est reconstruit a posteriori apr`es une phase de facettisation du nuage de points. Une fois l’environnement facettis´e, on peut placer virtuellement un observateur ainsi qu’une cible `a des hauteurs et des positions donn´ees et v´erifier par une m´ethode de lancer de rayon qu’il n’y a pas d’obstacle obstruant la vue. Pour chaque position d’observateur on recule la cible virtuelle jusqu’`a ce qu’il y ait obstruction de la vue, la distance de visibilit´e est alors relev´ee comme la plus grande distance `a laquelle la cible ´etait visible. On peut voir sur la figure 3.9 le nuage de point acquis par le v´ehicule LARA3D du Centre de Robotique des Mines ParisTech ainsi que l’environnement reconstruit apr`es facettisation [Goulette 06].

Figure 3.8 – R´esultat de la d´etection de voie et de l’estimation de la position de la ligne d’horizon.

Figure 3.9 – Nuage de points acquis par le v´ehicule LARA3D et environnement apr`es facetti-sation.

L’int´erˆet de telles m´ethodes r´eside dans le fait qu’une fois l’environnement reconstruit, on peut simuler tout type de cible (v´ehicule, feux de v´ehicules, pi´etons, etc. `a n’importe quelle position (centre de voie, bord de voie, etc.). On peut ainsi estimer diff´erentes notions de visibilit´e g´eom´etrique telles que la visibilit´e de la voie ou la visibilit´e sur obstacle.

Ces outils ont ´egalement donn´e lieu `a la proposition de nouvelles estimation de la visibilit´e telles que le pourcentage de visibilit´e de cibles volumiques en virage, calcul difficile `a effectuer par des m´ethodes ´ecologiques avec observateurs et cibles r´eelles sur site.

En revanche une des limites rencontr´ees, qui se situe en amont de l’estimation de la visibilit´e g´eom´etrique, est dans la reconstruction de l’environnement et la facettisation. Trois situations sont particuli`erement complexes, premi`erement, le trafic sur la route masquera r´eguli`erement l’environnement et le stationnement en ville pourra se r´ev´eler tr`es gˆenant. Deuxi`emement, les environnements v´eg´etaux ne sont pas des grands objets `a facettes simples comme les bˆatiments et peuvent pr´esenter des parties non pleines (donc pas de point enregistr´e puisque le rayon issu du LIDAR ne rencontre aucun obstacle). Enfin, certains objets tels que piquets, panneaux ou arbustes sont probl´ematiques car ils ne sont couverts que par peu de points d’acquisition. Ils sont donc difficiles `a identifier en tant qu’objets ind´ependants et peuvent ˆetre facettis´es en association avec leur environnement proche, donnant lieu `a la cr´eation de parois (facettes) n’ayant pas d’existence r´eelle. Dans ces circonstances, les facettes peuvent biaiser l’estimation de la distance de visibilit´e g´eom´etrique.