• Aucun résultat trouvé

Méthode par réseau de neurones

Chapitre 4 -Contrainte de l'environnement et prédiction de trajectoire des vé-

4.3 Détection d'intention : changement de voie sur autoroute

4.3.3 Méthode par réseau de neurones

La deuxième méthode de détection de changement de voie utilise des réseaux de neurones. Il s'agit maintenant de construire et d'entraîner un réseau de neurones pour la classication d'intention des exo véhicules tel que déni au paragraphe 4.3.1.

Choix de la structure du réseau de neurones pour la détection d'intention de chan-gement de voie

Un réseau de neurones est composé de trois couches : une couche d'entrée, une ou plusieurs couches cachées et une couche de sortie. Dans notre cas, et comme indiqué auparavant, les pa-ramètres de la couche d'entrée sont : l'historique des positions et vitesses sur 1 s échantillonnée à 40 ms et les coecients des polynômes des lignes pour un total de 112 paramètres. La couche cachée du réseau de neurones utilisé ici contient une seule couche de trente neurones. Enn, parce que les intentions sont dénies en sept classes, il y a sept sorties sur la dernière couche du

4.3. Détection d'intention : changement de voie sur autoroute

réseau. Un diagramme Figure 4.21 (a) illustre la structure du réseau. Il n'y a pas de méthode pour déterminer de façon certaine le nombre de couche cachée et de neurones nécessaires pour qu'un réseau de neurones soit représentatif du système à modéliser. Il faut gérer le compromis entre complexité du réseau et précision. Une analyse sur l'inuence du nombre de neurones dans notre cas applicatif est présentée par la suite.

Données dhentrée

...

Sortie N1 N30 X(k-25) X(k) Y(k) Y(k-25) Vx(k) Vx(k-25) Vy(k) Vy(k-25) C0R C3L 1 2 4 3 6 5 7 Classe

Couche dhentrée Couche cachée Couche de sortie

...

N1 N30 X(k-25) X(k) Y(k) Y(k-25) Vx(k) Vx(k-25) Vy(k) Vy(k-25) C0R C3L 4 1 Classe Données d'entrée Sortie

Couche d'entrée Couche cachée Couche de sortie

(a) (b)

Figure 4.21  Structure des réseaux de neurones

Les matrices des paramètres s'écrivent Θ(1)pour les paramètres de transition entre la couche d'entrée et la couche cachée, et Θ(2) pour les paramètres entre la couche cachée et la couche de sortie. La fonction d'activation de chaque neurone est la fonction sigmoïde g (4.6).

À partir d'un vecteur d'entrée d = [X(k) ... C3L]T, de la fonction d'activation g et des poids Θi(i ∈ {1, 2}), les équations de type (4.5) sont utilisées pour calculer la sortie c. c est un vecteur 7x1, chaque ligne correspondant à une classe. La valeur des sorties se trouve entre 0 et 1. La classe correspondant à l'entrée d est celle avec la valeur la plus proche de 1.

Le réseau, ainsi déni, n'a pas la connaissance a priori du positionnement de l'exo véhicule dans les voies. Il peut alors apparaître des résultats aberrants. Par exemple, le réseau peut pré-dire qu'un exo véhicule se déplace de la voie de gauche vers la voie centrale (classe 4) alors qu'en réalité, il reste dans la voie centrale du début à la n. Le réseau n'ayant pas d'information de positionnement des objets ou de présence des voies, il peut se tromper. Vu que l'information sur la ligne de départ est connue, ces aberrations peuvent être évitées en ajoutant cette information dans le vecteur d'entrée d, ou complètement supprimées en créant trois sous réseaux : un pour chaque voie de circulation de départ des exos véhicules, voir Figure 4.22 (a).

Pour évaluer l'importance d'une séparation du problème, nous avons entraîné un réseau com-plet avec les sept classes en sortie et trois sous-réseaux en fonction de la voie de départ des objets. Les matrices de confusion montrant les erreurs des réseaux sont visibles sur la Figure 4.22 (b).

4.3. Détection d'intention : changement de voie sur autoroute

(a) (b)

Figure 4.22  Illustration du découpage du problème (a) et comparaison des matrices de confu-sions pour les méthodes avec et sans voies séparées (b)

Sur les 470 données, la méthode avec trois réseaux de neurones découplés en fonction de la voie initiale de l'exo véhicule se trompe 32 fois. En utilisant un seul réseau, il y a 46 erreurs, dont 7 qui sont aberrantes, et supprimées avec la technique de séparation de problèmes.

La deuxième option, avec l'entraînement de trois réseaux, est préférée. Chacun de ces ré-seaux a la même structure de couche d'entrée et cachée. Les réré-seaux pour les voies de gauche et droite ont deux sorties alors que le réseau de la voie du milieu en a trois. Étant donné que la méthodologie et les résultats sont similaires, le reste de l'étude se focalise sur la voie de gauche. La représentation schématique du réseau pour la voie de gauche est illustrée Figure 4.21 (b). Seules les classes 1 (reste dans la voie de gauche) et 4 (se déplace de la voie de gauche vers la voie du milieu) avec des positions initiales dans la voie de gauche restent.

Pour arriver au nombre de 30 neurones pour la couche cachée, plusieurs essais avec la même base de données d'entraînement ont été eectués pour vérier quel était le nombre optimal de neurones à conserver. Le but est d'avoir le moins de paramètres possible tout en conservant une bonne modélisation des relations entrée/sortie. Ainsi, la Figure 4.23 (a) montre les matrices de confusion pour les réseaux avec 2, 5, 10 et 100 neurones et la Figure 4.23 (b) trace la variation du nombre d'erreurs en fonction du nombre de neurones dans le réseau. Sur tous les tests, le nombre d'erreurs varie entre 5 et 10 sur un total de 147 données. Lorsque l'on augmente le nombre de neurones entre 2 et 20, le nombre d'erreurs diminue. Puis un palier est atteint entre 20 et 40 neurones et le nombre d'erreurs augmente lorsque trop de neurones sont ajoutés.

0 50 100 150 200 Nombre de neurones 0 2 4 6 8 10 Nombre d'erreurs (a) (b)

Figure 4.23  Matrices de confusion en fonction du nombre de neurones (a) et variation du nombre d'erreurs en fonction du nombre de neurones dans le réseau (b)

4.3. Détection d'intention : changement de voie sur autoroute

Comme expliqué dans la section 4.3.2 de la méthode par règles, la vitesse latérale peut être calculée de deux manières : en utilisant la relation (4.14) ou en utilisant un ltrage de Kalman. An d'analyser l'inuence de la vitesse latérale sur le réseau de neurones, deux réseaux sont entraînés et comparés : un avec Vy comme dans (4.14) et un autre avec Vy estimée par ltrage de Kalman.

Entraînement

La phase d'apprentissage des paramètres Θ1 et Θ2 du réseau de neurones pour la détection d'intention utilise la méthode de rétropropagation décrite précédemment. La fonction de coût J (Θ1, Θ2) à minimiser est dénie comme :

J (Θ1, Θ2) = 1 m m X i=1 2 X k=1 

c(i)[k]log(bc(i)[k])+(1 − c(i)[k])log(1 −bc(i)[k]), (4.20) avec m le nombre d'exemples dans la base de données, c(i)[k] la keme ligne de la sortie réelle correspondant au ieme vecteur d'entrée d de la base de données etbc(i)[k]la kemeligne de la sortie calculée par le réseau avec le même vecteur d'entrée d, Θ1 et Θ2.

Pour que l'apprentissage soit ecace, il convient aussi de faire en sorte que toutes les caracté-ristiques des vecteurs d'entrée soient du même ordre. Une normalisation est donc eectuée pour faire en sorte que toutes les valeurs d'entrée soient comprises entre -3 et 3. Chaque caractéristique F est normalisée par l'équation :

F0 = 3 F − mean(F )

max(F ) − min(F ). (4.21)

La base de données est divisée en deux : une base d'entraînement et une base de test. Un terme de régularisation γ est ajouté à la fonction de coût (4.20). La valeur de γ est déterminée de telle sorte qu'elle minimise la fonction de coût (4.20) de la base de test. Les réseaux sont entraînés avec plusieurs valeurs de γ avec la fonction de coût (4.12), puis (4.20) est calculé avec les bases d'entraînement et de test. La Figure 4.24 montre les variations de la fonction de coût des réseaux entraînés pour les deux bases en fonction de γ.

Figure 4.24  Variation du coût en fonction du paramètre de régularisation pour le réseau de neurones avec Vy calculée comme une variation de positions

Sur cette gure, quand γ augmente, le coût des données d'entraînement augmente. Cela veut dire que le réseau devient moins spécique à ces données. Dans le même temps, le coût de la base

4.3. Détection d'intention : changement de voie sur autoroute

de test commence à diminuer lorsque γ est petit puis augmente légèrement. Au début, le réseau est donc surentraîné et trop proche de la base d'entraînement. Il devient ensuite plus généralisé aux diérents enregistrements. Lorsque γ devient trop grand, le réseau n'est plus représentatif du changement de voie, il manque des paramètres. Pour le réseau avec Vy calculée avec (4.14), la valeur de γ minimisant la fonction de coût pour la base de données de test est γ = 1, 94. Celle du réseau avec Vy estimé par ltrage de Kalman est γ = 0, 85.