• Aucun résultat trouvé

5.5 Sélection : Résultats

5.5.3 Données réelles

Pour réaliser l’expérience de changement de modalité, nous utilisons le robot BIBA

présenté par la figure 5.4(a). Ce robot d’une taille moyenne (1/0.5/0.5 m) est équipé de

nombreux capteurs :

– une caméra pouvant tourner sur deux axes,

– un télémètre laser de type SICK (LMS 200 fig.5.4(b)). Ce capteur délivre la distance

des plus proches objets sur un demi-plan horizontal. Il produit une mesure tous

les demi degrés. Nous considérons chacun des 360 rayons laser comme une capteur

indépendant,

– 3 odomètres,

Exp. WrappGA FiltGA FiltFA Exhaustif FiltCIF Toutes

E1

I 2 1 2 1 1 2

Tx 1 1 1 1 1 1

t 2.7 0.31 0.0028 0.27 0.0029 0.0014

E2

I 3 1 1 1 2 4

Tx 1 1 1 1 1 1

t 3.9 0.18 0.0035 2.05 0.0031 0.0024

E3

I 11 8 8 8 5 11

Tx 0.79 0.79 0.79 0.79 0.62 0.79

t 13 0.42 0.14 664 0.0089 0.006

E4

I 12 15 16 13 8 16

Tx 0.79 0.78 0.77 0,74 0.71 0.77

t 13 0.49 0.72 15 000 0.018 0.01

E5

I 14 8 8 14 8 16

Tx 0.93 0.88 0.9 0.93 0.9 0.92

t 14 0.33 0.34 17 000 0.015 0.0088

E6

I 11 9 9 11 23

Tx 0.93 0.86 0.9 0.93 0.89

t 15 0.39 0.55 0.024 0.012

E7

I 4 2 2 2 5

Tx 0.94 0.68 0.94 0.94 0.94

t 4.8 0.18 0.0077 0.0036 0.003

E8

I 6 2 2 9 19

Tx 0.81 0.37 0.83 0.78 0.74

t 7.5 0.25 0.028 0.018 0.01

Tab.5.1 – Comparaison d’algorithmes de sélection avec données simulées. Les lignesI

re-présentent le nombre de variables conservées,T xle taux de reconnaissance de la validation

croisée et t le temps de calcul de l’algorithme de sélection.

WrappGA FiltGA FiltFA FiltCIF

Temps de calcul - - - - - + + + + +

Performances prédictives + + - - - + + + +

Nombre de capteurs conservés - + + + paramètre

Paramètres à fixer - - - - + +

5.5 Sélection : Résultats 155

(a) (b)

Fig.5.4 – Le robot BIBA et une représentation des données de son télémètre laser lorsqu’il

fait face à un couloir.

– 8 proximètres à ultrasons,

– 15 proximètres à rayons infrarouge,

– une horloge,

– et une jauge de batterie.

Nous réalisons quatre expériences mettant en œuvre la sélection de variables.

Expérience E1 Le robot enregistre les données de ses capteurs lorsqu’une balle rouge est

déplacée dans son champ de vision. Son programme de vision asservit l’orientation de

la caméra dans la direction de la balle. Cette position est la variableC discrétisée en

6 valeurs. Les autres capteurs sont discrétisés sur 20 valeurs. La sélection de variable

est opérée avec ces données. Puis, dans un deuxième temps, la caméra est masquée

et la balle rouge est de nouveau déplacée devant le robot. Le prédicteur naïf estime

C grâce aux capteurs sélectionnés et asservit la direction de la caméra sur cette

prédiction. Alors le robot continue de fixer la balle, bien que la caméra ne soit plus

opérationnelle.

Expérience E2 Cette expérience est similaire à E1, sauf que dans la deuxième phase, ce

n’est plus la balle rouge, mais un cube de bois vert qui se déplace.

Expérience E3 E3 est identique à E1, sauf que nous n’utilisons pas les capteurs lasers.

Expérience E4 Similaire à E2 sans les lasers.

Les résultats numériques sont présentés dans le tableau 5.5.3 et nous en tirons les

conclusions suivantes.

Expérience E1 Nous constatons tout d’abord que la sélection de variables améliore

gran-dement le taux de bonne prédiction. FiltFA a trouvé que 8 rayons lasers suffisaient

pour prédire C. En effet le capteur laser est très performant et peu bruité. De plus,

Expérience WrappGA FiltGA FiltFA FiltCIF Toutes

E1 Nombre de capteurs 196 118 8 8 392

Taux de prédiction 0.143 0.143 0.85 0.55 0,143

Temps de calcul 110.5 8.61 3.98 0.72 0,07

E2 Nombre de capteurs 183 112 8 8 392

Taux de prédiction 0.15 0.143 0.88 0.43 0,143

Temps de calcul 100.4 8.94 3,92 0,726 0,07

E3 Nombre de capteurs 14 4 7 8 32

Taux de prédiction 0.66 0.2 0.55 0.51 0,55

Temps de calcul 2.73 0.15 0.01 0.006 0,002

E4 Nombre de capteurs 20 5 7 8 32

Taux de prédiction 0.40 0.23 0.36 0.38 0,30

Temps de calcul 2.97 0.16 0.01 0,005 0,002

Tab. 5.3 – Résultats des expériences robotiques.

une discrétisation deC sur 6 valeurs facilite le problème.FiltCIF qui a conservé 6

la-sers et 2 capteurs à ultrasons, donne des performances moins élevées. Nous constatons

aussi que les algorithmes génétiques n’ont pas trouvé de bon optimum, bien qu’ayant

nécessité un long temps de calcul. Nous pensons que cela est du à la fonction de

fitness qui présente un maximum global très piqué : il est difficile de le trouver par

mutation et reproduction avec le codage binaire utilisé. De plus, l’espace de recherche

avec 392 capteurs est très vaste.

Expérience E2 Avec le cube vert les résultats sont similaires : il est aisé de le détecter

avec les 8 lasers, mais c’est un peu plus dur avec les ultrasons.

Expérience E3 et E4 Comme la présence du laser SICK rend la détection assez facile,

nous avons reproduit les expériences sans ce capteur. Alors nous n’avons plus que 32

variables et WrappGA trouve un bien meilleur sous-ensemble. De façon générale, les

performances sont moins bonnes qu’avec le SICK, mais le robot arrive à retrouver

le cube dans 40% des cas et lorsqu’il se trompe, ce n’est souvent que d’un domaine

angulaire. Les capteurs sélectionnés sont principalement les proximètres à ultrasons,

bien que WrappGA conserve toujours des capteurs inutiles.

Finalement, nous constatons que la sélection de variables permet une amélioration des

prédictions dans un contexte de fusion simple de capteurs. FiltFA est une bon candidat

lorsque de nombreuses variables sont présentes, car le mécanisme deforward addition

per-met rapidement de ne garder que des variables intéressantes et évite ainsi des calculs

coûteux.

5.6 Conclusion 157

5.6 Conclusion

5.6.1 Contributions

Dans ce chapitre, nous avons proposé et comparé plusieurs algorithmes de sélection

de variables dans le but d’améliorer les performances d’un prédicteur. Nous avons de plus

redérivé une version bayésienne du classificateur bayésien naïf.

Nous avons constaté que lorsque le modèle probabiliste du classificateur est éloigné

de la réalité, la sélection de variables permettait de nettement améliorer les performances

prédictives finales. Concernant les différents algorithmes, nous avons constaté que les filtres

donnaient de meilleurs résultats expérimentaux que les wrappers, en terme de temps de

calcul, mais aussi en regard des performance prédictives. Nous expliquons ce phénomène par

un bon choix d’heuristiques de filtre (formule de Ghiselli et information mutuelle empirique)

et aussi par le fait que la forward addition permette une exploration parcimonieuse de

l’espace des sous-ensembles.

Nous avons utilisé la sélection de variables dans un contexte de robotique autonome.

Le robot est capable de se passer d’un de ses capteurs après avoir découvert des régularités

statistiques dans son domaine sensori-moteur. Nous avons testé cette idée dans le cadre

d’une expérience réelle.

5.6.2 Perspectives

Il serait intéressant de poursuivre l’étude de l’algorithme génétique afin d’optimiser

ses paramètres pour le rendre plus rapide et plus sélectif. Il serait possible de modifier sa

fonction d’adaptation en ajoutant une pénalité dépendant du nombre de variables retenues

afin de le forcer à éliminer les variables inutiles. Nous pourrions aussi complexifier la formule

de Ghiselli afin de détecter les dépendances conditionnelles d’ordre supérieure à deux. La

dernière voie à explorer est celle d’une modification du critère d’arrêt de l’algorithme

FiltCIF. Avec un critère automatisé, FiltCIF deviendrait un excellent candidat pour une

application embarquée.

Dans l’esprit de la robotique autonome, nous n’avons réalisé qu’un premier pas vers la

découverte entièrement automatique de nouveaux comportements. En effet l’enchaînement

des phases de recherche de régularité statistique et des phases d’exploitation est, dans notre

travail, décidé par le programmeur. Il serait intéressant de réfléchir à intégrer ces phases au

sein d’une architecture de plus haut niveau. Ce programme pourrait décider des moments

pendant lesquels le robot peut (ou doit) se consacrer à de l’apprentissage et des moments

où il doit se consacrer à sa tâche principale.

Chapitre 6

Création de variables

6.1 Introduction

Dans le chapitre précédent, nous avons étudié différentes façons de sélectionner des

variables pertinentes à partir d’un ensemble de variables connu à l’avance : l’ensemble

des capteurs d’un robot. Cette sélection nous a permis de définir une partie du modèle

probabiliste utilisé ensuite par le robot.

Dans ce chapitre nous nous intéressons à la création automatique d’une variable cachée

permettant une meilleure modélisation de l’environnement. Pour cela, nous proposons une

approche incrémentale dans un cadre temporel. Le robot reçoit en permanence de

l’infor-mation sur son environnement à travers ses capteurs X et son but est de structurer ces

informations en y recherchant une régularité sous-jacente. Le robot découvre alors une

explication à une série de données temporelles en créant une variable cachée simplifiant

l’expression des dépendances entre les variables X.

Nous présentons d’abord les hypothèses cadrant ce travail, puis le modèle probabiliste

associé. Nous décrivons ensuite l’algorithme d’apprentissage incrémental utilisé et reportons

des résultats sur des données synthétiques.