• Aucun résultat trouvé

Deuxième partie

6.2 Stratégie de supervision active en-ligne

Cette section présente la stratégie de supervision active en-ligne qui est mise en place par le superviseur IntuiSup pour superviser l’apprentissage d’un classifieur lorsque l’utilisa-teur est dans la boucle. Cette stratégie tire profit des actions de l’utilisal’utilisa-teur pour étiqueter implicitement la majorité des données bien reconnues et renforcer le modèle de connaissance du système. À cela est combinée une méthode d’échantillonnage évolutive pour déclencher des interactions avec l’utilisateur et étiqueter explicitement certaines données. Cela permet de pouvoir apprendre à partir des données qui sont complexes et difficiles à reconnaitre, et à partir desquelles il est très bénéfique d’apprendre.

Dans le contexte de la reconnaissance de commandes gestuelles, l’utilisateur initialise le système avec très peu de données par classe (trois exemples par classe dans nos expériences). Pour améliorer la reconnaissance des commandes gestuelles, le classifieur utilisé est évolutif et apprend pendant son utilisation. En même temps que le classifieur apprend, l’utilisateur apprend également : il doit mémoriser le jeu de symboles et retenir quel symbole est associé à quelle commande [Li 13]. Dans cette situation d’apprentissage croisé, plusieurs cas peuvent se produire :

Cas A Le bon geste est dessiné, et est bien reconnu : la commande souhaitée est exécutée ;

Cas B L’utilisateur commet une erreur et se trompe de symbole ; Cas C Le classifieur commet une erreur et se trompe de commande ;

A B C D Bon symbole, bien reconnu :

bonne commande gestuelle

Mauvais symbole : erreur de mémorisation

Bon symbole, mal reconnu : erreur de reconnaissance

Rejet du symbole : pas de reconnaissance

Figure 6.2 – Partitionnement des données suite à l’apprentissage croisé de l’utilisateur et du classifieur.

Cas D Le système rejette le symbole et demande à l’utilisateur de valider ou corriger la commande proposée.

Lorsque qu’une erreur est commise, soit par l’utilisateur soit par le classifieur (cas B ou C), la commande exécutée n’est pas celle qui est désirée. L’utilisateur doit alors annuler la (mauvaise) commande qui a été effectuée et essayer de nouveau celle qui est souhaitée. À partir de cela, il est possible de répartir les données dans quatre catégories comme illustré figure 6.2.

L’algorithme d’apprentissage du classifieur est un algorithme supervisé, il est donc né-cessaire d’étiqueter les données d’utilisation pour pouvoir apprendre en-ligne. La stratégie de supervision présentée ici est duale, elle combine supervision implicite, sans solliciter l’utilisateur, et supervision explicite, où l’utilisateur est sollicité pour obtenir les étiquettes des données (vérité terrain).

6.2.1 Supervision implicite : sans interaction avec l’utilisateur

La supervision implicite de l’apprentissage consiste à étiqueter les données d’utilisation implicitement, en utilisant les étiquettes reconnues par le classifieur lorsque celles-ci sont implicitement validées par l’utilisateur.

Étiqueter les données avec les étiquettes reconnues par le classifieur est facile, et gratuit en matière d’interactions avec l’utilisateur. Cependant, cet étiquetage contient des erreurs à chaque fois qu’une commande est mal reconnue par le classifieur. Pour éviter de détériorer le modèle de connaissance du système en apprenant sur des données mal étiquetées, nous tirons parti de l’action suivante de l’utilisateur pour apprendre seulement lorsqu’il valide implicitement la commande reconnue. En effet, lorsque l’utilisateur dessine un symbole, celui-ci est reconnu par le classifieur et la commande reconnue est exécutée. Deux cas sont alors possibles :

— L’utilisateur continue ses actions, ce qui indique que la commande exécutée lui convient, il valide implicitement la commande reconnue (cas A de la figure 6.2). — L’utilisateur annule la commande, soit parce qu’il a dessiné un mauvais symbole

(erreur de mémorisation, cas B), soit parce qu’elle ne correspond pas au symbole qu’il a dessiné (erreur de reconnaissance, cas C), ou alors juste parce qu’il a changé d’avis.

Chapitre 6. IntuiSup : un superviseur actif en-ligne 111

La supervision implicite consiste à utiliser l’étiquette reconnue par le classifieur, mais seulement lorsqu’elle a été implicitement validée par l’utilisateur (en continuant ses actions sans annuler la commande effectuée). Le classifieur apprend ainsi à partir des données qu’il a correctement reconnues (cas A) et renforce son modèle de connaissance sans pour autant risquer de le détériorer en cas d’erreur de mémorisation (cas B) ou de reconnaissance (cas C).

Cette stratégie permet d’être sûr de ne pas détériorer le modèle de connaissance du classifieur, mais limite l’apprentissage aux données bien reconnues. Pour pouvoir améliorer efficacement le classifieur, il est indispensable de pouvoir apprendre à partir des données qui sont complexes et mal reconnues. Pour cela, il est nécessaire d’interagir avec l’utilisateur pour obtenir les bonnes étiquettes des données mal reconnues : c’est la supervision explicite.

6.2.2 Supervision explicite : étiquetage par l’utilisateur

Apprendre à partir des données qui sont mal reconnues nécessite d’interagir avec l’uti-lisateur pour obtenir l’étiquette du symbole qu’il a dessiné (vérité terrain). Il est évident que solliciter l’utilisateur après chaque commande rendrait l’utilisation de commandes ges-tuelles très laborieuse. Les interactions avec l’utilisateur ont un coût, elles doivent donc être les plus limitées possible. Il faut donc sélectionner soigneusement les données qui seront étiquetées par l’utilisateur : c’est un problème d’apprentissage actif. De plus, l’apprentis-sage des commandes gestuelles étant continu, la décision d’échantillonnage doit être prise donnée par donnée.

Pour cela, nous utilisons la méthode d’échantillonnage par incertitude maximale qui consiste à étiqueter les données pour lesquelles le classifieur est le moins confiant lors du processus de reconnaissance. Cette méthode a le double avantage de sélectionner des données qui ne sont pas bien modélisées par le système, et donc intéressantes pour son apprentissage, et de réduire les erreurs de reconnaissance, qui ont aussi un coût pour l’uti-lisateur. La supervision explicite de l’apprentissage permet ainsi au classifieur d’apprendre à partir des données qui sont complexes à reconnaitre (cas D de la figure 6.2), et pour lesquelles il aurait probablement commis une erreur de reconnaissance.

Au final, la stratégie de supervision en-ligne active d’IntuiSup permet d’entrainer le classifieur sur les données des catégories A (validées implicitement) et D (validées explici-tement) de la figure 6.2. Les données des catégories C et D ne sont pas utilisées, car leur étiquetage n’a pas été validé, ni implicitement ni explicitement. Ce choix enlève quelques données qui ne sont pas utilisées pour l’apprentissage du classifieur, mais permet d’être sûr de ne pas dégrader le modèle de connaissance du classifieur avec des données mal étique-tées. Cette hypothèse est vérifiée dans la section 8.3 où nous montrons expérimentalement que l’apprentissage semi-supervisé à partir de ces données n’est pas intéressant.

Par conséquent, la méthode d’échantillonnage du superviseur a une grande influence sur le processus d’apprentissage en-ligne du classifieur. Plus la quantité de données sé-lectionnées est importante, plus le nombre de données disponibles pour l’apprentissage est important ; or apprendre à partir des données complexes est très bénéfique pour le classifieur.

L’efficacité de la stratégie de supervision active en-ligne d’IntuiSup est montrée au cha-pitre 8. La prochaine section présente la méthode d’échantillonnage évolutive ESU (Evol-ving Sampling by Uncertainty) utilisée pour sélectionner les données qui sont explicitement étiquetées par l’utilisateur.