• Aucun résultat trouvé

2.4 Conclusion

3.1.4 Discussion

Un certain nombre d’approches sur la représentation/construction de connaissances séman- tiques ont été présentées. Abordons maintenant l’adéquation de ces ontologies dans le cadre de nos travaux. Notre objectif est d’avoir une ontologie centrée sur la description sémantique de concepts représentant des objets physiques. Nous voulons une séparation claire entre un concept abstrait et ces différentes réalisations physiques (instances) qui seront elles représentées dans notre modèle d’instance (section 5.1). Il faut se rappeler que notre modèle ne cherche pas à résoudre une tâche précise : il est conçu comme une base générale à laquelle pourraient se greffer des modules spécia- lisés. L’ontologie doit donc rester générale.

KnowRob a été développé en vue d’être intégré sur un robot cuisinier. Il doit pouvoir interpréter et exécuter une tâche décrite par une recette. Dans ce système, l’ontologie liée aux différentes tâches a été définie manuellement (cf figure 3.6). On voit que l’information concernant les objets est rela- tivement sommaire et centrée sur l’application visée. Certaines propriétés des objets (comme small ou big) ne sont pas représentées explicitement. En pratique, ces propriétés sont intégrées dans les modèles géométriques/visuels des objets mais ne sont pas représentés de façon abstraite dans l’on- tologie. Il faut souligner que leur base de connaissance a surtout pour but de créer une représentation commune pour les données (Angle, Distance,...), les algorithmes et les concepts (objet/tâche).

Le principal défaut, du point de vue de notre modèle, est donc de devoir créer manuellement l’information en fonction de la tâche envisagée. Comme nous nous plaçons dans un monde ouvert

3.1. REPRÉSENTATION DES CONNAISSANCES PAR ONTOLOGIE

(a) fork-NELL

(b) cup-NELL

(c) fork-KnowRob (d) cup-KnowRob

Figure 3.6 – Exemple de sous-graphes extraits de l’ontologie NELL [MCH+15] et KnowRob [TB17]. Pour des raisons de visibilité seule une partie significative de ces sous-graphes est re- présentée.

NELL : Les liens correspondent aux propriétés generalizations (hypernymie, en bleu) et haswiki-

pediaurl (en vert)

KnowRob : Les liens correspondent aux propriétés subClassOf (bleu) et hasValue (vert). Les re-

sans tâche spécifique, nous devons considérer des méthodes de génération automatique.

Avec internet, nous avons accès à une source énorme d’informations en langage naturel qui per- mettrait potentiellement de construire une ontologie complète. Cependant, il y a un certain nombre de difficultés à surmonter avant d’atteindre un tel objectif. NELL propose une création automa- tique d’ontologie en parcourant continuellement l’Internet. Cependant, la grande généricité de ce système entraîne également un sur-apprentissage de concepts qui ne sont qu’une combinaison de concepts plus simples. Pour tenter d’illustrer en quoi ce type d’ontologie ne peut convenir tel quel en robotique, nous avons extrait les sous-graphes concernant les concepts fork et cup en se limitant à leur sens principal. La figure 3.6 en propose une représentation graphique.

On observe, notamment pour cup, des concepts très (trop ?) spécialisés comme

sippy_cup_with_removable_lid_and_two_handles ou expresso_cup_with_saucer

En effet, ces deux concepts sont simplement une combinaison de concepts plus génériques. Dans notre modèle de représentation, ils seraient représentés par des nœuds facteurs (cf section 3.2). Les pluriels

cup/coffee_cup, cups/coffee_cups

sont également ici dissociés, bien que les concepts soient identiques. On peut également apercevoir des relations qui peuvent être vraies mais qui ne sont pas pertinentes de manière générale2comme

<water_glass_cup, generalizations, bathroomitem> <tuning_forks, generalizations, bedroomitem>

Enfin, on observe un certain nombre de relations manquantes entre les concepts présents, comme par exemple

<salad_fork, generalizations,fork> <table_fork, generalizations, fork>

Bien que chaque méthode contienne son lot d’erreurs, le problème est ici qu’il ne reste que peu d’informations exploitables par un robot et elle est principalement en lien avec le contexte spatial (kitchenitem, tableitem, householditem, etc..).

2. un diapason (tuning fork) peut effectivement se trouver dans une chambre mais de manière plus générale dans un studio de musique ou une salle de répétition. De même, il est plus probable de voir un verre en plastique (pour les brosses à dent) qu’un verre d’eau dans une salle de bain.

3.1. REPRÉSENTATION DES CONNAISSANCES PAR ONTOLOGIE

A notre connaissance, cela est un point fondamental dont souffrent la majorité des ontologies, même celles adaptées à des applications robotiques [PJ12] [TB17]. Le fait qu’une fourchette soit généralement trouvée dans une cuisine n’est qu’une conséquence d’une cause plus profonde. En effet, la cuisine est le lieu où l’on cuisine ( !) et où l’on mange. Hors, ces deux actions sont fortement liées à la notion de nourriture (food en anglais). C’est donc le contexte commun qui relie les deux concepts de cuisine et de fourchette. En raisonnant de la sorte, on peut donc correctement inférer la possible présence de fourchettes dans une salle de restaurant, chose que n’implique pas le concept de kitchenitem. On peut observer cela à la figure 3.7 qui présente le sous-graphe associé au concept

fork obtenu par notre méthode détaillée plus loin dans ce chapitre. Sans rentrer dans les détails du

graphe, on voit clairement apparaître ici le contexte de nourriture.

Notre modèle de base de connaissance ainsi que sa génération sont motivés par les points sou- levés précédemment. Nous n’avons pas trouvé d’ontologie réellement adaptée à notre application, qu’elle soit créée manuellement ou de manière automatique. En effet, on s’intéresse principale- ment à une description physique et fonctionnelle d’objets. De plus, les ontologies existantes se concentrent sur une hiérarchisation "verticale" des concepts (fork is a kitchenitem) alors que l’in- formation importante est contenue dans les contextes sous-jacents : ce sont les nœuds intermédiaires reliant ces deux concepts ie fork relateTo food, kitchen relateTo food.

Nous allons maintenant définir la structure de notre ontologie et décrire l’algorithme de construc- tion de celle-ci.

1

2 3

Figure 3.7 – Sous-graphe de l’ontologie générée par notre méthode à partir du concept fork. Plus précisément, c’est l’ensemble des nœuds à distance 1 (en ne comptant pas les nœuds facteurs) du concept fork et de ces hyponymes (carving_fork, salad_fork, table_fork, toasting_fork). Les mots associés à chaque nœud correspondent au premier mot de l’ensemble des synonymes donnés par WordNet.