• Aucun résultat trouvé

Mod´ elisation des connaissances et cat´ egorisation

Etant donn´e l’int´erˆet de la cat´egorisation dans la repr´esentation des connaissances et des informations, d’abondantes recherches lui ont ´et´e consacr´ees. Ainsi, de nom-breuses th´eories ont vu le jour, qui visent `a mod´eliser et simuler automatiquement le processus de cat´egorisation. Par ailleurs, le d´eveloppement de l’informatique a permis le d´eveloppemement de techniques et d’outils qui peuvent ˆetre mis en œuvre tr`es rapidement et sur de grandes quantit´es de donn´ees.

3.2 Mod´elisation des connaissances et

cat´egorisation

Si donc la cat´egorisation est une piste int´eressante pour la mod´elisation et la sim-ulation du processus cognitif, le choix des m´ethodes `a adopter d´epend ´etroitement de l’objectif de l’application ainsi que de la nature des donn´ees. Dans le but de construire une mod´elisation plausible d’une partie du monde cognitif d’un jeune enfant, plusieurs d’entre elles ont ´et´e test´ees.

Deux domaines s´emantiques ont ´et´e choisis pour faire cette ´etude : le domaine des animaux et le domaine des aliments. En effet, dans ces deux domaines, les noms communs du vocabulaire enfantin pr´esents dans le corpus sont nombreux et vari´es. On y d´enombre en effet 81 noms d’animaux et 112 noms d’aliments, ce qui correspond `a une base de connaissances bien adapt´ee aux travaux envisag´es.

3.2.1 S´election des variables de classification

Quelle que soit l’approche choisie, l’´etape de la s´election des param`etres de classi-fication est indispensable et particuli`erement d´elicate car c’est d’elle que d´epend la qualit´e des r´esultats ult´erieurs.

La m´ethode retenue pour s´electionner les variables de classification s’est d´eroul´ee en deux ´etapes.

1. La premi`ere ´etape a consist´e `a collecter des donn´ees. Des enfants d’ˆage pr´escolaire1 ont ´et´e amen´es `a r´ealiser des classifications et `a d´ecrire les moti-vations de leurs choix. Cette collecte a abouti `a une classification de r´ef´erence qui repr´esente la classificationexperte des enfants.

2. La seconde ´etape a ´et´e bas´ee sur les crit`eres de choix d´esign´es par les enfants eux-mˆemes ; elle a consist´e `a s´electionner un ensemble de variables qui per-mette d’obtenir une classification aussi proche que possible des classifications observ´ees lors de la collecte.

En l’occurrence, la cat´egorisation obtenue `a partir d’une classe maternelle particu-li`ere ne peut ´evidemment pas ˆetre consid´er´ee comme repr´esentative d’une classe d’ˆage d’enfants dans un contexte culturel donn´e. Cependant, l’objectif final ´etant de doter un robot d’une connaissance plausible, la repr´esentativit´e du groupe d’en-fants n’´etait pas un probl`eme dans ce cadre applicatif particulier.

Concernant les animaux, les variables qui ont ´et´e ainsi retenues sont les suivantes : – le nombre de pattes (0, 2, 4 ou plus) ;

– la taille (petit, moyen, grand, tr`es grand) ;

– le moyen de locomotion (voler ou non, marcher ou non, nager ou non) ; – le mode de vie : l’animal vit dans la ferme, est sauvage ou autre ; – la nuisance : l’animal pique ou non, griffe ou non, etc. ;

Mod´elisation des connaissances enfantines 32 – l’effet produit : l’animal fait peur ou non.

3.2.2 Les cartes auto-organisatrices de Kohonen

L’objectif principal des m´ethodes de classification automatique est de r´epartir les ´el´ements d’un ensemble en groupes, c’est-`a-dire d’´etablir une partition de cet ensemble. La d´etermination des groupes repose sur le principe qui consiste `a mini-miser la distance entre les individus d’un mˆeme groupe, tout en maximisant celle qui s´epare les individus de groupes diff´erents.

Les m´ethodes de classification existantes se r´epartissent en m´ethodes de classi-fication hi´erarchique et m´ethodes de classification `a plat. Dans les m´ethodes de classification hi´erarchique, on ne se contente pas d’une partition des donn´ees, on ´

etablit ´egalement une hi´erarchie des parties. Les enfants interrog´es lors de la col-lecte de donn´ees ont r´ealis´e des classifications `a plat des individus sans faire des agr´egations de groupes comme le fait la classification hi´erarchique. Pour cette rai-son, une simple classification `a plat nous a sembl´e mieux adapt´ee `a la mod´elisation de leur processus cognitif.

Parmi les m´ethodes de classification `a plat, la m´ethode des cartes auto-organisatrices introduite par Kohonen (1982) ou SOM (Self Organizing Maps) se distingue par le fait que les cartes obtenues respectent la topologie de l’espace des donn´ees. Plus pr´ecis´ement, les SOM r´epartissent les individus dans des classes entre lesquelles existe une notion de voisinage. Cette proximit´e entre les classes est porteuse d’informations : elle permet d’´evaluer la proximit´e topographique entre les individus dans la carte et donne une vision globale sur l’organisation des con-naissances. C’est cette m´ethode qui a ´et´e exp´eriment´ee pour mod´eliser le processus de classification enfantin.

Dans son principe, l’algorithme de Kohonen (2001) s’inscrit dans le cadre des r´eseaux de neurones `a apprentissage non supervis´e. Il repr´esente une g´en´eralisation de la m´ethode des centres mobiles ou nu´ees dynamiques en introduisant une notion de voisinage entre les neurones. Ceux-ci sont organis´es selon une struc-ture choisie a priori que l’on appelle aussi carte de Kohonen et qui peut ˆetre de dimension un (ficelle) ou deux (grille). En partant d’un ensemble de donn´ees D = {X1, X2, ..., XN} contenant N observations, l’objectif de l’algorithme de Ko-honen est de faire correspondre `a chaque unit´e de la carte ou neurone u un vecteur

code Cu et un sous-ensemble Gu de D. Chaque sous-ensemble Gu repr´esente une classe form´ee par les observations Xi ∈ D les plus proches de Cu au sens d’une distance d´efinie sur IRp (p ´etant la dimension de l’ensemble D). Les classes as-soci´ees aux diff´erents neurones de la carte forment une partition de l’ensemble de donn´ees D.

Plus pr´ecis´ement, le d´eroulement de l’algorithme est indiqu´e dans la figure 3.1

ci-dessous.

´

Etapes de l’algorithme : 1. Choix des dimensions de la grille neuronale G.

2. Initialisation al´eatoire des vecteurs wr, r ∈ G, vecteurs r´ef´erents de chacun des neurones.

3. Pr´esentation du corpus d’apprentissage D un certain nombre de fois : tant que (t < tmax) et (variation des vecteurs codes ≥ a fix´ee)

pour chaque vecteur v de D (ordre al´eatoire)

* d´eterminer le neurone s dont le vecteur r´ef´erent approche au mieux v :

s = argminr∈A k v − wr k

* rapprocher de v les vecteurs r´ef´erents de s et ceux de ses “voisins” : wt+1

r = wt

r+ ∆wt r avec

∆wrt = (t).h(r, s, t).(v − wtr) (1)

(t) est le coefficient d’apprentissage et h(r, s, t) est la fonction de voisinage. fin pour

fin tant que

Figure 3.1: L’algorithme de Kohonen.

– Le choix des dimensions de la carte est une ´etape particuli`erement importante qui conditionne la qualit´e de la classification obtenue : la m´ethode que nous avons choisie est d´etaill´ee dans la section suivante (cf. 3.3.1).

– Le nombre d’it´erations maximal (tmax) est choisi empiriquement. Kohonen

(1990) sugg`ere qu’il soit au moins ´egal `a 500×U , U ´etant le nombre de neurones. – Le neurone gagnant est celui dont le vecteur r´ef´erent est le plus proche du vecteur pr´esent´e au sens de la distance choisie : en l’occurrence, la distance entre vecteurs que nous avons utilis´ee est celle du χ2.

– La fonction de voisinage h pond`ere la correction `a apporter aux vecteurs r´ef´erents des neurones ; elle d´etermine la d´eformation subie par la carte apr`es

Mod´elisation des connaissances enfantines 34 qu’a ´et´e choisi le neurone s qui approche au mieux le vecteur v. Plus un neurone est proche de s, plus son vecteur est rapproch´e du vecteur v.

La fonction est en g´en´eral d´efinie par h(r, s, t) = exp  −k ~r − ~s k 22(t)  o`u

* k ~r − ~s k repr´esente la distance entre neurones dans la grille. Dans notre cas, la distance entre deux neurones (i, j) et (i0, j0) de la grille a ´et´e d´efinie par max(|i − i0|, |j − j0|). Avec cette d´efinition, les cellules situ´ees par exemple `a une distance 1 d’une cellule donn´ee sont les 8 cellules qui lui sont adjacentes. * σ(t) est un coefficient de voisinage qui d´ecroˆıt en fonction du temps. La fonc-tion permet de r`egler la distance `a partir de laquelle la d´eformation n’est plus sensible.

* Le coefficient d’apprentissage (t) d´ecroˆıt en fonction du temps : on peut par exemple choisir (t) = 0× exp(−t/tmax).

La r`egle (1) de la figure 3.1permet ainsi, `a chaque ´etape, d’accentuer la ressem-blance entre une donn´ee et le vecteur r´ef´erent du neurone dont elle est la plus proche. De plus, la donn´ee modifie ´egalement les vecteurs r´ef´erents des neurones voisins de son neurone gagnant.

– Ainsi, l’algorithme de Kohonen minimise la somme des carr´es des ´ecarts de chaque observation non seulement `a son vecteur code, mais aussi aux vecteurs codes voisins. La convergence de l’algorithme de Kohonen n’a ´et´e prouv´ee que pour une structure de carte en ficelle. Toutefois, il a ´et´e montr´e empiriquement que dans la majorit´e des cas, l’algorithme converge vers un minimum local. La carte r´esultante d´epend tr`es largement des donn´ees initiales et de l’ordre de pr´esentation des observations.

3.3 Cartes de Kohonen : m´ethodologie et

Documents relatifs