• Aucun résultat trouvé

CHAPITRE 2 OUTILS DE CALCUL UTILISES

2.3 Intelligence artificielle

2.3.4 Arbre de décision et arbre de décision flou

L’arbre de décision est largement utilisé comme une approche de classification avec la représentation de connaissances acquises. Il est apprécié pour sa clarté, simplicité et sa grande précision. Il s’agit de trouver un partitionnement des individus que l’on représente sous forme d’un arbre de décision. L’objectif est de produire des groupes d’individus les plus homogènes possibles du point de vue de la variable à prédire. Il est d’usage de représenter la distribution empirique de l’attribut à prédire sur chaque sommet (nœud) de l’arbre. Les idées principales de l’arbre de décision sont les suivantes :

– Dans un arbre de décision, chaque nœud correspond à un attribut et chaque arc à une valeur possible de cet attribut. Une feuille de l'arbre spécifie la valeur attendue pour la classe pour toutes les valeurs des attributs rencontrées le long du chemin de la racine à cette

– Dans un arbre de décision, à chaque nœud doit être associé l’attribut qui apporte le plus d’information par rapport aux autres attributs non encore utilisés dans le chemin depuis la racine.

Morgan et Sonquist ont utilisé les arbres de régression dans un processus de prédiction et d’explication [175]. Il s’en est suivi toute une famille de méthodes, étendues jusqu’aux problèmes de discrimination et classement, qui s’appuyaient sur le même paradigme de la représentation par arbres [176, 177]. Nous considérons généralement que cette approche a connu son apogée avec la méthode CART (Classification and Regression Tree) [178], la méthode ID3 (Interactive Dichotimizer 3) [179] et la méthode C4.5 [180]. Ces algorithmes permettent de créer des arbres de décision à partir de données symboliques, d'une manière simple et efficace. Les données numériques discrètes, lorsqu'elles sont appliquées, doivent être découpées en nombre limité d'intervalles disjoints. Cependant l’arbre de décision classique n’est pas pratique pour traiter le problème du cas où la variable à prédire est une valeur numérique continue.

Ce problème est pallié par l’application de la logique floue. L'algorithme ID3 flou [181], créé par Janików en 1998, complète la simplicité et la clarté des arbres de décision ID3 avec l’introduction des ensembles flous, permettant de définir des valeurs linguistiques à partir de données numériques et d'utiliser des intervalles flous pour les attributs concernés.

Dans notre étude, afin de modéliser et d’analyser des données de la perception humaine et les paramètres des étoffes, la méthode ID3 flou est utilisée pour générer des bases de règles pour la construction des modèles. Les principes de l’algorithme de l’arbre de décision ID3 et de sa version floue sont discutés dans les sections suivantes.

Principe d’arbre de décision ID3 [173, 182]

Les notations et les hypothèses concernées sont données ci-dessous. 1) L’ensemble des données d’entrainement S contient des attributs Ak

(k = 1,. . . , |A|) qui caractérisent des objets à classer. 2) 𝑎𝑙𝑘 est la catégorie de l’attribut 𝐴𝑘, (𝑎𝑙𝑘 ∈ 𝐴𝑘 où 𝑙 ∈ {1, … , |𝐴𝑘|}). 3) 𝐶 est l’ensemble de classes pour les données d’entrainement et chaque échantillon appartient à une classe 𝑐𝑗, (𝑐𝑗 ∈ 𝐶), 4) 𝑆𝑁l’ensemble des échantillons sur le nœud N. Dans ce contexte, la

probabilité (fréquence relative) à classe cj sur le nœud N est défini par

𝑃𝑗 = |𝑆𝑗𝑁|

|𝑆𝑁| (2-16)

où 𝑆𝑗𝑁 est l’ensemble des échantillons appartenant à classe c

« L’entropie » 𝐸(𝑆𝑁) est utilisée pour mesurer la quantité d’information apportée par

un nœud/attribut. Son but est de déterminer quel attribut doit correspondre au nœud N. L’entropie pour le nœud N est définie par

𝐸(𝑆𝑁) = − ∑ [𝑃

𝑗· log2𝑃𝑗] |𝐶|

𝑗=1 (2-17)

De cette manière, dans un nœud N, si l’attribut 𝐴𝑘 est choisi, son entropie est notée 𝐸(𝐴𝑘, 𝑆𝑁)

et correspond aux informations transmises du nœud parent au nœud enfant par le calcul suivant :

𝐸(𝐴𝑘, 𝑆𝑁) = ∑ (|𝑆𝑁(𝑙,𝑘)|

|𝑆𝑁| · 𝐸(𝑆𝑁(𝑙, 𝑘)))

|𝐴𝑘|

𝑙=1 (2-18)

où |𝐴𝑘| est le nombre de valeurs différentes pour l’attribut 𝐴𝑘, 𝐸(𝑆𝑁(𝑙, 𝑘)) l’entropie pour

une certaine catégorie 𝑎𝑙𝑘 dans l’attribut 𝐴𝑘, |𝑆𝑁(𝑙,𝑘)|

|𝑆𝑁| est la probabilité de la catégorie 𝑎𝑙𝑘 pour l’attribut 𝐴𝑘

.

La notion « gain d’information » est utilisée pour classer les attributs et pour construire l’arbre de décision, noté 𝐺(𝐴𝑘, 𝑆𝑁) . Elle est calculée par

𝐺(𝐴𝑘, 𝑆𝑁) = 𝐸(𝑆𝑁) − 𝐸(𝐴𝑘, 𝑆𝑁) (2-19)

Nous prenons, pour chaque nœud, l’attribut le plus pertinent correspondant au plus grand gain parmi tous les attributs non encore utilisés depuis la racine vers le nœud actuel. De cette manière, l’arbre de décision se développe par intégration progressive des attributs pertinents depuis la racine jusqu’aux feuilles ou à la satisfaction d’un critère d'arrêt prédéfini. Arbre de décision flou [182]

La généralisation de l'algorithme ID3 utilisant la logique floue se développe depuis les années 1970 [181, 183, 184]. Par rapport à l’arbre de décision ID3, l’arbre de décision flou ID3 possède des avantages selon 2 aspects :

- Dans l’arbre ID3, les attributs sont seulement des valeurs symboliques ou numériques discrètes alors que l’arbre ID3 flou est capable de traiter, en même temps, des valeurs linguistiques (par exemple, petit, chaud, faible) et numériques continues qui sont représentées par des ensembles flous.

- L’algorithme ID3 permet de s’arrêter qu’à une feuille. Cependant, l’algorithme ID3 flou permet associer une entrée à plusieurs feuilles avec différents degrés d’appartenance. Par conséquent, l’algorithme ID3 flou offre un comportement plus robuste lors du traitement de données bruitées ou incomplètes.

La Figure 2-18 donne une structure d’arbre de décision générée par ID3 flou, dans laquelle il y a deux attributs d’entrées A1, A2, et la classe (sortie) B avec les catégories {B1, B2,

B3}. L’attribut A1 se retrouve au premier nœud et se divise en trois catégories {A1(1), A1(2),

A1(3)}. Sur la branche A1 et A2, la condition d’arrêt prédéfinie n’est pas satisfaite, nous

continuons à diviser le nœud par l’attribut A2 avec deux catégories {A2(1), A2(2)}. Si la

condition d’arrêt est satisfaite (cas A1(3)dans la Figure 2-18), ce nœud devient une feuille.

Chaque feuille est présentée avec les degrés d’appartenance pour chaque classe correspondant à une classification floue. Ces valeurs sont calculées selon les probabilités des données d’entrainement et les opérations de la logique floue.

Figure 2-18. Une structure d'un arbre de décision flou

Mathématiquement, la différence entre les algorithmes ID3 et ID3 flou se trouve dans le calcul de la quantité d’échantillons de chaque nœud. Pour ID3 flou, la probabilité associée à la classe cj au nœud N est calculée par [182]

𝑃𝑁= ∑ 𝑃 𝑗𝑁 |𝐶|

𝑗=1 (2-20)

où C est l’ensemble des valeurs linguistiques ou discrètes (après discrétisation si nécessaire) dans la classe. Supposons que xi est un vecteur des valeurs des attributs et yi une classe, le

nombre d’échantillons 𝑃𝑗𝑁 pour la classe 𝑐

𝑗, (𝑐𝑗 ∈ 𝐶) au nœud N est déterminé par

𝑃𝑗𝑁= ∑ 𝑓(𝜇

𝑠(𝑥𝑖), 𝜇𝑗(𝑦𝑖 |𝑆𝑁|

𝑖=1 )) (2-21)

où f est la fonction utilisée pour la relation floue (on utilise l’opération « Max-Min ») [182], 𝜇𝑠 est la fonction d'appartenance du produit cartésien des ensembles flous apparaissant dans le chemin depuis la racine au nœud N, et 𝜇𝑗 est la fonction d'appartenance de la classe cj (j =

1. . , |C|).

Les équations pour déterminer l’entropie dans l’algorithme ID3 flou sont remplacés par

𝐸(𝑆𝑁) = − ∑ [𝑃𝑗𝑁 𝑃𝑁· log2 𝑃𝑗𝑁 𝑃𝑁] |𝐶| 𝑗=1 (2-22) 𝐸(𝐴𝑘, 𝑆𝑁) =∑ 𝑃𝑁(𝑙,𝑘)·𝐸(𝑆𝑁(𝑙,𝑘)) |𝐴𝑘| 𝑙=1 ∑|𝐴𝑘|𝑃𝑁(𝑙,𝑘) 𝑙=1 (2-23) où 𝑃𝑁(𝑙, 𝑘) est le nombre total d’échantillons au nœud N contenant la catégorie 𝑎

𝑙 𝑘 dans

l’attribut 𝐴𝑘.

Le critère d'arrêt est identique par rapport à l'algorithme ID3 classique.

2.4 Bilan

Dans ce chapitre, les notions de base et les principes sur les outils de calcul utilisés dans cette thèse sont présentées. Leurs avantages et leurs spécificités par rapport aux applications ont été bien précisés. Ces outils comprennent les statistiques, les plans d’expériences et l’intelligence artificielle. Ils seront utilisés tout seul ou ensemble dans les chapitres suivants selon la complexité du problème à résoudre.

Dans le Chapitre 3, l’ANOVA est d’abord employée pour les données sensorielles concernant les écarts perceptifs entre les vêtements réels et virtuels et ce, afin de comparer les performances des différents logiciels de CAO en confection 3D.

Ensuite, lors de l’identification des paramètres techniques des étoffes dans le Chapitre 4, les plans d’expériences sensorielles seront mis en place à l’aide des différents outils mathématiques tels que le plan orthogonal, le plan uniforme, l’automate d’apprentissage stochastique et la logique floue. L’ANOVA s’appliquera aux résultats des différents plans d’expériences proposés afin de trouver la méthode la plus adaptée à notre problématique.

Afin d’étudier la relation entre les paramètres techniques des étoffes et les descripteurs sensoriels décrivant la perception humaine sur les vêtements (Chapitre 5), nous utilisons trois outils de modélisation : la régression linéaire, le réseau de neurones artificiels et l’arbre de décision flou. Les performances des modèles établis sont également évaluées par ANOVA.

Enfin dans le Chapitre 6, la régression linéaire est encore une fois utilisée pour modéliser la relation entre la gradation du vêtement et la perception du fit.

CHAPITRE 3 CREATION D’UN VETEMENT