• Aucun résultat trouvé

Modélisation par Réseaux de Neurones Artificiels et la logique floue

III.4. MODELISATION NEURO-FLOUE

III.4.2. Architectures neuro-floues

1. Systèmes Neuro-Flous intégrés type Mamdani :

Un système de Mamdani neuro-flou utilise une technique d'apprentissage supervisé (apprentissage par rétropropagation) pour apprendre les paramètres des fonctions d'appartenance.

L‟architecture du système neuro-flou de Mamdani contient cinq couches.

- Une couche d’entrée :

Le rôle de cette première couche est de transmettre les valeurs d'entrée à la couche suivante directement. Chaque nœud dans cette couche correspond à une seule variable d'entrée.

- Une couche de fuzzification :

Chaque nœud dans cette deuxième couche correspond à un seul label linguistique à l'une des variables d'entrée dans la couche d‟entrée. En d'autres termes, le lien de sortie représente la valeur d'appartenance, qui précise le degré auquel une valeur d'entrée appartient à être un ensemble flou, est calculée dans la deuxième couche. Un algorithme de classification décidera du nombre initial et le type de fonctions d'appartenance à attribuer pour chacune des variables d'entrée. Les formes finales des fonctions d‟appartenance seront réglées avec précision durant l‟apprentissage du réseau.

- Une couche de règles antécédentes :

C‟est la troisième couche. Un nœud dans cette couche représente la partie antécédente d‟une règle. Habituellement, un opérateur T-norme est utilisé dans ce nœud. La sortie d‟un nœud de la troisième couche représente le sens de la règle floue correspondante.

- Une couche de règles conséquentes :

Ce nœud a deux tâches : Combiner les antécédents de règles et déterminer le degré avec lequel ils appartiennent au label linguistique de sortie. Le nombre de nœuds dans cette couche est égal au nombre de règles.

- Une couche de défuzzification :

Dans cette dernière couche le nœud effectue la combinaison de toutes les parties conséquentes des règles utilisant un opérateur S-norme et calcule enfin la sortie non floue après défuzzification [71].

2. Systèmes Neuro-Flous intégrés type Takagi-Sugeno :

Les systèmes neuro-flous de type Takagi-Sugeno utilisent une combinaison mélange de l‟algorithme de rétro-propagation pour apprendre les fonctions d‟appartenance et la méthode d‟estimation de moindres carrés pour déterminer les coefficients des combinaisons linéaires dans les conclusions de règles. Une étape dans la procédure d'apprentissage se compose de deux parties : Dans la première partie les modèles d'entrée sont propagées, et les paramètres d‟une conclusion optimale sont estimés par une procédure des moindres carrées, tandis que les paramètres antécédent (fonctions d'appartenance) sont supposées fixes pour le cycle courant à travers l'ensemble d‟apprentissage. Dans la seconde partie, les entrées sont propagées encore une fois et, pendant cette itération, la rétro-propagation est utilisée pour modifier les paramètres antécédents, pendant que les paramètres conclusion restent fixes. Cette procédure est ensuite réitérée.

- Les couches 1, 2, 3 :

Leurs rôles sont similaires aux couches 1,2 et 3 du système de type Mamdani.

- Couche 4 (normalisation sens de la règle) :

Chaque nœud dans cette couche calcule le rapport du sens de la ième règle par apport à la somme des sens de toutes les règles :

𝑤𝑖 = 𝑤𝑖

𝑤1+ 𝑤2 , 𝑖 = 1,2, … (𝐼𝐼𝐼. 15) - Couche 5 (couche conséquent de règle) :

Chaque nœud i dans cette couche est doté d‟une fonction nœud :

𝑤𝑖𝑓𝑖 = 𝑤𝑖 𝑝𝑖𝑥𝑖 + 𝑞𝑖𝑥2+ 𝑟𝑖 (𝐼𝐼𝐼. 16) où 𝑤𝑖 est la sortie de la couche 4, et 𝑝𝑖, 𝑞𝑖, 𝑟𝑖 est l‟ensemble des paramètres. Les paramètres conséquents sont déterminés par l‟algorithme des moindres carrés.

- La couche 6 (couche inférence de règle) :

L‟unique nœud de cette couche calcule la sortie globale par addition de tous les signaux entrants :

𝑆𝑜𝑟𝑡𝑖𝑒 𝑔𝑙𝑜𝑏𝑎𝑙𝑒 = 𝑤𝑖𝑓𝑖 = 𝑤𝑖 𝑖𝑓𝑖

𝑤𝑖 𝑖 (𝐼𝐼𝐼. 17)

𝑖

Dans les sections suivantes, nous discutons brièvement les différents systèmes neuro-flous intégrés qui réalisent la complémentarité des réseaux de neurones et des systèmes d'inférence floue de type Mamdani ou des systèmes d'inférence floue de type Takagi Sugeno. Les types de systèmes Neuro-Flous principaux sont : GARIC, FALCON, ANFIS, NEFCON, SONFIN, et beaucoup d'autres [71].

3. Système ANFIS :

L‟architecture ANFIS (Adaptative-Network-based Fuzzy Inference System) est peut-être le premier système neuro-flou intégré. Ce système met en œuvre un système d‟inférence floue de type Takagi Sugeno et il comporte cinq couches.

La première couche cachée est responsable de la cartographie de variable d'entrée relativement à chacun des fonctions d'appartenance, c'est-à-dire, cette couche d‟entrée est une couche permet la "fuzzification" des variables. L'opérateur T-norme est appliqué dans la deuxième couche cachée pour calculer les antécédents des règles. La troisième couche cachée normalise les résultats fournis par la couche précédente, suivies par la quatrième couche cachée où les conséquents des règles sont déterminées. La couche de sortie calcule la sortie globale comme étant la somme de tous les signaux qui arrivent à cette couche.

L‟ANFIS utilise l‟apprentissage par rétro-propagation afin de déterminer les paramètres des fonctions d'appartenance d'entrée et la méthode des moindres carrés moyens pour déterminer les paramètres conséquents. Chaque étape de l'algorithme d'apprentissage itératif comporte deux parties. Dans la première partie, la rétro-propagation est utilisée pour la mise à jour des paramètres antécédents et les moindres carrés moyens pour mettre à jour les paramètres conséquents, pendant que les paramètres des antécédents sont considérés fixes. Dans la deuxième partie, les modèles d'entrée sont propagés à nouveau et à chaque itération, l'algorithme d‟apprentissage par rétro-propagation est utilisé pour modifier les paramètres des antécédents, pendant que les conséquents restent fixes.

4. L’architecture FALCON :

FALCON (Fuzzy Adaptive learning Control Network) a une architecture de cinq couches.

Il ya deux nœuds linguistiques (neurones) pour chaque variable de sortie. Une pour les données d‟apprentissage (sortie désirée) et l‟autre pour la sortie de FALCON. La première couche cachée

est responsable de la fuzzification de chaque variable d'entrée. Chaque neurone dans cette couche représentant une fonction d‟appartenance à un ensemble flou. La deuxième couche cachée définit les parties antécédentes des règles floues suivie par les parties conséquences des règles dans la troisième couche cachée. Ce système utilise un algorithme hybride d'apprentissage comportant l‟apprentissage non supervisé pour localiser les fonctions d'appartenance initiale et la base de règles initiale et l‟apprentissage supervisé pour optimiser l‟ajustement des paramètres du fonction d'appartenance pour générer les sorties désirées.

5. L’architecture NEFCON :

NEFCON (Neural Fuzzy CONtroller) est conçu pour mettre en application le système d‟inférence floue type Mamdani. Il est consiste de 2 couches dont les poids sont les ensembles flous et les règles floues. Avec la même utilisation antécédente supposée ont partagé les poids, qui sont représentés par des ellipses dessinées autour des raccordements. Elles assurent l'intégrité de la base de règle. La couche d'entrée assure la tâche de l'interface de fuzzification, la logique d'inférence est représentée par les fonctions de propagation, et la couche de sortie est l'interface de défuzzification. L'apprentissage du modèle de NEFCON est basé sur un mélange de l‟apprentissage non supervisé et supervisée (rétro-propagation). NEFCON peut être employé pour apprendre des règles initiales, si aucune connaissance du système n'est disponible ou même pour optimiser une base manuellement définie de règle [2].

6. L’architecture NEFCLASS :

Le système NEFCLASS (Neuro-Fuzzy Classification) est utilisé généralement en classification, il est constitué de 3 couches : une couche d'entrée avec les fonctions d'appartenance, une couche cachée représentée par des règles et une couche de sortie définissant les classes. Ce modèle est facile à mettre en application, parce qu‟il évite 1'étape de défuzzification, tout en étant précis dans le résultat final, avec une rapidité bien supérieure aux autres architectures.

7. L’architecture NEFPROX :

Ce modèle (NEFPROX : Neuro Fuzzy function apPROXimator) est obtenu par l‟association des deux architectures : NEFCLASS et NEFCON, il est utilisé dans différentes applications comme la classification et l‟approximation de fonctions. Le NEFCLASS utilise un algorithme supervisé pour définir les règles floues. En revanche, le NEFCON utilise un algorithme d‟apprentissage non supervisé avec le calcul de l‟erreur de sortie. Les deux modèles emploient la rétro-propagation afin de définir les sous ensembles flous [57].

Parmi tous les systèmes neuro-flous, le modèle ANFIS présente la plus faible erreur moyenne quadratique. Ceci est probablement dû à l‟implémentation de règles type Takagi-Sugeno dans le modèle ANFIS comparé au système flou type Mamdani. Comparé au modèle ANFIS, NEFPROX est beaucoup plus rapide, mais ANFIS donne des meilleurs résultats en approximation [57].

Documents relatifs