• Aucun résultat trouvé

CHAPITRE V : RESEAUX DE NEURONES ARTIFICIELS

V.5 ENTRAINEMENT ET APPRENTISSAGE DU RESEAU DE NEURONES NEURONES

L'entrainement est la façon dont un RNA apprend. Les algorithmes d'entrainement ou d'apprentissage sont des procédures de modification des poids sur les liaisons dans la structure du réseau de neurones artificiels, il existe 3 types d'algorithmes d'apprentissage (Ng, 1997;

Haykin, 1999; Krenker, 2011):

• L'apprentissage supervisé ;

• L'apprentissage non supervisé ;

• Apprentissage par renforcement.

V.5.1 Apprentissage supervisé

L'apprentissage supervisé, un ensemble d'entrées et sorties adéquates sont utilisées pour former le réseau. Le réseau produit ensuite ses propres sortis. Ces sorties sont comparées avec les sorties correctes et la différence (erreur) est utilisée pour modifier les poids. Ce type d'apprentissage est utilisé dans la thèse en raison de la nature des données disponibles (Haykin, 1999; Krenker, 2011).

V.5.2 Apprentissage non supervisé

Apprentissage non supervisé ou auto-organisation est l'endroit où un réseau développe ses propres règles de classification par l'extraction d'informations à partir des entrées présentées au réseau.

1. La formation des lots est l'endroit où les modifications apportées aux poids et les préjugés sont prises en fonction de l'application de l'ensemble ensemble d'entrée de vecteurs de données sur le réseau.

2. Formation progressive est l'endroit où les modifications apportées aux poids et les préjugés sont effectués après l'application de chaque vecteur de données d'entrée individuel. Formation incrémentielle est également considérée comme une formation en ligne ou de formation adaptative.

V.5.3 Apprentissage par renforcement

L'apprentissage par renforcement est un cas particulier de l'apprentissage supervisé où il n'existe pas d'ensemble des entrées et sorties adéquates. Le réseau est juste dit si une sortie produite est «bon» ou «mauvais», selon un critère défini.

L'apprentissage par renforcement fait référence à une classe de problèmes d'apprentissage automatique, dont le but est d'apprendre, à partir d'expériences, ce qu'il convient de faire en différentes situations, de façon à optimiser une récompense numérique au cours du temps.

84 Un paradigme classique pour présenter les problèmes d'apprentissage par renforcement consiste à considérer un agent autonome, plongé au sein d'un environnement, et qui doit prendre des décisions en fonction de son état courant. En retour, l'environnement procure à l'agent une récompense, qui peut être positive ou négative.

L'agent cherche, au travers d'expériences itérées, un comportement décisionnel appelé

"stratégie", et qui est une fonction associant à l'état courant l'action à exécuter) optimal, en ce sens qu'il maximise la somme des récompenses au cours du temps.

Des algorithmes de formation utilisent des données historiques (ensemble de données d'apprentissage) pour régler automatiquement les coefficients de pondération et des seuils afin de minimiser l'erreur de prédiction. La méthode utilisée pour rajuster les poids sur les connexions s'appelle une règle d'apprentissage. Il ya beaucoup de règles d'apprentissage couramment utilisés, mais il ya certains qui se sont révélés être efficaces dans la résolution de certains types de problèmes (Haykin, 1999 ; Krenker, 2011).

V.5.4 Règle d'apprentissage du perceptron

Un perceptron est un réseau de neurones avec des neurones «produit scalaire» fonctionnant avec une fonction par étage ou sigmoïde (la fonction est un cas particulier de la fonction sigmoïde). Faire apprendre un neurone, consiste à régler (estimation adéquate) de ses poids de manière à ce que la sortie du neurone évolue dans le sens que l’on souhaite sans bien sûr changer les entrées. Il s’agit dans ce cas d’un apprentissage supervisé (on spécifie la sortie que l’on souhaiterait voir, et le neurone va adapter ses poids pour essayer de s’approcher de la valeur de la sortie. On appelle cette sortie la cible du neurone). La règle d’apprentissage du perceptron va donc faire évoluer les poids du neurone vers une cible que l’on a spécifiée (Heaton, 2008 ; Prevost, 2012).

1- Initialisation

Mettre les poids initiaux w1, w2, …, wn ainsi que le seuil θ à des valeurs aléatoires de l’intervalle [-0,5 , 0,5]. Mettre le taux d’apprentissage α à un petite valeur positive 2- Activation

Activer le perceptron en appliquant les intrants x1(p), x2(p). …, xn(p) et l’extrant désiré Yd(p). Calculer l’extrant actuel à l’itération p = 1.

où n est le nombre de signaux intrants, et étage est la fonction d’activation par étage.

3- Entraînement des poids

Mettre à jour les poids du perceptron

85 ( 1)

i i i

w p+ =w + ∆w

où ∆w pi( )est la correction de poids à l’itération p.

La correction de poids est calculée par la loi delta : ( ) ( )

i i

w α x p e p

∆ = × ×

où α est le taux d’apprentissage et e(p) l’erreur à l’itération p (la différence entre l’extrant désiré et l’extrant actuel du perceptron)

4- Itération

Augmenter p de 1, retourner à l’étape 2 et répéter le procédé jusqu’à convergence (jusqu'à ce que les erreurs atteignent un niveau satisfaisant).

V.5.5 L'algorithme des moindres carrés (LMS)

L'algorithme d'apprentissage des moindres carrés (LMS) est parfois connu comme la règle delta ou la règle d'apprentissage Widrow-Hoff. La correction des coefficients de pondération est déterminé par:

L'erreur est basée sur la somme des entrées de l'unité de S.

) sortie "+1" ou "-1" en fonction de la polarité de la somme.

L'algorithme LMS est basé sur les valeurs instantanées de la fonction de coût (Haykin, 1999):

)

86 Différencier ς(w) par rapport au rendement du vecteur de poids w.

w

V.6.1 Algorithme d’apprentissage de retro propagation (BP)

La rétro-propagation est un exemple d'apprentissage supervisé. Dans de nombreuses applications des réseaux neuronaux sont essentiellement des réseaux fonction de cartographie.

Le problème avec la cartographie est de découvrir la relation entre les entrées et les sorties du réseau cible. Cette relation est selon toute vraisemblance, probablement non linéaire, comme c'est le cas avec le procédé par boues activées. L'algorithme de rétro propagation a été effectivement utilisé dans de nombreuses applications nécessitant une cartographie d'entrée-sortie non linéaire. Avec la possibilité d'approcher une fonction non-linéaire continue, le réseau de rétro propagation a cartographie extraordinaire (prévision) capacités (Rui et El-Keib, 1995).

Le terme se rapporte à rétro-propagation de la manière dont le gradient est calculé pour les réseaux multicouches non linéaires. La généralisation de la règle d'apprentissage Widrow-Hoff aux réseaux multicouches et des fonctions de transfert non linéaires différentiables créé l'algorithme de rétro propagation.

L'algorithme est basé sur la plus grande pente (descente de gradient) techniques accordés à chacune des couches du réseau par la règle de la chaîne (Ng, 1997). La dérivée partielle de la fonction d'erreur par rapport aux poids est calculée en tant que:

)

La fonction d'erreur est définie comme:

[

( ) ( )

]

2