• Aucun résultat trouvé

Présentation de la méthode des Réseaux de Neurones Artificiels (RNA ou ANN)

Dans le document THESE de DOCTORAT (Page 173-176)

PARTIE II : ETUDE DE LA SECHERESSE METEOROLOGIQUE DANS LA PLAINE DE SAÏSS

Chapitre 3 : Apport de la télédétection pour le suivi de la sècheresse météorologique

I. Approches et méthodes utilisées

1. Présentation de la méthode des Réseaux de Neurones Artificiels (RNA ou ANN)

Avant d’entamer le processus de modélisation, un aperçu est donné sur la technique RNA et ses applications dans le domaine de l’eau et climat ainsi que sur la création d’une méthodologie ayant pour but de créer un modèle RNA fiable et performant.

1.1 Principe général

Les études par réseaux de neurones artificiels (RNA) datent depuis les années 1940. Grâce aux développements des recherches sur le cerveau et à la disponibilité des outils de simulation, (Mc Culloch & Pitts, 1943) étudièrent un ensemble de neurones formels interconnectés. Ce réseau, déjà développé à l'époque, permettait d'effectuer quelques opérations logiques simples. Jusqu'aux quatre-vingt, la recherche était freinée par la limitation théorique du perceptron. Peu après cette époque, (Hopfield, 1985) lança de nouveau la recherche dans ce domaine après avoir montré l'analogie entre les RNA et les systèmes physiques en 1982. Les RNA sont des assemblages fortement connectés d'unités de calcul (neurones formels).

Le réseau de neurones artificiels (RNA) simule le principe de fonctionnement du cerveau humain qui gère un flux d’informations à partir d’une base de données d’apprentissage (Najjar, 1997). Ce sont des modèles mathématiques non linaires de type ‘boite noire’ capables d’établir des relations entre les entrées et les sorties d’un système. Les réseaux de neurones sont organisés en couches. Le grand avantage des RNA réside dans leur capacité d’auto-apprentissage, ce qui permet de résoudre des problèmes complexes tel que la reconnaissance de formes, les relations non linéaires, la classification …etc, sans nécessité de recours à des modèles complexes, tout en étant tolérants aux erreurs (Najjar & Zhang, 2000). Les RNA de type perceptron multicouches (PMC) ou à fonctions radiales (RFR) sont les modèles couramment utilisés pour simuler des relations non linéaires (Zaier, 2010). En particulier, les PMC sont les plus usités et les plus sophistiqués (Lallahem, 2003 ; Sion, 2011), raison pour laquelle ils ont été choisis dans le cadre de ce travail. Le RNA ne présente pas un modèle explicite physiquement, mais il présente une technique durable pour développer des simulations d’entrées-sorties (Uvo, 2000). Cette technique se base sur les étapes principales suivantes : construction, apprentissage, validation et exploitation du modèle RNA (Piechowiak, 2004). Afin de comprendre ce qui précède, quelques définitions de base sur le RNA sont abordées.

1.2 Inspiration biologique

Le principe et le fonctionnement du RNA sont inspirés de celui du système nerveux humain. Les RNA sont inspirés des tentatives d’imiter la tolérance aux erreurs et la capacité d’apprentissage des systèmes de neurones biologiques en simulant la structure du cerveau. Par analogie, un RNA est formé par des nœuds (neurones) qui interagissent entre eux pour céder au réseau son comportement global. Le réseau de neurones artificiels est conçu pour calquer le fonctionnement du cerveau humain par l'acquisition des connaissances à travers un processus d'apprentissage et calculer des poids optimaux pour les interconnexions des cellules nerveuses (Liu, 2003). Il est composé par des processeurs élémentaires fortement connectés qui fonctionnent en parallèle. Avec un

changement d’état dynamique, chaque processeur reçoit et traite des informations afin de calculer une sortie unique (Hecht-Nielson, 1990). Le RNA, à travers ces critères, permet l'utilisation d'une structure de programmation parallèle capable de représenter la complexité des processus non-linéaires qui relient les entrées et les sorties de tout système (Hsu, 1997). Il peut atteindre des résultats remarquables par rapport aux autres types de modèles.

1.3 Neurone artificiel

Un réseau de neurones est un système de calcul qui traite l’information par un changement d’état dynamique d’éléments de traitement simples fortement interconnectés (Hecht Nielsen, 1990) : les neurones artificiels. Un réseau de neurones artificiel est composé d’un ensemble d’unités de calcul (neurones). La figure 134 montre l’analogie entre le neurone biologique et celui artificiel. Chaque neurone artificiel est un processeur élémentaire qui reçoit un nombre variable d’entrées en provenance de l’extérieur ou d’autres neurones du réseau. A chacune de ces entrées est associé un poids w représentatif de la force de la connexion. Chaque processeur élémentaire est doté d’une sortie unique, qui se ramifie ensuite pour alimenter un nombre variable de neurones. Selon (Lallahem, 2003), un neurone artificiel est caractérisé par trois concepts : son état, ses connexions avec d’autres neurones et sa fonction d’activation.

Figure 134: Analogie neurone biologique / neurone artificiel

A. État du neurone artificiel

Un neurone artificiel est caractérisé par son état interne dynamique. Il reçoit des signaux qui lui permettent de modifier son état à l’aide des fonctions mathématiques (Lallahem, 2003). Soit « A » l’ensemble des états possibles d’un neurone artificiel. « A » pourra prendre toutes les valeurs possibles, par exemple {0, 1} ou « 0 » sera interprété comme l’état inactif et « 1 » l’état actif (Kharroubi, 2013) . Dans le comportement d’un neurone artificiel, existe deux phases. La première est habituellement la somme pondérée des entrées selon l'expression suivante (Figure 135) :

Figure 135 : Processus de calcul de l’état du neurone artificiel

Avec S j : somme des poids entre les entrées du j -ème neurone de la couche cachée ; X i : valeur de sortie du i -ème neurone de couche précédente ; Wij : poids synaptique du neurone i de la couche d’entrée au neurone j de la couche cachée, W0 est le biais ou le seuil d’activation du neurone j.

A partir de cette valeur, dite d’activation, une fonction de transfert calcule la valeur de sortie, ou de production, du neurone (El tabach, 2005). Elle sera transmise aux neurones voisins.

B. Fonction de transfert

La fonction de transfert f peut avoir plusieurs formes dont les plus usitées sont la fonction « sigmoïde » et la fonction « tangente hyperbolique » (Chokmani, 2008). La fonction sigmoïde est la plus utilisée, car elle est inspirée directement du comportement des cellules nerveuses face aux signaux reçus et introduit la non-linéarité du système (Lallahem, 2003).

À la différence des neurones biologiques dont l'état est binaire, la plupart des fonctions de transfert sont continués, offrant une infinité de valeurs possibles comprises dans l'intervalle (0, +1) ou (-1, +1). Dans le cadre de notre travail, la fonction sigmoïde utilisée est continue, différentiable et bornée, dont la présentation mathématique est la suivante :

𝒇(𝒙) =

𝟏+𝒆𝟏−𝒔 (Eq. 45)

Où s est la variable.

1.4 Perceptron Multicouche (PMC)

Il existe une grande variété d’agencements possibles de neurones artificiels (Lippmann, 1987), mais le type de réseau le plus utilisé pour la prévision est le Perceptron Multicouche (PMC ou en anglais (MLP) Multi-Layer Perceptron). Ce réseau comporte une couche de neurones artificiels pour capter les entrées, une ou plusieurs couches cachées et une couche de neurones artificiels pour émettre les sorties du modèle.

La détermination de l’architecture du RNA est une étape axiale à partir de laquelle est introduite l’influence de chaque paramètre dans le système ayant pour but de produire des modélisations fiables. Le nombre de couches, de neurones par couche et les différentes fonctions d’activation déterminent l’architecture du RNA (Chokmani, 2008).

La première couche reçoit les variables d’entrées (Xi) à travers les neurones d’entrées i, les transforme avec la fonction d’activation f sur le neurone d’entrée et les envoie aux neurones j de la première couche cachée. Généralement, les fonctions d’activation des neurones d’entrées sont de type identique, c'est-à-dire que les signaux d’entrées restent inchangés. La couche cachée se compose des neurones de traitement qui reçoivent les sommes pondérées S (Eq. C-2) issues de la couche d’entrée, puis effectuent leurs transformations (avec la

fonction d’activation) et finalement les transfèrent à la couche suivante (cachée ou sortie selon l’architecture RNA déterminée).

(Eq. 46)

Avec : n est le nombre d’éléments d’entrée ; Xi est la valeur de la sortie du ie neurone de la couche précédente ; Wij est la valeur du poids entre le neurone i et le neurone j ; W0 est le biais.

Les PMC fonctionnent le plus souvent avec une seule couche cachée qui offre déjà un degré de liberté suffisant et se rapproche d’une fonction de type non-linéaire (Funahashi, 1989 ; Hornik, 1989). Quelque soit le nombre de couches cachées dans un PMC, il existe un PMC équivalent avec une seule couche cachée (Riad, 2003). Donc, dans cette étude, les PMC avec une seule couche cachée sont utilisés.

Dans le document THESE de DOCTORAT (Page 173-176)