• Aucun résultat trouvé

Données et méthodes

Dans le document THESE de DOCTORAT (Page 194-198)

PARTIE II : ETUDE DE LA SECHERESSE METEOROLOGIQUE DANS LA PLAINE DE SAÏSS

Chapitre 3 : Apport de la télédétection pour le suivi de la sècheresse météorologique

III. Développement d’un modèle hybride

1. Données et méthodes

1.1. Données

Les données de la série chronologique des deux stations Ain Bittit et Fès-DRH sur la période comprise entre 1978/79 et 2013/14, les valeurs de SPI et les précipitations des mois précédents pour la génération d'un modèle d'estimation de la sécheresse avec la méthode d’ANFIS ont été utilisées. Pour cela, les sorties SPI pour 1, 3, 6, 9 et12 mois ont été considérées.

Les ensembles de données pour les deux stations ont été divisés en trois sous-ensembles, d’apprentissage de validation et de test. L'ensemble de données d’apprentissage comprend des données mesurées entre les années 1978/79 et 2003/04.

Afin d'obtenir une évaluation et une comparaison plus fiables, les modèles sont testés en évaluant un ensemble de données n’étant pas utilisé pendant le processus d’apprentissage. L’ensemble de données de validation et de test est enregistré entre les années 2004/05 et 2013/14.

Figure 150: Séries chronologiques de données mensuelles de précipitations pour les deux stations Fès-DRH et Ain Bittit pour la période de 1978-2014

Les paramètres statistiques pour les ensembles de données d’apprentissage et d’évaluation, tels que la valeur minimale, La valeur maximale, la moyenne, l'écart type, la variance, le coefficient d'asymétrie et le Kurtosis ont été calculés et donnés dans les tableaux 53, 54 et les figures 149 et 150 pour faire une comparaison des deux ensembles de données.

Tableau 57 : Paramètres statistiques pour les données d’apprentissage (1978-2004)

Paramètres statistiques Stations

Fès-DRH Ain Bittit Nombre d’échantillons 300 300

Figure 151: Paramètres statistiques pour les données d’apprentissage (1978-2004)

Tableau 58 : Paramètres statistiques pour les données d’évaluation (2004-2014)

Figure 152: Paramètres statistiques pour les données d’évaluation (2004 et 2014)

1.2. Méthodes

A. Modèles SVR

Les modèles SVR adhèrent au principe de minimisation du risque structurel par opposition au principe empirique de minimisation du risque utilisé par les réseaux de neurones classiques (Vapnik, 1995). Par conséquent, ces modèles réduisent l'erreur de généralisation par opposition à l'erreur d'apprentissage.

Le développement de modèles SVR par Cimen (2008) ont été créés à l'aide du logiciel Online SVR créé par Parrella (2007), qui peut être utilisé pour construire des machines vectorielles de soutien pour la régression. Les données ont été divisées en deux ensembles, 70% des données ont été réparties dans l'ensemble d'étalonnage

Validation et test

Paramètres statistiques Stations

Fès-DRH Ain Bittit Nombre d’échantillon 132 132 Minimum 0 0 Maximum 202 178 Moyenne 41,46212 49,38939 Ecart type 47,10706 50,18955 Variance 2219,075 2518,991 Coefficient de variance 113,6147 101,6201 Médiane 26 34,5

tandis que les 30% finales ont été utilisées comme ensemble de validation. Contrairement aux réseaux de neurones, les données ne peuvent être divisées qu'en deux ensembles, l'ensemble d'étalonnage étant équivalent aux ensembles d’apprentissage et de test trouvés dans les réseaux neuronaux.

Toutes les entrées et les sorties ont été normalisées entre 0 et 1. Tous les modèles SVR utilisaient alors le noyau de la fonction racine basique (RBF). En conséquence, chaque modèle SVR se composait de trois paramètres sélectionnés : gamma (γ), coût (C) et epsilon (ε). Le paramètre γ est une constante qui réduit l'espace du modèle et contrôle la complexité de la solution, tandis que (C) est une constante positive qui est un paramètre de contrôle de capacité et ε est la fonction de perte qui décrit le vecteur de régression sans toutes les données d'entrée (Kisi & Cimen, 2011).

Ces trois paramètres ont été sélectionnés sur la base d'une procédure d'essai et d'erreur. La combinaison des paramètres qui ont produit les valeurs RMSE les plus faibles pour les ensembles de données d'étalonnage ont été sélectionnées.

B. Modèles ANFIS

Les modèles ANFIS permettent de s’affranchir de l’effet « boîte noire » reproché aux réseaux de neurones classiques, d’associer la connaissance dysfonctionnelle disponible sous la forme de règles floues et de conserver une capacité d’apprentissage issue des réseaux de neurones (Keskin & al., 2004). Une des plus importantes étapes pour la génération de la structure des réseaux neuro-flous (ANFIS) est l’établissement des règles d’inférence floues.

En utilisant un mécanisme d’inférence, les règles sont définies comme combinaisons des fonctions d’appartenance des différentes variables d’entrée. Les variables d’entrée sont divisées en un nombre limité de valeurs linguistiques (étiquette), chacune caractérisée par une fonction d’appartenance (et leurs combinaisons mènent à beaucoup de règles d’inférences floues).

Il n'existe pas de règle de base pour délimiter le nombre de fonctions d'appartenance (MF) des modèles ANFIS et ils sont habituellement déterminés par une approche par essais et erreurs. Pour choisir le nombre de MF, un modélisateur doit éviter d'utiliser un grand nombre de fonctions ou de paramètres d'appartenance pour gagner du temps et calculer l'effort (Keskin & al., 2004).

L’ajustement des paramètres de l’ANFIS est réalisé lors de la phase d’apprentissage. Pour cela, un ensemble de données associant les séquences d’entrées et de sorties est nécessaire. Pour la réalisation de cette phase, l’algorithme d’apprentissage hybride est utilisé.

L’algorithme d’apprentissage hybride est une association de la méthode de descente de gradient de l’erreur et de la méthode d’estimation des moindres carrés. La méthode de descente de gradient de l’erreur permet d’ajuster les prémisses alors que la méthode LSM (Least Square Method) ajuste les paramètres linéaires (conséquents ou conclusions).

L’apprentissage se fait de façon itérative jusqu’à ce que le nombre de cycles d’apprentissage soit atteint ou jusqu’à ce que l’erreur moyenne entre la valeur de sortie désirée et générée par l’ANFIS atteigne une valeur prédéterminée. Cette phase dépend donc de la qualité de l’ensemble des données au sens où cet ensemble doit représenter au mieux les différents comportements attendus (Wang & Mendel, 1992a et 1992b).

Tableau 59 : Paramètres de formation des modèles ANFIS

AND méthode Prod

Imp. méthode Minimum

Aggr. méthode Maximum

Méthode de défuzzification Wtaver

Taille de pas 0,21

Taux de diminution de la taille des pas 0,8 Taux d'augmentation de la taille des pas 1,20

Fonction d'adhésion Fonction d'appartenance de cloche généralisée (m = 3)

Des modèles ANFIS avec différents types de MF ont été exécutés avec 2, 3, 4 et 5 MF et 50, 100, 150, 200, 250, 300 et 400 itérations pour chaque nœud de données d'entrée (Rajae, 2011). Les caractéristiques de la formation du modèle ANFIS sont présentées dans le tableau 55.

Les données SPI pour l'heure actuelle ont été importées en tant qu'entrées et le SPI pour 1, 2 et 3 temps (12 mois) à venir considérés comme cible. La structure des étapes appliquées pour le choix du modèle pour la prédiction de la sécheresse est illustrée dans la figure 153.

Figure 153: Etapes appliquées pour le choix du modèle de la prédiction de la sécheresse

C.Modèles WA-ANFIS, WA-ANN-MLP et WA-SVR

Afin de construire un modèle Wavelet-ANFIS et Wavelet-ANN-MLP, les sous-séries qui sont dérivées de l'utilisation de la transformée d'ondelette discrète sur les données de séries temporelles d'origine ont été utilisées comme entrées pour des modèles de réseaux neuronaux.

Chaque élément de sous-série joue un rôle unique dans la série chronologique originale et la performance de chaque sous-série est distincte.

Dans la première étape, les données SPI d'origine ont été décomposées en une série de détails en utilisant une transformée en ondelettes discrètes. Le processus de décomposition a été itéré avec des signaux d'approximation successifs décomposés tour à tour, de sorte que la série temporelle originale a été décomposée en plusieurs composantes de basse résolution (Adamowski & Fung Chan, 2011).

Toutes les variables mentionnées ont été décomposées en 1, 2, 3 et 4 niveaux par sept types différents d'ondelettes, c'est-à-dire les ondelettes db4, bior1.1, bior1.5, rboi1.1, rboi1.5, coif2 et coif4.

Les modèles WA-SVR ont été formés exactement de la même manière que les modèles SVR avec le logiciel Online-SVR (2007) à l'exception que les entrées étaient en forme d'ondelettes décomposées. Les données pour les modèles WA-SVR ont été partitionnées exactement comme les données pour SVR. Les paramètres optimaux pour les modèles WA-SVR ont été choisis en utilisant la même procédure utilisée pour trouver les paramètres des modèles SVR.

Dans le document THESE de DOCTORAT (Page 194-198)