• Aucun résultat trouvé

Modèle neuronal d’hystérésis proposé

Modélisation de l’hystérésis par les réseaux de neurones

4.7 Modélisation de l’hystérésis magnétique par une Approche neuronale

4.7.2 Modèle neuronal d’hystérésis proposé

,..., , , ( ) , ( , , 1 extr k p extr k B k k k k FFNN B B B H θ = ϕ Ψ Ψ (4.10)

Ce deuxième modèle présente un modèle vectoriel arbitraire d’hystérésis précis pour les inductions convexes. les modèles proposés par Dimitré ont été validés par des résultats expérimentaux sur un échantillon d’acier non-orinté de FeSi ( Dimitré et al, 2003), ( Dimitré et al, 2002). ( Dimitré et al, 2001a). ( Dimitré et al, 2001b). .

4.7.2 Modèle neuronal d’hystérésis proposé

Les réseaux de neuronnes à propagation directe (FFNN) avec au moins une couche cachée (figure 4.8) ont la propriété d’approximateurs universels des fonctions non-linéaires multivariables (Bishop, 1995). Les sorties yk d'un tel réseau sont

déterminées par les poids de ses entrées ui , combinées avec une fonction nonlinéaire sigmoide d’activation g ( une activation linéaire g~ est employé pour la

couche de sortie)( Equation 4.8):

Le nombre de couches cachées joue un rôle crucial dans le contôle de la capacité du réseau de neurone. Cependant, si le nombre dez neurone est trop petit, alors le réseau possède trop peu de paramètres et ne peut capter toutes les dépendances qui servent à modéliser et prédire le comportement du matériau magnétique utilisé dans notre cas. A l’inverse, si l’on choisit un nombre important de neurones dans la couche cachée, le nombre de paramètres du modèle augmente et il devient possible pendant la phase d’optimisation des paramètres, de modéliser certaines relations engendrées par des fluctuations statistiques propres à l’ensemble d’apprentissage utilsé. dans le cas d'une seule couche cachée. Les poids w(kji) sont déterminés par apprentissage du réseau neurone, de sorte que la différence soit minimale entre les sorties du réseau et les sorties du système réel, pour des entrées données. Un ensemble de paires de données d’apprentissage sur tout l’interval de données d’entrés-sortie sont employées pour le processus d’apprentissage du réseau, comme les réseaux de neurones sont capables d’éffectuer des interpolations non-linéaires précises, mais ne devront pas être utilisés pour l’extrapolation. Afin de s’assurer que le réseau de neurones s’en tient aux relations fondamentales de dépendance, sa performance est déterminée par l’utilisation d’un autre ensemble de données entré-sortie mésurées ( générée par un modèle existant) qui n’ont pas été utilisées dans l”apprentissage. L’ensemble approprié de données pour la procédure d’apprentissage, le nombre de

Chapitre 4 Modélisation de l’hystérésis par les réseaux de neurones

97

couches cachées et le nombre de neurone utilisés sont determinées expérimentallement pour une généralisation du réseau.

Dans le cas de la modélisation de l'hystérésis statique, le FFNN peut être employé pour approximer une fonction du type (Equation 5.6). en effet, le réseau utilisé peut être également employer pour la prédiction et la modélisation des aimantations circulaires et et elliptiques (Dimitré et al, 2002).

Le modèle d’hystérésis magnétique basé sur les réseaux de neurones est construit comme suit : à tout instant, l’entrée du modèle est l’amplitude du champ magnétique H(t) et l’induction correspondante B(t) le long de la direction de lamination du matériau utilisé. La sortie du modèle neuronal est l’amplitude de l’induction B(t). (figure.4.9)

Figure 4.9 Cycle d’hystérésis quasi-statique

Le modèle est ainsi capable d’approximé la relation entre H(t) et B(t) pour une aimantation donnée. L'exactitude d'approximation du modèle augmente avec la détermination de la structure optimale du modèle de réseau de neurone. En effet, l’inconvénient majeur de ce modèle est que le FFNN exige un ensemble de données d’apprentissage dans tout l’intervalle de variation possible de l’aimantation qui n’est pas facile à obtenir. Cependant, si nous disposons de ce nombre important de données mesurées (obtenue à partir de modèles valide), et si le réseau est trainé d’une manière correcte, on aura un modèle d’hystérésis très précis.

Chapitre 4 Modélisation de l’hystérésis par les réseaux de neurones

Figure 4.10 Performance du réseau de neurone

Figure 4.11: Cycle généré par le modèle neurone

La méthode précédente a un inconvénient, en effet, la mesure de données d’apprentissage du modèle doit être faite par un dispositif de test bien précis afin de minimiser l’introduction de données bruitées. La construction du modèle B(t) vers H(t) se fait de la même façon que celui de H(t) vers B(t).

Notons que le modèle proposé peut être facilement généralisé dans le cas de l’hystérésis vectorielle circulaire et elliptique. L’apprentissage du FFNN devrait employer un ensemble de données plus grand. Notons que l’apprentissage par des données d’aimantation circulaire et élliptique seulement n’est pas suffisant.

Le réseau FFNN avec 02 entrées est trainé et testé pour plusieurs cycle générés par le modèle statique d’hystérésis proposé par Paiboon Nakmahachalasint (Paibon et al, 2002), Le FFNN a été trainé par un algorithme de gardient conjugué. L'exactitude

Chapitre 4 Modélisation de l’hystérésis par les réseaux de neurones

99

est bonne et peut être adaptée aux conditions de l'application du modèle par une dimunition ou par une augmentation de la taille des données d’apprentissage.

4.8 Conclusion

Basé sur les possibilités d’approximation de fonctions par des réseaux de neurones à rétro-propadgation un modèle d’hystérésis quasi-statique est présenté. Le modèle proposé exige un grand nombre de données entrée-sortie pour son apprentissage. En effet, le modèle de réseau de neurone de l’hystérésis magnétique peut être facilement généralisé et adapté pour la simulation de l’aimantation magnétique en régime alternatif. Le choix du modèle spécifique, ses paramètres et de la structure du réseau dépend des types d’aimantation à considérée. La meilleure précision sera atteinte par utilisation d’une structure de réseau complexe et/ou l’utilisation d’un nombre important de données d’apprentissage. Des algorithmes standard des réseaux de neurones sont à employés.

Chapitre 5

Identification floue de l’hystérésis

Documents relatifs