• Aucun résultat trouvé

Optimisation par essaim de particules

CHAPITRE II GENERALITES SUR LES TECHNIQUES

II.4 Optimisation par essaim de particules

Les ingénieurs se heurtent quotidiennement à des problèmes technologiques de complexité grandissante, qui surgissent dans des secteurs très divers. Le problème à résoudre peut fréquemment être exprimé sous la forme générale d’un problème d’optimisation, dans lequel on définit une fonction objective, ou fonction Coût, que l’on cherche à minimiser (ou maximiser) par rapport à tous les paramètres concernés. La définition du problème d’optimisation est souvent complétée par la donnée de contraintes : tous les paramètres (ou variables de décisions) de la solution proposée doivent respecter ces contraintes, faute de quoi la solution n’est pas réalisable.

Il existe de nombreuses méthodes ‘classiques’ d’optimisation pour résoudre de tels problèmes, applicables lorsque certaines conditions mathématiques sont satisfaites, mais, malheureusement, les situations rencontrées en pratique comportent souvent une ou plusieurs complications, qui mettent en défaut ces méthodes. L’arrivée d’une nouvelle classe de méthodes d’optimisation, nommées méthaheuristiques (sont souvent inspirées par des systèmes naturels, qu’ils soient pris en physique, en biologie de l’évolution ou encore en éthologie) marque une grande révolution dans le domaine de l’optimisation. En effet, celles-ci s’appliquent à toutes sortes de problèmes combinatoires, et elles peuvent également s’adapter aux problèmes continus. Ces techniques métaheuristiques contiennent une très grande classe qualifiée de méthodes à population de solutions et connues sous le nom d’algorithme évolutionnaires comme les algorithmes génétiques, l’algorithme par essaim particulaire…

[Kar 06].

L’optimisation par essaim de particules PSO en anglais (Particle Swarm Optimization) est une technique d’optimisation parallèle développée par Kennedy et Eberhart [Ebe 95], [Ebe 01] et [Ken 01]. Elle est inspirée du comportement social des individus (des nuées d’oiseaux et des bancs de poissons) qui ont tendance à imiter les comportements réussis qu’ils observent dans leur entourage, tout en y apportant leurs variations personnelles c.-à-d. que chaque particule prend sa décision en utilisant sa propre expérience et les expériences de son voisinage [Kas 02], [Par 05] et [Kar 06].

II.4.1 Optimisation par essaim de particules PSO

PSO démarre le processus d’optimisation par une population des solutions aléatoires qui se déplacent dans l’espace de recherche m

R

Chapitre II

65

particule i est représentée par son vecteur position Xi (xi1,xi2,...,xim)et également par son vecteur vitesse Vi (vi1,vi2,...,vim). Le déplacement de chaque particule dans l’espace de recherche, est basé sur sa position actuelle pi (pi1,pi2,...,pim), sa meilleure position gardée en mémoire pbesti (pbesti1,pbesti2,...,pbestim)et la meilleure position atteinte par les particules de l’essaim gbest(gbest1,gbest2,...,gbestm)et la mise à jour de sa vitesse.

Après l’initialisation aléatoire des particules de l’essaim dans l’espace de recherche, chaque particule mis à jour sa vitesse à l’instant k+1, suivant deux informations essentielles : une, est liée à son expérience personnelle, qui est la meilleure position trouvée par la particule durant le processus de recherche pbesti jusqu’à l’instant k. La deuxième information, concernant la meilleure position trouvée par tout l’essaimgbest. Cette deuxième information est obtenue à partir de la connaissance de la façon dont les autres agents ont exécuté leurs recherches. Le principe de changement de la vitesse est défini par l’équation (II.44).

) ( ) ( 2 2 1 1 1 k i k k i k i k i k

i V crand pbest X c rand gbest X

V       

(II.44) où : Viket Vik1sont le vecteur vitesse de l’agent i à l’instant k et à l’instant k+1

respectivement, c1 et c2 sont deux constantes, appelées coefficients d’accélération, rand1et

2

rand sont deux variables aléatoires uniformes sur [0, 1], à chaque itération t et pour chaque dimension, Xik le vecteur position de l’agent i à l’instant k, pbestikest la meilleure position trouvée par la particule i jusque ici, gbest est la meilleure position trouvée par l’essaim jusque ici.

Ensuite, La qualité de la position la particule i est déterminée par la valeur de la fonction de coût choisie en ce point, la mise à jour du vecteur position se fait par l’équation (II.45) : 1 1   k i k i k i X V X (II.45) La figure II.18.a illustre le principe de déplacement des particules dans l’espace de recherche à chaque itération via l’intégration de trois vecteurs : Vik qui correspond à la vitesse actuelle, le vecteur c1rand1(pbestikXik) qui correspond à la composante cognitive et le vecteur

) ( 2 2 k i k X gbest rand

Chapitre II

66

II.4.2 Optimisation adaptative par essaim de particules APSO

APSO est une version améliorée (adaptative) de l’optimisation par essaim de particules dans laquelle : une fonction de pondération auto-adaptative w appelée coefficient d’inertie est introduite dans l’expression de la mise à jour de la vitesse pour contrôler l’influence de la direction de déplacement sur le déplacement futur, et le coefficient

d’accélération de la composante sociale est rendu variable pour accélérer la convergence et éviter une recherche prématurée [Rep 02].

) ( ) ( 2 1 2 1 1 1 1 k i k k k i k i k i k k

i w V crand pbest X c rand gbest X

V      

(II.46) L’adaptation du poids w et du coefficient c2se fait par les deux équations :

k c c iter k k   max 2 1 2 (II.47) k w w w w iter k    max min max max 1 (II.48)

Tel que : c2ket c2k1sont les valeurs du coefficient c2à l’instant k et à l’instant k1

respectivement, wmaxest le poids initial, wminest le poids final, maxiterest le nombre maximal d’itérations, kest l’itération courante.

La fonction de pondération w joue un rôle important dans la procédure de recherche. Elle garantit un équilibre entre la recherche locale et la recherche globale. Le bon choix de cette fonction augmente l’efficacité de la méthode pour avoir une solution globale. L’expérience a montré que la diminution linéaire de la valeur de w de 0.9 à 0.4 au cours de la procédure de recherche donne des meilleurs résultats.

La figure II.18.b illustre le principe de déplacement adaptatif des particules dans l’espace de recherche après pondération du vecteur vitesse par la facteur w.

Chapitre II

67

(a) (b)

Figure II.18 Principe de déplacement d’un agent de recherche ; (a) par PSO, (b) par APSO

II.5 Conclusion

Dans ce chapitre nous avons traité en trois parties différentes un élément important de la commande qui est les modes glissants et deux algorithmes issues de l’intelligence artificielle. Au début de ce chapitre nous nous sommes intéressés à la commande par modes glissants d'ordre simple en rappelant ses fondements théoriques, nous avons exposé des notions essentielles telles que l'attractivité des surfaces de glissement, la condition d’existence du mode glissant, les propriétés de robustesse, la commande équivalente et la dynamique en régime glissant. Nous avons ensuite mis le point sur l’inconvénient majeur de cette méthode qui réside dans l'apparition du phénomène de réticence qui se manifeste dans les grandeurs asservies. Les fonctions d’adoucissement permettent sa réduction, cependant elles font apparaître un compromis entre la robustesse de la commande et les performances du système. D’où la nécessité d’un estimateur afin d’estimer avec la plus grande robustesse possible la partie incertaine du système largement perturbé. Pour résoudre cette tache, nous avons pensé à introduire de l’intelligence dans les lois de commande, notre choix s’est porté alors sur les réseaux de neurones à regression généralisée, l’algorithme de l’extrême apprentissage et l’algorithme de l’optmisation adaptative par essaims particulaires. Ces algorithmes ont fait l’objet de la deuxième et la troisième partie, dans lesquelles, nous avons présenté des généralités sur ces algorithmes et leur intérêt dans le domaine de la commande, notamment, l’identification d’un processus dynamique complexe, l’estimation des fonctions incertaines du système ou encore l’optimisation de certains paramètres.

Ces contrôleurs seront utilisés dans les chapitres qui viennent pour asservir une éolienne à vitesse variable qui doit répondre à un certain nombre d’exigences : la stabilité, la poursuite et le rejet de perturbations.

Documents relatifs