• Aucun résultat trouvé

4.3 Plan de tests

4.3.4 Evaluation des stratégies proposées pour un problème conséquent

Afin de vérifier les principes exposés précédemment, les algorithmes définis ont été confrontés à un problème plus grand en terme de nombre de nœuds. Les figures 4.13 et 4.14 illustrent les résultats obtenus sur un premier projet comprenant 75 nœuds tâches, 6 nœuds ET 10 nœuds OU. Celui-ci a été obtenu en combinant cinq copies de l’un des projets de taille réduite utilisés précédemment et comportant quinze tâches, deux nœuds OU et un nœud ET (illustrés sur la partie gauche de la figure 4.12). Chaque sous projet élémentaire est représenté et numéroté sur la partie gauche de la figure 4.12 représentant le réseau. Le réseau global obtenu comporte ainsi 85 cinq nœuds (nœuds tâche et nœuds OU) ainsi que les deux nœuds objectifs. Le fait d’avoir dupliqué cinq fois le même sous-projet élémentaire nous permet de créer une structure de nœuds généralisation exacts ou réels, dans le sens où la structure créée représente le comportement réel des nœuds décision. Les nœuds similaires dans chaque sous-graphe élémentaire copié sont reliés ensemble au nœud généralisé correspondant. Par exemple, la tâche appelée Tâche 1 a été copiée quatre fois (tâches 16, 31, 46 et 61). Cet ensemble de tâches similaires (elles comportent des états identiques) est relié par des arcs à un seul nœud généralisation appelé « généralisation Tâche 1 » comportant les mêmes états. De la même manière, chaque ensemble de tâches similaires identifié est généralisé par un nœud généralisation. Ce genre de nœud généralisation est considéré comme « réel », car il généralise des nœuds tâches similaires. La généralisation a donc un sens.

Figure 4.12. Réseau bayésien utilisé à gauche et populations finales dans chaque mode

Cependant, cette structure étant trop complexe pour obtenir un réseau utilisable (plusieurs millions de lignes dans les tables de probabilités), nous avons utilisé des nœuds de généralisation dits « aléatoires ». Ces nœuds généralisation sont générés aléatoirement et n’ont pour but que de simplifier le réseau et le rendre utilisable. Ils n’ont donc pas de signification réelle. Ces nouveaux nœuds sont placés entre les nœuds généralisation réels et les nœuds objectifs. La complexité totale du réseau après l’ajout des nœuds généralisation, que nous évaluons comme étant la taille totale des tables de probabilités, est de 694 129 lignes. Cette réduction rend le réseau utilisable en considérant comme critère le temps d’inférence. Comme nous l’avons évoqué précédemment, la durée de l’apprentissage dépend essentiellement du nombre de cas d’apprentissage (trois fois la population, ici 50 individus). Il est exécuté rapidement avec le modèle proposé (environ 10 secondes). L’opération la plus longue est alors l’obtention des classes d’objectifs par inférence dans le réseau.

Les performances de chaque mode d’exécution de l’algorithme sont illustrées sur les figures 4.13 et 4.14. Il s’agit de la moyenne de vingt exécutions de l’algorithme dans chaque mode avec une population de cinquante individus et trente générations par exécution. Tout d’abord, sur la figure 4.13, sont représentés : i) la performance moyenne de la population finale (la dernière génération d’une exécution de l’algorithme) et l’écart-type relatif, ii) la performance moyenne des individus du front de Pareto de la population finale avec quelques indicateurs annexes (l’écart-type relatif de la performance moyenne des individus du front de Pareto, le nombre d’individus dans le front de Pareto final, la longueur totale du front de Pareto final et l’écart-type relatif de la distance

entre individus successifs). Pour chaque indicateur, l’écart-type relatif évalué sur les vingt exécutions. Ensuite, sur la figure 4.14, la performance moyenne du meilleur individu trouvé ainsi que le temps d’exécution dans chaque mode sont représentés. La stratégie d’exploration est maintenue durant tout le processus de recherche et les probabilités de croisement et de mutation ont été fixées à cinquante pour cent après différents essais avec l’AE classique. Les réglages suivants ont été appliqués selon le mode d’exécution :

 pour l’AE classique, la connaissance structurelle et la sauvegarde de la mémoire diploïde ne sont pas activées durant le processus de recherche ;

 l’AEI10 utilise le même réglage que l’AE classique jusqu’au premier apprentissage, puis la

connaissance structurelle et la sauvegarde de la mémoire diploïde sont activées jusqu’à la fin du processus. La stratégie de sélection finale des individus a été utilisée et le critère d’arrêt de l’apprentissage est une amélioration inférieure à 10 % de la log-vraisemblance ;

 enfin, l’AEI0 utilise le même réglage que l’AE classique durant tout le processus, c’est-à- dire sans connaissance structurelle ni sauvegarde de la mémoire diploïde, afin de laisser un maximum de liberté à la recherche, tout en utilisant les informations contenues dans le modèle. Le modèle de connaissance a été obtenu à partir des individus générés par l’AEI10

(seulement 390 individus générés durant une exécution choisie aléatoirement de l’AEI10).

Les résultats obtenus confirment globalement les comportements observés sur les petites instances. L’algorithme disposant de connaissances initiales fournit immédiatement une population très performante proche de la population finale de l’AEI10 d’où les cas d’apprentissage sont issus. A

partir de cette population initiale, le processus de recherche permet d’atteindre rapidement les solutions les plus performantes observées pour ce projet. Concernant la performance moyenne des individus du front de Pareto, l’écart entre l’AE et l’AEI0 varie de 134 % d’amélioration pour la première génération (18785 pour l’AE contre 8026 pour l’AEI0) jusqu’à 82 % à la dernière génération (6557 pour l’AE contre 3611 pour l’AEI0). De même, le meilleur individu trouvé avec l’AEI0 est largement plus performant (2953 contre 5453 pour l’AE). Le front de Pareto obtenu par l’AEI0 est moins étendu que l’AE classique et possède moins d’individus, résultat cohérent étant donné l’écart de performance entre les deux. Les individus du front de Pareto sont néanmoins bien répartis et diversifiés, ce qui constitue une bonne qualité de cet ensemble de solutions.

L’AEI10 obtenient des bons résultats, même si l’amélioration des performances n’est pas

aussi importante que pour de petites instances de projets. La population est globalement améliorée par le guidage dès le premier apprentissage et, de façon plus marquée, après le second. Cette amélioration globale se traduit également au niveau de la performance moyenne des individus du front de Pareto. A la dernière génération, l’écart entre l’AE et l’AEI10 atteint respectivement 54

(population), 15 (front de Pareto) et 11% (meilleur individu) en faveur de l’AEI10 pour la

performance moyenne de la population (11356 pour l’AE contre 7347 pour l’AEI10), du front de

Pareto (6557 avec un écart type de 0.09 % pour l’AE contre 5688 avec un écart type de 0.078 % pour l’AEI10) et du meilleur individu trouvé (5453 pour l’AE contre 4877 pour l’AEI10). De plus,

ces performances sont beaucoup plus régulières que celle de l’AE classique. Concernant le meilleur individu trouvé et le front de Pareto, l’écart type entre les cinquante exécutions est divisé par deux. On peut néanmoins remarquer que le front de Pareto est moins étendu que l’AE classique, même s’il compte plus d’individus répartis régulièrement sur le front. L’apprentissage améliore donc sensiblement les résultats, notamment au niveau de la précision et de la fiabilité de l’optimisation. Il semble également que les performances obtenues dépendent fortement de la qualité de la recherche avant le premier apprentissage. Une perspective intéressante serait alors d’utiliser un réglage de l’AE favorisant la diversité des individus trouvés, afin d’améliorer la qualité de l’ensemble d’individus fournis à l’algorithme d’apprentissage.

Cependant, dans cette version de la plate-forme, une limite concerne le temps d’inférence pour mettre à jour les classes de probabilités qui demeure important. L’AEI10 nécessite en effet

environ 300 secondes pour atteindre la trentième génération avec deux modifications en ligne du modèle de connaissances, soit environ un tiers de temps supplémentaire par rapport à l’AE. Par rapport à ce problème, différentes perspectives d’améliorations sont exposées dans la section 4.5.

Performance moyenne Pareto final 0 5000 10000 15000 20000 25000 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 0

Performance moyenne population

5000 10000 15000 20000 25000 30000 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 0 AE AEI10 AEIinit AE AEI10 AEIinit

Figure 4.14. Récapitulatif des résultats obtenus pour un problème de taille conséquente (b)