• Aucun résultat trouvé

L'algorithme du Q-learning est un des algorithmes les plus utilisés en mono-agent pour sa simplicité et sa robustesse. Ce sont aussi des raisons pour lesquelles il a été l'un des premiers algorithmes à être appliqué de manière décentralisée aux systèmes multiagents [Tan93]. L'équation de mise à jour pour un agent i dans l'état s, ayant eectué l'action individuelle ai, dont l'action jointe a = hai,a−iifait évoluer le système

dans un nouvel état s0 et où tous les agents reçoivent la récompense R(s, a) est :

Qi(s, ai) ← (1 − α)Qi(s, ai) + α(R(s, hai,a−ii) + γ max

b∈Ai

Qi(s0, b)). (6.1)

L'algorithme du Q-learning décentralisé est donné à l'algorithme 4. Dans cet algo- rithme (et ceux qui suivent), si la méthode de décision n'est pas précisée, son choix est alors laissé à l'utilisateur parmi les méthodes existantes (-greedy, softmax, ...). Malgré le

Algorithme 4 : Algorithme du Q-learning décentralisé pour un agent indépendant idans un jeu de Markov d'équipe

début

Initialiser Qi(s, ai)arbitrairement pour tout (s, ai)de S × Ai Initialiser l'état initial s

tant que s n'est pas un état absorbant faire

Dans l'état s choisir l'action ai . étape de décision

Exécuter l'action ai et observer le nouvel état s0et la récompense r Qi(s, ai) ← (1 − α)Qi(s, ai) + α  r + γ max b∈Ai Qi(s0, b)  s ← s0 n

Table 6.1  Pourcentage d'épisodes convergeant vers l'action jointe optimale avec le Q-learning décentralisé selon la stratégie d'exploration (moyenne sur 1000 épisodes in- dépendants). Un épisode consiste en 3000 répétitions. A chaque n d'un épisode, on détermine si l'action jointe gloutonne est optimale. La méthode de décision softmax est utilisée avec diérentes stratégies d'exploration : stationnaire (τ) ou GLIE (τ = τini× δt

où t est le nombre de répétitions). Stratégie

stationnaire τ = 1000 τ = 200 τ = 10 τ = 1 Jeu penalty

(k = −100) 62, 6% 65, 3% 62, 8% 65, 1%

Stratégie τini= 5000 τini = 500 τini = 100

GLIE δ = 0.9 δ = 0.99 δ = 0.995 δ = 0.997 δ = 0.995 δ = 0.995 Jeu penalty

(k = −100) 0% 61, 7% 84% 96, 6% 85, 3% 84, 8%

manque de justications théoriques dans le cadre multiagent, il a été appliqué avec succès à certaines applications [SSH94,SS98,BBS06a,WdS06]. Il est cependant important de remarquer que cet algorithme est peu robuste face à la stratégie d'exploration (choix des paramètres de la méthode de décision) ainsi que face aux facteurs de non-coordination. 6.2.1 Robustesse face à la stratégie d'exploration

Dans le Q-learning décentralisé, la méthode de décision ainsi que la stratégie d'ex- ploration ne sont pas précisées. Cependant, les diérents résultats disponibles dans la littérature ainsi que les essais que nous avons eectués montrent que la stratégie d'ex- ploration joue un rôle important dans la réussite du Q-learning décentralisé. La plupart des travaux sur le Q-learning décentralisé utilisent une stratégie d'explora- tion GLIE2 [SJLS00] qui consiste à décroître le taux d'exploration au fur et à mesure de

l'apprentissage. Cette méthode est couramment choisie pour assurer la convergence vers une politique optimale déterministe des algorithmes on-policy mono-agent tel que l'al- gorithme Sarsa. Néanmoins, peu d'auteurs justient l'utilisation de cette stratégie dans le cadre multiagent. Selon Caroline Claus et Craig Boutilier [CB98a], cette méthode est plus ecace qu'une exploration constante car elle permet de réduire l'exploration concur- rente (cf. Ÿ5.4.4). Une stratégie GLIE peut donc permettre dans certains cas d'améliorer les résultats obtenus avec les algorithmes décentralisés, et notamment avec le Q-learning décentralisé. La table 6.1 donne les diérents résultats de convergence possibles selon les paramètres de la stratégie d'exploration. Avec une stratégie stationnaire, le choix du taux d'exploration a peu d'inuence sur les résultats de convergence. Par contre, les pa- ramètres de décroissance d'une stratégie GLIE ont beaucoup d'inuence sur la réussite du Q-learning décentralisé. Notamment, avec une stratégie GLIE correctement choisie, on peut obtenir 96% d'épisodes réussis dans le jeu du penalty avec de fortes pénalités (k = −100). Le Q-learning décentralisé est donc peu robuste face à la stratégie d'explo- ration qui inue fortement sur la convergence. Il faut insister sur le fait que le choix des paramètres de décroissance n'est pas évident. Il nécessite une très bonne expertise du comportement de l'algorithme d'apprentissage, comportement qui varie selon le type de jeu. Le réglage d'une stratégie GLIE rend donc le Q-learning décentralisé dicilement utilisable dans la pratique.

6.2.2 Robustesse face aux facteurs de non-coordination

La structure du jeu et plus particulièrement la présence de facteurs de non-coordination agit aussi sur la convergence du Q-learning décentralisé. Les résultats de la table 6.2

illustrent ce phénomène. Dans un jeu matriciel d'équipe simple (par exemple celui de la gure5.3), le Q-learning décentralisé converge vers l'action jointe optimale si la stratégie d'exploration est bien choisie. Mais dans le jeu Climbing, la convergence sur l'équilibre de Nash Pareto optimal n'est pas réalisée car le Q-learning décentralisé ne surmonte pas la diculté de l'équilibre caché. Dans le jeu matriciel penalty, la convergence du Q-learning décentralisé sur une des deux actions jointes optimales peut être réalisée avec une stra- tégie d'exploration très bien choisie. Aucun mécanisme n'est explicitement intégré dans le Q-learning décentralisé pour assurer la sélection d'équilibres, mais celui-ci semble y parvenir dans le jeu penalty, notamment avec de faibles pénalités. La stratégie d'explora- tion GLIE qui permet d'éviter le bruit dû à l'exploration concurrente joue implicitement un rôle de mécanisme de sélection d'équilibres. Par contre, plus la valeur des pénalités est élevée, et donc plus les équilibres optimaux sont risqués, et plus la convergence est dicile (cf. gure6.1).

6.2.3 Synthèse

Ainsi, le Q-learning décentralisé ne surmonte aucun des enjeux de l'apprentissage d'agents indépendants. Il n'est robuste ni à la stratégie d'exploration ni aux facteurs de non coordination. Cependant, il est à noter que dans certains jeux et avec une stratégie d'exploration bien choisie, le Q-learning décentralisé peut tout de même donner de bons

Table 6.2  Pourcentage d'épisodes convergeant vers l'action jointe optimale avec le Q- learning décentralisé (moyenne sur 500 épisodes indépendants). Un épisode consiste en 3000 répétitions. A chaque n d'un épisode, on détermine si l'action jointe gloutonne est optimale. La méthode de décision softmax est utilisée avec une stratégie d'exploration GLIE (τ = 5000 × 0.997toù t est le nombre de répétitions) de sorte à obtenir les meilleurs

résultats possibles de convergence.

Jeu simple Jeu penalty Jeu Climbing (k = −100) déterministe Q-learning décentralisé 100% 96% 3% 80 82 84 86 88 90 92 94 96 98 100 0 -500 -1000 -2000 -1500 -2500 -3000 -3500 -4000 -4500 -5000 valeur de k po ur ce nt ag e d' ép is od es q ui c on ve rg en t ve rs l' ac tio n jo in te

Figure 6.1  Pourcentage d'épisodes convergeant vers l'une des deux actions jointes optimales dans le jeu penalty selon la valeur de k avec le Q-learning décentralisé (moyenne sur 500 épisodes indépendants). Un épisode consiste en 3000 répétitions. La méthode de décision softmax est utilisée avec une stratégie d'exploration GLIE (τ = 5000 × 0.997t

où t est le nombre de répétitions). A chaque n d'un épisode, on détermine si l'action jointe gloutonne est optimale.

résultats.