Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par
3. Modèle du processus décisionnel d’une entités fixe de traitement
3.2. Modèle de mémorisation des données associées à une entité fixe de traitement
Dans notre modèle de pilotage, la prise de décision basée sur des stratégies est suivie d’une
seconde étape : l’évaluation continue des stratégies adoptées. En effet, pendant le processus
décisionnel d’une eft, il ne s’agit pas uniquement d’adopter une stratégie pour sélectionner une
Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage
emp et la traiter en priorité, mais aussi d’évaluer cette stratégie a posteriori42. Pour ce faire, nous
attribuons à chaque stratégie SEft(d) un vecteur noté E(SEft(d)) qui quantifie l’évaluation de la
stratégie SEft(d) suite à la prise de NbD décisions. Ce vecteur se présente sous la forme suivante :
43
)]
,
(
),...,
,
(
),...,
1
,
(
[αd α d n αd NbD
E(SEft(d))= (avec α(d,n), α∈N l’évaluation de la stratégie SEft(d) suite
à la prise de la nième décision). L’évolution des valeurs du E(SEft(d)) est réalisée grâce à des mises à
jour successives (ces mises à jour seront détaillées dans le § 3.3.2.3). Ainsi, chaque stratégie
appartenant à ESF(k) se voit attribuer un vecteur d’évaluation qui lui est propre. Cette notion
d’évaluation des stratégies adoptées pendant le processus décisionnel est un élément principal des
mécanismes d’apprentissage que nous proposons.
Afin d’assimiler la signification de ce vecteur, considérons l’exemple présenté précédemment. Avant d’être
sélectionnée, la stratégie SEft(3) est associée au vecteur d’évaluation : E(SEft(3))= [1, 12, 5, -10, 3, 0]. Ce qui signifie
que SEft(3) est bien adaptée pour la prise de la deuxième décision (α(3,2)=12) et qu’elle est médiocre pour la
quatrième décision (α(3,4)=-10).
En ce qui concerne la procédure de mémorisation des données, nous proposons de
mémoriser d’une part les données permettant de réaliser un cycle de décisions (les stratégies) et
d’autre part celles générées par ce cycle. À titre de rappel, chaque eft(k) prend ses décisions d’une
façon cyclique (voir § 0). Un cycle de décisions, d’indice h, (noté CEft(k,h)) est composé de NbD
décisions successives. L’ensemble des données relatives à un cycle de décisions est codé et
mémorisé dans une matrice (notée M(eft(k,h))) contenant deux blocs :
• le premier bloc est une matrice de dimension [2*NbD]44 dans laquelle :
o la première ligne contient les différentes stratégies SEft(*,n) adoptées pendant un cycle de
décisions, n étant l’indice d’une décision (voir Figure 34),
o dans la deuxième ligne, chaque stratégie adoptée est évaluée grâce à un coefficient α45 afin
de quantifier son impact sur la performance globale obtenue.
• le deuxième bloc est représenté par une cellule unique qui contient une seule valeur. Il s’agit de
la performance globale du SPBS (notée PEft(k,h,NbD)) obtenue pendant un cycle h (voir
Figure 34). Nous avons choisi une quantification unique et globale de la performance du SPBS
obtenue suite à l’application des NbD décisions afin d’évaluer l’impact d’un cycle. En effet, une
performance locale (réalisée au niveau de chaque eft) est une performance constante pour tous
les cycles réalisés (pour NbD décisions prises, il y a NbD emp traitées). Par contre, la
performance globale réalisée par tout le SPBS peut varier d’un cycle à un autre. Cet indicateur
de performance constitue un moyen adéquat pour évaluer continuellement les différentes
décisions prises et par conséquent évaluer les stratégies qui sont à l’origine de ces décisions.
PEft(k,h,NbD)
SEft(*,1) SEft(*,2) … SEft(*,n) … SEft(*,NbD)
α(*,1) α(*,2) … α(*,n) … α(*,NbD)
M(eft(k,h))=
Figure 34- Modèle de codage et de mémorisation des données relatives au processus décisionnel d’une eft
Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage
Nous utilisons le même exemple de la ressource R(2) présenté précédemment afin d’assimiler la signification de la
matrice M(eft(k,h)). La Figure 35 montre la matrice relative au dixième cycle (h=10) réalisé par R(2). Ce cycle est
composé de six décisions qui ont été prises par application successive des stratégies
SEft(3)→SEft(1)→SEft(4)→SEft(2)→SEft(1)→SEft(3). Concernant la performance globale, nous la quantifions en
mesurant le nombre de produits qui quittent le système au cours de ce cycle (PEft(2,10,6)=3, c’est-à-dire entre
l’instant de la prise de la première décision et l’instant de la prise de la sixième décision, trois produits ont réalisé la
totalité de leurs quatre tâches). Notons par ailleurs que pour cet exemple, la stratégie SEft(3) peut être qualifiée de
‘bonne’ pour la prise de la sixième décision (α(3,6)=12) tandis que SEft(2) peut être qualifiée de ‘mauvaise’ pour la
prise de la quatrième décision (α(2,4)=-3).
PEft(2,10,6)=3
SEft(3,1) SEft(1,2) SEft(4,3) SEft(2,4) SEft(1,5) SEft(3,6)
-1 2 5 -3 1 12
M(Eft(2,10))=
Figure 35- Exemple de codage et mémorisation des données relatives à R(2)
La mise en place de la matrice M(eft(k,h)) se déroule selon les deux phases suivantes :
• pour l’ensemble des décisions prises, la première phase consiste à renseigner de proche en
proche des différentes cases relatives aux stratégies adoptées SEft(*,n) (voir Figure 36-a),
• la deuxième phase est composée de deux étapes quasi simultanées :
o en premier lieu, il s’agit de déterminer la valeur de la performance globale PEft(k,h,NbD)
du cycle de décisions h et de renseigner la cellule unique réservée à cette valeur (voir Figure
36-b),
o en second lieu, les évaluations des différentes stratégies adoptées pendant ce cycle (les
coefficients α(*,n)) sont renseignées dans les cases correspondantes (deuxième ligne de
M(eft(k,h))). Nous allons voir ultérieurement que ces évaluations sont déterminées sur la
base de la performance PEft(k,h,NbD) obtenue.
Prise de la 1
èredécision
(début de cycle)
SEft(*,1)
Prise de la 2
èmedécision
M(eft(k,h))=
SEft(*,1) SEft(*,2)
SEft(*,1) SEft(*,2) … SEft(*,n)
Prise de la n
èmedécision
……
SEft(*,1) SEft(*,2) … SEft(*,n) SEft(*,NbD)
Prise de la NbD
èmedécision
(fin de cycle)
…
M(eft(k,h))=
M(eft(k,h))=
M(eft(k,h))=
(a)
(b)
SEft(*,1)
α(*,1)
SEft(*,2)
α(*,2)
…
…
SEft(*,n)
α(*,n)
SEft(*,NbD)
α(*,NbD)
…
…
PEft(k,h,NbA)
M(eft(k,h))=
Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage
Pour illustrer la prise de décision et la mémorisation des données d’une entité fixe de traitement, considérons la
ressource R(2), qui à l’instant tf commence son 10ème cycle composé de trois décisions. À cet instant, la file d’attente
couplée à R(2) contient quatre produits (P5, P11, P15, et P9). Chaque produit est caractérisé par un degré
d’avancement (nombre de tâches déjà réalisées) différent (le produit P5 a déjà réalisé deux tâches de sa gamme tandis
que P15 va commencer la réalisation de sa première tâche). Pendant ce cycle de décisions, R(2) a adopté,
successivement, SEft(3), SEft(4) et SEft(1) qui ont permis de sélectionner tour à tour les produits P15, P5 et P9, voir
Figure 37. Notons que dans ce scénario, aucun autre produit n’entre sur la file d’attente pendant ce cycle de décisions,
ce qui n’est pas vrai en réalité mais nous avons procédé ainsi uniquement à titre explicatif. Une fois ce cycle est
achevé, la matrice M(eft(2,10)) est renseignée avec les différentes valeurs (les trois coefficients α et PEft(2,10,3)).
1
èredécision:
SEft(3): Choisir le produit qui a effectué le moins de tâches
File d’attente
P5 P11 P15 P9
État de la ressource R(2) à l’instant t
f3
èmedécision:
SEft(1): Choisir le produit selon la règle FIFO
2
èmedécision:
SEft(4) : Choisir le produit qui a effectué le plus de tâches
P5 P11 P9
P15
P11 P9
P11
P5
P9
SEft(3,1)R(2)
R(2)
R(2)
R(2)
SEft(3,1) SEft(4,2)SEft(3,1) SEft(4,2) SEft(1,3)
SEft(3,1) α(SEft(3,1)) SEft(4,2) α(SEft(4,2)) SEft(1,3) α(SEft(1,3)) PEft(2,10,3)
Fin de cycle
Figure 37- Exemple de renseignement de la matrice associée à la ressource R(2)
Le renseignement de la matrice M(eft(k,h)) constitue une première phase du modèle de
mémorisation des données relatives au processus décisionnel d’une eft. Il s’agit dans cette phase de
mémoriser les données utilisées pendant ce processus (les SEft(*,n)) et celles générées (les
coefficients α et PEft(k,h,NbD)).
Cette matrice est ensuite insérée dans l’ensemble des matrices (noté EMF(k,tf)) associées aux
différents cycles de décisions réalisés auparavant : c’est la deuxième phase du modèle de
mémorisation (voir Figure 38). Cette insertion est effectuée à l’instant tf qui coïncide avec la fin
d’un cycle de décisions CEft(k,h)) (dans la suite, nous montrons le rôle joué par l’ensemble de ces
matrices dans le processus décisionnel des entités fixes de traitements).
M(eft(k,1))
M(eft(k,2)) M(eft(k,h))
M(eft(k,3))
M(eft(k,*))
M(eft(k, NbC(k,t
f))
M(eft(k,*))
EMF(k,tf)
Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage
Dans le modèle de pilotage hétérarchique, les entités actives sont autonomes (prise de
décisions) et capables d’apprendre (apprentissage des décisions) pendant leur fonctionnement. Or,
jusqu’à maintenant, nous n’avons présenté que les mécanismes de prise de décision d’une entité
fixe de traitement ainsi que la mémorisation des données nécessaires et générées par ces
mécanismes. Il s’agit alors de montrer comment les différentes stratégies sont déterminées pour la
réalisation de chaque cycle de décisions : c’est l’objet de la partie suivante.
Dans le document
Proposition d'une architecture logique d'un système de pilotage hétérarchique évolutif par apprentissage
(Page 87-91)