• Aucun résultat trouvé

Modèle de mémorisation des données associées à une entité fixe de traitement

Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par

3. Modèle du processus décisionnel d’une entités fixe de traitement

3.2. Modèle de mémorisation des données associées à une entité fixe de traitement

Dans notre modèle de pilotage, la prise de décision basée sur des stratégies est suivie d’une

seconde étape : l’évaluation continue des stratégies adoptées. En effet, pendant le processus

décisionnel d’une eft, il ne s’agit pas uniquement d’adopter une stratégie pour sélectionner une

Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage

emp et la traiter en priorité, mais aussi d’évaluer cette stratégie a posteriori42. Pour ce faire, nous

attribuons à chaque stratégie SEft(d) un vecteur noté E(SEft(d)) qui quantifie l’évaluation de la

stratégie SEft(d) suite à la prise de NbD décisions. Ce vecteur se présente sous la forme suivante :

43

)]

,

(

),...,

,

(

),...,

1

,

(

[αd α d n αd NbD

E(SEft(d))= (avec α(d,n), α∈N l’évaluation de la stratégie SEft(d) suite

à la prise de la nième décision). L’évolution des valeurs du E(SEft(d)) est réalisée grâce à des mises à

jour successives (ces mises à jour seront détaillées dans le § 3.3.2.3). Ainsi, chaque stratégie

appartenant à ESF(k) se voit attribuer un vecteur d’évaluation qui lui est propre. Cette notion

d’évaluation des stratégies adoptées pendant le processus décisionnel est un élément principal des

mécanismes d’apprentissage que nous proposons.

Afin d’assimiler la signification de ce vecteur, considérons l’exemple présenté précédemment. Avant d’être

sélectionnée, la stratégie SEft(3) est associée au vecteur d’évaluation : E(SEft(3))= [1, 12, 5, -10, 3, 0]. Ce qui signifie

que SEft(3) est bien adaptée pour la prise de la deuxième décision (α(3,2)=12) et qu’elle est médiocre pour la

quatrième décision (α(3,4)=-10).

En ce qui concerne la procédure de mémorisation des données, nous proposons de

mémoriser d’une part les données permettant de réaliser un cycle de décisions (les stratégies) et

d’autre part celles générées par ce cycle. À titre de rappel, chaque eft(k) prend ses décisions d’une

façon cyclique (voir § 0). Un cycle de décisions, d’indice h, (noté CEft(k,h)) est composé de NbD

décisions successives. L’ensemble des données relatives à un cycle de décisions est codé et

mémorisé dans une matrice (notée M(eft(k,h))) contenant deux blocs :

• le premier bloc est une matrice de dimension [2*NbD]44 dans laquelle :

o la première ligne contient les différentes stratégies SEft(*,n) adoptées pendant un cycle de

décisions, n étant l’indice d’une décision (voir Figure 34),

o dans la deuxième ligne, chaque stratégie adoptée est évaluée grâce à un coefficient α45 afin

de quantifier son impact sur la performance globale obtenue.

• le deuxième bloc est représenté par une cellule unique qui contient une seule valeur. Il s’agit de

la performance globale du SPBS (notée PEft(k,h,NbD)) obtenue pendant un cycle h (voir

Figure 34). Nous avons choisi une quantification unique et globale de la performance du SPBS

obtenue suite à l’application des NbD décisions afin d’évaluer l’impact d’un cycle. En effet, une

performance locale (réalisée au niveau de chaque eft) est une performance constante pour tous

les cycles réalisés (pour NbD décisions prises, il y a NbD emp traitées). Par contre, la

performance globale réalisée par tout le SPBS peut varier d’un cycle à un autre. Cet indicateur

de performance constitue un moyen adéquat pour évaluer continuellement les différentes

décisions prises et par conséquent évaluer les stratégies qui sont à l’origine de ces décisions.

PEft(k,h,NbD)

SEft(*,1) SEft(*,2) … SEft(*,n) … SEft(*,NbD)

α(*,1) α(*,2) … α(*,n) … α(*,NbD)

M(eft(k,h))=

Figure 34- Modèle de codage et de mémorisation des données relatives au processus décisionnel d’une eft

Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage

Nous utilisons le même exemple de la ressource R(2) présenté précédemment afin d’assimiler la signification de la

matrice M(eft(k,h)). La Figure 35 montre la matrice relative au dixième cycle (h=10) réalisé par R(2). Ce cycle est

composé de six décisions qui ont été prises par application successive des stratégies

SEft(3)→SEft(1)→SEft(4)→SEft(2)→SEft(1)→SEft(3). Concernant la performance globale, nous la quantifions en

mesurant le nombre de produits qui quittent le système au cours de ce cycle (PEft(2,10,6)=3, c’est-à-dire entre

l’instant de la prise de la première décision et l’instant de la prise de la sixième décision, trois produits ont réalisé la

totalité de leurs quatre tâches). Notons par ailleurs que pour cet exemple, la stratégie SEft(3) peut être qualifiée de

‘bonne’ pour la prise de la sixième décision (α(3,6)=12) tandis que SEft(2) peut être qualifiée de ‘mauvaise’ pour la

prise de la quatrième décision (α(2,4)=-3).

PEft(2,10,6)=3

SEft(3,1) SEft(1,2) SEft(4,3) SEft(2,4) SEft(1,5) SEft(3,6)

-1 2 5 -3 1 12

M(Eft(2,10))=

Figure 35- Exemple de codage et mémorisation des données relatives à R(2)

La mise en place de la matrice M(eft(k,h)) se déroule selon les deux phases suivantes :

• pour l’ensemble des décisions prises, la première phase consiste à renseigner de proche en

proche des différentes cases relatives aux stratégies adoptées SEft(*,n) (voir Figure 36-a),

• la deuxième phase est composée de deux étapes quasi simultanées :

o en premier lieu, il s’agit de déterminer la valeur de la performance globale PEft(k,h,NbD)

du cycle de décisions h et de renseigner la cellule unique réservée à cette valeur (voir Figure

36-b),

o en second lieu, les évaluations des différentes stratégies adoptées pendant ce cycle (les

coefficients α(*,n)) sont renseignées dans les cases correspondantes (deuxième ligne de

M(eft(k,h))). Nous allons voir ultérieurement que ces évaluations sont déterminées sur la

base de la performance PEft(k,h,NbD) obtenue.

Prise de la 1

ère

décision

(début de cycle)

SEft(*,1)

Prise de la 2

ème

décision

M(eft(k,h))=

SEft(*,1) SEft(*,2)

SEft(*,1) SEft(*,2) … SEft(*,n)

Prise de la n

ème

décision

……

SEft(*,1) SEft(*,2) … SEft(*,n) SEft(*,NbD)

Prise de la NbD

ème

décision

(fin de cycle)

M(eft(k,h))=

M(eft(k,h))=

M(eft(k,h))=

(a)

(b)

SEft(*,1)

α(*,1)

SEft(*,2)

α(*,2)

SEft(*,n)

α(*,n)

SEft(*,NbD)

α(*,NbD)

PEft(k,h,NbA)

M(eft(k,h))=

Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage

Pour illustrer la prise de décision et la mémorisation des données d’une entité fixe de traitement, considérons la

ressource R(2), qui à l’instant tf commence son 10ème cycle composé de trois décisions. À cet instant, la file d’attente

couplée à R(2) contient quatre produits (P5, P11, P15, et P9). Chaque produit est caractérisé par un degré

d’avancement (nombre de tâches déjà réalisées) différent (le produit P5 a déjà réalisé deux tâches de sa gamme tandis

que P15 va commencer la réalisation de sa première tâche). Pendant ce cycle de décisions, R(2) a adopté,

successivement, SEft(3), SEft(4) et SEft(1) qui ont permis de sélectionner tour à tour les produits P15, P5 et P9, voir

Figure 37. Notons que dans ce scénario, aucun autre produit n’entre sur la file d’attente pendant ce cycle de décisions,

ce qui n’est pas vrai en réalité mais nous avons procédé ainsi uniquement à titre explicatif. Une fois ce cycle est

achevé, la matrice M(eft(2,10)) est renseignée avec les différentes valeurs (les trois coefficients α et PEft(2,10,3)).

1

ère

décision:

SEft(3): Choisir le produit qui a effectué le moins de tâches

File d’attente

P5 P11 P15 P9

État de la ressource R(2) à l’instant t

f

3

ème

décision:

SEft(1): Choisir le produit selon la règle FIFO

2

ème

décision:

SEft(4) : Choisir le produit qui a effectué le plus de tâches

P5 P11 P9

P15

P11 P9

P11

P5

P9

SEft(3,1)

R(2)

R(2)

R(2)

R(2)

SEft(3,1) SEft(4,2)

SEft(3,1) SEft(4,2) SEft(1,3)

SEft(3,1) α(SEft(3,1)) SEft(4,2) α(SEft(4,2)) SEft(1,3) α(SEft(1,3)) PEft(2,10,3)

Fin de cycle

Figure 37- Exemple de renseignement de la matrice associée à la ressource R(2)

Le renseignement de la matrice M(eft(k,h)) constitue une première phase du modèle de

mémorisation des données relatives au processus décisionnel d’une eft. Il s’agit dans cette phase de

mémoriser les données utilisées pendant ce processus (les SEft(*,n)) et celles générées (les

coefficients α et PEft(k,h,NbD)).

Cette matrice est ensuite insérée dans l’ensemble des matrices (noté EMF(k,tf)) associées aux

différents cycles de décisions réalisés auparavant : c’est la deuxième phase du modèle de

mémorisation (voir Figure 38). Cette insertion est effectuée à l’instant tf qui coïncide avec la fin

d’un cycle de décisions CEft(k,h)) (dans la suite, nous montrons le rôle joué par l’ensemble de ces

matrices dans le processus décisionnel des entités fixes de traitements).

M(eft(k,1))

M(eft(k,2)) M(eft(k,h))

M(eft(k,3))

M(eft(k,*))

M(eft(k, NbC(k,t

f

))

M(eft(k,*))

EMF(k,tf)

Chapitre III : Proposition d’un système de pilotage hétérarchique évolutif par apprentissage

Dans le modèle de pilotage hétérarchique, les entités actives sont autonomes (prise de

décisions) et capables d’apprendre (apprentissage des décisions) pendant leur fonctionnement. Or,

jusqu’à maintenant, nous n’avons présenté que les mécanismes de prise de décision d’une entité

fixe de traitement ainsi que la mémorisation des données nécessaires et générées par ces

mécanismes. Il s’agit alors de montrer comment les différentes stratégies sont déterminées pour la

réalisation de chaque cycle de décisions : c’est l’objet de la partie suivante.