Chapitre 4 – Application à un cas d’étude
4. Etape 3 – Analyse de l’information
4.2. Exemple d’éco-conception de l’information
Nous illustrons ici par l’exemple l’influence des caractéristiques des données sur
l’impact de l’infrastructure. Nous identifierons dans un premier temps l’information
opérationnelle que le service est censé produire, pour ensuite remettre en question les
données nécessaire à sa production.
4.2.1. Identification de l’information opérationnelle
Nous avons vu que l’objectif du service est d’optimiser la relève des points d’apport
volontaire, relève qui peut être autrement définie comme un processus visant à
assurer la disponibilité constante d’un espace vide dans chaque point d’apport
volontaire. L’optimisation de ce processus consiste à faire en sorte qu’il utilise le moins
de ressources et génère le moins de rejets, en d’autres termes que la longueur des
tournées soit réduite au minimum. Ceci nécessite de relever le moins souvent possible
les points d’apport. En poussant plus loin l’analyse, nous pouvons dire que l’objectif de
cette optimisation est de faire en sorte que la relève intervienne suffisamment tôt
pour qu’aucun débordement ne survienne, mais également suffisamment tard pour
diminuer les coûts de relève.
Eco-concevoir le service nécessite d’identifier l’information nécessaire à l’optimisation
du processus sur lequel il porte. Quelle est cette information ? Quelle configuration de
ses caractéristiques lui permet de requérir une sollicitation minimale de
l’infrastructure ?
L’information dont il est dans notre cas nécessaire de disposer est une prévision fiable
du moment où chaque point d’apport volontaire va déborder. Si le point d’apport
volontaire a une forte probabilité de déborder d’ici la prochaine tournée de relève, il
est raisonnable de le relever. Sinon, sa relève peut attendre. Mais au-delà de
l’existence minimale de cette information, c’est également le moment de son
utilisation qui est important : celle-ci doit être valide au moment où la tournée de
relève est déterminée.
Il est donc nécessaire de disposer pour chaque point d’apport volontaire, au moment
de la définition de la tournée de relève, de deux informations : 1) le dernier taux de
remplissage connu 2) la vitesse probable de remplissage. La première information est
donnée aisément par le capteur. La seconde peut être interprétée à partir de
l’historique des données à l’aide d’un modèle de comportement des apports. La
fiabilité de la prédiction de la date de débordement dépend de la régularité du
remplissage, du temps écoulé depuis la dernière mesure et de l’existence de données
historiques permettant de prévoir le remplissage par extrapolation du remplissage
passé.
4.2.2. Diminution du volume de données
Examinons la possibilité de diminuer le volume des données brutes générées pour
produire l’information que nous venons d’identifier. Le scénario examiné plus haut
(section 2.2.1) représentait une capture périodique (une fois par heure) du taux de
remplissage de chaque point d’apport. Ceci permettait 1) de disposer à tout moment
117
de données récentes 2) de disposer d’un historique régulier afin de construire un
modèle de prédiction précis. Cette option est cependant génératrice d’un fort volume
de données et de communications. D’autres options sont envisageables, considérant
notamment que la probabilité de débordement pendant un intervalle de temps
dépend du taux de remplissage au début de cet intervalle, ainsi que de la vitesse et de
l’irrégularité de l’apport. Il n’est par exemple pas nécessaire de surveiller fréquemment
un point d’apport lorsque le niveau, la vitesse et l’irrégularité de son remplissage sont
faibles. Il est possible de conditionner la fréquence des mesures en fonction de l’état
et de la dynamique du remplissage.
Pour examiner plus en détail cette option, nous avons effectué des simulations de
remplissage et examiné différentes règles de mesure. Pour chaque jour, le nombre
d’apports ainsi que le volume de chacun d’eux sont tirés aléatoirement. On suppose
que le nombre d’apports et le volume de chaque apport suivent des lois de Poisson et
sont donc distribués autour d’une valeur moyenne prédéfinie. On suppose également
que la décision de relever un point d’apport est systématiquement prise lorsque
l’espérance du taux de remplissage à la prochaine tournée dépasse une valeur donnée.
On suppose enfin que la tournée de relève est prévue chaque jour à la même heure.
Avec ces règles de comportement est construite l’évolution du remplissage d’un point
d’apport volontaire sur une période donnée. Cette simulation permet de constater les
performances du système, mesurées par le nombre de débordements, de nombre de
mesures effectuées, et de taux de remplissage au moment de chaque relève.
Les règles de mesure examinées sont les suivantes :
- Règle 1 : une mesure toutes les heures.
- Règle 2 : une mesure toutes les huit heures.
- Règle 3 : la vitesse moyenne de remplissage est supposée être connue d’après
des relevés historiques. Cette valeur est connue du capteur : elle est soit
fournie par le serveur d’application, soit automatiquement déterminée par le
capteur. Si le volume mesuré est inférieur à la moitié de la capacité, la
prochaine mesure est prévue pour le moment où le remplissage devrait arriver
à la moitié de la capacité. Si le volume mesuré est supérieur à la moitié de la
capacité, une mesure est prévue dans un délai de x heures, où x est le carré de
l’espérance du nombre de jours avant débordement.
- Règle 4 : la vitesse moyenne de remplissage est calculée à partir des cinq
dernières mesures. Celles-ci sont stockées dans une file FIFO
66permettant de
calculer la pente moyenne sur une fenêtre de temps glissante. Cette pente
permet de prévoir une date de débordement. La mesure suivante est prévue
après un cinquième de l’intervalle de temps entre le temps courant et la date
de débordement.
- Règle 5 : La fréquence de mesure est conditionnée au taux de remplissage du
point d’apport mesuré : une mesure tous les jours entre 0 et 40%, une mesure
toutes les 8 heures entre 40 et 70%, une mesure toutes les heures entre 70% et
90%, une mesure tous les jours au-delà de 90% (car il est supposé que, passé
118
90%, le débordement est certain et qu’une mesure ne ferait que confirmer un
évènement déjà prévu).
Une simulation est effectuée pour chaque règle de mesure. Les paramètres communs
à ces 5 simulations sont les suivants :
- Capacité totale du point d’apport : 8000 unités ;
- Nombre d’apports journaliers moyen par point d’apport : 10 ;
- Volume moyen d’un apport : 100 unités ;
- Temps entre deux relèves : 1 jour ;
- Règle de relève : le point d’apport est relevé si l’espérance de son remplissage
à +1 jour est supérieure à 90% de sa capacité totale.
Les résultats de la simulation sont donnés par le tableau 11. La figure 31 illustre le
comportement des 5 règles de mesure en présentant un extrait de leurs simulations.
Nous pouvons constater que les performances en termes de nombre de débordements
et de volume moyen relevé sont équivalentes. Elles ne sont, en l’occurrence, pas
optimales pour la collectivité locale cliente du service, puisque le nombre de
débordements n’est pas nul. Cependant, les nombres de débordements constatés ici
sont uniquement le résultat d’une règle de relève trop ambitieuse, ne pouvant faire
face à des apports exceptionnellement importants. Une règle de relève plus
conservatrice - relever à un taux de remplissage moins haut, diminuant ainsi le risque
de débordement en cas d’apport exceptionnellement important - permettrait
d’atteindre un nombre de débordements nul, mais nécessiterait également des relèves
plus fréquentes, et par conséquent un impact environnemental plus important. Ce qui
est important à retenir ici est que le nombre de débordements et le nombre de relèves
est constant quelle que soit la règle de mesure simulée.
Les performances en termes de nombre de mesures sont quant à elles très inégales
entre les scénarios : on constate une différence de 93% entre le scénario le moins
favorable (règle 1) et le plus favorable (règle 3). Ce faisant, alors que l’impact
environnemental de la relève des points d’apport est équivalent entre ces cinq
scénarios, la sollicitation de l’infrastructure est bien moindre pour certains d’entre eux,
ceci laissant envisager un impact environnemental moindre du service.
Scenario Nombre de débordements Nombre de relèves Nombre de mesures Taux moyen relevé (%)
Nombre de mesures par rapport à la règle 1 (%) Règle 1 2 536 87 600 84,23 100,00% Règle 2 1 543 10 950 84,25 12,50% Règle 3 2 535 5813 85,75 6,64% Règle 4 5 529 8212 86,8 9,37% Règle 5 2 540 23 941 84,58 27,33%
119
Figure 31 - Extraits de simulations illustrant les 5 règles de mesure – En bleu : volume contenu dans le point d’apport. En rouge : volume mesuré par le capteur. Traits brisés rouges verticaux: tournées de
relevage. Traits brisés rouges horizontal: capacité du point d’apport.
4.2.3. Enseignements
En dépit des hypothèses sur lesquelles cette simulation est fondée, celle-ci illustre la
possibilité de se questionner sur les caractéristiques des données brutes nécessaires à
la génération de l’information permettant le service d’optimisation. Nous avons choisi
le critère de volume, mais les autres critères auraient également pu être questionnés.
Ainsi, la validité temporelle des données n’a d’importance qu’au moment de la
prévision de la tournée de relève, un ordonnancement ou un regroupement des envois
est donc possible en dehors de ce moment. De même, toutes les données générées ne
sont pas critiques, et la bidirectionnalité n’est pas fondamentalement nécessaire. La
localisation des données, quant à elle, est contrainte par le déploiement des points
d’apport volontaire.
Il est donc possible de nourrir une réflexion d’éco-conception du service en
questionnant le besoin informationnel auquel il répond. Ceci permet d’engager une
démarche d’éco-conception de l’information elle-même, à travers la recherche des
données brutes qui permettent de la générer tout en sollicitant au minimum
120
l’infrastructure. Une étape essentielle de cette réflexion est de déterminer les
paramètres de l’information qui ont une influence sur les impacts de l’infrastructure et
du domaine d’application.
Dans le document
Analyse environnementale et éco-conception de services informationnels
(Page 129-133)