• Aucun résultat trouvé

Exemple d’éco-conception de l’information

Chapitre 4 – Application à un cas d’étude

4. Etape 3 – Analyse de l’information

4.2. Exemple d’éco-conception de l’information

Nous illustrons ici par l’exemple l’influence des caractéristiques des données sur

l’impact de l’infrastructure. Nous identifierons dans un premier temps l’information

opérationnelle que le service est censé produire, pour ensuite remettre en question les

données nécessaire à sa production.

4.2.1. Identification de l’information opérationnelle

Nous avons vu que l’objectif du service est d’optimiser la relève des points d’apport

volontaire, relève qui peut être autrement définie comme un processus visant à

assurer la disponibilité constante d’un espace vide dans chaque point d’apport

volontaire. L’optimisation de ce processus consiste à faire en sorte qu’il utilise le moins

de ressources et génère le moins de rejets, en d’autres termes que la longueur des

tournées soit réduite au minimum. Ceci nécessite de relever le moins souvent possible

les points d’apport. En poussant plus loin l’analyse, nous pouvons dire que l’objectif de

cette optimisation est de faire en sorte que la relève intervienne suffisamment tôt

pour qu’aucun débordement ne survienne, mais également suffisamment tard pour

diminuer les coûts de relève.

Eco-concevoir le service nécessite d’identifier l’information nécessaire à l’optimisation

du processus sur lequel il porte. Quelle est cette information ? Quelle configuration de

ses caractéristiques lui permet de requérir une sollicitation minimale de

l’infrastructure ?

L’information dont il est dans notre cas nécessaire de disposer est une prévision fiable

du moment où chaque point d’apport volontaire va déborder. Si le point d’apport

volontaire a une forte probabilité de déborder d’ici la prochaine tournée de relève, il

est raisonnable de le relever. Sinon, sa relève peut attendre. Mais au-delà de

l’existence minimale de cette information, c’est également le moment de son

utilisation qui est important : celle-ci doit être valide au moment où la tournée de

relève est déterminée.

Il est donc nécessaire de disposer pour chaque point d’apport volontaire, au moment

de la définition de la tournée de relève, de deux informations : 1) le dernier taux de

remplissage connu 2) la vitesse probable de remplissage. La première information est

donnée aisément par le capteur. La seconde peut être interprétée à partir de

l’historique des données à l’aide d’un modèle de comportement des apports. La

fiabilité de la prédiction de la date de débordement dépend de la régularité du

remplissage, du temps écoulé depuis la dernière mesure et de l’existence de données

historiques permettant de prévoir le remplissage par extrapolation du remplissage

passé.

4.2.2. Diminution du volume de données

Examinons la possibilité de diminuer le volume des données brutes générées pour

produire l’information que nous venons d’identifier. Le scénario examiné plus haut

(section 2.2.1) représentait une capture périodique (une fois par heure) du taux de

remplissage de chaque point d’apport. Ceci permettait 1) de disposer à tout moment

117

de données récentes 2) de disposer d’un historique régulier afin de construire un

modèle de prédiction précis. Cette option est cependant génératrice d’un fort volume

de données et de communications. D’autres options sont envisageables, considérant

notamment que la probabilité de débordement pendant un intervalle de temps

dépend du taux de remplissage au début de cet intervalle, ainsi que de la vitesse et de

l’irrégularité de l’apport. Il n’est par exemple pas nécessaire de surveiller fréquemment

un point d’apport lorsque le niveau, la vitesse et l’irrégularité de son remplissage sont

faibles. Il est possible de conditionner la fréquence des mesures en fonction de l’état

et de la dynamique du remplissage.

Pour examiner plus en détail cette option, nous avons effectué des simulations de

remplissage et examiné différentes règles de mesure. Pour chaque jour, le nombre

d’apports ainsi que le volume de chacun d’eux sont tirés aléatoirement. On suppose

que le nombre d’apports et le volume de chaque apport suivent des lois de Poisson et

sont donc distribués autour d’une valeur moyenne prédéfinie. On suppose également

que la décision de relever un point d’apport est systématiquement prise lorsque

l’espérance du taux de remplissage à la prochaine tournée dépasse une valeur donnée.

On suppose enfin que la tournée de relève est prévue chaque jour à la même heure.

Avec ces règles de comportement est construite l’évolution du remplissage d’un point

d’apport volontaire sur une période donnée. Cette simulation permet de constater les

performances du système, mesurées par le nombre de débordements, de nombre de

mesures effectuées, et de taux de remplissage au moment de chaque relève.

Les règles de mesure examinées sont les suivantes :

- Règle 1 : une mesure toutes les heures.

- Règle 2 : une mesure toutes les huit heures.

- Règle 3 : la vitesse moyenne de remplissage est supposée être connue d’après

des relevés historiques. Cette valeur est connue du capteur : elle est soit

fournie par le serveur d’application, soit automatiquement déterminée par le

capteur. Si le volume mesuré est inférieur à la moitié de la capacité, la

prochaine mesure est prévue pour le moment où le remplissage devrait arriver

à la moitié de la capacité. Si le volume mesuré est supérieur à la moitié de la

capacité, une mesure est prévue dans un délai de x heures, où x est le carré de

l’espérance du nombre de jours avant débordement.

- Règle 4 : la vitesse moyenne de remplissage est calculée à partir des cinq

dernières mesures. Celles-ci sont stockées dans une file FIFO

66

permettant de

calculer la pente moyenne sur une fenêtre de temps glissante. Cette pente

permet de prévoir une date de débordement. La mesure suivante est prévue

après un cinquième de l’intervalle de temps entre le temps courant et la date

de débordement.

- Règle 5 : La fréquence de mesure est conditionnée au taux de remplissage du

point d’apport mesuré : une mesure tous les jours entre 0 et 40%, une mesure

toutes les 8 heures entre 40 et 70%, une mesure toutes les heures entre 70% et

90%, une mesure tous les jours au-delà de 90% (car il est supposé que, passé

118

90%, le débordement est certain et qu’une mesure ne ferait que confirmer un

évènement déjà prévu).

Une simulation est effectuée pour chaque règle de mesure. Les paramètres communs

à ces 5 simulations sont les suivants :

- Capacité totale du point d’apport : 8000 unités ;

- Nombre d’apports journaliers moyen par point d’apport : 10 ;

- Volume moyen d’un apport : 100 unités ;

- Temps entre deux relèves : 1 jour ;

- Règle de relève : le point d’apport est relevé si l’espérance de son remplissage

à +1 jour est supérieure à 90% de sa capacité totale.

Les résultats de la simulation sont donnés par le tableau 11. La figure 31 illustre le

comportement des 5 règles de mesure en présentant un extrait de leurs simulations.

Nous pouvons constater que les performances en termes de nombre de débordements

et de volume moyen relevé sont équivalentes. Elles ne sont, en l’occurrence, pas

optimales pour la collectivité locale cliente du service, puisque le nombre de

débordements n’est pas nul. Cependant, les nombres de débordements constatés ici

sont uniquement le résultat d’une règle de relève trop ambitieuse, ne pouvant faire

face à des apports exceptionnellement importants. Une règle de relève plus

conservatrice - relever à un taux de remplissage moins haut, diminuant ainsi le risque

de débordement en cas d’apport exceptionnellement important - permettrait

d’atteindre un nombre de débordements nul, mais nécessiterait également des relèves

plus fréquentes, et par conséquent un impact environnemental plus important. Ce qui

est important à retenir ici est que le nombre de débordements et le nombre de relèves

est constant quelle que soit la règle de mesure simulée.

Les performances en termes de nombre de mesures sont quant à elles très inégales

entre les scénarios : on constate une différence de 93% entre le scénario le moins

favorable (règle 1) et le plus favorable (règle 3). Ce faisant, alors que l’impact

environnemental de la relève des points d’apport est équivalent entre ces cinq

scénarios, la sollicitation de l’infrastructure est bien moindre pour certains d’entre eux,

ceci laissant envisager un impact environnemental moindre du service.

Scenario Nombre de débordements Nombre de relèves Nombre de mesures Taux moyen relevé (%)

Nombre de mesures par rapport à la règle 1 (%) Règle 1 2 536 87 600 84,23 100,00% Règle 2 1 543 10 950 84,25 12,50% Règle 3 2 535 5813 85,75 6,64% Règle 4 5 529 8212 86,8 9,37% Règle 5 2 540 23 941 84,58 27,33%

119

Figure 31 - Extraits de simulations illustrant les 5 règles de mesure – En bleu : volume contenu dans le point d’apport. En rouge : volume mesuré par le capteur. Traits brisés rouges verticaux: tournées de

relevage. Traits brisés rouges horizontal: capacité du point d’apport.

4.2.3. Enseignements

En dépit des hypothèses sur lesquelles cette simulation est fondée, celle-ci illustre la

possibilité de se questionner sur les caractéristiques des données brutes nécessaires à

la génération de l’information permettant le service d’optimisation. Nous avons choisi

le critère de volume, mais les autres critères auraient également pu être questionnés.

Ainsi, la validité temporelle des données n’a d’importance qu’au moment de la

prévision de la tournée de relève, un ordonnancement ou un regroupement des envois

est donc possible en dehors de ce moment. De même, toutes les données générées ne

sont pas critiques, et la bidirectionnalité n’est pas fondamentalement nécessaire. La

localisation des données, quant à elle, est contrainte par le déploiement des points

d’apport volontaire.

Il est donc possible de nourrir une réflexion d’éco-conception du service en

questionnant le besoin informationnel auquel il répond. Ceci permet d’engager une

démarche d’éco-conception de l’information elle-même, à travers la recherche des

données brutes qui permettent de la générer tout en sollicitant au minimum

120

l’infrastructure. Une étape essentielle de cette réflexion est de déterminer les

paramètres de l’information qui ont une influence sur les impacts de l’infrastructure et

du domaine d’application.