• Aucun résultat trouvé

Estimation des risques biologiques

IV. Les risques sanitaires liés à la REUT

3. Estimation des risques biologiques

Pour estimer le risque biologique dans le cadre de la REUT, il faut estimer la probabilité d’une infection par un microorganisme pathogène, elle-même dépendante de la probabilité d’exposition à cet organisme (Drechsel et al., 2011). La capacité d’un microorganisme à survivre aux traitements d’une station d’épuration et dans l’environnement détermine le risque de contact avec l’utilisateur. Ensuite, la dose à laquelle cet utilisateur est exposé est à prendre en compte. Enfin, la probabilité d’un effet pathogène à partir d’une dose donnée peut être calculée.

a. Effets des traitements sur les microorganismes pathogènes

Il est difficile d’évaluer les effets précis des traitements sur les microorganismes pathogènes, du fait des caractéristiques spécifiques de chaque configuration et des difficultés d’échantillonnage et d’analyse (ANSES, 2012). Néanmoins, des ordres de grandeur d’abattements, exprimés en log10 peuvent être donnés. Dans une station

d’épuration, plusieurs types de traitements peuvent être appliqués (PNUE, 2008) :

 prétraitements : extraction des déchets solides, des graisses et des sables,

 traitements primaires : traitements physiques (décantation) associés ou non à des traitements chimiques (coagulation)

 traitements secondaires : un traitement de type biologique est couplé à une séparation physique. Les filières les plus courantes sont : boues activées +

clarification ; bioréacteur à membrane (microfiltration) ; lagunes aérées + bassin de sédimentation

 traitements tertiaires : affinage du traitement par une élimination poussée de l’azote et du phosphore, filtration tertiaire (matériaux granulaires ou membranes), désinfection de l’effluent

Les abattements attendus en fonction du type de traitement sont présentés dans le Tableau 7. Le traitement primaire permet seulement de faibles abattements, certains microorganismes étant adsorbés sur les matières décantées. Le traitement secondaire permet des abattements plus importants, surtout pour les helminthes. Les traitements tertiaires comprennent les traitements physiques de filtration qui permettent une bonne rétention des microorganismes de grande taille (selon le seuil de coupure), et les traitements de désinfection.

Le chlore est le désinfectant le plus utilisé en production d'eau potable, mais son utilisation pour la REUT pose la question des sous-produits toxiques liés à la présence de matière organique et il peut y avoir également un impact sur les plantes (Asano et al., 2007). L’ozone possède un pouvoir désinfectant supérieur à celui du chlore : son action désinfectante couvre également les virus. Cependant cette technique entraîne également la formation de sous-produits toxiques, les bromates (Moles, 2007). Le traitement par les ultraviolets (UV) est sans risque de génération de sous-produits de désinfection puisqu’il n’y a aucun ajout de produit chimique. Cependant, ce type de désinfection n'a pas d'effet rémanent (Tableau 7).

Tableau 7 : Ordres de grandeur des abattements (en unités log10) observés en station

d'épuration selon le type de traitement et le type de microorganisme, et comparaison relative des principaux types de désinfection (d'après ANSES, 2012; Moles, 2007)

Type de traitement Bactéries Helminthes Protozoaires Virus Primaire 0 – 1 0 – 3 0 – 1 0 – 1 Secondaire 1 – 3 1 – 3 0 – 1 0 – 2 Tertiaire – filtration sur

matériau granulaire ou microfiltration

0 – 2,5 1 – 3 1 – 3 0,5 – 3

Tertiaire – ultrafiltration,

osmose inverse ou similaire 3,5 – 6 ≥ 3 ≥ 6 2,5 – 6 Tertiaire – désinfection Chlore Ozone Traitement UV 2 – 6 +++ +++ +++ 0 – 3 – + + 0 – >3 – – ++ 1 – 6 + +++ +++

b. Effet du stockage et de l’environnement sur les

microorganismes pathogènes

Dans les eaux de surface, les microorganismes sont dilués et soumis à une prédation de la part des organismes aquatiques. Cependant, dans le cas de la REUT, les eaux sont la plupart du temps stockées avant usage. Plusieurs facteurs environnementaux influencent alors leur survie (Madigan et al., 2012) : la température, les rayonnements, l’acidité et l’alcalinité de l’effluent, et la teneur en oxygène.

Les bactéries pathogènes étant pour la plupart entériques, elles sont souvent mésophiles, c’est-à-dire que la plage de température optimale pour leur croissance est comprise entre 10 et 45°C, avec un optimum autour de 37°C (Madigan et al., 2012). Les protozoaires, helminthes et virus sont généralement plus résistants. Les rayonnements UV du soleil ont également un effet non négligeable sur ces organismes.

Ainsi, la croissance des pathogènes d’origine entérique est favorisée dans un milieu proche de leur milieu d’origine : ils sont plutôt neutrophiles (5,5 < pH < 8), et halotolérants à halophiles (teneur en sel entre 0 et 10 %). Selon leur métabolisme, ils supportent plus ou moins de faibles teneurs en oxygène. Par exemple, les entérocoques sont aérobies stricts. Escherichia coli est aérobie facultative et peut donc supporter une teneur en oxygène plus faible si les autres conditions à sa croissance sont réunies. Justement, les nutriments disponibles, liés à la teneur en matière organique biodégradable, sont également un facteur limitant à la survie des microorganismes (Jiménez-Cisneros & Asano, 2008; Madigan et al., 2012). Considérant tous ces facteurs, le Tableau 8 illustre la viabilité de certains pathogènes dans les eaux douces.

Tableau 8 : Survie de quelques pathogènes entériques dans des eaux douces superficielles (Asano et al., 2007; Feachem et al., 1983; Korhonen & Martikalnon, 1991; Kutz & Gerba, 1988; McFeters & Terzieva, 1991)

Microorganisme Temps nécessaire pour une réduction de 90 % de la viabilité Coliformes 0,8 à 4,8 jours entre 10 et 20°C (moyenne 2,5 jours)

E. coli 3,7 jours à 15°C

Yersinia 7 jours entre 5 et 8,5°C

Giardia 14 à 143 jours entre 2 et 5°C

3,4 à 7,7 jours entre 12 et 20°C Virus entériques 1,7 à 5,8 jours entre 4 et 30°C

c. Estimation quantitative du risque microbien (EQRM)

L’EQRM est une méthodologie développée par des chercheurs américains en 1999 (Haas et al., 1999) et renforcée par des chercheurs anglais en 2007 (Mara & Kramer, 2008). Elle consiste à estimer le risque d’infection pour un pathogène et un type d’exposition définis, à partir de l’évaluation de la dose reçue à chaque exposition et de la fréquence annuelle de contact (Figure 13). La dose reçue à chaque exposition dépend de la concentration du pathogène dans les EUT, du volume en contact avec l’utilisateur et la fréquence. Par exemple, on considère que l’ingestion de 100 g de laitue arrosée avec des EUT correspond à un volume ingéré de 10 mL. De la même façon, un travailleur exposé de façon accidentelle à des EUT en ingérerait environ 100 mL (Salgot & Huertas, 2006; WHO, 2006).

Pour déterminer le risque d’infection, deux principaux modèles existent : exponentiel ou Bêta-Poisson (Figure 13). Le choix du modèle dépend du pathogène pris en compte. Le modèle exponentiel prend comme hypothèse que la probabilité d’infection est directement proportionnelle à la dose de pathogènes : le pathogène est souvent libre dans les EUT et l’ingestion d’une seule unité peut provoquer l’infection. Il est utilisé par exemple pour Cryptosporidium. Le modèle Bêta-Poisson prend comme hypothèse que les pathogènes sont plutôt agrégés dans l’eau : pour des concentrations faibles, le risque est faible, mais il augmente rapidement pour des concentrations plus élevées. La probabilité d’infection varie selon une distribution de Poisson. Ce modèle est souvent utilisé pour les bactéries et les virus (Drechsel et al., 2011; Salgot & Huertas, 2006).

Cette approche est intéressante, mais elle comporte de nombreuses incertitudes : la concentration du pathogène dans les EUT étant mesurée de façon ponctuelle, il est difficile d’évaluer sa variabilité. De même, la quantification des volumes d’EUT reçus et de leur fréquence est assez imprécise. C’est pourquoi, il est préférable d’utiliser une série de valeurs pour chaque paramètre (par exemple 10 à 15 mL d’EUT sont présents dans 100 g de laitue après l’irrigation, également valable pour la concentration en pathogène). Un programme informatique sélectionne ensuite une valeur au hasard dans la série de valeurs, et détermine le risque annuel qui en découle (Figure 13). Le programme répète ensuite ces calculs un grand nombre de fois (habituellement 10 000), ce qui permet de renforcer la robustesse de l’estimation du risque. Ce processus est appelé simulation de Monte Carlo (Drechsel et al., 2011; Mara & Kramer, 2008).

Figure 13 : Méthodologie générale de l'EQRM (n : fréquence d’exposition ; d : dose reçue à chaque exposition ; N50 : dose infectieuse médiane ; α et r : constantes « d’infectiosité » du pathogène) (d'après Drechsel et al., 2011; Haas et al., 1999; Salgot & Huertas, 2006)