• Aucun résultat trouvé

Réflexions sur l’optimisation de l’échantillonnage

Dans le document Doctorat ParisTech T H È S E (Page 142-149)

Chapitre 7 : Inventaire des structures spatiales

III. Synthèse des structures spatiales

III.4. Réflexions sur l’optimisation de l’échantillonnage

A partir des différentes observations et remarques réalisées lors de l’analyse et de la synthèse des structures spatiales des contaminations radiologiques dans les installations nucléaires, il est ainsi possible d’établir certaines recommandations vis-à-vis de la stratégie d’échantillonnage à employer dans le cadre de cartographies surfaciques du signal émergent. Ces résultats sont bien évidemment issus des jeux de données disponibles et devront être validés et améliorés par l’analyse exploratoire et variographique d’autres jeux de données.

Analyse historique et fonctionnelle

La première phase de l’échantillonnage consiste à connaître, le plus précisément possible, le contexte historique relatif à la zone à caractériser : type de procédé, isotopie, voie de transfert, support de la contamination, etc. Ces informations, qui font défaut pour certains jeux de données, sont indispensables à la mise en place d’un plan d’échantillonnage cohérent et adapté. Une atten-tion particulière doit être portée à des zones d’intérêt identifiées par l’historique, à la cohérence des dispositifs de mesure avec la contamination à caractériser, etc.

Reconnaissance séquentielle du signal émergent

Ensuite, la synthèse effectuée sur les structures spatiales des contaminations radiologiques a mis en évidence certaines caractéristiques générales des variogrammes expérimentaux, à savoir, la présence d’une structure principale relativement bien définie avec une portée comprise entre 2 et 5 m. Ici interviennent les remarques établies en rapport avec la voie de transfert de la contamina-tion (liquide ou solide) puisque cette caractéristique semble influer sur la portée du phénomène.

Cet ordre de grandeur de la portée du phénomène vue à travers le variogramme expérimental est très important car la démarche méthodologique va reposer sur la formulation d’une hypothèse a priori sur la structure spatiale de la contamination à caractériser pour dimensionner la maille d’échantillonnage. En effet, afin de réaliser une cartographie surfacique d’une nouvelle installa-tion nucléaire, il est raisonnable de supposer (c’est en tout cas l’hypothèse qui est faite) que la contamination de cette nouvelle installation va avoir sensiblement le même comportement spatial (variogramme) que des contaminations radiologiques semblables déjà étudiées. Par exemple, une structure principale avec une portée de l’ordre de 5 m est attendue pour une contamination li-quide. Ainsi, une mesure surfacique selon une grille régulière d’échantillonnage avec une maille de 5 m ne conduira pas à un traitement géostatistique des données pertinent : le premier point du variogramme expérimental sera déjà à la variabilité globale du phénomène. Par conséquent, une maille de 1 m (ou moins) permettra d’identifier de manière convenable la structure spatiale du phénomène en disposant de suffisamment de points expérimentaux pour le variogramme aux pe-tites distances. Toutefois, la précision de l’estimation, pour une résolution spatiale donnée, ne dépend pas de la détermination exacte du variogramme mais plutôt de la structure observée.

Puis, pour le traitement géostatistique des données ainsi collectées, il est possible d’inférer la structure spatiale des données à partir du variogramme expérimental observé ainsi que sur la con-naissance que l’on dispose par ailleurs sur les structures spatiales (hypothèse a priori pour dimen-sionner le plan d’échantillonnage). Par exemple, l’information non disponible pour les petites distances (en-dessous de la maille d’échantillonnage) peut alors être établie en faisant l’hypothèse d’une absence d’effet de pépite conformément à ce qui a pu être observé sur les jeux de données existants pour des contaminations similaires. Cet ajustement peut également être validé par la

Chapitre 7 : Inventaire des structures spatiales

réalisation de quelques mesures très rapprochées dans des zones représentatives de l’installation à caractériser, mesures très vivement recommandées.

Le traitement géostatistique des données permet de plus, à partir d’une première phase d’échantillonnage, de mettre facilement en évidence des zones particulières : sous-échantillonnage, zones où la variabilité du phénomène est plus importante, etc. Couplée aux in-formations historiques, cette identification de zones singulières encourage alors à réaliser une nouvelle campagne de mesures ciblée précisément sur ces zones. Ainsi, la stratégie d’échantillonnage peut être développée par une approche séquentielle : un premier passage avec une maille relativement lâche est effectué, les incertitudes des zones ainsi identifiées par le pre-mier traitement des données sont réduites par la réalisation de nouvelles mesures qui viennent préciser les niveaux de contamination dans ces zones, etc. Cette approche « zoom » permet de réaliser un minimum de mesures tout en conservant une bonne confiance dans l’estimation réali-sée (maîtrise des incertitudes de calcul). Le principal inconvénient est qu’elle nécessite plusieurs phases d’échantillonnage, séparées dans le temps, ce qui peut être parfois incompatible avec les contraintes d’un chantier d’évaluation radiologique. Cependant, dans le cas de mesures rapides et directes (contaminamètre) ne nécessitant pas de traitement de spectre par exemple, le traitement de données peut être réalisé quasiment en temps réel, permettant ainsi de compléter et reposition-ner des mesures complémentaires immédiatement.

Enfin, les différents plans d’échantillonnage pour la cartographie du signal émergent, aussi optimisés soient-ils vis-à-vis des structures spatiales des phénomènes à caractériser, doivent abso-lument être complétés par un échantillonnage de jugement qui a pour objectif de mesurer les dif-férentes singularités présentes dans l’installation (fissures, pieds de poteaux, reprise de génie civil, taches suspectes, coulures sur les murs, etc.). Ces investigations ciblées sont indispensables pour venir compléter la caractérisation surfacique du signal émergent (hors singularités) obtenue à partir d’un maillage régulier optimisé.

Investigations en profondeur

La troisième et dernière phase d’investigation vise à caractériser les profils de migration des radionucléides dans les structures de génie civil par l’intermédiaire de prélèvements destructifs.

Ces échantillons permettent également d’accéder aux activités massiques. Couplées à la cartogra-phie du signal émergent, ces informations massiques complètent les données nécessaires à l’évaluation de la contamination par géostatistique. Il est alors avantageux de dimensionner leur nombre et d’optimiser leur répartition à partir des informations historiques et fonctionnelles ainsi que sur la base des cartographies du signal émergent pour faciliter la mise en place du traitement multivariable conduisant à la catégorisation des déchets (Chapitre 5).

Troisième partie :

Axes de recherche spécifiques

Chapitre 8

Tests de sensibilité aux paramètres géostatistiques

Les choix et les paramètres de calcul retenus lors du traitement des données par géostatistique ont une influence sur les résultats de cartographie et d’estimation. Il est ainsi important de tester la sensibilité des résultats vis-à-vis de ces sources potentielles d’incertitudes additionnelles. Tous les tests sont réalisés sur les données de l’atelier D des ATUE, principalement sur les mesures surfaciques .

Ainsi, la prise en compte de barrières de calcul est testée pour modéliser les parois et les murs présents dans l’atelier et qui séparent physiquement les données. L’influence de la modélisation de l’effet de pépite sur les variogrammes est évaluée par ré-estimation et par comparaison aux résultats initiaux. Enfin, une attention particulière est portée à la modélisation de la distribution statistique des données par l’utilisation d’anamorphoses gaussiennes.

I. Influence des parois pour le calcul du variogramme

La modélisation de la structure spatiale à travers l’analyse exploratoire et variographique se doit d’être cohérente avec les différentes informations disponibles sur le phénomène étudié. C’est le cas notamment de la présence de cloisons séparant des points de mesure et qui, jusqu’à présent, n’ont pas été prises en compte. En effet, ces barrières physiques ont potentiellement une influence sur la continuité spatiale du phénomène.

Afin d’apprécier l’influence des parois présentes dans l’atelier sur la caractérisation de la structure spatiale, les variogrammes expérimentaux sont calculés en prenant en compte des bar-rières de calculs modélisant les frontières physiques. Ainsi la Figure 71 reprend le variogramme établi sans tenir compte des cloisons, celui qui en tient compte et le variogramme constitué des couples de points systématiquement séparés par une cloison (la différence des deux autres

vario-grammes, pondérée par le nombre de couples de points, indiqué au-dessus de chaque point du variogramme expérimental). Les variogrammes sont calculés sur la transformée gaussienne des données surfaciques .

Figure 71 : Variogrammes expérimentaux de la transformée gaussienne des mesures surfaciques en tenant compte des cloisons présentes dans l’atelier.

Comme on pouvait s’y attendre, la variabilité des couples de points systématiquement séparés par une cloison est importante. Elle est même systématiquement supérieure à la variabilité expé-rimentale des données (ici égale à 1 puisque les données sont préalablement transformées par anamorphose gaussienne). De plus, aucune structure spatiale ne s’en dégage.

En revanche, les deux autres variogrammes expérimentaux, obtenus en tenant compte ou non de la présence de barrières de calcul, sont relativement semblables, surtout à petite échelle. La variabilité est plus importante lorsque l’on considère tous les couples de points, c’est-à-dire sans utiliser les écrans de calcul.

L’incidence sur les cartographies et les estimations est donc relativement restreinte compte tenu de la densité des données surfaciques. Comme les structures spatiales sont peu différentes, mis à part le palier, il n’y a que très peu d’impact sur les estimations. Il faut tempérer ce propos à proximité des barrières de calcul mises en place puisque le voisinage utilisé pour réaliser l’estimation est alors amputé d’une bonne partie des données (jusqu’à 50 % si l’on est contre la frontière). Les calculs sont alors réalisés à l’intérieur de chacune des zones ainsi délimitées, ce qui conduit à une discontinuité des valeurs estimées de part et d’autre de la frontière. La cartographie présente alors une absence de zones de transition entre une pièce avec un signal émergent fort et une pièce attenante avec un signal beaucoup plus faible, par exemple. Les variances de krigeage sont affectées puisque les voisinages changent, surtout à proximité des barrières de calcul.

Pour les données d’activité massique, l’utilisation de barrières de calcul pose d’autres pro-blèmes plus pénalisants. Il est en effet possible, pour certaines zones isolées par des cloisons, de

Dans le document Doctorat ParisTech T H È S E (Page 142-149)