• Aucun résultat trouvé

CONTEXTE DE L’ ETUDE 1 INTRODUCTION

EOLE &

5 LIMITATIONS DE LA TECHNIQUE DE MESURE

5.4 Coïncidences vraies

En plus du phénomène de temps mort électronique, les mesures de taux de comptage sont confrontées à une limitation technologique de la chaîne de mesure appelée « phénomène de coïncidences vraies14 ». Celui-ci intervient lorsque deux raies γ émises en cascade sont détectées simultanément15. On obtient alors une impulsion correspondant à la somme des énergies déposées dans le détecteur par les deux raies. Ces impulsions « sommes » se répartissent sur tout le spectre jusqu’ à l’ énergie maximale E1 +E2, obtenue quand les deux photons, respectivement d’ énergie E1 et E2, sont totalement absorbés. Un troisième pic d’ absorption totale apparaît alors sur le spectre et il y a perte de comptage par « effet somme ». Le phénomène de coïncidences vraies provient à la fois de la détection simultanée γ-γ et γ-X. Il dépend essentiellement de deux paramètres :

- le rendement total de détection : il s’ agit de la probabilité d’ interaction avec le détecteur, partielle ou totale, d’ un photon émis par la source. Elle dépend de l’ angle solide de détection et de l’ énergie du photon. Le phénomène de coïncidences y est directement proportionnel. - le schéma de désintégration : l’ effet est d’ autant plus marqué que la probabilité d’ émission de

la raie considérée est faible, relativement aux autres raies.

Dans le domaine de la spectrométrie γ des basses activités, par exemple pour la mesure d’ échantillons de l’ environnement, il peut s’ avérer nécessaire de disposer la source à proximité du détecteur pour éviter des durées de mesure rédhibitoires. Le phénomène de coïncidences vraies peut alors entraîner des pertes de comptage atteignant plusieurs dizaines de pourcents. Des logiciels basés sur des méthodes analytiques (exemple : ETNA [28]) ou probabilistes (exemple : GESPECOR [29]) ont été développés pour permettre d’ estimer des facteurs correctifs. La précision de ces logiciels est directement conditionnée par la qualité de l’ étalonnage en rendement, par la connaissance de la géométrie du détecteur et par la connaissance des schémas de désintégration du radionucléide.

Dans la plupart des domaines où l’ activité de l’ échantillon est suffisante, l’ éloignement de la source à une distance supérieure à 200 mm permet de limiter ces corrections à quelques dixièmes de pourcents. Quelques exemples seront présentés dans le chapitre 2 de la partie II.

5.5 Etalonnage en rendement

Pour tenir compte de la probabilité d’ interaction d’ un photon avec le détecteur, il reste à corriger le résultat brut de mesure du rendement d’ absorption totale qui traduit la relation entre le taux de comptage et l’ activité réelle de la source. Dans la plupart des cas, il n’ est pas possible de disposer d’ étalons ayant la même géométrie que l’ échantillon analysé. Une calibration à partir de sources ponctuelles est alors réalisée puis un facteur correctif, appelé « transfert de rendement » et noté T(E), est calculé. Il permet de tenir compte du changement de géométrie qui peut intervenir entre l’ étalonnage et la mesure d’ intérêt, du phénomène d’ autoabsorption γ à l’ intérieur de l’ échantillon ou de l’ atténuation due à la présence d’ écrans.

14 L’ appellation « coïncidences vraies » est à opposer aux coïncidences « fortuites » qui peuvent intervenir quand deux photons issus de deux

schémas de désintégration distincts sont détectés dans un lapse de temps suffisamment faible pour empêcher leur discrimination par le circuit de rejet d’ empilements (c’ est-à-dire pour de forts taux de comptage).

15

Deux raies émises en cascade peuvent être détectées simultanément à condition que la durée de vie du niveau excité intermédiaire soit inférieure au temps de collection des charges dans le détecteur (de 0.1 à 1 µs).

Dans des configurations très absorbantes ou bien nécessitant l’ utilisation de collimations pour réduire le flux photonique reçu par le détecteur, la bonne connaissance de certaines caractéristiques physiques de l’ échantillon (géométrie, densité) et du banc de mesure est nécessaire pour estimer le plus précisément possible ce facteur correctif. C’ est le cas, par exemple, des mesures permettant de caractériser des colis de déchets où la détection de certains radionucléides, comme l’ américium 241 (raie à 59.5 keV), est rendue très délicate compte tenu de l’ autoabsorption γ. Les logiciels de traitement des spectres γ ne disposant pas, en standard, de fonctionnalités permettant d’ estimer ces transferts de rendement, des logiciels spécifiques ont été développés basés sur des méthodes analytiques (exemple : ETNA [28]) pour des géométries simples (source ponctuelle, cylindrique ou discoïdale), ou de type Monte-Carlo pour des problèmes plus complexes (exemples : GESPECOR

[29], MCNP [30], GEANT [31]). Si les conditions le permettent, ces corrections sont utilisées pour

corriger les rendements obtenus à partir d’ étalons ponctuels et intégrées dans la courbe de rendement. Dans le cas contraire, elles sont calculées au cas par cas, pour toutes les énergies étudiées.

Ce dernier point fera l’ objet d’ une étude détaillée dans le chapitre 2 de la partie II, où les schémas de calcul de transfert de rendement conçus à partir du code MCNP seront explicités.

6 CONCLUSION

Au travers des différentes applications évoquées au cours de ce chapitre, la spectrométrie γ apparaît comme une technique de mesure puissante et pluridisciplinaire. Sa mise en œuvre pratique est simple, ce qui explique son utilisation universelle pour la caractérisation de matières nucléaires et d’ objets irradiants. Elle nécessite cependant une bonne connaissance des principaux phénomènes limitatifs auxquels l’ utilisateur est susceptible d’ être confronté.

Du point de vue de l’ instrumentation, le phénomène de temps mort électronique constitue la principale source de biais systématique. Sa maîtrise nécessite un travail d’ optimisation préliminaire, tant du point de vue de la configuration du banc de mesure (position de la source, utilisation d’ écrans) que de l’ instrumentation associée (compromis entre capacité de traitement et résolution en énergie).

Ce chapitre met également l’ accent sur l’ utilisation des logiciels de traitement de spectre et sur l’ analyse des données brutes de mesure. Il décrit les limitations de ces logiciels pour le développement de nouvelles applications de la spectrométrie γ, telles que celles qui seront décrites dans les partie IV et V de ce mémoire, et sur les risques d’ une automatisation de l’ analyse des spectres complexes de produits de fission.

Une bonne compréhension des différents phénomènes physiques susceptibles d’influencer le résultat d’ une mesure par spectrométrie γ s’ avère donc indispensable pour répondre aux besoins de minimisation des erreurs systématiques et de réduction des incertitudes qui font l’ objet de ce travail de thèse. Cet état de l’ art constitue la première étape dans la définition des besoins d’ amélioration des mesures réalisées sur les réacteurs EOLE et MINERVE qui vont être développées dans le chapitre suivant.

CHAPITRE 3 :

LES MESURES PAR SPECTROMETIE γ

APPLIQUEES SUR EOLE ET MINERVE