• Aucun résultat trouvé

3.2 Optimisation des systèmes de détection

4.1.3 Le système de traitement des données

Le pilotage de l’ASIC du FPGA ainsi que l’acquisition des données et leur sauvegarde sont réalisés grâce à un logiciel conçu sous Labview sur la base du programme d’acquisition fourni par le pôle Omega. Ce logiciel d’acquisition intègre également un dispositif de correction en temps réel de la dépendance en température de la réponse de la matrice de SiPMs. Le traitement des données et la reconstruction des images et des spectres sont ensuite réalisés hors ligne sous Matlab.

4.1.3.1 Fonctionnalité du logiciel d’acquisition

Les paramètres de contrôle de l’électronique sont transmis à l’ASIC en réglant les données d’un buffer interne appelé slow-control. Celui-ci permet de régler tous les paramètres décrits précédemment (constante de temps d’intégration, gain du préamplificateur, niveau de seuil de déclenchement du CNA 10 bits, ajustement de la surtension par le CNA 8-bits, etc...), mais aussi de désactiver certaines voies ou certains circuits de l’ASIC dans le but d’économiser l’énergie consommée. Ce slow-control est transmis à l’ASIC via le FPGA. Le logiciel Labview permet l’enregistrement et le chargement des différentes configurations à

Figure 4.15 – Le logiciel d’acquisition associé à la carte EASIROC : pages de réglage du slow control (haut gauche), des VinCN A (haut droite) et du FPGA (bas gauche) et page de gestion de l’acquisition (bas droite).

partir de fichiers spécifiques (fig. 4.15). Les paramètres de réglage du FPGA sont également gérés depuis le logiciel d’acquisition qui permet de choisir le mode d’acquisition (validation interne ou externe par le Val-event), la durée du retard pour le codage du maximum des signaux à la sortie des shapers lents ou encore de sélectionner les numéros de voies transmises via l’USB à l’ordinateur. Le logiciel a également été adapté pour récupérer les données transmises par la carte (numéro des voies associé à leur charge en bin et durée de chaque paquet), les mettre en forme et les enregistrer en mode liste, évènement par évènement. Le logiciel affiche également quelques informations concernant l’acquisition, comme le taux de comptage et l’histogramme de la charge mesurée pour chaque voie. Enfin, il a aussi été conçu pour piloter l’alimentation des SiPMs (Keithley 2611A) et enregistrer l’évolution temporelle du courant traversant la matrice et celle de la température fournie par une sonde pt-100 placée au plus proche du capteur et lue par un multimètre Keithley 2100 (fig. 4.15).

4.1.3.2 Dispositif de correction de la dépendance en température

Afin de corriger l’effet de la température, un algorithme a été mis au point pour ajuster automatiquement la tension continue VinCN A délivrée par le CNA 8-bits sur l’anode de chaque SiPM de la matrice. Les données de calibration présentées au paragraphe 4.1.2.3.2 sont interpolées afin de déterminer pour chaque voie de la matrice la variation de la tension de seuil d’avalanche VBD en fonction de la température. La surtension d’utilisation de la

0 20 40 60 80 100 120 140 160 180 0,0 2,0·105 4,0·105 6,0·105 8,0·105 1,0·106 1,2·106 15 20 25 30 35 40 Temps (min) Ga in T e m p é ra tu re C ) Température Gain corrigé Gain non corrigé

Figure 4.16 – Évolution du gain moyen sur la matrice au cours du cycle de température avec ou sans correction de la dépendance en température. Les barres d’erreur représentent l’écart type inter-SiPMs.

matrice ∆V est tout d’abord définie. Le logiciel calcule ensuite à partir de la tension VHT

délivrée par l’alimentation et des valeurs de VBD à la température d’utilisation, la tension continue à appliquer sur chaque SiPM via le CNA 8-bits, telle que VinCN A= VHT−Vbias(T ) = VHT− ∆V + VBD(T ). Lors de l’acquisition, le programme enregistre la température toutes les secondes et réalise une moyenne glissante sur 10 secondes pour lisser les fluctuations. Lorsque cette valeur sort de la fenêtre de ±0,25 % de la température mesurée lors de la dernière mise à jour du VinCN A, on détermine le nouveau VinCN A et on modifie le slow-control avant de l’envoyer à l’ASIC via le FPGA.

Pour valider le fonctionnement de cet algorithme, nous avons réalisé une mesure au cours de laquelle la température de l’enceinte thermostatée décrivait un cycle de température variant entre 20 et 35 °C. La matrice est éclairée par la LED de la même manière que pour les mesures d’uniformité (cf. §4.1.2.3.1) et plusieurs acquisitions successives de 5 min sont réalisées avec l’algorithme de correction du VinCN A actif ou inactif. Le gain et l’énergie moyenne de la réponse en lumière sont calculés pour chaque acquisition. La figure 4.16 montre l’évolution du gain moyen sur les SiPMs de la matrice au cours du cycle de température. On observe que l’algorithme permet une correction efficace de la variation du gain. On obtient ainsi une variation maximale d’environ 1 % sur le gain avec correction de la température contre une chute d’environ 60 % sans correction. Des variations identiques sont observées pour l’énergie moyenne, ce qui démontre, comme prévu, que cet ajustement de la surtension en fonction de la température corrige également la variation de l’efficacité de détection et du bruit corrélé. L’influence de cette correction sur la réponse spatiale de l’imageur sera étudiée au paragraphe 4.1.4.1.3.

4.1.3.3 Reconstruction des informations spatiales et spectrales

A partir des valeurs de charge mesurées pour chaque évènement sur chacune des 16 voies de la matrice de SiPMs, un traitement est réalisé sous Matlab afin de reconstruire la position d’interaction des positons ou des photons γ détectés, ainsi que leur distribution spectrale. Le programme soustrait tout d’abord au signal mesuré sur chacune des voies la valeur moyenne du piédestal de bruit électronique. Le spectre du signal est obtenu en sommant la contribution de la charge collectée sur les 16 SiPMs pour chaque évènement. Un filtrage du bruit sur l’image peut être appliqué en sélectionnant les évènements selon leur énergie. Pour éliminer la contribution du bruit d’obscurité, on applique généralement un seuil numérique de l’ordre de 15 photoélectrons. On utilise ensuite un algorithme qui détermine la position d’interaction à partir de la distribution de la charge détectée, qui est proportionnelle à la distribution de la lumière de scintillation.

Plusieurs algorithmes de positionnement sont exploitables. Le plus simple, proposé par Anger en 1958, consiste à calculer le centre de gravité, ou barycentre, de la distribution de la charge détectée [Anger, 1958]. La position d’interaction (X,Y) de l’évènement est donnée par la relation : (X, Y ) = P i P j(i, j)Pij P i P j Pij (4.3) où Pij est la charge collectée par le SiPM à la position (i, j). La méthode de barycentrage standard requiert peu de calculs et permet donc de traiter en temps réel un nombre élevé d’événements. Sa principale limite pour le calcul de l’interaction dans un cristal continu réside dans le fait que tous les SiPMs ont toujours le même poids dans le calcul de la position d’interaction, indépendamment de la position de l’évènement. Le poids est en fait linéaire, car uniquement lié à la position du SiPM. Or, lorsque un évènement interagit à proximité des bords latéraux d’un scintillateur continu, les queues de la distribution de la lumière sont tronquées et/ou déformées ce qui entraîne une distorsion de l’image, d’autant plus forte que l’on est proche des bords. Une première amélioration pour diminuer l’influence des queues de la distribution consiste à appliquer un seuil sur le contenu des SIPMs avant de calculer le barycentre de la charge. D’autres méthodes ont été décrites dans la littérature pour accentuer le poids des pixels correspondant au centre de la distribution de lumière. Ainsi, Pani et al. ont proposé d’appliquer un poids non-linéaire wij aux pixels lors du calcul du barycentre égal à une fonction du contenu même du pixel [Pani et al., 2011]. On parle d’auto-pondération du signal : (X, Y ) = P i P j (i, j)Pijwij P i P j Pijwij avec wij = P ǫ−1 ij (4.4)

Dans le cas où ǫ=2, cette méthode, relativement simple à mettre en œuvre, revient donc à calculer le barycentre du carré de la distribution de la lumière [Pani et al., 2009]. Elle a été appliquée avec succès pour améliorer la linéarité de la réponse spatiale de γ-caméras élaborées autour de MA-PMT et de scintillateur continu [Pani et al., 2009; Netter et al., 2009]. Pani et al. ont montré que la puissance ǫ devait être ajustée à l’étalement de la distribution de la lumière de scintillation [Pani et al., 2011].

En plus des méthodes de barycentrage, une seconde famille d’algorithmes a fait l’objet de recherches. Elle consiste à ajuster une fonction de référence décrivant la distribution de la lumière de scintillation sur la distribution de la charge mesurée. L’ajustement est réalisé à l’aide d’un algorithme itératif basé sur une méthode des moindres carrés non-linéaire. De nombreuses fonctions de référence ont été définies à partir d’hypothèses empiriques (Gaussienne, Cauchy, Scrimger-Baker) [Fabbri et al., 2011; Ling et al., 2008] ou calculées de manière théorique [Li, Wedrowski, Bruyndonckx and Vandersteen, 2010]. Pour notre étude, nous avons choisi d’évaluer les performances de la méthode de positionnement par ajustement basée sur des fonctions de référence Gaussienne (4.5) et de Scrimger-Baker (4.6), généralement utilisées dans la littérature pour décrire la distribution théorique de la lumière de scintillation frappant un photodétecteur [Scrimger and Baker, 1967]. La distribution gaussienne suit alors l’équation :

f(x, y) = I0exp

(x−x0)2

2σ2x

(y−y0)2

2σ2y (4.5)

où I0 est l’amplitude de la distribution lumineuse, x0 et y0 les coordonnées de son centre et σx et σy, les écarts type de la distribution suivant les axes x et y respectivement. La distribution de Scrimger-Baker est définie quant à elle par l’équation :

f(x, y) = I0

(x − x0)2+ (y − y0)2+ h2 (4.6)

où h est la distance entre le point d’émission de la lumière de scintillation et le photo-détecteur et x0 et y0, les coordonnées du centre de la distribution.

Enfin, d’autres algorithmes de positionnement plus sophistiqués s’appuient sur des méthodes statistiques de maximum de vraisemblance [Barrett et al., 2009] ou de réseaux de neurones [Marone et al., 2009]. Ces méthodes présentent l’avantage d’inclure les propriétés statistiques du signal dans l’estimation de la position d’interaction, mais requièrent une calibration préliminaire du détecteur afin d’obtenir un jeu de données expérimentales de référence. Cette étape est lourde à mettre en place et doit être réalisée pour chaque nouveau détecteur. D’autre part, la méthode de maximum de vraisemblance est extrêmement consom-matrice en temps de calcul et donc peu adaptée à une reconstruction de l’image en temps réel avec un système d’acquisition standard. Pour ces raisons, ces méthodes n’ont pas été évaluées dans notre étude.

4.1.4 Optimisation des performances intrinsèques de l’imageur