• Aucun résultat trouvé

De cette étude, il ressort que le nombre de pistes désactivées est un facteur important pour déterminer si un détecteur est d’une qualité suffisante pour reconstruire correctement les traces des événements qu’il mesurera. Bien que chaque piste désactivée soit dommageable, c’est surtout l’agencement des défauts qui déterminera les performances de reconstruction des détecteurs. Dans le but de ne mesurer que des événements réparables dans l'état actuel des performances, il est probable que l’on ne veuille travailler que sur des événements affectés par des défauts d’une piste désactivée consécutives. Il est aussi envisageable de travailler avec quelques défauts de deux pistes désactivées consécutives à l’échelle du plan de détection. Cependant, il serait délétère de conserver un détecteur avec un défaut initial de trois pistes défectueuses consécutives ou plus. En effet, à partir de cette taille de défaut il est hautement probable qu’il ne soit pas possible de réparer un événement affecté de manière satisfaisante.

En outre, il serait intéressant de positionner ces défauts de manière à ce qu’ils mesurent les parties les moins actives du volume de gaz. Ceci dans le but de minimiser le nombre d’événements affectés.

Par ailleurs, ces travaux ont montré qu’il est possible d’utiliser un plan de détection affecté d’un nombre de pistes désactivées inférieur à 5 pistes par détecteur sans rencontrer de problématiques importantes vis à vis des capacités de réparation et du nombre d’événements affectés. Une meilleure estimation de l’énergie perdue sera nécessaire mais il est probable qu’il soit possible de l’obtenir dans le cadre de défauts d’une ou deux pistes défectueuses consécutives.

A partir de ces travaux préliminaires, des axes supplémentaires pour la gestion des pistes désactivées des détecteurs Micromegas de PandaX-III sont proposés. Il apparaît nécessaire de continuer l’effort de tentatives d’interpolations des événements autour des défauts mais il peut être intéressant de changer de type de données pour le faire. Une interpolation efficace des signaux à partir de leurs signaux temporels stockés en début de chaîne d’analyse doit être obtenue. Ces signaux possèdent une quantification très fine de l’énergie lue au cours du temps qui pourrait se révéler efficace pour régénérer le signal perdu des pistes désactivées dès la source.

Impact des défauts des détecteurs Micromegas

126 | Dans la même approche de diversification, il serait intéressant d’approcher le problème de l’interpolation des données manquantes à travers l’usage de méthodes d'apprentissage supervisées ou de réseau de neurones. En effet, la possibilité existe de pixeliser l’information contenue dans les projections XZ et YZ de manière à considérer un événement comme une matrice de pixels. Une piste désactivée se réduit alors à une ligne de pixels vides dont il faudrait interpoler la valeur à partir des pixels adjacents. Ces méthodes alternatives se sont révélées très efficaces dans l’usage du traitement de signal vidéo ou d’image et pourraient être utiles à la résolution du problème de réparation des traces abîmées.

Enfin, dans le cadre du développement de nombreuses méthodes de réparation, un effort continu de catégorisation des cas possibles doit être réalisé. Il doit résulter dans l’établissement de populations tests normalisées pour qualifier ces méthodes.

Conclusion

127 |

Conclusion

Les neutrinos resteront probablement des particules méconnues au cours des prochaines années. Les sensibilités attendues des expériences de cette génération, dont PandaX-III, permettront d’explorer l’espace de masse de Majorana des neutrinos de la hiérarchie inverse des masses. L’étude des désintégrations double bêta sans émission de neutrino permettent d’atteindre la sensibilité de XXX sur la masse de Majorana dans le cas où l’on assemble une masse minimale d’une tonne d’isotope radioactif. Cette masse pose un ensemble de problèmes de mise à l’échelle des dispositifs instrumentaux pour équiper une telle quantité de matière en détecteurs. La collaboration PandaX-III a choisi d’aborder le problème en prévoyant de construire 5 modules identiques équipés de détecteurs Micromegas Microbulk. Cependant, entre le début de cette thèse et l’écriture de ce document, le premier module servant de prototype a été réduit à une masse de 140 kg et 52 détecteurs pour accommoder la quantité de Xénon 136 enrichi actuellement disponible.

Cette thèse s’insère dans le travail de conception et de validation des différents éléments du module prototype. Trois séries de détecteurs prototypes ont été fabriquées pour conduire la validation de l’écosystème permettant leur bonne opération. L’unique détecteur de la seconde série a pu être testé extensivement dans un mélange d’argon-isobutane à 5% à pression ambiante. Il a montré un gain maximal situé à 2500 et une résolution en énergie à 35% à 5,9 keV. Ces résultats sont à l’heure actuelle considérés comme insuffisants vis à vis de l’objectif de PandaX-III. La répartition du gain sur les différents pixels du détecteur présente des inhomogénéités. Des disparités allant du simple au double du gain des pixels ont été observées. Elles sont fortement corrélées au diamètre du fond des trous d’amplification du détecteur. Ce défaut semble n’être dû qu’à une erreur de fabrication n’affectant pas les autres séries. Cependant, l’ensemble des détecteurs produits à ce jour possèdent un nombre de pistes défectueuses allant de 5 à 30 pistes. Ces pistes doivent être désactivées pour réaliser des mesures avec ces détecteurs. Les premières conséquences de ce défaut sur la reconstruction des événements lus dans la chambre à projection temporelle ont été explorées dans les travaux de cette thèse.

Grâce à des simulations Monte Carlo utilisant une modélisation Geant4 du module prototype, il est possible de générer des événements Double bêta et gamma possédant les mêmes caractéristiques que

Conclusion

128 | ceux attendus dans l’expérience. L’environnement REST a permis de simuler la chaîne de reconstruction des événements dans ce nouveau module. Ensuite, le profil en énergie des traces a été étudié dans le but de créer une observable pertinente pour séparer les événements double bêta des événements gamma formant le bruit de l’expérience. Cette séparation est réalisée en utilisant le discriminant de Fisher qui permet de calculer préalablement à l’analyse une matrice de décision et un seuil de décision sur la base d’une population d’entraînement de double bêta et une seconde composée de gamma. La comparaison du score de chaque événement, calculé à partir de la matrice de décision, au seuil de décision permet de classer un événement comme étant un gamma ou un double bêta. Après optimisation de la méthode, un taux de sélection de 75% des événements double bêta a été obtenu ainsi qu’un taux de réjection de 80% du bruit de fond. On obtient ainsi une amélioration d’un facteur 4 du ratio signal sur bruit. De plus, le discriminant de Fisher s’est montré robuste à des variations d’échantillons d’entraînement avec une variation de l’ordre du pourcent sur ses performances en réjection et sélection. Ces résultats sont comparables avec les autres observables utilisées par la collaboration pour la discrimination du bruit de fond. Cependant, par manque de temps, il n’a pas été possible de produire des résultats concernant l’efficacité de la méthode du discriminant de Fisher après les sélections de ces observables. Cette méthode semble être une piste intéressante à intégrer dans l'étude des signaux réels lors du démarrage de l’expérience. Elle possède aussi des similarités de conception avec des méthodes d’apprentissage supervisé et les réseaux de neurones. L’observable du profil en énergie pourrait être utilisée en conjonction de ces nouvelles méthodes pour étendre les travaux entrepris avec le discriminant de Fisher.

Enfin, l’impact des défauts des détecteurs a été étudié sur le processus de reconstruction et la méthode de sélection basée sur le discriminant de Fisher. Deux cas différents ont été distingués : le nombre de défauts par détecteur et le nombre de pistes consécutives désactivées constituant le défaut. En considérant 5 pistes désactivées par détecteur, plus de 80% des événements sont mesurés avec une énergie inférieure à l’énergie déposée dans la TPC. De plus, un total de 40 % des événements double bêta sans émission de neutrino sont mesurés avec une énergie en dehors de la région d’intérêt. Il a été observé qu’à partir d’un défaut de 3 pistes consécutives désactivées, une trace coupée par le défaut est morcelée en plusieurs traces plus petites par le processus de reconstruction des traces de PandaX-III. Ces résultats compromettent considérablement les ambitions de l’expérience. Il est devenu impératif d’évaluer les dégâts infligés à chaque événement et d’essayer d’évaluer l’énergie perdue dans ces défauts. La chaîne de reconstruction a été améliorée de manière à évaluer à travers des observables, l’énergie déposée aux bords des défauts ainsi que la proximité des blobs des traces par rapport aux défauts. Aucune corrélation n’a été trouvée entre l’énergie déposée sur les bords des défauts et l’énergie perdue dans les défauts. La proximité des blobs permet de montrer les événements où l’on ne sait pas déterminer la valeur de l’énergie perdue. Dans un second temps, un mécanisme d’interpolation a été ajouté pour estimer et replacer les dépôts d’énergie manquants sur les pistes désactivées. Cette méthode d’interpolation permet de rejoindre les traces qui ont été morcelées dans 71% des cas mais l’interpolation en énergie n’est pour l’heure pas suffisante pour permettre d’envisager de l’utiliser sur les futures données de l’expérience. Des tests supplémentaires ont été réalisés pour établir l’impact des défauts sur la sélection d'événements basée sur la méthode de Fisher. On observe une diminution de sa capacité à sélectionner les événements double bêta sans affecter les performances en réjection du bruit de fond qui restent constantes à 80%.

Conclusion

129 | Il est à présent attendu que les détecteurs de l’expérience présenteront un certain nombre de défauts. Cette thèse montre que pourvu que les défauts restent fins, une piste désactivée, ces défauts ne portent pas atteinte aux capacités de reconstruction des traces. Au-delà de deux pistes défectueuses consécutives les performances de la reconstruction des traces diminuent. On observe qu’à partir de trois pistes consécutives défectueuses il est possible de perdre la totalité de l’énergie d’un blob. Malheureusement, un algorithme performant d’estimation de l’énergie manquante est nécessaire pour reconnaître correctement les événements double bêta sans émission de neutrino. Il sera important d’établir une chaîne de contrôle qualité des détecteurs pour ne sélectionner que ceux respectant les critères choisis par la collaboration. Ce travail propose de n’accepter que des détecteurs avec des défauts inférieurs à 3 pistes désactivées consécutives et un nombre de défauts inférieur à 3 dans l'état actuel des capacités de réparation disponibles. Ceci dans le but de réduire la proportion d’événements atteints tout en restant réaliste sur la qualité de production qu’il sera possible d’atteindre. Il sera de plus intéressant de réaliser une étude systématique du diamètre des trous d’amplification de chaque détecteur pour obtenir un aperçu de son homogénéité en gain. Enfin, il sera nécessaire d’étudier l’utilisation des mesures de calibrations prises pendant les prises de données sur la reconstruction des événements et évaluer les gains qui peuvent en être retirés.

Conclusion

130 |

« There are no wrong turns, only unexpected paths. »