République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Université Ferhat Abbas–SETIF
MEMOIRE
Présenté à la Faculté des Sciences Département de Physique Pour l’obtention du diplôme de
MAGISTER
Option : Physique du Solide
Présenté Par
Azli Tarek
THEME
Calcul de l’énergie déposée des particules chargées dans la matière
Soutenue Publiquement le / 11 /2010 Devant la commission d’examen :
Président : K. Bouamama Prof (UFAS – Sétif)
Rapporteur : Z. Chaoui
Prof(UFAS – Sétif)
Examinateur : F. Ali Sahraoui
Prof(UFAS – Sétif)
Examinateur : D. Maouche Prof (UFAS – Sétif)
DÉDICACE :
A mes Chers parents
A ma femme
A mes enfants
A mes frères et mes sœurs
Et enfin, à tous ceux qui m’ont aidé à réaléser ce travail
JE DÉDIE CE TRAVAIL
Mille Mercis
Tarek AZLI
REMERCIEMENTS :
Ce travail doit beaucoup :
A son initiateur Monsieur ZINE- EL- ABIDINE CHAOUI, professeur à l’université de Sétif, à qui je rends un vibrant hommage pour ses conseils toujours sûrs et son soutien constant qui m’ont été bénéfiques à plus d’un titre. Comme je tiens à lui exprimer ma profonde gratitude pour m’avoir fait profiter de son expérience et d’avoir accepté de participer au jury de ma thèse en tant que rapporteur.
Je tiens aussi à remercier tous les membres du laboratoire d’optoélectronique, Pour leurs chaleureux accueils au sein de leur structure, leurs encouragements ainsi que leurs soutiens.
Je voudrais remercier ici chacun, chacune, sincèrement.
T. AZLI
TABLE DE MATIERE
INTRODUCTION GENERALE……….2
CHAPITRE I : NOTIONS ET PRINCIPES FONDAMENTAUX I.1 MECANISMES PHYSIQUES DE L’INTERACTION ELECTRON- MATIERE………12
I.1.1 INTRODUCTION………..12
I.1.2 LES DIFFUSIONS ELASTIQUES……….15
I.1.2 .1 ELECTRONS RETRODIFFUSES………15
I.1.3 LES DIFFUSIONS INELASTIQUES ………16
I.1.3.1 LES ELECTRONS SECONDAIRES……….16
A) GENERATION………17
B) TRANSPORT VERS LA SURFACE………..17
C) FRANCHISSEMENT DE LA SURFACE………..18
I.1.3.2 RELAXATION………..18
I.1.3.3 DESEXCITATION NON RADIATIVE……….20
I.1.3.4 DESEXCITATION RADIATIVE………23
I.1. 4 CONCLUSION………25
I.2SIMULATION MONTE CARLO………...27
I.2.1 INTRODUCTION………..27
I.2.2 HISTORIQUE………27
I.2.3 EFFICACITE DE LA M. C………28
I.2.4 SIMULATION DE LA TRAJECTOIRE AVEC ELECTRON………29
I.2. 5 CONCLUSION……….34
REFERENCE BIBLIOGRAPHIQUE……….36
CHAPITRE II : MODELISATION………37
II APPRCHE PHYSIQUE DE LA MODELISATION ………..……….40
II.1 INTRODUCTION………..……….40
II.3.1 APPROCHE THEORIQUE DE LA DIFFUSION ELASTIQUE……….44
II.3.2 LA DISTRIBUTION ANGULAIRE……….50
II.3. 3 CALCUL DE LA SECTION EFFICACE TOTALE………51
II.3.4 LE LIBRE PARCOURS MOYEN ELASTIQUE……….51
II.4 DIFFUSION INELASTIQUE DE L’ELECTRON……….53
II.4.1 APPROCHE THEORIQUE DE LA DIFFUSION INELASTIQUE……….53
II.4.2 LA DISTRIBUTION DE PERTE D’ENERGIE ………60
II.4.3CALCUL DU POUVOIR D’ARRET DE L’ELECTRON………..61
II.4.4 CALCUL DU LIBRE PARCOURS MOYEN INELASTIQUE DE L’ELECTRON………..64
II.5 IONISATION, RELAXATION, EMISSION AUGER……… 68
II.6 PROCEDURE DE LA SIMULATION MC………75
II.7 SIMULATION DES ELECTRONS SECONDAIRES ET ELECTRONS AUGER ……….80
II.8 GENERATION D’UNE TRACE ALEATOIRE ………..82
II.9 LE PROCESSUS D’ECHAPPEMENT DE LA SURFACE ……….84
REFERENCE BIBLIOGRAPHIQUE ……….87
CHAPITRE III. RESULTATS ET DISCUSSION……… 89
III.1 RENDEMENT DES RETRODIFFUSES PRIMAIRES ET SECONDAIRES ………..91
III. LA DISTRIBUTION DE L’ENERGIE DES ELECTRONS RETRODIFFUSES ……….98
III.2.1 DEPENDANCE ANGULAIRE ………..112
III.3 ESTIMATION DE L’ENERGIE DEPOSEE DANS LES DIFFERENTES COUCHES DU DETECTEUR ……….114
INTRODUCTION ……….114
III.3.1 L’ENERGIE PERDUE DANS LA COUCHE MORTE DU DETECTEUR……… 116
L’ENERGIE DEPOSEE DANS LE VOLUME SENSIBLE ………..124
DISCUSSION ……….128
III.8 CONCLUSION………..135
REFERNCE BIBLIOGRAPHIQUE……….137
INTRODUCTION GENERALE
Introduction générale
INTRODUCTION GENERALE
Introduction générale
La simulation par la méthode monte Carlo de l’interaction des électrons avec le solide est largement utilisée depuis plusieurs années dans divers domaines d’applications;
notamment pour les techniques de caractérisation des surfaces et de la spectroscopie électronique.
Plusieurs modèles de simulation Monté Carlo sont alors proposées et utilisés à des fins spécifiques, basées sur différente approches de traitement des diffusions (élastiques et inélastiques) des électrons.
En effet, dans les techniques d’analyses SAM « scanning Auger microscopy » et SEM « scanning électron Microscopy», le problème de la baisse de la résolution latérale est très important (Causé par la distribution radiale des électrons Auger émises par les électrons rétrodiffusés), nécessitant des outils théoriques rigoureux décrivant le phénomène de transport des électrons.
La technique de spectroscopie par émission d’électron Auger (AES) « ou les électrons Auger sont éjectés du solide après ionisation des atomes situés dans la région de surface » nécessite aussi beaucoup de connaissances sur les paramètres décrivant l’influence du courant des rétrodiffusés sur l’intensité du signal de contrôle (monitored).
Cela est exprimé par le facteur de rétrodiffusion. [1]
INTRODUCTION GENERALE
La quantification de ces dernières techniques se trouve ainsi étroitement liée aux modèles théoriques qui décrivent les trajectoires des électrons dans le solide ainsi que les phénomènes physique qui en découle, dont les phénomènes de rétrodiffusion des électrons de surfaces. L’approche de La méthode Monté Carlo est actuellement la plus fiable et précise, d’où son utilisation comme méthode de référence pour évaluer d’autres modèles théoriques. Toute fois La fiabilité des analyses quantitatives appliqués par les techniques d’analyse précédentes, ainsi que le modèle de simulation Monté Carlo appliquée, sont conditionnées par l’exactitude des différents paramètres de caractérisation de l’interaction des électrons dans le solide, à savoir ; La section efficace des diffusions élastiques et inélastiques, La dépendance énergie- libre parcours moyen, et Les sections efficaces d’ionisation, etc. [1]
Dans le domaine de la spectroscopie électronique, la simulation par la méthode Monté Carlo est aussi largement utilisée, notamment lors de la phase de conception des détecteurs à semi conducteur, où plusieurs paramètres nécessitent une optimisation afin d’augmenter les performances requise par l’expérience
Un modèle de simulation Monte Carlo précis est essentiel pour la compréhension des phénomènes physiques liés à la détection.
Dans le présent travail, utilisant les techniques Monte Carlo, nous allons décrire et détailler la détection de particules chargées (électrons) à basses énergies (< 50 keV) dans un détecteur à silicium. On s’intéresse au calcul de l’énergie déposée dans le volume
INTRODUCTION GENERALE
sensitive du détecteur. Expérimentalement, les détecteurs à silicium sont généralement protégés par une couche mince appelée ‘couche morte’ du détecteur. L’ors de la détection des particules chargées incidentes, l’énergie est déposée dans cette couche morte ainsi que dans le volume sensible du détecteur (detecteur proprement dis). Aux basses énergies, la fraction déposée dans la couche morte est plus importante. Son influence sur la réponse du détecteur fera l’objet de ce travail.
Les divers travaux effectués notamment par J.Rodenas end all (Analysis of the influence of germanium dead layer on detector calibration simulation for environmental radioactive samples using the Monte Carlo method, NI et MIPR A 496 (2003)) portant sur l’influence de la couche morte d’un détecteur à semi-conducteur montrèrent que l’incertitude dans la réponse d’un détecteur est reliée étroitement à l’épaisseur de la couche morte (Dead layer) qui dépend aussi des énergies des photons incidents. [2]
Ainsi pour les basses énergies, les photons d’énergie ~15 keV, l’intensité totale augmente d’un facteur de 7 quand l’épaisseur de la couche morte est réduite de 50%.
En augmentant l’épaisseur de la couche morte pour les mêmes photons d’énergies incidents, les résultats avoisinent une réduction de 80% du taux de comptage totale dans le détecteur.
Cela est expliqué, par le faite que, la majorité des photons de basses énergie (~15keV) déposent leur énergie à une courte distance à l’intérieur de la couche morte, ne pouvant pas ainsi atteindre le volume sensible du détecteur. L’expérience à montrée
INTRODUCTION GENERALE
aussi, qu’au fur et au mesure que l’énergie des photons incidentes augmente; le point de déposition de l’énergie ce déplace au long de la ligne de progression des particules. [2]
Dans ce contexte, cette nouvelle approche de simulation Monté Carlo est appliquée pour décrire tout le processus de diffusion de l’électron dans le silicium, dans une fourchette d’énergie de 1eV-40000 eV; Où les ionisations, excitations, la production d’électrons secondaires, relaxation et les émissions Auger sont considérées.
Les détails de cette simulation seront présentés dans ce document, dont les résultats obtenus seront discutés.
L’organisation du travail est la suivante :
Chapitre I : traite un rappel théorique et une brève description de l’interaction rayonnements matière, ainsi que les phénomènes d’excitation et de relaxation, par la suite on abordera un concept théorique portant sur la méthode Monte Carlo, son intérêt et ses applications.
Chapitre II : on va présenter notre modèle de simulation (qui est l’intérêt majeur de ce mémoire) en précisant les différentes bases physiques utilisées ainsi que les étapes de simulation à suivre pour décrire les propriétés qui caractérisent l’interaction électron- matière en appliquant le modèle sur le silicium
Chapitre III : On va présenter les résultats des calculs, on confrontons le modèle numérique à l’expérience. Nous allons par la suite concrétisé cette étude par l’estimation
INTRODUCTION GENERALE
de l’énergie des électrons rétrodiffusés et l’estimation de l’énergie déposée dans les différentes couches qui constituent un détecteur, suivit par une étude sur l’influence de l’épaisseur de la couche morte ainsi que d’autres paramètres, dont l’énergie des électrons incidents ainsi que l’angle d’incidence sur la quantité de l’énergie déposée.
INTRODUCTION GENERALE
Référence Bibliographique
1] : PAVEL DRYAK, PETR KOVAR, Experimental and MC determination of HPGe detector efficiency in the 40–2754 keV energy range for measuring point source geometry with the source-to-detector distance of 25 cm, Applied Radiation and Isotopes 64 (2006) 1346–1349
2]: ALEKSANDER JABLONSKI, Modeling of elastic and inelastic electron backscattering from surfaces, Progress in Surface Science 79 (2005) 3–27
3]: P.P. MALEKA, M. MAUCˇEC, Monte Carlo uncertainty analysis of germanium detector response to g-rays with energies below 1MeV, Nuclear Instruments and Methods in Physics Research A 538 (2005) 631–639
4]: D.LANDAU, K. BINDER, « Monte Carlo Simulation in statistical physics », university press, Cambridge, 28 August 2000
5]: DAVID MOWEME UNUIGBE, Electron Microscopy Analysis of Silicon Nanopowders, University of Cape Town, South Africa, 22 May 2008
6] : ALEKSANDER JABLONSKI, Modeling of elastic and inelastic electron backscattering from surfaces, backscattering from surfaces, Progress in Surface Science 79 (2005) 3–27
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
CHAPITRE I: NOTIONS ET PRINCIPES
FONDAMENTAUX
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.1MECANISMES PHYSIQUES DE L’INTERACTION ELECTRON- MATIERE
I.1.1INTRODUCTION
L’étude de l’interaction des électrons avec la matière solide a débuté vers la fin de l’avant dernier siècle (Lenard en 1895). Les premières théories Bothe (1933) et (1949), Bethe (1933) et (1938) s’intéressaient au domaine des hautes énergies. [1]
Durant l’irradiation du solide par les électrons, divers phénomènes se produisent. Ces derniers (phénomènes) constituent la base des informations concernant la distribution spatiale et la distribution en énergie de ce Faisceau pénétrant. Leur trajectoire dans la matière dépend de leur énergie et des propriétés physiques des matériaux.
Une première tentative pour déduire cette distribution a été élaborée Empiriquement par Makhov (1960) en se basant sur la théorie de Spencer (1955) qui était jusque là la seule théorie complète de l’intensité du faisceau incident et de ces Fluctuations. [1]
Ce genre de modèle empirique est assez limité pour conduire à une approche globale. Dans le même domaine des énergies citées, Archard (1961) proposa un modèle en se basant sur la théorie de perte d’énergie de Bethe (1940) et la théorie des collisions Élastique d’Everhart (1960). Ce n’est qu’à partir de 1964 que Cosslett et Thomas Publièrent des résultats sous une forme généralisée et collective pour le domaine des Énergies moyennes (5 à 50 KeV) avec discussion des différentes théories et modèles de Ceux qui les ont précédés. [1]
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
L’approche théorique a fournit une description physique Détaillée des phénomènes en question.
En 1972, Kanaya et Okayama démontrèrent les Limitations du modèle d’Archard en proposant leur modèle semi - empirique qui avait un Domaine de validité assez large (10 à1000 KeV) et qui pouvait être affiné afin d’apporter Une approche globale du problème de l’interaction électron-matière.
Les électrons qui pénètrent dans le matériau subissent des interactions électromagnétiques qui ont deux effets : une déviation de leur direction et une variation de leur énergie cinétique primaire [Figure I.1].
D’un point de vue global on peut les diviser en deux volets, des Dispersions élastiques et d’autres inélastiques (Figure. II.2).
[Figure I.1] Schéma explicatif des différentes interactions entre l’électron incident et la matière
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
Interaction Electron‐Matière
Interaction Inélastique
Excitation des Plasmons Electrons Secondaires Electrons Auger Rayons X Caractéristiques Rayons X Continus
Interaction Elastique
Electrons Rétrodiffusés
Figure .I.2 : Organigramme des différentes interactions possibles et des signaux émis lors de la pénétration d’un électron primaire dans la matière
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.1.2LES DIFFUSIONS ELASTIQUES
Les diffusions élastiques sont essentiellement des interactions coulombiennes avec Les noyaux des atomes. Au cours de ces collisions, l’énergie cinétique des particules et leur quantité de mouvement sont conservées. Leur masse étant très supérieur à celles des Électrons incidents, les noyaux qui induisent dans leur environnement immédiat un champ électrique très intense, peuvent faire subir à la direction de l’électron une variation allant jusqu’à un angle de 180 degrés [1].
Dans le cas d’interaction proche de la surface, l’électron peut ressortir par la face avant du matériau. On dit qu’il est rétrodiffusé. La proportion et les énergies de tels électrons dépendent de leurs énergies primaires ainsi que des propriétés physiques du matériau considéré. Cependant, la majorité des électrons suivent leurs chemins sans trop s’approcher du noyau en raison de l’écrantage produit par les électrons atomiques [1].
I.1.2.1ELECTRONS RETRODIFFUSES
Ce sont les électrons issus du faisceau primaire et qui sont ressortis du matériau irradié après avoir ou non cédé une part plus ou moins importante de leur énergie. Ces électrons proviennent d'une profondeur moyenne estimée à zm/2 par Niedrig et al [2]. Leur distribution spectrale à la sortie de la cible s'étend de 50 eV à l'énergie des électrons primaires.
On caractérise souvent les électrons rétrodiffusés par ce qu’on appelle le coefficient de rétrodiffusion η défini par le rapport du nombre d’électrons rétrodiffusés émis par unité de temps, Iη, à l’intensité du courant primaire I0.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.1.3LES DIFFUSIONS INELASTIQUES
En revanche, les interactions inélastiques se font entre électrons incidents et électrons atomiques.
Cependant, il faut distinguer les électrons du cœur et ceux des couches externes. Les électrons du cœur sont très liés au noyau et leur excitation met en jeu une énergie inférieure à leur énergie de liaison. Sous l’impact de l’électron incident, ils subissent une transition vers un niveau inoccupé d’énergie plus élevée. Le processus de désexcitation se produit immédiatement après et l’entité excitée restitue rapidement l’énergie qu’elle a acquise dans ce processus soit radiativement, soit par transfert à un électron externe ou à un électron interne de niveau plus élevée. Celui ci retombe au niveau du cœur inoccupé. L’excès d’énergie est libéré sous forme d’un rayonnement électromagnétique (rayon X) ou d’énergie cinétique à un autre électron atomique du cœur [1].
Dans le cas des semi-conducteurs et des isolants, on assiste pour les électrons externes à une transition inter-bande et donc à la création d’une paire (é-h). Alors que dans un métal cette transition s’effectue au sein d’une même bande d’un état vers un autre état plus énergétique [1]. On peut conclure que la dispersion inélastique donne naissance à une grande variété de signaux utiles (Figure I. 2) tel que :
I.1.3.1LES ELECTRONS SECONDAIRES :
Les électrons secondaires sont produits par les interactions inélastiques d'un faisceau d'électrons incidents avec les électrons de valence et de conduction qui provoquent l'éjection de ces électrons.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
Certains de ces électrons expulsés émergent de la surface de l'échantillon après avoir subi d'autres événements de diffusion dans l'échantillon.
La plus forte région du spectre en énergie des électrons émis est due aux électrons secondaires qui parviennent à quelques nanomètres de la surface, avec des énergies inférieures à 50eV, et sont appelés électrons secondaires vrais.
Le phénomène d’émission secondaire se déroule selon trois processus différents :
a) Génération
L'électron incident excite (en perdant une partie de son énergie) un électron de la cible.
Généralement les électrons excités sont ceux des couches externes des atomes de la cible qui sont faiblement liés. La génération d’électrons secondaires se fait le long du parcours des électrons primaires dans le volume d'interaction.
La distribution en profondeur du taux de production, n(z) d’électrons secondaires est proportionnelle à celle des pertes d’énergie, dE/dz. La production des électrons secondaires se déroule d'une manière isotrope dans le volume d'interaction.
b) Transport vers la surface
L'étape qui suit la génération des électrons secondaires est leur transport vers l'interface cible/vide.
L’émission étant isotrope, seule une fraction (en première approximation, la moitié) des électrons générés migrent dans la direction de cette interface.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
En outre à cause des interactions avec les électrons de la bande de conduction et avec les phonons, seuls les électrons crées entre la surface et une certaine profondeur ze appelé profondeur d'échappement parviennent à l’interface cible/vide
c) Franchissement de la surface
Pour franchir l’interface cible/vide, les électrons secondaires qui ont pu atteindre cette interface doivent avoir au moins une énergie correspondant au travail de sortie dans le cas d’une cible métallique ou à l’affinité électronique (énergie minimale à fournir à un électron situé au bas de la bande de conduction pour l’éjecter dans le vide) dans le cas d’une cible isolante ou semi-conductrice (voir Figure I.5).
A titre d’exemple, les affinités électroniques de l’alumine (Al2O3) et de la silice (SiO2) toutes deux monocristallines sont proches de χ = 1 eV [3]. Les électrons du faisceau primaire, ou les électrons secondaires rappelés à la surface par un potentiel de surface positif, auront à franchir la surface, mais en sens inverse. Dans ce cas, ils gagneront l'énergie χ (voir Fig. I.5).
Finalement, les électrons secondaires émis sont peu énergétiques (intervalle entre 0 et 50 eV, (limite conventionnelle) et proviennent de régions voisines de la surface (de l'ordre de quelques nm).
Leur taux d’émission électronique secondaire ou rendement d'électrons secondaires, δ est défini comme étant le rapport du nombre d’électrons secondaires émis par seconde au courant primaire.
I.1.3.2.RELAXATION
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
Nous avons vu précédemment que lorsque les électrons cheminent dans un milieu matériel, ils interagissent avec lui en subissant des collisions aussi bien élastiques qu’inélastiques. Ces dernières peuvent donner naissance à des lacunes dans les couches internes des atomes qui se trouvent ainsi dans un état excité. Le retour à un état d’équilibre (désexcitation) s’effectue soit par émission radiative (émission X) soit par émission non radiative (émission Auger). Après excitation par un faisceau d’électrons, les atomes ionisés peuvent se désexciter suivant deux voies:
- Relaxation radiative : émission X
- Relaxation non radiative : émission Auger
Sur la figure I.3 est représentée la probabilité de ces deux types de relaxation en fonction du numéro atomique Z d’éléments.
Figure .I.3
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.1.3.3DESEXCITATION NON RADIATIVE CAS DES ATOMES LEGERS (Z<30)EMISSION E- AUGER :
Ce processus fait intervenir trois niveaux d‘énergie de l’atome: le faisceau primaire induit une ionisation d’un niveau de la couche K en éjectant un électron. Une lacune est ainsi formée. Elle va être comblée par un électron provenant d’un niveau L plus externe. L’atome est maintenant ionisé au niveau L. La désexcitation peut alors se faire par deux processus différents : soit par un processus radiatif (émission d’un photon X), soit par l’émission d’un électron appelé électron Auger, Figure I.4.
L’énergie cinétique de l’électron Auger est caractéristique de l’atome émetteur. En première approximation elle peut s’écrire comme suit :
EKLM = EK − EL − EM – eф
eф est un paramètre de correction tenant compte du réajustement des interactions coulombiennes dues à l’ionisation totale.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
La figure I.5 montre Le processus de la désexcitation Auger, dont l’atome est caractérisé par deux états vacants (trous).
La transition KL1L1 correspond à un trou initiale dans la couche K qui est comblé par un électron de la sous-couche L1, tandis que simultanément un électron est éjecté de la sous- couche L2.
La transition Auger L1M1M1 correspond à un trou initial 2S.
La transition L1L1M correspond à la présence d’un état vacant (trous) dans la même couche que l’état vacant primaire (mais pas dans la même sous-couche), la transition radiative est appelée alors une transition Coster-Kronig. Cette transition est très importante vu son forte intensité par rapport aux autres transitions Auger.
Figure .I.4
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.1.3.3.1 NOMENCLATURE D’UN ELECTRON AUGER
Un électron Auger est décrit par trois niveaux successivement mis en jeu.
Dans le cas de la figure I.6 nous avons émission d’un électron KLM :
- La 1ere lettre désigne le niveau de la lacune initiale,
- La 2ème lettre désigne l’origine de l’électron qui comble la lacune - La 3eme lettre désigne le niveau de l’électron éjecté.
Figure .I.5
I.1.3.4DE
RAYONS X Ce p supérieure.
L'irradiatio bien définie base de la m
A cô un rayonn électromagn primaires p radiative p
CHAP
SEXCITATI
X
processus p La différen n électroniq es et caract microanalys
ôté de cette nement con nétiques de perdent con par l'émissi
PITRE
I
:
N
ION RADIA
parvient lor nce d'énerg que d'un m téristiques d se X.
émission ca ntinu lié a
es noyaux ntinuellemen
ion de pho Figure .I.
NOTIONS
ATIVE : CAS
rsque la l gie mis en je
atériau s'ac des atomes
aractéristiqu au ralentiss
des atomes nt de l'éner otons X ap .6
S
ET
PRIN
S DES ATOM
lacune créé eu entre les compagne composant
ue, le bomb sement des s de la cibl rgie cinétiq ppelé rayo
NCIPES
FO
MES LOURD
ée est com s deux nive donc de l'é la cible. C
bardement é s électrons le. A cause que. Cette p onnement d
ONDAME
DS (Z>30)
mblée par u eaux est tran
mission de e mécanism
électronique s incidents
e de ce ral perte d'éner de freinage
ENTAUX
) :L’EMISS
un électron nsformée en
photons X me constitue
e d’une cibl dans les lentissemen
rgie se trad e ou Brem
SION DES
n d'une cou n un photon X à des éner
e le princip
le solide gén forts cha nt, les électr
duit en éne msstrahlung.
uche n X.
rgies e de
nère amps rons ergie Ce
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
rayonnement constitue en microanalyse X le fond continu sur lequel vont s’inscrire les raies caractéristiques.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.1.4 CONCLUSION
Les deux types de collisions que nous venons de citer ainsi que les phénomènes qui les Accompagnent sont responsables de la dissipation d’énergie de l’électron incident dans la matière qu’il traverse ainsi que la forme de sa trajectoire (Fig. I. 7)
Afin d’expliquer la forme des fonctions de génération et les parcours des électrons ans le matériau qui vont figurer à plusieurs reprises dans notre étude, nous nous contenons de rappeler brièvement, quelques aspects qualitatifs et quantitatifs du problème. Seuls la mécanique quantique permet de le résoudre correctement.
Figure .I.7: Distribution énergétique schématique, N(E), des électrons émis par une cible irradiée par un faisceau d’électrons primaires d’énergie E0
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
La distribution énergétique des électrons émis, N(E), par une cible soumise à l’irradiation par un faisceau d'électrons incidents d'énergie E0 est illustrée schématiquement sur la Figure.III.
On distingue habituellement trois parties dans cette distribution :
I- Le domaine des électrons secondaires qui se présente sous la forme d’un pic dont la position du maximum se situe vers 2 eV et dont la largeur à mi-hauteur est généralement inférieure à 10 eV. La limite supérieure de ce domaine est conventionnellement fixée à 50 eV.
II- Un fond continu attribuable aux multiples interactions élastiques et inélastiques subies par les électrons au sein du matériau (gamme d'énergie compris entre 50 eV et le début du pic centré autour de l'énergie primaire E0). Dans cette zone apparaissent également des pics de faible amplitude correspondant à des pertes caractéristiques. On distingue les pics Auger vers les basses énergies et près du pic élastique, des pics caractéristiques qui résultent des excitations des plasmons de volume ou de surface.
III- Le pic élastique, centré autour de l'énergie primaire E0, est celui des électrons primaires réfléchis élastiquement ou ayant subis de très faibles pertes d’énergie (fraction d’électron-volt) par suite de collisions électrons-phonons.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.2 SIMULATION MONTE CARLO
I.2.1INTRODUCTION
En général, les calculs analytiques exacts des intégrales ne sont pas réalisables directement. De même les sommes doivent parfois être effectuées sur un nombre de termes trop important pour espérer les comptabiliser. On fait alors appel à des méthodes d’approximation. Parmi les plus couramment utilisées, on retrouve les méthodes classiques d’analyse numérique. Efficaces en une dimension, ces techniques s’avèrent rapidement sans intérêt dès que la dimension augmente. Or le nombre de variables pour certains problèmes est très grand et peut même s’avérer si important que les progrès envisageables du calcul informatique ne seront probablement jamais suffisants pour rendre ces techniques intéressantes.
Dans cette optique, une méthode de simulation statistique, méthode dite de « Monte Carlo », est très prometteuse puisque sa vitesse de convergence est indépendante de la dimension du problème posé. En revanche elle fournisse non pas la solution numérique du problème, mais un intervalle de confiance la contenant avec une probabilité donnée.
I.2.2 HISTORIQUE
Les techniques de Monte Carlo ont été utilisées depuis plusieurs siècles, même si ce n'est qu’après la seconde guerre mondiale qu’elles ont acquis un véritable statut de méthode. Des chercheurs isolés ont cependant utilisés bien avant des méthodes statistiques du même genre : par exemple, Halle pour la
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
détermination expérimentale de c (1873), ou Kelvin dans une discussion de l’équation de Boltzmann (1901).
L’utilisation systématique, par Ulam, Metropolis et Von Neumann notamment, est intervenue à Los Almos, pendant la préparation de la bombe atomique, où ont collaboré de nombreux mathématiciens et physiciens de renom. L’appellation " Monte Carlo" date des alentours de 1944. Cette dénomination est due à Metropolis, inspiré de l’intérêt d’Ulam pour le poker, car Monte Carlo est un grand centre de jeux, et a pour origine les similarités avec les roulettes de hasard.
Le travaille à Los Almos consistait à simuler directement les problèmes de dispersion et d’absorption de neutrons pour les matériaux fissibles. Les recherches étant bien évidemment secrètes à Los Almos, mais au cours de l’immédiat après-guerre, Von Neumann,Fermi et Ulam avertirent le public scientifique des possibilités d’application de la méthode Monte Carlo (par exemple, pour l’approximation des valeurs propres de l’équation de Schrödinger).
Après une éclipse due à une utilisation trop intensive pendant les années 1950, la méthode de Monté Carlo est revenue en faveur pour qu’elle soit utilisée fréquemment et dans de nombreux domaines, et même pour des problèmes où elles n’étaient pas la plus adaptée (sciences économiques, prévisions électorales, etc. &) partout où il est fructueux d’employer des procédés de simulation.
I.2.3 EFFICACITE DE LA METHODE MONTE CARLO
Tout système régi en tout ou en partie par le hasard nécessite que sa modélisation soit réalisée en utilisant des nombres aléatoires. Ces nombres sont utilisés pour trouver une solution qui dans certains cas n’est pas aléatoire.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
En répétant l’expérience n fois on peut évaluer la dispersion (ou variance) des estimations de Monte Carlo par la relation [5] :
2
( )
2( )
1
/ 1 ... .1
n k k
P P n n I
σ
=
⎡ ⎤
=⎢⎣
∑
− ⎥⎦ ⎡⎣ − ⎤⎦Avec :
1
1 n k... .2
k
P P I
n −
=
∑
σ2 : La dispersion des estimations.
P : facteur moyen des estimations.
n : nombre d’expériences.
La méthode de Monte Carlo est d’autant plus efficace que la dispersion est plus petite. Mais il est bien évident que la dispersion diminue si le nombre d’épreuves dans chaque expérience croit, c'est-à- dire si le temps de calcul T croit .Donc la méthode est d’autant plus efficace, que T est petit pour σ2.
Finalement l’efficacité de la méthode peut se mesurer par:
2
Efficacité= 1 ... .3
T I
σ
I.2.4 SIMULATION DE LA TRAJECTOIRE AVEC COLLISION
Tous les problèmes de diffusion sont liés à des trajectoires de particules subissant des collisions entre elles ou avec d’autres particules. Une particule (neutron d’un réacteur nucléaire, ion dans
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
une solution, électron dans un métal ou un semi-conducteur, molécule d’un gaz ou d’un fluide au repos ou en écoulement, etc…..) Suit pendant un court intervalle de temps une trajectoire déterministe, éventuellement dans un champ de forces, puis, à un instant aléatoire, subit une collision qui fait passer sa vitesse
ν r
à une valeurν r ′
(avec création éventuelle d’autres particules). Ainsi la trajectoire d’une particule revêt un caractère fortement aléatoire ; les technique de Monte Carlo sont alors des techniques de prédilection (parfois les seules possibles) pour traiter ce type de problème, c’est sans doute dans cette voie que les méthodes de Monte Carlo connaissent actuellement leurs plus importantes applications et leur meilleure justification [5].La technique généralement utilisée pour traiter ce type de problème consiste à décomposer la trajectoire d’une particule en un grand nombre de séquences (quelques milliers à quelques dizaines de milliers suivant les cas), chaque séquence comprenant un vol libre, et une collision.
Pour cela, on définit l’état initial (position de vitesse) de la particule, en général de façon arbitraire.
a) On tire au sort un premier nombre aléatoire R1 qui détermine la durée t1 du vol libre (ou encore l’instant t1 auquel survient la collision)
b) Entre les instants 0 et t1, la particule suit une trajectoire déterministe correspondant aux lois de la mécanique classique, ce qui donne sa position et sa vitesse νr1 à t1.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
c) Si plusieurs types de collisions sont possibles, un nouveau nombre aléatoire R2 sélectionne la collision que subit la particule.
d) Une fois la collision sélectionnée, un ensemble de nombres aléatoires (de 1 à 3, soient R3, R4 et R5) détermine la vitesse νr1′ après la collision, supposée instantanée, la séquence est alors terminée, on connaît donc la position de la vitesse de la particule à la fin de la 1ère séquence, c'est-à-dire au début de la seconde séquence.
e) Si la collision est susceptible de créer d’autres particules, d’autres nombres aléatoires sont utilisés pour simuler leurs vitesses.
f) On répète cette séquence, comme il a été déjà dit, un grand nombre de fois.
La figure (I.8) illustre la trajectoire d’une telle particule, dans l’espace des vitesses en projection sur le plan {x, y} (le champ de force entraîne cette particule, en vol libre, dans le sens des x ≥ 0) en trait plein figurent les vols libres :
d F
d t m
νr = r ………I(4)
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
D’oùνr =νr0 + tFr / m ………..I(5)
En tirets figurent les variations (instantanées) de vitesse dues aux collisions, dont les positions sont repérées par des points. La particule part de 0, sa vitesse augmente jusqu’à p1. Elle subit alors une collision qui fait passer l’extrémité de son vecteur vitesse de P1 enp′1. Elle est alors en vol libre jusqu’en p2, etc…..
On peut, soit étudier une seule particule, dont le mouvement moyen tend vers le mouvement d’ensemble au bout d’un temps suffisamment long, soit simuler les trajectoires d’un ensemble de particules. [5]
P2
P1
0 Vx
Vy
'
P1
Figure I.8: Simulation Monte Carlo d'une trajectroire dans l'espace des vitesses
Vole libre Collision Séquence
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
I.2.5 CONCLUSION
Un avantage important des simulations est celui que les différents effets physiques qui sont simultanément présents dans certains systèmes peuvent être isolés, et par conséquence cette séparation fourni bien une meilleure compréhension.
Nous souhaitons souligner que le but des simulations n'est pas de fournir un ajustement de courbes aux données expérimentales plus mieux que celui de la théorie analytique, le but est de créer une compréhension des propriétés et des processus physiques qui sont aussi complètes que possible, en se servant de la commande parfaite des conditions expérimentales dans l'ordinateur et de la possibilité d’examiner chaque aspect des configurations de système en détail. Le résultat désiré est alors l'élucidation des mécanismes physiques qui sont responsables des phénomènes observés [7].
En regardons donc le rapport entre la théorie, l'expérience, et la simulation on trouve qu’ils sont semblables aux cotés d'un triangle (fig. I.10) ; chacun est distinct, mais chacun est fortement relié aux deux autres.
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
Figure. I.10. La relation entre la théorie, l’expérience et la simulation [43].
La simulation
La nature
L’expérience La théorie
CHAPITRE
I
:
NOTIONS
ET
PRINCIPES
FONDAMENTAUX
Référence Bibliographique chapitre I
1]: K. KANAYA and S OKAYAMA, Penetration end energy-loss theory of electrons in solid targets, J.Phys. D: Phys., Vol.5, 1972.
2]: H. NIEDRIG, E.I. RAU, Nucl. Instr. and Meth. in Phys. Res B. 142, 523 (1998)
3]: R.C. ALIG AND S. BLOOM, J. Appl. Phys. 49, 3476 (1978).
4] : H. SEILER, J. Appl. Phys. 54, 11 (1983).
5] : J.P.NOUGIER, Méthodes de calcul numérique, Masson, Paris (1987)
6] : ELATECHE ZAHIA, Thèse de Magister, Univ. Batna (2005)
7]: D.LANDAU, K. BINDER, « Monte Carlo Simulation in statistical physics », university press, Cambridge , 28 August 2000
8]: DAVID MOWEME UNUIGBE, Electron Microscopy Analysis of Silicon Nanopowders, University of Cape Town, South Africa, 22 May 2008
CHAPITRE
II:
MODELISATION
CHAPITRE II: MODELISATION
CHAPITRE
II:
MODELISATION
CHAPITRE
II:
MODELISATION
II Approche physique de la simulation
II.1 Introduction
Plusieurs modèles analytiques ont été consacrés pour étudier l’interaction de l’électron avec la matière. Le présent travail consiste à appliquer un modèle numérique dont toutes ses étapes sont basées sur des théories physiques connues; traitant L’interaction du faisceau d'électrons avec la matière solide, en englobant tous les processus aussi bien élastiques qu’inélastiques. Ces derniers sont traités individuellement comme des variables aléatoires, et dans laquelle les ionisations, excitations, la production des électrons secondaires, la relaxation et les émissions Auger sont prises en considération
La bibliographie donne plusieurs revues détaillées à ce sujet. Dans ce paragraphe nous présentons une brève vue globale des bases physiques que nous avons utilisées dans notre modèle;
Le mécanisme des dispersions peut être ainsi divisé en dispersion élastique et inélastique : Pour le traitement des diffusions élastiques de l’électron; les deux formules de Rutherford et la section efficace différentiel totale de MOTT ont été beaucoup utilisées.[3]
Par la suite il a été démontré par (Lchimura et Shimizu 1981), (Reimer et Kreffing 1976) que l’utilisation de la section efficace de Mott donne plus de satisfaction que la section efficace de Rutherford, particulièrement pour les éléments légers et à basse énergie. Depuis, l’utilisation de la section efficace de Mott dans la région des énergies keV et sub KeV est très populaire.
CHAPITRE
II:
MODELISATION
Pour le traitement de la diffusion inélastique de l’électron; l’équation du pouvoir d’arrêt de Bethe (Beth stopping power) dans la CSDA (continus slowing-down approximation) a été largement utilisée avec un succès considérable. Par la suite quelques modifications ont été effectuées au CSDA dans l’objectif d’inclure la génération des électrons secondaires. D’où la CSDA hybride, qui fait associée le processus de perte d’énergie individuel engendré par l’ionisation des couches intérieures.
[3]
L’utilisation de la section efficace inélastique discrète de Moller(1931) (Murata et al.1981-[3]) et l’utilisation de la force de l’oscillateur généralisée dans l’approximation hydrogénique dans les orbites intérieurs (Desalvo et Rosa 1987-[3]) ont permis la simulation des électrons secondaires (Knock on electrons). Cependant quelques caractéristiques du processus de perte d’énergie spécifique aux échantillons sont négligées par la CSDA.
En sachant que l’équation de Bethe est valide seulement pour les électrons d’énergie suffisamment élevés, Raand et Wittry (1974) ont empiriquement extrapolé le pouvoir d’arrêt de Bethe (Bethe sttoping power) à la région de basse énergie par l’adoption de la fonction parabolique-d E /d S ∝ E-1 /2. Cette dernière fonction a été largement utilisée dans la simulation du processus de ralentissement des électrons lents (Joy 1987, Kotera 1989, Luo et al 1987, Newbury et al.1990). Toutefois cette approximation donne une dépendance en énergie à l’opposé des estimations prédites par la théorie de Lindhard pour le gaz d’électrons libre (Lindhard 1954, Ritchie et al. 1969), en plus d’une surestimation significatif de la perte d’énergie pour les électrons de basse énergie. [3]
Une autre situation d’insatisfaction et que généralement on sépare la région des énergies des électrons secondaires rapides, et la région des électrons lents; on adoptant différente approche pour
CHAPITRE
II:
MODELISATION
chacune (Ding et Shimizu 1988a, 1989a, Kotera 1989), du faite que le modèle disponible est limité à une certaine plage d’énergie. D’où la nécessite d’un model de traitement unifiant la diffusion inélastique des électrons et la génération des électrons secondaires.
Probablement la meilleure approche doit être basée sur la fonction diélectrique qui caractérise explicitement le processus d'excitation d'un échantillon (Pines 1964). En effet la fonction diélectrique ε (q,ω) peut nous fournir des connaissances détaillées de la section efficace de la perte d’énergie ainsi que la distribution de la diffusion angulaire pour la diffusion inélastique des électrons . Cela a été vérifié (Cailler and Ganachaud 1990, Ganachaud and Cailler 1979) pour les électrons libres du métal aluminium en utilisant la fonction diélectrique bien connue de Lindhard qui décrie l’excitation engendrée par les plasmons et la production du paire électron-trou.
Malheureusement la fonction diélectrique idéale de Lindhard pour le gaz d’électrons libre dans l’approximation de la phase aléatoire (Walecka 1971) est seulement valide pour un nombre limité de matériaux. Car difficilement applicable pour d’autres matériaux, comme les métaux nobles, ou les métaux de transitions (Rather 1980), en plus des difficultés de calcul théoriques de « q » de la fonction de dépendance diélectrique, ε (q,ω) [3]. Cette dernière à été évalué numériquement (Nizzoli 1978, Singhal 1975, Sramek and Cohen 1972, Walter and Cohen 1972) seulement pour des « qs » sélectionnés. En effet, la première loi globale du calcul théorique du métal a été limitée à ε(ω)=ε (q=0, ω) (Maksimov et al.1988). D’où l’utilisation des données diélectrique qui sont accessibles expérimentalement par la méthode optique ainsi que par la spectroscopie électronique (Egerton 1986).