• Aucun résultat trouvé

Étude des propriétés thermiques par Dynamique Moléculaire

Dans le document The DART-Europe E-theses Portal (Page 52-73)

nano-matériaux par Dynamique Moléculaire

1.3 Étude des propriétés thermiques par Dynamique Moléculaire

Différentes méthodes théoriques et numériques ont été développées au cours de la deuxième moitié du vingtième siècle pour calculer les propriétés des phonons et les propriétés thermiques émergentes. Parmi elles, la Dynamique Molécu-laire s’est révélée être une technique numérique particulièrement efficace pour étudier les systèmes complexes, dont la maille élémentaire peut être composée de dizaines ou centaines d’atomes. Son lien étroit avec la physique statistique en fait un outil de choix dans l’analyse de phénomènes physiques où l’évolution temporelle des déplacements atomiques est une grandeur clé.

1.3.1 Présentation de la Dynamique Moléculaire

La Dynamique Moléculaire est une méthode numérique permettant de calculer la trajectoire d’un ensemble de particules dans l’espace des phases {R~i, P~i}, avec i 2 {1..Npart} où Npart est le nombre de particules que nous simulons.

26 1.3 Étude des propriétés thermiques par Dynamique Moléculaire

À partir des trajectoires dans l’espace des phases, nous avons accès aux pro-priétés thermiques et thermodynamiques du système étudié. Dans la suite, les particules simulées seront les atomes composant le système étudié et seront considérées comme ponctuelles. L’une des forces de la Dynamique Moléculaire est d’être suffisamment générale pour pouvoir simuler en théorie n’importe quel type de système, que ce soit des gaz, des liquides, de la matière molle ou des solides cristallins.

Soit un système quelconque composé deNpartparticules en interaction dans une boîte de dimensionsLx,Ly etLz. Ces atomes interagissent via un potentiel dit interatomique U({R~n}n2{1,Npart}) défini au préalable. Il remplace le potentiel des électrons qui ne sont pas présents dans ce type de simulation. Le chapitre 4 traitera de la prise en compte explicite des électrons dans les simulations de Dynamique Moléculaire. La forme du potentiel interatomique est choisie de façon à reproduire le plus fidèlement possible les propriétés réelles du système.

Par exemple, pour un cristal de silicium, nous souhaitons que le cristal simulé ait le même paramètre de maille que celui donné par la valeur expérimentale, la même géométrie et les mêmes constantes élastiques. Il existe dans la littérature des dizaines de potentiels interatomiques différents, chacun associé à un type de système particulier. Ce choix est crucial pour assurer le bon comportement de nos simulations. La partie A décrit l’ensemble des potentiels utilisés dans ce manuscrit afin d’en expliquer la physique associée.

Il s’agit donc de résoudre un problème de mécanique à Npart corps, où Npart peut atteindre plusieurs centaines de milliers de particules. Il est donc impos-sible d’espérer calculer analytiquement les trajectoires dans l’espace des phases de cet ensemble d’atomes, comme nous avons pu le faire dans le cas de la chaîne linéaire dans la section 1.2.1.2. Par conséquent, il faut faire appel à des méthodes numériques. La Dynamique Moléculaire est une méthode numérique qui repose sur la discrétisation temporelle de la seconde loi de Newton pour un ensemble de Npart particules en interaction. Le principe fondamental de la dynamique s’écrit pour chaque particule comme :

miR~¨i(t) =−r~R~iU({R~n}n) =F~i (1.28) où mi est la masse de la particule i et F~i la force exercée par l’ensemble des atomes sur cette particule. Nous avons donc un système de 3Npart équations couplées, très souvent non linéaires, à résoudre. La discrétisation spatiale est naturellement implémentée car les atomes sont ponctuels. Il suffit donc de discrétiser temporellement ces équations pour calculer l’ensemble des trajec-toires dans l’espace des phases. L’algorithme le plus utilisé pour résoudre ces équations différentielles couplées est appelé l’algorithme de Verlet [233]. Le développement en série de Taylor de la position de la particule i au temps t+δts’écrit :

De même, au tempst−δt, nous obtenons En utilisant l’équation1.28, nous en déduisons :

R~i(t+δt) = 2R~i(t)−R~i(t−δt) +δt2

miF~i(t) +O(δt4). (1.31) Seules les forces exercées sur la particule i à l’instant t et la position de la particule à l’instant t et t−δt sont nécessaires au calcul de la position à t+ δt. Il est important d’avoir un pas de temps δt bien plus faible que le plus petit temps caractéristique dans le système. Lorsque nous nous intéressons aux phonons, la fréquence maximalefmaxdes phonons optiques dicte donc la valeur à choisir pourδt. Généralement,δt= 1/(100fmax)⇡1f spermet d’obtenir une intégration stable des équations du mouvement.

Il est aussi possible de calculer la vitesse de la particuleià l’instant t: V~i(t) = R~i(t+δt)−R~i(t−δt)

2δt +O(δt2) (1.32)

L’algorithme de Verlet présente une très bonne stabilité numérique et une in-tégration rapide des équations. Il existe d’autres façons de propager dans le temps ces équations comme par exemple la méthode dite du "saut de grenouille"

(leapfrog en anglais) où les positions et vitesses sont évaluées de façon alternée avec un décalage deδt/2.

Il faut également définir les conditions aux limites du système. Le plus souvent sont choisies des conditions aux limites périodiques. Cela permet de simuler des matériaux massifs avec un nombre de particules relativement restreint. La figure1.13schématise les conditions aux limites périodiques où le système orig-inal est répliqué dans chaque direction de l’espace. Il est nécessaire de limiter le rayon de portée du potentiel interatomique afin qu’un atome n’interagisse pas avec lui-même. La convention de l’image minimale impose de prendre un rayon de coupure du potentiel d’au plus la moitié de la longueur de la boîte afin d’éviter ce problème. La définition d’un rayon de coupure est également nécessaire pour diminuer le nombre d’interactions à calculer, ce qui accélère grandement les simulations, car l’évaluation des forces est, de loin, l’étape la plus longue en Dynamique Moléculaire. Ainsi, deux atomes séparés par une distance supérieure au rayon de coupure n’interagissent pas entre eux.

Afin de pouvoir calculer les trajectoires de chaque particule grâce à ces équa-tions, il est nécessaire de définir les conditions initiales en position et en vitesse.

Les positions initiales dépendent du système à simuler. Les vitesses initiales dans la direction↵ de chaque particule sont tirées aléatoirement dans une dis-tribution MaxwellienneP(Vi) :

P(Vi) =

28 1.3 Étude des propriétés thermiques par Dynamique Moléculaire

Figure 1.13 – Représentation des conditions aux limites périodiques. Le rectangle rouge représente le système simulé et les conditions aux limites périodiques répliquent à l’infini le système original.

avec kB la constante de Boltzmann. Il s’agit d’une distribution gaussienne de la vitesse de moyenne nulle dont la variance est proportionnelle à la tempéra-ture. Ainsi, la température cinétique initiale moyenne du système correspond à celle de la distribution lorsque le nombre de particules est suffisamment élevé.

L’énergie initiale est uniquement composée d’énergie cinétique. Il est impor-tant, lors de cette étape, de s’assurer que le moment et l’impulsion totale du système soient nuls afin d’éviter un mouvement d’ensemble du système.

Les conditions initiales et les conditions aux limites étant définies, il est possi-ble d’intégrer les équations de la dynamique : le système va alors relaxer vers son état d’équilibre. Le théorème d’équipartition de l’énergie assure que, pour un système purement harmonique, une énergie kBT est associée à chaque vari-able {Ri, Pi}, où ↵ est une direction de l’espace. Par conséquent, l’énergie potentielle moyenne d’un ensemble d’oscillateur harmonique est égale à son én-ergie cinétique moyenne dans l’approximation classique. Ainsi, la température du système sera donc égale à la moitié de la température initiale à l’équilibre.

Dans le cas anharmonique, elle ne sera pas exactement égale à l’équilibre à la moitié de la température initiale, mais restera proche de cette valeur. Il est

nécessaire de rester à des températures élevées, au-dessus de la température de DebyeTD du système étudié, comme cela est décrit dans le chapitre6.

La phase de mise à l’équilibre s’achève lorsque l’ensemble des grandeurs ther-modynamiques telles que la température, les énergies potentielle et cinétique et la pression a convergé. Une fois cette étape terminée, la trajectoire dans l’espace des phases de chaque atome est calculée à l’équilibre. Finalement, les propriétés thermodynamiques et thermiques du système étudié sont déduites grâce aux outils de la physique statistique.

Les grandeurs thermodynamiques qui permettent d’assurer le bon comporte-ment du système sont :

• l’énergie cinétique du système Ec(t) =

• la température du système, définie grâce à la théorie cinétique et à l’équipartition de l’énergie par avec Npart le nombre de particules dans le système.

• l’énergie potentielle du système Ep(t) =

Npart

X

n=1

Un({R~i(t)}), (1.36)

• la pression du système définie à partir du théorème du Viriel P(t) = NpartkBT(t) avec F~n(t) la force ressentie par la particule nà l’instant t.

• l’énergie totale du système égale à la somme de l’énergie cinétique et potentielle.

Les simulations de Dynamique Moléculaire sont réalisées à partir du logiciel li-bre LAMMPS développé par le Sandia National Laboratories [183]. L’avantage de ce code est d’être construit pour des simulations massivement parallèles, écrit en C++ avec l’interface MPI. Ainsi, nous pourrons développer par la suite nos propres algorithmes et les incorporer directement dans LAMMPS.

1.3.2 Lien entre la Dynamique Moléculaire et la physique statis-tique

La Dynamique Moléculaire est intrinsèquement liée à la physique statistique.

Pouvoir calculer l’évolution temporelle d’un grand nombre de degrés de liberté

30 1.3 Étude des propriétés thermiques par Dynamique Moléculaire

en une seule simulation permet d’utiliser les outils de la physique statistique pour avoir accès à des grandeurs macroscopiques dont l’origine provient du monde microscopique. Dans notre cas, les propriétés thermiques des matériaux proviennent en partie du transport des phonons et des électrons. Si le matériau considéré est un diélectrique, seuls les phonons assurent le transfert d’énergie.

Comme nous l’avons abordé dans la partie d’introduction sur la physique des phonons, les phonons sont définis à partir des mouvements atomiques. Ainsi, à partir de l’évolution temporelle des déplacements des atomes, nous pourrons en déduire des grandeurs macroscopiques telle que la conductivité thermique du matériau.

1.3.2.1 Ensemble statistique et grandeur moyenne

1.3.2.1.1 État microscopique d’un système classique et moyenne statistique

Dans le cas d’un système classique composé de Npart atomes, son état micro-scopique est décrit à partir de l’ensemble des coordonnées dans l’espace des phases de chaque particule {{R~n},{P~n}}, oùP~nest l’impulsion de la particule n. Durant une simulation de Dynamique Moléculaire, le système va naturelle-ment évoluer dans l’espace des phases selon les différents états microscopiques qui lui sont accessibles. En physique statistique, nous n’avons pas la connais-sance de l’état dans lequel se trouve le système à cause de son grand nombre de degrés de liberté. Une approche probabiliste est adoptée afin de calculer les grandeurs moyennes du système étudié. Ainsi, une probabilité Pe est associée à chacun des états microscopiques du système.

Nous nous intéressons à une grandeur mesurable A qui prend la valeur Ae

lorsque le système est dans l’état microscopique e. La valeur moyenne au sens statistique hAi est donc définie par :

hAi=X

e

PeAe (1.38)

Tout l’enjeu est d’avoir accès à la probabilité de chaque état. C’est ici qu’intervient la Dynamique Moléculaire. En laissant le système évoluer dans le temps, il va visiter l’espace des phases et aura une probabilitéPede se retrouver dans l’état e. Elle permet donc de reconstruire les probabilités des états microscopiques, du moins celles des états les plus probables. Avec une statistique suffisante, il est donc possible de calculer les grandeurs moyennes temporelles

hAit= 1

avec A(nδt) la valeur de la grandeur A à l’instantnδt.

Les valeurs moyennes peuvent aussi être calculées à partir de moyennes d’ensemble.

Dans ce cas, un grand nombre de configurations microscopiques différentes sont

construites et la moyenne d’ensemble se définit comme la moyenne associée à cet ensemble de configurations. Si le système est ergodique, la moyenne temporelle est équivalente à la moyenne d’ensemble.

Dans la pratique, des moyennes d’ensemble doivent être effectuées lors d’un cal-cul de Dynamique Molécal-culaire. Ainsi, plusieurs simulations avec des conditions initiales différentes en vitesse sont effectuées. Les vitesses sont tirées de façon aléatoire afin de réaliser les moyennes d’ensemble et visiter les différentes con-figurations de l’espace des phases. Nous nous assurons par la suite d’avoir une statistique suffisante pour obtenir des résultats convergés au sens statistique.

Les simulations de Dynamique Moléculaire peuvent être réalisées dans différents ensembles statistiques qui apportent des contraintes sur les propriétés du sys-tème. Ces contraintes modifient les probabilités d’occurrence des états micro-canoniques et donc peuvent affecter les grandeurs moyennes associées.

1.3.2.1.2 Ensemble microcanonique NVE

Dans l’ensemble microcanonique, le nombre de particules, le volume du système et son énergie totale sont constants. Le système est donc considéré comme isolé. Par contre, les grandeurs conjuguées (potentiel chimique, pression, tem-pérature) fluctuent au cours du temps. L’algorithme de Verlet est adapté à cet ensemble statistique, car il conserve en théorie l’énergie totale du système au cours de la simulation.

Dans cet ensemble statistique, tous les états microscopiques sont équiprobables.

Il s’agit de l’ensemble le plus souvent utilisé lors des calculs des trajectoires à l’équilibre car il ne perturbe pas le système et n’affecte pas les fluctuations des grandeurs d’intérêt, ce qui est primordial lors des simulations de Dynamique Moléculaire à l’équilibre. Il est essentiel de vérifier la conservation de l’énergie totale du système. Si une dérive apparaît au cours de la simulation, cela peut signifier que le pas de temps choisi est trop grand et que des erreurs dues à la discrétisation temporelle des équations de Newton s’accumulent.

1.3.2.1.3 Ensemble canonique NVT

Dans l’ensemble canonique, le nombre de particules, le volume et la température du système sont fixés. La probabilité Pe que le système soit dans un état d’énergieEe est donnée dans l’ensemble NVT par :

Pe= exp (−kEBeT)

Z(T) (1.40)

avec la fonction de partitionZ(T) égale à Z(T) =X

e

exp (− Ee

kBT). (1.41)

Différents algorithmes ont été développés dans les années 1980 afin de faire évoluer le système dans l’ensemble canonique. L’un des premiers thermostats

32 1.3 Étude des propriétés thermiques par Dynamique Moléculaire

fut réalisé par Andersen [3] dans lequel une force excitatrice aléatoire vient changer les vitesses atomiques avec une certaine probabilité. Cependant, cette excitation avait pour effet de casser les corrélations temporelles du déplace-ment atomique ce qui n’est pas une propriété souhaitée lorsque nous cherchons l’information dans ces fluctuations, comme cela sera présenté dans la prochaine section.

L’un des thermostats les plus utilisés est le thermostat de Nosé-Hoover [172,88].

Nosé a tout d’abord introduit un degré de liberté supplémentaire couplé à ceux du système, ce qui modifie les équations du mouvement et permet de retrouver la fonction de partition de l’ensemble canonique. De plus, contrairement au thermostat d’Andersen, les processus sont déterministes et non pas stochas-tiques. Hoover a, par la suite, repris le modèle de Nosé et l’a réadapté pour le rendre plus simple à utiliser.

Le dernier thermostat utilisé dans ce manuscrit est le thermostat de Langevin.

Chaque degré de liberté est couplé au thermostat qui les excite à partir de forces aléatoires respectant le théorème de fluctuation-dissipation. Le chapitre 6 décrira plus en détail le fonctionnement du thermostat de Langevin.

1.3.2.1.4 Ensemble NPT L’ensemble NPT est l’ensemble statistique qui se rapproche le plus des contraintes imposées lors d’une expérience. Le nombre de particules, la pression et la température du système sont fixés. La probabilité Pe pour le système d’être dans un état d’énergie Ee pour un volume V est donnée par :

Nous travaillons donc avec l’enthalpie et non plus l’énergie totale du système.

A nouveau, nous avons utilisé le thermostat-barostat de Nosé-Hoover afin de réaliser les simulations dans l’ensemble NPT. Comme pour le contrôle de la température, un degré de liberté supplémentaire est couplé au système afin d’ajuster la pression du système.

Lors des simulations de Dynamique Moléculaire effectuées par la suite, cet ensemble a été utilisé afin d’ajuster le volume du système pour une certaine température. En effet, la dilatation thermique du système tend à modifier le volume de celui-ci, chose qui n’est pas possible dans l’ensemble canonique si l’on souhaite rester à pression atmosphérique.

1.3.2.2 Théorie de la réponse linéaire

La théorie de la réponse linéaire est construite sur un formalisme très général qui peut être appliqué à un très grand nombre de phénomènes physiques

dif-férents. Elle permet d’étudier de nombreux phénomènes hors équilibre tel que le transport de chaleur, de particules, de charge électrique ou bien l’excitation d’un matériau par un champ électrique. L’objectif de cette théorie est de prédire comment va réagir un système à une excitation extérieure.

1.3.2.2.1 Réponse linéaire et susceptibilité

Soit un système soumis à une excitation notéeE(t). Il peut s’agir par exemple d’une différence de potentiel ou bien d’une différence de température dans le système. Le système va réagir à cette excitation, c’est ce que nous appellerons la réponse R(t). Pour une différence de température, un flux thermique va apparaître afin de transporter l’énergie vers la partie froide du système et de retrouver un état d’équilibre thermodynamique.

Dans le domaine linéaire, la réponse du système est lié à la force excitatrice dans la relation :

R(t) = ˆ t

−1

χ(t, t0)E(t0)dt0, (1.44) avecχ(t, t0)la fonction de réponse linéaire du système. L’invariance par trans-lation dans le temps permet d’écrire χ(t, t0) comme χ(t−t0). Cette relation linéaire est vraie lorsque l’excitation n’éloigne pas trop le système de son état d’équilibre.

En effectuant une transformée de Fourier de l’équation1.44, nous obtenons la relation :

R(!) =˜ χ(!) ˜E(!), (1.45)

où R(!),˜ χ(!) et E(!)˜ sont respectivement les transformées de Fourier de la réponse, de la réponse impulsionnelle et de l’excitation. χ(!) se nomme la susceptibilité du système. Elle relie la réponse du système à une excitation à la pulsation!. Sa partie réelle est reliée à sa partie imaginaire par les relations de Kramers-Krönig. Le second principe de la thermodynamique impose que la partie imaginaire de la susceptibilité soit toujours positive. Elle décrit les processus de dissipation dans le système.

1.3.2.2.2 Théorème de fluctuation-dissipation

A l’équilibre, la réponse du système fluctue autour de sa valeur d’équilibre.

Par exemple, à l’équilibre thermique, le flux thermique va fluctuer avec une moyenne nulle. Nous pouvons relier ces fluctuations à l’équilibre avec la réponse impulsionnelle par l’équation suivante :

χ(t) = 1 kBT

dhX(t)X(0)i

dt . (1.46)

hX(t)X(0)i représente la fonction d’autocorrélation de la grandeur X(t) qui fluctue dans le temps. Elle est définie par :

hX(t)X(0)i= 1 T−t

ˆ Tt 0

X(t0+t)X(t0)dt0, (1.47)

34 1.3 Étude des propriétés thermiques par Dynamique Moléculaire

avecT la durée du signalX(t). Elle permet de mesurer la mémoire du système, c’est-à-dire la durée durant laquelle des corrélations persistent dans le signal.

Dans la relation1.46, la réponse du système à une excitation extérieure, c’est-à-dire à un phénomène hors équilibre, est associée aux fluctuations à l’équilibre de la fonction de réponse. Ce résultat très général est extrêmement impor-tant dans nos simulations de Dynamique Moléculaire. Lorsque nous atteignons l’état d’équilibre, les grandeurs tel que le flux thermique fluctuent de façon aléa-toire de prime abord. Cependant, en étudiant attentivement ces fluctuations, nous avons donc accès aux propriétés de la réponse impulsionnelle, donc de la conductivité thermique du matériau simulé.

Le théorème de Wiener-Kinchine relie la densité spectrale de puissance IX(!) d’une grandeur X(t) avec sa fonction d’autocorrélation. La densité spectrale de puissance de X(t), connue sur l’intervalle[0, ttot], se définit par :

IX(!) = lim

ttot!+1

|X(!)˜ |2

ttot . (1.48)

La densité spectrale de puissance représente les modes prépondérants dans le système étudié. Le théorème de Wiener-Kinchine montre qu’elle est la trans-formée de Fourier de la fonction d’autocorrélation :

IX(!) = ˆ +1

−1 hX(t)X(0)iexp (i!t)dt. (1.49) Ce résultat sera souvent utilisé par la suite car il est plus rapide de calculer des transformées de Fourier que des autocorrélations, grâce aux algorithmes de transformée de Fourier rapide.

Nous en arrivons finalement au théorème de fluctuation-dissipation qui relie la partie imaginaire de la susceptibilité χ(!) à la densité de puissance de la

Nous en arrivons finalement au théorème de fluctuation-dissipation qui relie la partie imaginaire de la susceptibilité χ(!) à la densité de puissance de la

Dans le document The DART-Europe E-theses Portal (Page 52-73)