• Aucun résultat trouvé

Prédiction des propriétés des matériaux énergétiques en vue de leur détection

N/A
N/A
Protected

Academic year: 2021

Partager "Prédiction des propriétés des matériaux énergétiques en vue de leur détection"

Copied!
76
0
0

Texte intégral

(1)

Prédiction des propriétés des matériaux énergétiques

en vue de leur détection

Mémoire Pierre-Olivier Robitaille Maîtrise en Chimie Maître ès sciences (M.Sc.) Québec, Canada © Pierre-Olivier Robitaille, 2017

(2)

Prédiction des propriétés des matériaux énergétiques

en vue de leur détection

Mémoire

Pierre-Olivier Robitaille

Sous la direction de:

Josée Brisson, directrice de recherche Hakima Abou-Rachid, codirectrice de recherche

(3)

Résumé

La lutte aux explosifs improvisés (IEDs) est l’un des plus grands défis auxquels les armées modernes doivent faire face. Il existe un vaste éventail de méthodes permettant de détecter et de neutraliser les IEDs, incluant des méthodes plus classiques comme la résonnance magnétique nucléaire, la spectroscopie infrarouge et la diffraction des rayons X, ainsi que des approches moins orthodoxes, comme des chiens renifleurs.

Une des techniques les plus prometteuses combine l’utilisation de l’induction électromagné-tique, une approche permettant la détection de métaux dans le sol, et le radar à pénétration de sol qui mesure la constante diélectrique des différentes composantes du sol[6]. La détermi-nation de la constante diélectrique d’une variété d’explosifs revêt donc un intérêt particulier pour la lutte contre les IEDs.

Ce projet vise à développer une méthode efficace pour calculer de manière théorique les constantes diélectriques d’une variété de matériaux énergétiques en utilisant la théorie de la fonctionnelle de la densité (DFT). Un autre aspect du projet vise à prédire les changements dans la maille cristalline des explosifs en fonction de variation de température et de pression et de comparer les valeurs obtenues avec les valeurs expérimentales. Pour ce faire, la technique de dynamique moléculaire a été utilisée. Cela permet de tenir compte de la dépendance de la constante diélectrique envers la densité du matériau, qui elle varie avec un changement de température ou de pression.

(4)

Abstract

The fight against Improvised Explosive Devices (IEDs) is one of the greatest challenges facing modern armies. A wide range of methods have been developed over the last years in order to detect and neutralize IEDs, from classic detection methods, nuclear magnetic resonance (NMR), infrared spectroscopy (IR) and X-ray diffraction, to less orthodox methods using the impressive olfactory capacity of dogs, or even rats. One of the most promising techniques com-bines the use of electromagnetic induction, a technique used to detect the presence of metals in the soil, and Ground Penetrating Radars (GPR), which measure the dielectric constant of constituents present in the ground. Determination of the dielectric constant of various ener-getic materials (EMs) is therefore of interest in the fight against IEDs. This project aims at developing an effective method to predict dielectric constants of various EMs by theroretical calculations, using the Density Functional Theory (DFT) and establishing a correlation to their crystalline structure. Another aspect of this research focuses on predicting changes in crystal lattice parameters with temperature and pressure using Molecular Dynamics (MD), and comparing the predictions to values experimentally determined.

(5)

Table des matières

Résumé iii

Abstract iv

Table des matières v

Liste des tableaux vi

Liste des figures vii

Remerciements ix 1 Introduction 1 Introduction 1 1.1 Explosif . . . 1 1.2 IED . . . 3 1.3 DFT . . . 7 1.4 Mécanique moléculaire . . . 12 2 But du projet 22 3 Théorie de la fonctionnelle de la densité (DFT) 24 3.1 Méthodologie . . . 25

3.2 Base . . . 26

3.3 Choix des explosifs . . . 29

3.4 Résultats . . . 30 4 Mécanique moléculaire 37 4.1 Méthodologie . . . 38 4.2 Dynamique . . . 39 4.3 Systèmes à l’étude . . . 43 4.4 Résultats . . . 45 4.5 Conclusion . . . 59 Conclusion 61 Conclusion 63

(6)

Liste des tableaux

3.1 Choix des bases . . . 28

3.2 Indices de réfraction des explosifs à l’étude. . . 30

(7)

Liste des figures

3.1 Explosifs choisis pour ce travail . . . 30

3.2 Comparaison de la précision et du temps de calcul de DFT en utilisant diffé-rentes bases . . . 31

3.3 Classement des combinaisons bases fonctionnelles par la fidélité des résultats avec l’expérimental . . . 32

3.4 Classement des combinaisons bases fonctionnelles par temps de calcul . . . 33

3.5 Comparaison des constantes diélectriques expérimentales et calculées par DFT à l’aide de divers ensemble de base . . . 34

3.6 Comparaison des constantes diélectriques expérimentales et calculées par DFT pour les bases donnant les erreurs les moins grandes . . . 35

3.7 Comparaison entre les valeurs de constantes diélectriques mesurées expérimen-talement et calculées avec CAM-B3LYP/AUG-cc-pVDZ . . . 36

4.1 Polymorphisme du DNAN[76] . . . 44

4.2 Supermailles des systèmes à l’étude . . . 45

4.3 Dilatation thermique expérimentale du HMX[69] . . . 46

4.4 Dilatation thermique du HMX telle que calculée par dynamique moléculaire selon la méthode Andersen-Parrinello . . . 47

4.5 Dilatation thermique expérimentale du HMX selon l’axe c . . . 47

4.6 Dilatation thermique selon la méthode Andersen-Parrinello du HMX selon l’axe c . . . 48

4.7 Dilatation thermique expérimentale du TATB . . . 48

4.8 Dilatation thermique du TATB selon la méthode Andersen-Parrinello . . . 49

4.9 Dilatation thermique expérimentale du TATB selon l’axe c. . . 49

4.10 Dilatation thermique selon la méthode Andersen-Parrinello du TATB selon l’axe c 50 4.11 Comparaison entre les densités théoriques et expérimentales du TATB . . . 50

4.12 Dilatation thermique expérimentale du FOX 7 . . . 51

4.13 Dilatation thermique selon la méthode Andersen-Parrinello du FOX 7 . . . 52

4.14 Dilatation thermique expérimentale du FOX 7 selon l’axe a . . . 52

4.15 Dilatation thermique théorique du FOX 7 selon l’axe a . . . 53

4.16 Comparaison entre les paramètres b expérimental et calculé . . . 53

4.17 Dilatation thermique expérimentale du DNAN . . . 54

4.18 Dilatation thermique calculée du DNAN . . . 54

4.19 Dilatation thermique calculée du HMX par la méthode Berendsen-Berendsen . 56 4.20 Dilatation thermique calculée du HMX selon l’axe c par la méthode Berendsen-Berendsen . . . 56

(8)

4.22 Dilatation thermique calculée du TATB selon l’axe c par la méthode

Berendsen-Berendsen . . . 57

4.23 Dilatation thermique calculée du FOX 7 par la méthode Berendsen-Berendsen 58

4.24 Dilatation thermique calculée du DNAN par la méthode Berendsen-Berendsen 59

(9)

Remerciements

Un tel travail ne peut être fait sans la contribution de plusieurs personnes. Premièrement, j’aimerais remercier mes deux codirectrices de recherches, Pr Josée Brisson et Pr Hakima Abou-Rachid qui m’ont fait confiance et qui ont su m’encadrer tout au long de mes travaux de recherche. J’aimerais remercier également plusieurs personnes du centre de Recherche et Développement de la Défense de Valcartier. Tout d’abord, David Brochu qui m’a formé à la mécanique moléculaire et surtout qui m’a habitué au plus haut standard en recherche. Le Dr Mounir Jaidann qui m’a formé à la chimie computationnelle et qui a été une ressource précieuse. Aussi, les Drs Daniel Chamberland et Marc-Olivier Turcotte-Savard, ainsi que Fran-çois Dion pour leurs commentaires et leurs suggestions tout au long de ce projet. J’aimerais également remercier Calcul Canada et Calcul Québec, sans les ressources fournies par ces or-ganismes un tel projet n’aurait pu voir le jour. Finalement, j’aimerais remercier le ministère de la Défense nationale, ainsi que l’Université Laval de m’avoir permis d’effectuer ces travaux grâce à leur soutien financier.

(10)

Chapitre 1

Introduction

L’utilisation des explosifs à des fins militaires ne date pas d’hier. Leurs utilisations ont révo-lutionné la façon de faire la guerre, la victoire ne reposant plus seulement sur la taille des armées ou sur la stratégie employée par leurs commandants, mais également sur le niveau technologique des forces en présence. Les explosifs représentent aussi un atout important pour la société civile, que ce soit pour l’industrie minière ou tout simplement pour éliminer un obs-tacle lors de la construction d’une route, contribuant ainsi à l’essor industriel de nombreuses nations.

1.1

Explosif

Les explosifs sont des substances métastables, ce qui signifie qu’ils sont instables thermodyna-miquement, mais stables cinétiquement, ce qui prévient leur dégradation dans des conditions normales[1]. Les explosifs sont constitués d’une ou d’un mélange de molécules contenant à la fois un oxydant et un réducteur qui réagiront violemment l’un avec l’autre sous l’effet d’un choc, tout en dégageant une quantité importante de gaz et d’énergie. On parle de balance en oxygène pour décrire la proportion de cet élément contenu dans la structure de l’explo-sif. La valeur est donnée en rapport massique et peut influencer de manière appréciable les propriétés de l’explosif. La majorité des matériaux énergétiques sont des substances nitrés (groupement -NO2, -ONO2, -N3). Outre les molécules énergétiques à proprement parler, un explosif peut aussi être constitué d’une matrice stabilisante (polymère), d’un oxydant et d’un agent plastifiant.

1.1.1 Matériaux énergétiques

Plus spécifiquement, les molécules énergétiques peuvent être divisées en plusieurs catégories en fonction de leur structure chimique. Tout d’abord, la molécule peut être de nature organique, comme le trinitrotoluène (TNT) ou la nitroglycérine (C3H5O3(NO2)3), ou partiellement inor-ganique comme la poudre à canon, principalement constituée de salpêtre (KNO3), de soufre et

(11)

de charbon, ou le fulminate de mercure (Hg2+(ONC-)2). Les composés inorganiques, quoique moins puissants, demeureront toujours très utiles en raison de leur simplicité et de leur faible coût de production. Ces molécules présentent cependant des lacunes importantes en ce qui a trait à leur sensibilité et leurs propriétés physico-chimiques. C’est pour cela que la forte ma-jorité des molécules énergétiques utilisées de nos jours est de nature organique. En plus d’être plus puissants, les composés énergétiques organiques sont nettement moins dommageables pour l’environnement.

Cette classe de molécules peut être subdivisée en trois sous-catégories de composés, soit les aromatiques, les esters nitrés et les nitramines. Le premier type, qui fût aussi le premier à être développé, regroupe les composés aromatiques nitrés comme le trinitrobenzène (TNB), le trinitrotoluène (TNT) et le 1,3,5-triamino-2,4,6-trinitrobenzène (TATB). Dans la seconde catégorie, les esters nitrés, on retrouve notamment la nitroglycérine et la nitrocellulose. Le dernier sous-groupe de composés est également le dernier à avoir été développé. Les nitra-mines forment la classe de composés la plus utilisée à des fins militaires, plus spécifiquement les dérivés de la méthénamine que sont l’« Her Majesty’s explosive » (HMX), aussi appelée Octogen et le « Royal demolition explosive » (RDX), aussi connus sous le nom de Hexogen. Il est essentiel de différencier les types de réactions d’oxydoréduction que peut subir un explo-sif, soit une combustion, une déflagration et une détonation. Simplement, si le bruit émit lors de la réaction est fort et d’une très courte durée, il s’agit d’une détonation, si la réaction est accompagnée de flammes et produit un son strident et d’une plus longue durée, il s’agit d’une déflagration et finalement, si l’explosif ne fait que se consumer à un rythme ne dépassant pas les quelques centimètres par seconde, la réaction est seulement une combustion. Plus préci-sément, la réaction de combustion peut être représentée comme une oxydoréduction violente qui s’autoalimente en énergie et qui peut mener à une déflagration ou une détonation si une température critique est atteinte. Un explosif est dit déflagrant lorsqu’une petite quantité de celui-ci, dans des conditions normales, s’enflamme soudainement lorsque sujet à une flamme, une étincelle, un choc, ou une friction importante. La déflagration d’un explosif est un phéno-mène de surface qui ressemble à la combustion d’autres matériaux, à la différence que l’explosif n’a pas besoin d’apport en oxygène pour soutenir la combustion. Lorsque la décomposition s’opère par le passage d’une onde de choc plutôt que par un mécanisme thermique, on parle de détonation. Dans ce cas, la réaction est beaucoup plus violente et rapide, pouvant atteindre des vitesses de propagation de l’ordre de plusieurs milliers de mètres par seconde [1]. La dé-tonation peut être initiée par une combustion dans un espace clos, se soldant par une forte hausse de pression causée par l’accumulation de gaz, ou par un impact d’une force suffisante pour que la température dépasse le point critique suite à la compression. Une fois lancée, la décomposition se propage dans l’explosif à une vitesse grandissante jusqu’à l’obtention d’un état « stable ». Cet état survient lorsque l’énergie dégagée par la réaction équivaut à l’énergie perdue en chaleur émise dans l’environnement et à l’énergie nécessaire pour déformer le cristal.

(12)

À ce moment de la réaction, la vitesse de propagation de l’onde dépend du type d’explosif, mais peut être aussi rapide que 9000m/s dans le cas du HMX[2].

Étant donné que la classification des explosifs par type de groupement chimique ne donne aucun renseignement sur la performance de l’explosif, cette classification n’est pas vraiment utilisée. Une méthode bien plus pratique est de les classer en fonction de leur performance et de leur utilisation. Utilisant cette méthode, les explosifs peuvent être séparés en trois catégories, les explosifs primaires et secondaires, ainsi que les propergols ou combustibles dont il ne sera pas vraiment question ici. Les explosifs primaires, contrairement aux explosifs secondaires, sont caractérisés par une rapide transition de la combustion à la détonation. Ils sont également très sensibles à la chaleur et au choc et détonnent facilement dans ces conditions. Typiquement, les explosifs primaires ont une grande sensibilité au choc, à la friction, à la décharge électrique, ainsi qu’aux températures élevées et détonnent qu’ils soient confinés ou non. Les explosifs les plus communs appartenant à cette catégorie sont l’azoture de plomb(II) (Pb(N3)2), le styphnate de plomb (C6HN3O8Pb) et, dans une moindre mesure, le fulminate de mercure Hg(CNO)2. Les explosifs secondaires diffèrent des explosifs primaires du fait qu’ils ne peuvent facilement être amorcés par un choc ou une décharge électrique et qu’ils sont généralement beaucoup plus puissants. Les explosifs secondaires sont bien moins sensibles et doivent, dans la plupart des cas, être initiés à l’aide d’un explosif primaire. Les propergols quant à eux sont des combustibles contenant tout l’oxygène nécessaire à leur combustion et qui se consumeront plutôt que de détonner.

1.2

IED

D’une façon simple, un IED (Improvised explosive device) ou engin explosif improvisé est une bombe construite, assemblée ou disposée de façon non conventionnelle à la doctrine militaire, dans le but de tuer, blesser ou restreindre la mobilité. Malgré que ceux-ci puissent contenir des pièces d’équipements militaires, par exemple des obus, ils sont généralement de compo-sition artisanale[3]. Ces engins ont été responsables de la majorité des pertes canadienne en Afghanistan[4]. Le terme provient de l’armée britannique qui utilise pour la première fois la terminologie dans les années 70 pendant la lutte contre l’IRA. Il existe deux catégories princi-pales d’utilisation d’IED, les attaques suicides et non suicide. Dans le premier cas, les explosifs sont placés sur les insurgés eux-mêmes, tandis que le second cas l’engin est dissimuler dans l’eau ou plus souvent le sol[5].

Règle générale, un engin explosif improvisé est constitué de cinq composantes : un interrupteur, un détonateur, une charge explosive, un contenant et une source d’alimentation (batterie). La grande variété de composantes différentes, souvent utilisées à l’extérieur de leur contexte normal, rend la détection de ces engins extrêmement complexe. De plus, contrairement aux mines conventionnelles, les IED sont disposées de manière aléatoire et souvent dissimulée, ce

(13)

qui rend la détection particulièrement problématique.

1.2.1 Détection des IED

Malgré des milliards de dollars investis dans la lutte aux engins explosifs improvisés, le taux de détection reste d’environ 50%[6]. De ce 50%, quatre détections sur cinq sont effectuées par du personnel grâce à leur seule formation, alors que 20% des détections sont faites par des appareils. Il est aussi à noter que le taux de détection par des forces démontées, à pied, est nettement supérieur à celui pour des forces montées, en véhicule, 79% contre seulement 41 %. À ce jour, la technique de détection la plus efficace est la combinaison entre un chien entrainé et un opérateur qualifié, avec un taux de détection près des 80%. Cela revait toute son importance sur le terrain. En effet, dans un cas où l’on devrait ouvrir un chemin de 4 m de large pour traverser un territoire ayant une densité d’IED de 1 par km, et que notre le détecteur à une efficacité de 90%, les chances qu’une explosion survienne sont de plus de 60%[7]. Il est clair que la technologie à elle seule ne pourra pas pallier à tous les problèmes auxquels les forces armées font face, mais elle est certainement partie prenante de la solution.

1.2.2 Radar à pénétration de sol

Initialement, la détection des explosifs se faisait à l’aide de la technique d’induction magné-tique, ou détecteur de métal. Ces appareils fonctionnent en émettant un champ électromagné-tique dans le sol. Ce champ induit un courant électrique dans toute(s) pièce(s) métallique(s) que celui-ci viendrait à traverser. Ce courant électrique va émettre un champ magnétique qui peut ensuite être détecté par l’appareil[8]. Des avancées récentes ont vu le couplage d’un tel détecteur avec un radar à pénétration de sol (GPR). Cela a pour conséquence d’augmenter par un facteur sept la précision des mesures[9]. Cette technologie étant rendue à maturité, elle est maintenant produite à l’échelle industrielle[7].

La technologie se doit d’être versatile, les types de terrains peuvent être extrêmement variés et les températures peuvent varier du froid extrême à des chaleurs accablantes. De plus, la pluie, la neige, l’humidité de l’air, ainsi que la poussière doivent être prises en compte. Étant donné que de plus en plus d’engins explosifs sont faits de plastique avec très peu ou aucune trace de métal, un simple détecteur de métal ne peut suffire.

Le GPR permet de détecter les IED, ou tout autre matériel diélectrique dans le sol à l’aide de leur constante diélectrique. Les longueurs d’onde couvertes par les GPR sont de l’ordre du micro-onde, plus précisément dans la région située entre 1mm et 10cm avec une fréquence allant de 100 MHz à 10 GHz. L’onde est donc du même ordre de grandeur que les IED, soit de l’ordre de quelques centimètres. La puissance du GPR est assez faible comparativement à celle du radar conventionnel, de l’ordre de quelques milliwatts, ce qui permet de balayer le sol sans risquer d’activer un explosif. On peut assumer que l’engin explosif sera recouvert de sol. Ceci pose le problème suivant : la constante diélectrique du sol oscille entre 3 pour du sol sec

(14)

et 16 pour un sol très riche en eau. La majorité des explosifs ont des structures relativement semblables et donc des constantes assez rapprochées l’une de l’autre variant entre 2,5 et 3,5 dans la majorité des cas. On peut aussi retrouver des explosifs dans l’eau douce, qui a une constante diélectrique d’environs 80. Dans un tel cas, il serait aisé de différencier l’explosif de l’eau étant donné la grande différence de constante diélectrique. Ceci n’est cependant pas le cas dans l’eau salée qui est très réfractaire au radar, vu sa forte conductivité électrique. Les GPR peuvent être séparés en deux classes. Ceux qui émettent une impulsion, reçoivent la réflexion et traitent le signal réfléchi sont considérés comme opérant dans le domaine du temps. À l’inverse, les appareils effectuant un balayage de fréquence et analysant le signal résultant sont considérés comme oeuvrant dans le domaine des fréquences. Il est aussi bon de noter que l’onde électromagnétique évoluant dans le sol sera atténuée selon l’équation suivante.

La= 8, 686 · 4Rπf r υoυrεoεr 2 p 1 + tan2δ− 1 (1.1)

Où Lα représente l’atténuation du signal, f la fréquence, δ l’angle de perte du matériel, εr

la constante diélectrique relative, εo la constante diélectrique du vide, νr la susceptibilité

magnétique du matériel, νo la susceptibilité absolue du vide, et R la distance.

Un des plus grands défis de ce domaine est de diminuer le nombre de faux positifs qui est, à l’heure actuelle, d’environ 200 pour chaque vrai positif. Cela rend les tâches de déminage excessivement ardues. Pour pouvoir déminer une route en relative sécurité et à une vitesse normale de convois, la probabilité de détection du détecteur doit être de l’ordre de 99%. Cela démontre que beaucoup d’améliorations sont encore nécessaires.

1.2.3 Constante diélectrique

La constante diélectrique (parfois fois appelée permittivité relative) représente un ratio entre la permittivité d’un matériau et celle du vide, qui sert ici de standard. La permittivité illustre la facilité avec laquelle un champ électrique traverse un médium. Lorsque deux charges q1 et q2 sont séparées par une distance r dans le vide, leurs énergies potentielles sont données par l’équation suivante.

V = q1q2

4πεor (1.2)

Où V est l’énergie potentielle, q1et q2 le potentiel des deux charges, r la distance entre celles-ci

et finalement εo la permittivité du vide. Si l’on reprend le même système de 2 charges, mais

que cette fois-ci elles sont immergées dans un milieu autre que le vide, par exemple l’air ou l’eau, l’équation prend la forme suivante.

V = q1q2

4πεr (1.3)

(15)

Comme spécifié précédemment, la constante diélectrique est le plus souvent représentée comme un ratio entre la permittivité du milieu et celle du vide[11].

εr=

ε

εo (1.4)

La valeur de la constante est importante pour des molécules très polaires, par exemple l’eau, ou facilement polarisable. Inversement, la valeur est plutôt faible pour des molécules peu polaires. Cette dépendance est illustrée par la relation de Clausius-Mossotti.

ε − 1 ε + 2· M ρ = 4πNaα0 3 (1.5)

Où M représente la masse molaire, ρ la densité, Na le nombre d’Avogadro et α0

la polarisabi-lité. La constante peut aussi être exprimée en fonction de l’indice de réfraction à l’aide d’une des équations de Maxwell.

η '√ε (1.6) Où η représente l’indice de réfraction

Comme le montre la relation de Clausius-Mossotti, la constante diélectrique dépend de la densité du matériau et peut donc peut être altérée par la température et la pression. À titre d’exemple, la constante diélectrique de l’eau varie par un facteur deux sur l’intervalle de température de 0 à 100°C[12]. De plus, la présente «d’impuretés» d’une polarisabilité différente peut entraîner une fluctuation importante de la valeur de la constante [13,14]. Le meilleur exemple est l’effet important que l’humidité peut avoir étant donné la valeur élevée de la constante diélectrique de l’eau.

1.2.4 Techniques utilisées

Il existe quatre principaux types de modélisation moléculaire soit : la mécanique quantique, les calculs semi-empiriques, la mécanique moléculaire et les simulations à échelle mésoscopique. La grande différence entre ces quatre techniques est le niveau d’approximation des calculs et la taille des systèmes pouvant être traitée. Par exemple, la mécanique quantique, une technique se basant sur la résolution mathématique de l’équation de Schrödinger, permet des calculs extrêmement précis, mais se limite à des systèmes ne dépassant pas la cinquantaine d’atomes. La méthode semi-empirique se base également sur l’équation de Schrödinger, mais néglige les électrons de cœur et la répulsion électron-électron. Ces approximations permettent d’augmen-ter la taille des systèmes jusqu’à une centaine d’atomes. La mécanique moléculaire, pour sa part, n’utilise pas l’équation de Schrödinger, mais représente plutôt les atomes et les liens comme étant un système de billes et de ressorts régi par les lois de la mécanique classique. Elle ne permet donc pas de calculer des propriétés électroniques, mais allège suffisamment les calculs pour permettre des simulations allant jusqu’à 10000 atomes. La dernière méthode, les simulations mésoscopiques, ne tiens pas compte de chaque atome individuellement, mais traite

(16)

des groupes d’atome à l’aide de formule simplifiée. Cette méthode est davantage utilisée pour l’étude des polymères et des protéines et permet l’analyse de système très volumineux.

1.3

DFT

Précédent la mise au point de la théorie de la fonctionnelle de la densité (Density Functional Theory), abréviée DFT, les techniques antérieures de calcul quanto-chimique faisaient appel aux fonctions d’onde afin de calculer l’énergie d’un système. Avec cette approche, la fonction d’onde est définie en fonction d’un spin et de trois coordonnées spatiales pour chaque électron (en posant que le noyau atomique est fixe). On peut ensuite exprimer cette fonction à l’aide du déterminant de Slater[15]. C’est donc dire que, contrairement à la mécanique moléculaire qui sera décrite plus bas, les références du présent modèle sont de l’échelle microscopique et non macroscopique.

Initialement, personne ne pensait que les règles régissant les particules microscopiques devaient être foncièrement différentes de celles de la mécanique classique. C’est Max Planck qui, pour la première fois au début du siècle dernier, posa l’hypothèse que des principes fort différents devaient régir les deux aspects de la physique. C’est pour permettre de décrire la radiation du corps noir que Planck dû élaborer les bases de la théorie quantique pour expliquer que cette radiation ne pouvait prendre que certaines valeurs discrètes et n’était pas un continuum comme c’était la conception à l’époque[16]. Cela peut aussi s’illustrer par le fait que les électrons ne peuvent avoir que certaines énergies bien précises ou certains niveaux d’énergie. C’est en quelques sortes le fondement de la théorie des orbitales moléculaires.

Tout d’abord, le postulat central est que tout système possède une fonction d’onde. Cette fonction d’onde utilisée avec l’opérateur mathématique approprié permet de retrouver les propriétés observables du système. On peut donc écrire :

ϑψ = eψ (1.7) où ϑ représente l’opérateur, ψ la fonction d’onde et e l’observable. De plus, la probabilité de trouver un système chimique dans un espace donné est égale au carré de la fonction d’onde, intégré sur l’espace en question.

L’opérateur permettant d’obtenir l’énergie du système est appelé l’Hamiltonien. Dans ce cas précis on peut réécrire l’équation sous la forme suivante,

Hψ = Eψ (1.8) ce qui constitue l’équation de Schrödinger. Dans ce cas, l’Hamiltonien comporte cinq consti-tuants contribuant à l’énergie du système : l’énergie cinétique du noyau et des électrons, l’at-traction des électrons envers le noyau, et la répulsion entre les noyaux et entre les électrons.

(17)

Si on exprime l’Hamiltonien sous forme mathématique, il prendra la forme suivante : H = −X i ¯ h 2me ∆2i −X k ¯ h 2mk ∆2k−X i X k e2Zk rik +X i<j e2 rij +X k<l e2ZKZl rkl (1.9)

où i et j sont en lien avec les électrons, k et l en lien avec les noyaux, ¯h est la constante de Planck divisée par 2π, me la masse de l’électron, mk la masse du noyau, ∆2 est le Laplacien,

Z le nombre atomique, e la charge de l’électron et rab la distance entre les particules ab. Si

l’on travaille dans un plan cartésien, le Laplacien prend la forme suivante. ∆2i = ∂ 2 ∂x2 i + ∂ 2 ∂y2 i + ∂ 2 ∂z2 i (1.10) Un autre aspect important est le principe variationnel. Si nous posons une fonction Φ qui est une fonction orthogonale appropriée d’un système donné et pouvant être utilisée avec l’Hamiltonien, cette fonction doit être une combinaison linéaire de fonctions d’onde.

φ =X

i

Ciψi (1.11)

Après plusieurs réarrangements, on peut déterminer l’énergie minimum du système comme étant :

R φHφdr

R φ2dr ≥ E0 (1.12)

Cette inégalitée est très importante, car elle permet de déduire que, pour déterminer l’état fondamental d’un système, il sera possible de discriminer entre les fonctions d’onde pour choisir celle de plus basse énergie. En effet, l’état fondamental ne peut être décrit que par une fonction d’énergie minimum.

1.3.1 Premières approximations

Le premier postulat de la DFT est que l’énergie d’une molécule peut être exprimée en fonction de la densité électronique autour de celle-ci et non seulement à partir d’une fonction d’onde[17]. Si l’on essaie d’évaluer l’énergie d’un système en utilisant la seule densité comme variable, l’approche la plus simple serait de considérer le système comme étant soumis aux lois de la mécanique classique. Dans un tel cas, l’énergie potentielle peut facilement être déterminée à l’aide des équations suivantes, décrivant respectivement l’attraction entre le nuage électronique et le noyau, et la répulsion au sein même du nuage.

νne[ρ(r)] = noyau X k Z Z k |r1− r2| ρ (r) d (r) (1.13) νee[ρ(r)] = 1 2 Z Z ρ (r 1) ρ (r2) |r1− r2| d (r1) d (r2) (1.14) La description de l’énergie cinétique d’un système de charge continue est cependant moins intuitive. Cette problématique a été abordée pour la première fois par Thomas et Fermi en

(18)

1927[18,19]. Grâce au modèle du Jellium, ou gaz d’électron uniforme, ils ont décrit un système composé d’un nombre infini d’électrons évoluant dans un volume infini caractérisé par une distribution uniforme et non particulaire de charge positive. Cette distribution électronique a une densité non nulle qui demeure constante. À partir de ce modèle, ils ont pu dériver l’énergie cinétique du système. Tueg[ρ(r)]= 3 10 3π 223 Z ρ53 (r) dr (1.15)

Où Tueq représente l’énergie cinétique. C’est la première fois que l’énergie était définie sans

faire appel à une fonction d’onde.

1.3.2 Théorème de Hohenberg-Kohn

Malgré la grande avancée que représente la mise au point des équations de Thomas-Fermi, la technique était peu utilisée en chimie étant donné l’erreur importante associée à celle-ci. La situation a cependant changé avec la mise au point du théorème de Hohenberg et Kohn[20]. Ce théorème a deux postulats : 1) Le potentiel externe ainsi que l’énergie sont des fonctions uniques de la densité électronique. 2) La densité électronique qui minimise l’énergie est forcément la densité à l’état fondamental. Initialement, cette approche ne permettait que de déterminer l’énergie de l’état fondamental de la molécule. De plus, la dernière étape demeure la résolution de l’équation de Schrödinger, ce qui est particulièrement laborieux.

1.3.3 Kohn-Sham et l’approche du champ autocohérent

Plus tard, une formulation différente sera proposée par Kohn et Sham[21]. Cette approche représente l’équation de Schrödinger d’un système fictif, constitué de particules n’interagissant pas entre elles. L’équation décrit le mouvement de ces particules dans un potentiel externe υef f

appelé potentiel de Kohn-Sham. Le système étant constitué de particules qui n’interagissent pas entre elles, il peut être décrit par un seul déterminant de Slater construit à partir des orbitales ayant la plus faible énergie.

 h2 2m∆ 2+ υ ef f(r)  φi(r) = εiφi(r) (1.16)

Ou υef f décrit le potentiel effectif, h la constante de Planck et m la masse de l’électron.

Avec cette nouvelle approche, la densité électronique est exprimée comme une combinaison linéaire de fonctions de base pouvant être similaires dans leur expression mathématique aux fonctions d’onde de la méthode Hartree-Fock. Un déterminant nommé orbitale de Kohn-Sham est ensuite construit à l’aide de ces fonctions. Celui-ci est formé d’orbitales qui sont elles mêmes des fonctions d’ondes pour un électron. Le déterminant représente quant à lui une fonction de base pour la fonction d’onde de N électrons. On peut par la suite déterminer l’énergie à partir de la densité électronique qui sera calculée à l’aide de ce déterminant avec l’équation suivante :

(19)

Ou les termes de gauche représentent respectivement l’énergie cinétique des électrons, l’in-teraction noyau-électrons, la répulsion entre les électrons, la correction de l’énergie cinétique tenant compte de la répulsion électronique et toutes les corrections non classique de l’énergie de répulsion entre les électrons. Il existe plusieurs similitudes entre la DFT et les méthodes de type Hartree-Fock. La principale est que les mêmes paramètres sont présents dans la matrice permettant de déterminer l’énergie cinétique et la répulsion électronique. Une différence fon-damentale persiste, la DFT ne comporte pas, dans sa nature même, d’approximation, elle est exacte. Malheureusement, pour que cela soit vrai en pratique, il faut pouvoir relier exactement l’énergie et la densité électronique, ce qui depuis le temps de Kohn-Sham n’a toujours pas pu être accompli. En conséquence. Un nombre impressionnant de méthodes ont été mises au point pour évaluer cette dépendance. Il est donc ironique de voir que la méthode Hartree-Fock est une méthode délibérément approximative dont le développement visait à résoudre exactement l’équation de Schrödinger, tandis que la DFT est une méthode exacte, mais qui doit être utilisée approximativement étant donné que le bon opérateur n’est pas connu.

1.3.4 Fonctions de corrélation d’échange

À défaut de pouvoir calculer exactement l’énergie, une approximation doit être trouvée pour obtenir des résultats qui sont tout de même fiables. La majorité de ces méthodes ne tente même pas de représenter le terme évaluant l’interaction entre les différents électrons. À la place, elles incorporent des données expérimentales permettant de tenir compte de ces interactions, ou elles incorporent une fonction permettant de tenir compte de ces interactions, appelées fonction d’échange et de corrélation. On peut exprimer la dépendance de l’énergie Exc envers

la densité électronique comme une interaction de cette même densité électronique avec un nouveau paramètre décrivant la densité d’énergie Exc.

Exc[ρ (r)] =

Z

ρ (r) εxc[ρ (r)] dr (1.18)

En utilisant la même nomenclature, on peut déterminer que le déterminant de Slater repré-sentant la densité d’énergie va être le suivant :

εx[ρ (r)] = − 9α 8  3 π 13 ρ13 (r) (1.19)

Ou α est une constante que lorsque dérivé avec le déterminant de Slater vaut 1. Le spin électronique peut aussi être pris en compte en ajoutant une simple fonction de densité de spin qui permet de tenir compte des deux possibilités de spin et de leur densité respective.

ξ (r) = ρ

α(r) − ρβ(r)

ρ (r) (1.20) Ou α et β sont deux électrons de spin contraire. Au fur et à mesure que les méthodes ont été raffinées, des approximations de plus en plus précises ont pu être mises au point. La plus

(20)

simple est l’approximation de densité locale (LDA). Cette théorie illustre un modèle ou la densité d’énergie peut être calculée précisément en un point en utilisant la seule valeur de densité électronique en ce point. La seule condition pour que le modèle soit cohérent est que la densité doit avoir une valeur unique en chaque point. Étant donné cette approximation un peu grossière, seules les fonctions dérivant du modèle du gaz électronique uniforme ont vu une certaine utilisation. Et encore, cela est davantage dû à leur fonction d’échange et de corrélation. Cela ne signifie pas que la méthode considère la densité électronique de la méthode comme étant constante, mais bien qu’elle évalue que l’énergie du système devrait être comparable à celle calculée pour un gaz électronique uniforme de même densité constante.

Il est clair que cette méthode trouve rapidement ses limitations. En effet, le nuage électro-nique peut difficilement être décrit comme étant uniforme. Un terme correctif peut cependant être ajouté permettant de tenir compte non de la densité en un point, mais du gradient de la densité. Une méthode utilisant un tel correctif est nommée approximation des gradients généralisés (GGA)[22]. Une fonction en particulier, développée par Becke, va ouvrir la voie au développement de beaucoup d’autres fonctions[23]. C’est en effet la combinaison de cette fonction d’échange avec la fonction de corrélation développée par Lee, Yang et Parr qui va donner naissance à la méthode de calcul BLYP[24].

Ces avancées ont encore davantage été raffinées pour pouvoir tenir compte d’une certaine contribution de Hartree-Fock et une certaine contribution de DFT. Cette nouvelle façon de procéder est la méthode de connexion adiabatique. De cette façon on calcule Exc avec un ratio de DFT et de HF.

Exc= (1 − α)DF Txc + αExHF (1.21)

Ou α est un coefficient de contribution. Une fois le paramètre α introduit, on est en droit de se demander pourquoi ne pas ajouter d’autres paramètres permettant de tenir compte de tel ou tel aspect intéressant d’une fonction donnée. Becke fut le premier à mettre en pratique ce raisonnement avec la mise au point de B3PW91.

ExcB3P W 91= (1 − α) ExLSDA+ αExHF + b∆Bx + EcLSDA+ c∆EcP W 91 (1.22) Ou a,b et c sont des coefficients qui ont été optimisés et ont une valeur respective de 0,21 0,72 et 0,81[25]. Par la suite, PW91 a été remplacé par LYP, la fonction développée par Lee, Yang et Parr, pour former B3LYP, la méthode de calcul la plus utilisée encore aujourd’hui.

ExcB3LY P = (1 − α) ExLSDA+ αExHF + b∆Bx + EcLSDA+ c∆EcLY P (1.23) Les performances de cette méthode sont impressionnantes, surtout en tenant compte qu’initia-lement les coefficients a, b et c n’étaient pas optimisés. Il a été observé que l’ajout de paramètre HF dans des calculs DFT pour former ces méthodes dite hybrides a plusieurs avantage[26]. Premièrement, cela corrige la tendance de la DFT à sous-estimer l’aspect ionique dans polari-sabilité des liaisons chimiques. De plus, les techniques GGA tendent à sous-estimer la barrière

(21)

énergétique pour le bris d’une liaison chimique, tandis que les techniques HF la surestiment. La fusion des deux méthodes permet donc d’obtenir un résultat plus juste.

1.4

Mécanique moléculaire

En mécanique moléculaire, les calculs d’énergie sont fait à l’aide d’un ensemble d’équation mathématique et de paramètres empiriques ce qui constituent un champ de force. Divers termes d’énergie de déformation ou d’iInteractions interatomiques sont considérés, soit l’énergie de déformation des liaisons chimiques, l’énergie de déformation des angles de valence, l’énergie de torsion autour de chaque liaison, l’énergie de van der Waals et l’énergie électrostatique, auxquels peuvent s’ajouter divers termes supplémentaires pour améliorer l’accord avec les données expérimentales de référence. Ces divers constituant sont décrit dans les équations suivantes.

EP otentielle= Einterne+ Enon−covalente (1.24)

Que l’on peut subdiviser en :

Einterne= Evalence+ Etermes−croises (1.25)

et

Enon−covalente = Evdw+ ECoulomb+ Elien−H (1.26)

Parmi le grand nombre de paramètres devant être pris en compte pour modéliser un système, le choix du champ de force est d’une grande importance. Le champ de force définit pour chaque atome un type (selon les atomes auxquels il est lié), une hybridation, une charge, les liens chi-miques entourant l’atome, ainsi que leurs nombres et les constantes de force agissant entre les atomes. La paramétrisation des champs de force s’effectue à l’aide de données expérimentales ou de calculs ab initio. Les champs de force sont la somme de plusieurs équations de mécanique classique ressemblant à la loi de Hooke, tout en étant beaucoup plus complexes. Rappelons que la loi de Hooke peut s’exprimer par :

U = 1 2k (∆x)

2 (1.27)

où U représente l’énergie potentielle d’un ressort, k la constante de rappel du ressort et ∆x l’allongement du ressort.

1.4.1 Déformation des liens

L’équation 1.27 permet d’évaluer l’énergie potentielle pour un système ressemblant de près au système de référence, c’est-à-dire un modèle où ∆x est très faible. Autrement dit, pour un système moléculaire dont les liens ne sont pas distordus outre mesure, l’approximation demeure assez bonne. Cependant, dans un cas où le lien est déformé de manière importante, l’équation prédit une valeur infiniment positive, ce qui ne correspond pas avec les données expérimentales

(22)

connues. Des équations légèrement différentes sont donc utilisées,selon le champ de force. Par exemple, L’introduction d’un terme cubique permet de contrebalancer l’augmentation de l’énergie prédite par la fonction quadratique.

Ur=

1 2k + k

3(∆r) (∆r)2 (1.28)

Cet ajout a pour conséquence fâcheuse que cette fois-ci pour une grande distance de liai-son, l’équation va prédire une valeur infiniment négative pour l’énergie. Pour remédier à ce problème, un autre terme, quartique cette fois-ci, est souvent ajouté.

Ur= 1 2 h k + k3(∆r) + k4(∆r)2 i (∆r)2 (1.29) Cette équation est utilisée dans de nombreux champs de force, dont celui utilisé pour le présent travail, mis au point pour des composés organiques

1.4.2 Déformation des angles de valence

Il est tout aussi essentiel de pouvoir tenir compte de la variation des angles de valence. Dans le présent travail cette énergie potentielle est régie par une équation ayant la forme suivante.

UΘ=

1 2

h

k + k3(∆Θ) + k4(∆Θ)2+ · · ·i(∆Θ)2 (1.30) Ou Θ représente l’angle de valence

Malgré la qualité de l’approximation donnée par l’équation ci-dessus, certains problèmes per-sistent. En effet, l’équation ne permet pas de décrire correctement le comportement d’un lien chimique dont l’angle de plus faible énergie avoisinerait les 180 degrés.

1.4.3 Énergie de torsion

Il est bien connu que les diverses conformations adoptées par une molécule n’ont pas les même énergies relatives. Un terme d’énergie de torsion est donc ajouté au champ de force. Par convention, il serait naturel de définir l’angle de torsion comme allant de 0 à 360 degrés (ou de 0 à 2π radians). Cependant, étant donné que l’angle de torsion est une propriété périodique et que dans plusieurs systèmes l’énergie minimale est atteinte avec un angle antipériplanaire, il est plus utile de définir son intervalle de -180 à +180 degrés. On peut donc représenter sous sa forme générale l’énergie en fonction de l’angle de torsion grâce à l’équation suivante.

U (ω) = 1 2 X j Vj h 1 + (−1)j+1cos (jω + ψj) i (1.31) Où V j représente l’amplitude, j représente une séquence de périodicité et où ω et Ψ sont des angles. L’ajout de ces paramètres supplémentaires se justifie par le fait qu’expérimentalement l’énergie est généralement minimale pour un angle de 180 degrés (π rads).

(23)

1.4.4 Énergie d’interactions de van der Waals

Le terme suivant, soit celui des énergies de van der Waals, est calculé pour chaque paire d’atomes non liés de la molécule. Si l’on prend comme référence deux atomes de gaz noble qui s’approche l’un de l’autre, à une distance infinie, l’énergie potentielle est nulle. Dans ce cas fort simple, la force exercée entre les deux atomes pourrait être décrite simplement par l’équation suivante.

Fq= −

∂U

∂q (1.32)

En assignant aux deux atomes un rayon non nul décrit par le modèle de la sphère dure, on observe qu’à une distance équivalente à deux fois le rayon des sphères, l’énergie potentielle devient infinie et les atomes ne peuvent plus se rapprocher[27]. Cependant, lorsque l’on tient compte de la théorie quantique, cette représentation s’avère être erronée. Étant donné que les électrons des nuages électroniques sont en mouvement, les deux atomes développent des moments dipolaires. La force associée à ce type d’interaction est la force de London[28]. En l’absence de charge permanente, ces interactions, aussi appelées interactions dipôle induit-dipôle induit, sont prédominantes. De plus, au fur et à mesure que les atomes se rapprochent, leurs nuages électroniques commencent à s’entrecroiser. À ce point, les forces de répulsion, ou répulsions de Pauli, prennent de l’ampleur et poussent les noyaux à se distancer. La combinai-son de ces forces d’attraction et de répulsion donne une énergie potentielle qui fluctue selon une courbe de potentiel de Lennard-Jones. Ceci peut être simplement décrit par l’équation suivante, U (rAB) = aAB rAB12 − bAB rAB6 (1.33) où a et b représentent des constantes spécifiques aux paires d’atomes A et B. La présence d’un terme r à la puissance 12 ne se justifie par aucune observation expérimentale, mais bien pour des raisons computationnelles. Normalement, la répulsion devrait varier de façon exponentielle en fonction de la distance, mais il s’avère qu’une telle fonction est environ cinq fois plus coûteuse en termes de temps de calcul, et que la puissance douze offre une approximation correcte. Bien que cela puisse sembler mineur, étant donné la puissance computationnelle dont on dispose, et que chaque calcul ne prend qu’une fraction de seconde, c’est le nombre de calculs qui donne à cette simplification tout son sens. En effet, le temps nécessaire pour calculer l’énergie est proportionnelle au nombre d’atomes du système au carré. De plus, pour une optimisation de géométrie ou autre calcul du genre,l’opération doit être répétée plusieurs milliers de fois. On peut ainsi réécrire l’équation du potentiel de Lennard-Jones sous la forme suivante. U (rAB) = 4εAB "  σAB rAB 12 − σAB rAB 6# (1.34) où les coefficients a et b ont été remplacés par ε et σ qui sont des constantes spécifiques aux atomes A et B. Le potentiel tel que décrit ci-dessus continue d’être utilisé dans de nombreux champs de forces, particulièrement ceux destinés à être utilisés pour de grosses molécules

(24)

biologiques. Cependant, pour des systèmes plus petits, un autre algorithme tenant compte cette fois-ci du potentiel de Morse et de Hill permet d’obtenir une meilleure approximation malgré un temps de calcul plus élevé.

U (rAB) = εAB " 6 βAB−6 exp  βAB 1 − rAB rAB∗  −  βAB βAB− 6   rAB∗ rAB 6# (1.35) Le paramètre β est ajouté pour mieux tenir compte des données expérimentales. D’autres paramètres peuvent aussi être ajoutés pour raffiner davantage l’équation, mais celle-ci conserve toujours une forme semblable.

1.4.5 Énergie d’interactions électrostatiques

Si l’on considère un système de deux molécules interagissant à une bonne distance l’une de l’autre, chacune caractérisée par un moment diélectrique permanent non polarisable, l’inter-action entre les deux atomes sera décrite par l’équation suivante.

UAB = MAVB (1.36)

où MA est un vecteur décrivant le multipôle de A et VB un vecteur semblable décrivant

le potentiel diélectrique dérivant de B. De manière plus rigoureuse, les énergies ont déjà été définis en fonction de la déformation de leur longueur de liaison, de leurs angles de liaison,de la torsion et des interactions de van der Waals. Il est important d’ajouter les interactions électrostatiques dans ce même modèle. La façon la plus simple de procéder est d’attribuer une charge partielle qA et qB à chacune des paires d’atomes non liés A et B. Dans un tel cas, l’interaction entre A et B serait décrite comme suit :

UAB =

qAqB

εABrAB (1.37)

Dans le cas le plus simple, cette charge est décrite comme permanente dans le sens où chaque type d’atome se voit attribuer une charge en fonction de sa nature et la conserve de manière permanente durant les calculs. Une autre façon, plus complète, de définir la charge serait de la déterminer à partir de l’électronégativité de chaque atome. Cela permettrait aussi de tenir compte de l’environnement chimique des atomes. Cela revêt un intérêt certain, parce que l’énergie électrostatique est souvent plus importante que les autres composantes du champ de force, et s’exerce à plus grande distance. On peut aussi relier l’énergie électrostatique au moment dipolaire µAB et µCD de deux liens chimiques. Dans le cas suivant, on évalue l’énergie d’interaction électrostatique entre le lien AB et CD selon :

UAB/CD =

µABµCD

εAB/CDr3 AB/CD



cos (x)AB/CD− 3 cos (α)ABcos (α)CD 

(1.38) où α et x sont des vecteurs d’orientation, µ la magnétude du vecteur et ε la constante diélec-trique. L’énergie d’interaction électrostatique entre les atomes d’hydrogène et hétéroatomes

(25)

(O, S, etc.), souvent nommés liaisons ou ponts hydrogène, représentent un des termes d’énergie les plus importants pour les systèmes non ioniques. Afin de pouvoir tenir compte des effets des ponts hydrogène, un terme supplémentaire peut être ajouté au champ de force, ce qui n’est pas le cas pour le champ utilisé dans ce travail.

U (rHX) =

α0HX r12HX

b0HX

r10HX (1.39) où X est un hétéroatome auquel H n’est pas lié chimiquement. Il est également possible d’in-clure les effets de la polarisabilité dans le système. Pour ce faire, on calcul les interactions électrostatiques comme étant la somme du champ électrique permanent de la molécule et des dipôles induits. Bien que cela ajoute de la précision au modèle, le temps de calcul est augmenté d’un ordre de grandeur. Pour cette raison, à l’exception de système bien précis, la polarisabilité n’est pas calculée.

1.4.6 Termes croisés et termes non liés

Il est important de voir l’énergie de déformation des longueurs de liaison, des angles et de torsion non pas comme trois termes d’énergie séparés, mais bien comme des termes qui sont interreliés. En conséquence, il peut être intéressant d’ajouter un terme permettant de tenir compte d’effet combiné de ces différentes énergies, particulièrement pour des systèmes conju-gués. Si l’on prend le cas des amides, le couplage entre les forces d’étirement des groupements CO et CN présente une énergie allant jusqu’à 15 % que les énergies respectives des groupe-ments. Un terme supplémentaire permettant de tenir compte de ces effets peut être introduit.

U(rBCABCD) = 1

2kBC,ABCD(∆rBC) [1 + cos (jω + ψ)] (1.40)

1.4.7 Minimisation d’énergie

Une des principales motivations de l’élaboration d’un champ de force est de pouvoir effica-cement évaluer l’énergie d’un système pour ensuite pouvoir la minimiser et ainsi obtenir la structure la plus stable pour ce système. En prenant un exemple très simple d’une molécule diatomique, avec comme seul degré de liberté la longueur du lien, on peut facilement visua-lise le processus d’optimisation. On commence tout d’abord par allonger ou raccourcir le lien d’une certaine distance et l’on recalcule l’énergie. Si celle-ci diminue, on procède avec une autre itération dans le même sens pour voir si l’énergie diminue encore. Dans le cas contraire, on pro-cède à l’itération inverse, allongement au lieu de rétrécissement et vice-versa et l’on recalcule l’énergie à chaque itération. On peut poursuivre le processus jusqu’à ce que les fluctuations d’énergie soient inférieures à une limite arbitrairement fixée. Dans un cas en trois dimensions, considérant le nombre d’atomes et de termes d’énergie interrelié dont on doit tenir compte, on ne peut pas simplement procéder de la sorte en optimisant un seul paramètre à la fois sans toucher aux autres. Diverses solutions mathématiques approximatives peuvent être utilisées

(26)

pour résoudre ce problème plus rapidement. L’idéal est de procéder avec un gradient d’énergie pointant dans la direction opposée du vecteur g ci-dessous.

g (q) =          ∂U ∂q1 ∂U ∂q2 ∂U ∂q3 · · · ∂U ∂qn          (1.41)

où q représente un vecteur de n dimensions (n=3N-6 où N= nombre d’atomes). Bien qu’il puisse sembler simple de dériver la matrice, il n’en est rien. À l’exception des termes d’élon-gation de lien, les paramètres sont particulièrement complexes à dériver. On peut procéder en suivant grossièrement la direction indiquée par –g et en recalculant g lorsque l’on atteint un minimum local. Cette méthode ayant tendance à converger extrêmement lentement, une approche plus robuste s’impose. Cette technique nommée Newton–Raphson permet de déter-miner avec précision la position du minimum. Si l’on dérive l’expansion de Taylor suivante U (q) = U (qeq)+ 3N −6 X i=1 (qi− qieq) ∂U ∂qi q=qeq+ 1 2! 3N −6 X i=1 3N −6 X j=1 (qi− qieq) (qj− qjeq) ∂2U ∂qi∂qj q=qeq +(· · ·) (1.42) et qu’on réarrange l’équation, on obtient la formule suivante qui pointe la location des points d’énergie minimums.

g(k+1)i = gki +hHkqk+1− qki

i (1.43)

La condition suivante doit être remplie pour que l’on soit en présence d’un minimum qk+1= qk−Hk

−1

gk (1.44) Au départ d’une structure initiale de coordonnée qk, on calcule le gradient g et sa matrice

hessiennne H (la matrice carrée des dérivés secondes de la fonction) et l’on choisit une nouvelle structure qk+1. Il s’agit cependant d’une approximation, ce qui signifie que c’est au fil de

plusieurs itérations qu’une structure optimale va être déterminée. Il est à noter que cette technique a tendance à trouver le minimum le plus près, qui n’est pas nécessairement le minimum absolu du système. La définition d’un minimum étant que la dérivée seconde soit positive dans toutes les directions, il est possible que la méthode converge vers un minimum local si l’optimisation démarre avec une structure près de ce minimum. Il est donc intéressant d’introduire subséquemment un peu de désordre dans la structure pour ensuite optimiser de nouveau et voir si le système converge vers la même conformation ou minimum d’énergie.

1.4.8 Dynamique moléculaire

L’énergie potentielle calculée par le système correspond à une molécule à 0K. Il est possible de tenir compte de la température, et donc de la distribution de l’énergie cinétique, par une

(27)

approche dite de dynamique moléculaire. Pour commencer, considérons un simple oscillateur harmonique unidimensionnel. Les deux seuls paramètres permettant de caractériser le mouve-ment d’un tel système sont sa vitesse et sa position. Si l’on voulait décrire la trajectoire de cet oscillateur à partir de l’équilibre, on notera que le déplacement de l’oscillateur sur l’ensemble de sa trajectoire est assujetti à l’équation suivante :

q (t2) = q (t1) +

Z t2

t1

p (t)

m dt (1.45) Où q représente la position et p la vitesse.

On peut noter que normalement, la trajectoire d’un tel système ne doit pas se répéter. Cepen-dant, elle peut être périodique, dans un tel cas chacune des structures périodiques se répète en elle-même, mais elles ne se croisent pas l’une et l’autre. Dans le cas d’un système plus com-plet qu’un simple oscillateur, il est extrêmement laborieux d’intégré l’équation de l’énergie pour l’ensemble des atomes et ce pour chacune des itérations. Cependant, en simplifiant des équations régissant l’oscillateur, il est possible d’approximer cette relation selon :

q (t + ∆t) = q (t) + p (t)

m ∆t (1.46) Et

p (t + ∆t) = p (t) + ma (t) ∆t (1.47) À l’aide de ces équations, il est possible de faire une simulation raisonnable de l’évolution du système dans le temps. On attribue une position initiale de faible énergie et donc plausible aux atomes de la molécule, ce qui peut résulter d’une molécule dans une conformation de départ aléatoire ayant subi une minimisation d’énergie, ou une représentation basée sur des données expérimentales (exemple, les structures cristallographiques). Pour ce qui est de la vitesse initiale, un ensemble de vitesses aléatoires est attribué en fonction des contraintes de températures. La relation entre la puissance pi(t) ? et la température à un temps t, T(t), est décrite par l’équation suivante.

T (t) = 1 3N − n N X i=1 |pi(t)| mi (1.48)

où N est le nombre d’atomes et n le nombre de degré de liberté par atome. Plusieurs problèmes sont à prévoir. Premièrement, étant donné qu’il s’agit d’une approximation, il est fort possible que lorsque l’accélération est calculée, celle-ci ne soit pas tangente à la vraie courbe expéri-mentale, étant donné qu’une seule position mal calculée va résulter en une courbe différente et donc en une tangente différente. Pour restreindre au maximum ces effets, il est important de choisir un timestep, ou temps entre chaque itération, le plus petit possible, idéalement de l’autre de la femtoseconde. Cependant, étant donné que pour chaque itération toutes les forces moléculaires doivent être calculées pour chaque atome, cela représente une forte charge com-putationnelle. Pour suivre la progression du système dans le temps, plusieurs options existent.

(28)

La plus simple, mais une des plus imprévisibles serait d’utiliser l’approximation d’Euler d’in-tégrer dans le sens de la tangente, mais cela n’est pas souhaitable. Une façon plus élaborée de voir le problème serait d’utiliser une approximation basée sur une expansion de Taylor de la forme suivante. q (t + ∆t) = q (t) + v (t) ∆t + 1 2!a (t) (∆t) 2+ 1 3! d3q (τ ) dt3 τ =t (∆t)3+ · · · (1.49) où v et a représentent respectivement la vitesse et l’accélération. Une telle méthode simpli-fiée a été utilisée pour la première fois par Verlet[29]. Une version simplisimpli-fiée et réarrangée de l’équation précédente utilisée par Verlet est la base de sa technique nommée saut de grenouille. Cette méthode possède l’avantage de calculer le vecteur de position indépendamment du vec-teur de vitesse. On obtient des équations ayant la forme suivante pour la position et la vitesse respectivement. q (t + ∆t) = q (t) + v  t + 1 2∆t  (∆t) (1.50) v  t + 1 2∆t  = v  t − 1 2∆t  + a (t) ∆t (1.51) Il est intéressant de noter qu’avec cette approche, la position est actualisée à partir de la vélocité calculée à chaque demi-itération. Aucun calcul d’accélération ou de champs de force n’a lieu entre deux itérations, seulement la vitesse, ce qui permet de ne pas alourdir autre mesure la procédure toute en augmentant de la manière appréciable la précision. L’énergie et l’accélération sont recalculée après chaque itération.

La gamme de propriétés pouvant être évaluées à l’aide de la dynamique moléculaire est extrê-mement vaste. À titre d’exemple, on peut déterminer la fonction de distribution radiale d’un système. Cette mesure représente la probabilité qu’un atome se trouve à une distance r d’un autre atome placé par définition au centre d’une sphère. Cette fonction permet également de tenir compte des ratios des différents types d’atomes. Cette propriété est généralement évaluée expérimentalement par diffraction des rayons X. Dans un volume sphérique, cette distribution serait décrite par l’équation suivante.

1 Vgab(r) = 1 NA· NB *NA X i=1 NB X j=1 δ [r − rAiBj] + (1.52) où A et B décrivent deux atomes, V le volume, N le nombre d’atomes total et δ la fonction delta de Dirac. On peut également aussi exprimer cette propriété sous forme de distribution de probabilité.

P {A, B, r, ∆r} = 4πr

2

V gAB(r) ∆r (1.53) En plus des propriétés thermodynamiques elles-mêmes, les fonctions d’autocorrélation peuvent permettre de déterminer d’autres propriétés intéressantes comme le coefficient de diffusion, les fonctions de stress et le même le spectre infrarouge[30-32].

(29)

Il est évident que les ressources computationnelles restreignent la taille des systèmes pouvant être modélisés. Il arrive donc que des interactions chimiques, dites «effets de surface» pré-dominent, alors qu’elles devraient normalement être marginales. Pour limiter l’influence de tels effets, la technique des conditions de limites périodiques peut s’avérer fort utile. Cette approche pose le postulat que le système d’intérêt, qu’il soit amorphe ou cristallin, est une maille qui se répète à l’infini au sein de la matière, comme dans le cas d’une maille cristal-line qui représente adéquatement un cristal[33]. Avec cette approche, le système est entouré de répliques périodiques de lui-même ce qui permet de modéliser un système beaucoup plus imposant, mais sans alourdir inutilement la procédure. De cette façon, le modèle ne voit pas de « surface »ou de vide autour de lui, mais uniquement les atomes du centre du matériau ainsi que les atomes des mailles voisines, appelés ‘atomes fantômes’, définis uniquement par translation des atomes de la maille principale dans toutes les directions. Ceci permet aussi d’utiliser des méthodes de sommation comme la technique Ewald qui tient compte des inter-actions électrostatiques sur des distances infinies et qui ne peut donc être utilisée que sous des conditions de limite périodique[34]. Il est cependant important de choisir avec soin la taille de la maille de base, surtout dans le cas d’un système amorphe, si celle-ci est trop petite, l’effet de symétrie introduit par la présence de la périodicité viendra fausser les propriétés qu’on désire calculer.

La dynamique moléculaire classique telle que décrite précédemment, sous-entend que le nombre de particules, le volume, ainsi que l’énergie du système demeure constant tout au long de la dynamique. On la qualifie de sous-ensemble NVT, Ceci est généralement souhaitable, mais pas toujours. Dans certains cas, il est intéressant de pouvoir poser la température et/ou la pression comme étant constantes et de faire varier les autres propriétés. Cependant, il se peut que les propriétés obtenues à l’aide de telles approches soient moins représentatives de la réalité. Une façon de contourner ce problème est d’utiliser une méthode alternative comme la méthode de Berendsen. Cette approche définit le système comme s’il était immergé dans un bain-marie. Le système peut donc échanger de l’énergie avec le bain –marie, qui sert de réservoir thermique[35]. La vitesse des particules, dans un tel cas, sera décrite par l’équation suivante. ai(t)= Fi(t) mi +pi(t) miτ  T0 T (t) − 1  (1.54) où T représente la température à un instant précis et τ une unité de temps qui sert à contrôler la force du couplage. En faisant appel à la même approche, la pression peut également être définie. P (t) = 1 V (t)  N KBT (t) N X i N X j>1 Fijrij   (1.55) où V est le volume, N le nombre de particule et F et r la force et la distance entre les particules. La pression peut aussi être calculéer à l’aide d’algorithmes semblables, mais avec certaines autres propriétés, comme par l’algorithme de Andersen et de Nose[36,37].On peut

(30)

aussi travailler dans un modèle où la pression et la température fluctuent en même temps. Ce type d’approche est appelé NPT. Dans un tel cas, la variable déterministique n’est plus l’énergie interne, mais l’enthalpie. La probabilité d’accepter un nouveau volume au détriment du volume précédent est régie par l’équation suivante.

p = min V N 2 exp [− (E2+ P V2) /KBT ] V1Nexp [− (E1+ P V1) /KBT ]  (1.56)

(31)

Chapitre 2

But du projet

La détection des explosifs pose un problème de taille. D’une part, plusieurs méthodes déjà éprouvées existent, mais d’autre part ces méthodes sont soit imprécises, soit sujettes à un nombre important de faux positifs. Initialement, les détecteurs de métaux présentaient une solution acceptable, cependant les engins explosifs contiennent de moins en moins de compo-santes métalliques, ce qui rend l’utilisation de détecteur de métal de plus en plus inefficace et dangereuse.

Une des techniques les plus prometteuses est l’utilisation du radar à pénétration de sol (GPR) afin de détecter l’explosif en tant que tel dans le sol. Ce type de radar opère en détectant des variations de conductivité électrique dans le sol. Couplée à un détecteur de métal, cette approche présente les résultats les plus encouragent. Plusieurs améliorations seront toutefois nécessaires pour que cette approche soit pleinement fiable, efficace et précise. Il faut, en par-ticulier, se doter d’une base de données sur les constantes diélectriques des explosifs qui soit ajustable en température. Cependant, en raison du nombre de nouveaux explosifs potentiels, souvent non disponibles commercialement, et en raison des dangers reliés aux expériences sur les explosifs, cette solution n’a pas été adoptée dans le présent cas. Une méthode permettant de déterminer la valeur de la constante diélectrique d’un matériau énergétique à partir de sa seule structure était désirée.

Le but principal de ce projet est donc de mettre sur pied une approche permettant l’estimation par calcul théorique des valeurs de constante diélectrique, ce qui permettrait par la suite de pouvoir créer des bases de données pour une vaste gamme d’explosifs en fonction de la tem-pérature. De cette manière, les explosifs pourraient être détectés avec précision et distingués les uns des aux autres.

Plusieurs méthodes ont été proposées dans la littérature scientifique pour déterminer théo-riquement la constante diélectrique. Dans la majorité des cas, une approche de dynamique moléculaire est utilisée[38]. Certaine publication font état de l’utilisation de la DFT, mais dans aucun cas une comparaison de base n’a été faite[39,40]. D’autres approches ont aussi été

(32)

testées comme la théorie des milieux effectifs, une technique prenant en compte les proprié-tés de chacun des constituants du système pour ensuite extrapoler les propriéproprié-tés du système global[41]. Bien qu’intéressantes, ces approches sont soit imprécises soit trop spécifiques à un type de système précis et donc peut intéressantes pour répondre à la problématique de la détection des explosifs. Dans le cadre de ce travail, une approche différente sera donc explo-rée, soit l’utilisation de la mécanique quantique et plus précisément les méthodes issues de la théorie de la densité fonctionnelle ou DFT pour modéliser les matériaux énergétiques et par la suite, estimer leur valeur de constante diélectrique, cette méthode permet d’obtenir la pré-cision et l’exactitude requises, tel que discuté dans le chapitre précédent. Un autre problème subsiste cependant. Comme discuté plus haut, la constante diélectrique est fortement dépen-dante de la densité et donc de la température. Il est donc primordial que la méthode puisse tenir compte de cet effet. La mécanique moléculaire et plus particulièrement la dynamique moléculaire constitue la meilleure approche dans ce cas-ci. En effet, à l’aide de la dynamique un système peut être placé dans des conditions précises de pression et de température et peut évoluer dans le temps.

Dans un premier temps, des calculs de DFT ont été faits pour estimer les valeurs de constante diélectriques d’une large gamme de matériaux énergétiques. Ces calculs ont ensuite été com-parés avec les valeurs expérimentales présentées dans la littérature afin de vérifier leur préci-sion. Finalement, les meilleures méthodes ont été appliquées à des explosifs dont la valeur de constant diélectrique n’était pas connue afin de l’évaluer de façon théorique.

Dans un deuxième temps, des calculs de dynamiques moléculaires ont été faits afin de mieux comprendre les effets de changements de température sur les dimensions de la maille cristalline des explosifs. Des systèmes plus ou moins complexes ont été modélisés afin de vérifier la robustesse de la méthode. Les valeurs obtenues ont été comparées aux valeurs expérimentales rapportées dans la littérature.

(33)

Chapitre 3

Théorie de la fonctionnelle de la

densité (DFT)

Bien que la détection des explosifs soit un enjeu de premier ordre, peu de travaux utilisant la DFT ont été faits, malgré la précision des valeurs obtenus par cette méthode. Comme précisé précédemment, plusieurs travaux ont porté sur l’estimation des constantes diélectriques à l’aide de la méthode DFT. Cependant, jamais de tels calculs n’ont été faits sur des explosifs. Des études expérimentales ont aussi déjà été faites, mais cela pose plusieurs problèmes. Pre-mièrement, de nouveaux explosifs font leur apparition à un rythme soutenu au fil des ans, leur préparation limitée par la seule imagination de leur créateur. Il est donc presque impossible d’avoir à tout moment en sa possession un échantillon de tous les nouveaux explosifs. La prise de mesures expérimentales est de plus compliquée par le fait que la synthèse de plusieurs de ces composés est particulièrement dangereuse.

Dans un même ordre d’idée, la prise de mesure sur certains explosifs peut s’avérer probléma-tique, étant donné que ceux-ci sont extrêmement sensibles. Il faut donc limiter à un minimum les manipulations sur de tels composés. C’est en partie pour cela que plusieurs propriétés de certains composés énergétiques restent inconnues à ce jour.

Une autre grande limitation est le coût important des mesures expérimentales. En effet, l’équi-pement pour travailler de manière sécuritaire en présence d’explosifs est coûteux. Les explosifs en tant que tels peuvent aussi représenter un coût important.

Une revue de la littérature a été effectuée afin de déterminer quelle méthode de calcul serait la plus efficace, et ce pour une large gamme d’explosifs. Les calculs ont été réalisés avec le logiciel Gaussian 09[42]. Les résultats ont ensuite été analysés pour obtenir la valeur de constante diélectrique des composés. Il est à noter que les calculs des DFT ne permettent pas automatiquement d’obtenir la constante diélectrique, mais donne la matrice permettant de calculer la polarisabilité, une propriété reliée mathématiquement à la constante diélectrique. La

Figure

Figure 3.1 – Explosifs choisis pour ce travail
Figure 3.2 – Comparaison de la précision et du temps de calcul de DFT en utilisant différentes bases
Figure 3.3 – Classement des combinaisons bases fonctionnelles par la fidélité des résultats avec l’expérimental
Figure 3.4 – Classement des combinaisons bases fonctionnelles par temps de calcul
+7

Références

Documents relatifs

Mais aussi, comme le rapporte un article du New England sur le «big health care data», 1 une ap- proche par data mining de l’ensemble des données du système de santé

En cette année 2016 l’Europe est à la croisée des chemins : (a) soit elle se contente d’agir à la marge en centrant son attention essentiellement sur les problèmes de

The implementation of Agenda 2030 requires that for the next 15 years, the international community should be able to translate the Sustainable Development Goals

Nous proposons une approche générale des critères de résistance à la rupture pour des matériaux présentant une dissymétrie de comportement en traction et

Vérification graphique : Utilisation de GeoGebra Il faut trouver la valeur du rayon du cylindre qui donne comme volume

Module de cisaillement pour chaque direction de sollicitation 2 Ratio entre les modules de Young sur chant et à plat (pour les. quatre modes)

L’Association des directeurs généraux des municipalités du Québec (ADGMQ) a mandaté la Direction des services aux organisations (DSO) de l’École nationale

Th. Pour répondre à ce questionnement on peut résoudre une équation ou un système d’équations. Pour répondre à ce questionnement on peut résoudre une équation. 4) a) Faire