• Aucun résultat trouvé

Multi-scale modeling of the polymer–filler interaction

N/A
N/A
Protected

Academic year: 2021

Partager "Multi-scale modeling of the polymer–filler interaction"

Copied!
178
0
0

Texte intégral

(1)

HAL Id: tel-02512903

https://tel.archives-ouvertes.fr/tel-02512903

Submitted on 20 Mar 2020

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires

Kevin Kempfer

To cite this version:

Kevin Kempfer. Simulation multi-échelle de l’interaction polymère-charge. Matériaux. Université Clermont Auvergne, 2019. Français. �NNT : 2019CLFAC051�. �tel-02512903�

(2)

ÉCOLE DOCTORALE DES SCIENCES FONDAMENTALES

No : 178

THÈSE

présentée pour obtenir le grade de

DOCTEUR D’UNIVERSITÉ

K

ÉVIN

K

EMPFER

Ingénieur ESPCI P

ARIS

SIMULATION MULTI-ÉCHELLE

DE L’INTERACTION POLYMÈRE-CHARGE

Soutenue publiquement le 25 Mars 2019, devant la commission d’examen :

ANNE BOUTIN (Directrice de Recherche, ENS Paris) rapporteur SAMYMERABIA (Chargé de Recherches, UCB Lyon 1) rapporteur

RALF EVERAERS (Professeur, ENS Lyon) jury

HÉLÈNEMONTES (Professeur, ESPCI Paris) jury

MARCCOUTY (Ingénieur de Recherche, MFP MICHELIN) co-encadrant

PATRICEMALFREYT (Professeur, UCA) directeur de thèse

(3)
(4)

Nous y voilà ! Trois années s’achèvent ! Ce travail de doctorat a été effectué à l’Insti-tut de Chimie de Clermont-Ferrand (ICCF) dans l’équipe Thermodynamique et Interactions Moléculaires (TIM), au sein du groupe Architectures Moléculaires aux Interfaces (AMI).

Je souhaite tout d’abord remercier les financeurs de ce projet, en commançant par mon employeur, la Manufacture Française des Pneumatiques MICHELIN. Je remercie également l’Association Nationale de la Recherche et de la Technologie (ANRT) pour avoir subvention-née ce doctorat dans le cadre du disposif Cifre. Ces travaux ont aussi été partiellement fi-nancés par le programme d’investissement d’avenir Développement de l’Économie Numérique à travers le projet SMICE.

Je m’adresse ensuite à mes deux encadrants, MARC COUTY et PATRICE MALFREYT, que je remercie pour m’avoir accordé leur confiance, dès le début, en me laissant une large autonomie, ainsi qu’une grande liberté d’action dans mes choix pour mener à bien ce projet. Merci aussi à vous deux pour m’avoir offert la possibilité de présenter mes travaux à de très nombreuses reprises à travers la France, et même à l’étranger !

Je remercie ensuite le jury d’avoir accepté d’évaluer mon travail. Merci à ANNE BOUTIN et SAMYMERABIApour la révision de mon manuscrit.

ALAIN DEQUIDT, tu as été LE support scientifique. J’ai énormément appris à tes côtés. Merci pour ta rigueur scientifique et ta passion pour la physique ! Tu m’as soutenu jusqu’au bout, y compris jusqu’à la première relecture attentive de ce manuscrit. J’espère avoir l’oc-casion de retravailler avec toi à l’avenir.

JULIENDEVÉMY, tu as été LE support technique. Tu m’as transmis le goût de la program-mation et m’a formé, au sens large, à la gestion de projets informatiques. Je retiens égale-ment tes nombreuses expressions propres à ton expertise. Au fait, je n’ai toujours pas trouvé le problème. Merci également d’avoir partagé ton bureau avec moi, même si j’ai souvent dû lutter pour allumer la lumière !

Merci à toi FLORENT GOUJONpour m’avoir conseillé dans la conception de certains de mes codes et m’avoir fait découvrir le puissant moteur de rendu POV-Ray.

(5)

Bien que je n’ai pas eu l’occasion de les croiser souvent de visu, je remercie chaleureuse-ment les informaticiens du Mésocentre Clermont Auvergne, en particulier ANTOINEMAHUL et DAVID GRIMBICHLER, pour la mise à disposition de moyens de calculs modernes et per-formants.

Je n’oublie pas BENOÎTSCHNELL, qui, le premier, m’a fait découvrir l’univers de la R&D industrielle et celui de la simulation moléculaire.

Un clin d’œil à AGILIO PADUA, pour tes conseils pour l’après-thèse.

Je remercie mon fournisseur officiel de café, certes trop cher, MICKAËLSIMOND, et JEAN -CLAUDENEYTpour m’avoir permis de me servir (chut) en l’absence de son collègue.

Mes remerciements vont ensuite à IGOR PRO, malgré tes nombreuses sautes d’humeur et ton insatiable envie de vouloir faire les choses à la main.

LUDOVIC GARNIER, tu occupes une place à part dans la liste. Merci d’avoir su compter les jours à ma place. Prépare-toi à subir ma vengeance dans les prochaines semaines avant mon départ. Plus sérieusement, tonton champignon te souhaite à toi et à ta petite famille plein de bonheur !

Une pensée pour tous les stagiaires, doctorants, postdoctorants, contractuels, ou autres types de contrat, déjà partis ou encore en poste, ALEXANDER, BARBARA, ÉMILIE, THIBAUD, GÉ -RALDINE, SHYAM, LAURA, CHARLOTTE, AURÉLIE, XAVIER, NICOLAS, TAYEB, FERNANDO, OLYMPE, GERMAIN, JOSÉ, HEMANTH, auxquels je souhaite bonne chance pour la suite ! Dédicace pour toi, GÉRALDMUNOZ, arrivé très (trop) récemment, qui a su me faire oublier la pression des dernières semaines en partageant quelques expéditions de pêche mémorables !

Plus généralement, j’exprime ma reconnaissance à l’ensemble du personnel de l’équipe TIM et de l’ICCF, ainsi que ceux du laboratoire commun SimatLab, pour votre accueil et pour avoir partagé d’intenses débats, souvent à la pause café.

À ma famille,

À Carolina,

(6)

Avant-propos i

Table des matières iii

Notations et abus de langage v

Liste des acronymes vii

Liste des symboles xi

1 Introduction générale 1

1.1 Contexte industriel . . . 1

1.2 Contexte scientifique et technique . . . 3

1.3 Organisation du manuscrit . . . 9

2 Développement de potentiels gros grain pour le fondu de polymère 11 2.1 Etat de l’art et problématique. . . 12

2.2 Application de la méthode d’optimisation bayésienne aux fondus de polymère 13 2.3 Choix de la forme fonctionnelle des interactions . . . 18

2.4 Choix de la définition du grain . . . 22

2.5 Conclusion . . . 38

3 Un modèle gros grain réaliste : De la structure chimique à la rhéologie 41 3.1 Introduction . . . 42

3.2 Optimisation du champ de force . . . 42

3.3 Validation du modèle gros grain . . . 52

3.4 Rhéologie et mécanique . . . 60

(7)

4 Description locale de l’interface polymère-silice par dynamique moléculaire 73

4.1 Introduction . . . 74

4.2 Détails techniques. . . 76

4.3 Résultats et discussion . . . 84

4.4 Conclusion . . . 103

5 Développement d’un potentiel gros grain polymère-silice 105 5.1 Introduction . . . 106

5.2 Optimisation de l’interaction polymère-silice . . . 107

5.3 Application du modèle gros grain . . . 112

5.4 Conclusion . . . 115

6 Conclusion générale et perspectives 117 A Champs de force atomistiques 121 B Champ de force gros grain optimisé pour du cPB àλ = 1 125 C Calculs de force 129 C.1 Interaction de Lennard-Jones . . . 129

C.2 Liaison harmonique. . . 130

C.3 Angle harmonique . . . 131

Liste des figures 133

Liste des tableaux 137

(8)

Dans ce manuscrit, les vecteurs sont notés en gras et le symbole usuel pour la norme euclidienne (norme 2) est utilisé. Le vecteur ri jdésigne le vecteur ri− rj. Sa norme est donc

kri jk. Le symbole « ∗ » est utilisé pour la transposée. Le symbole « + » désigne la

pseudo-inverse et le pseudo-determinant. Le symbole « : » dénote la double contraction définie telle que A: B= P3i=1P3j=1Ai jBi j où A et B sont deux tenseurs.

Concernant la typographie, les algorithmes sont écrits en italique. Les termes anglais (sauf dans le cas des algorithmes) sont écrits entre guillemets. Certains mots jugés impor-tants sont également mis en valeur en italique.

Par abus de langage, on désignera parfois par monomère l’unité répétitive composant une chaîne de polymère. À l’échelle microscopique, on parlera d’atome pour désigner un atome unifié (UA), dans lequel les atomes d’hydrogène ne sont plus directement considérés. A l’échelle mésoscopique, les termes bille, grain ou particule sont utilisés pour désigner la particule gros grain. La masse (d’un grain, de la chaîne polymère) désignera le plus souvent la masse molaire.

Le terme anglais « bulk » est utilisé pour désigner un bloc (d’un certain volume) de po-lymère isotrope. Les abréviations et acronymes sont systématiquement traduits en langue anglaise pour faciliter la lecture et la comparaison avec la littérature. Les figures sont éga-lement présentées en anglais pour favoriser le transfert des résultats.

(9)
(10)

AMCSD American Mineralogist Crystal Structure Database,

http://rruff.geo.arizona.edu/AMS

76

cPB cis-1,4-PolyButadiene 6

PS PolyStyrene 70

ESBR Emulsion-polymerized Styrene-Butadiene Rubber 5

PDMS PolyDiMethylSiloxane 4

OCTEO Triéthoxy(octyl)silane, ou Dynasylan OCTEO 79

CPU Central Processing Unit 7

RAM Random Access Memory 62

VESTA Visualization for Electronic and STructural Analysis,

http://www.jp-minerals.org/vesta

76

LAMMPS Large-scale Atomic/Molecular Massively Parallel

Simula-tor,

https://lammps.sandia.gov

9

MC Monte-Carlo 6

MD Molecular Dynamics 6

DPD Dissipative Particle Dynamics 8

CAD Computer Aided Design 3

FEM Finite Element Method 2

VV Velocity-Verlet 16

DPD-VV DPD Velocity-Verlet 45

MVV Modified Velocity-Verlet 45

DPD-SC Self-Consistent Dissipative Particle Dynamics 45

FM Force-Matching 8

(11)

SRP Segmental Repulsive Potential 24

VDW Van der Waals 129

L J Lennard-Jones 16

AA All Atom 6

UA United Atom v

CHARMM Chemistry of HARvard Molecular Mechanics : champ de force et logiciel de simulation,

https://www.charmm.org

76

AMBER Assisted Model Building with Energy Refinement : champ de force et logiciel de simulation,

http://ambermd.org

76

CVFF Consistent Valence Force Field 76

CFF91 Consistent Force Field 91 81

PCFF PolyCarbonate Force Field 76

COMPASS Condensed-phase Optimized Molecular Potentials for Ato-mistic Simulation Studies

76

IFF Interface Force Field,

https://bionanostructures.com/interface-md/

76

CG Coarse-Graining ou Coarse-Grained 17

MDCG Molecular Dynamics Coarse-Grained 21

MARTINI Maybe A Realistic Theory to Investigate N-body Interac-tions,

http://www.cgmartini.nl

8

RDF Radial Distribution Function 28

MSD Mean Square Displacement 31

PPA Primitive Path Analysis 68

CReTA Contour Reduction Topological Analysis 68

FRC Freely Rotating Chains 58

USM UnStretched Mixed 92

SM Stretched Medium 92

UMS UnMixed Stretched 92

DSC Differential Scanning Calorimetry 43

TGA ThermoGravimetric Analysis 74

SANS Small-Angle Neutron Scattering 55

(12)

ERDA Elastic Recoil Detection Analysis 67

DRS Dielectric Relaxation Spectroscopy 74

NMR Nuclear Magnetic Resonance 43

TEM Transmission Electron Microscopy 74

DLS Dynamic Light Scattering 74

(13)
(14)

i Indice atomique 18

j Indice atomique 18

k Indice atomique 125

r Vecteur position 31

ri Vecteur position de la particule i v

rj Vecteur position de la particule j v

rk Vecteur position de la particule k 131

ri j Vecteur ri− rj v

vi Vecteur vitesse de la particule i 19

vj Vecteur vitesse de la particule j 19

vi j Vitesse relative vi− vj 19

ei j Vecteur unitaire dirigé selon ri j 18

kri jk Norme du vecteur ri j v rk j Vecteur rk− rj 131 krk jk Norme du vecteur rk j 131 r Distance ou longueur 15 r0 Longueur à l’équilibre 121 θ Angle 58

θi jk Angle entre les particules i, j et k 131

θ0 Angle à l’équilibre 121

φ Angle dihèdre 122

U Energie potentielle 121

σ Paramètre géométrique du potentiel de L J 15

(15)

k Constante de raideur 121

fi Vecteur force s’exerçant sur la particule i 14

fj Vecteur force s’exerçant sur la particule j 130

fk Vecteur force s’exerçant sur la particule k 132

fj→i Vecteur force s’exerçant sur la particule i dû à la particule j 129

fi→ j Vecteur force s’exerçant sur la particule j dû à la particule i 130

fjC→i Vecteur force conservatif s’exerçant sur la particule i dû à j 18

fD

j→i Vecteur force dissipatif s’exerçant sur la particule i dû à j 19

fR

j→i Vecteur force aléatoire s’exerçant sur la particule i dû à j 19

fSRP

j→i Vecteur force conservatif SRP s’exerçant sur la liaison i dû à

la liaison j

24

t Temps 14

Rt Vecteur position globale à l’instant t 14

Vt Vecteur vitesse globale à l’instant t 14

Ftref Vecteur force globale à l’instant t calculé à partir de l’analyse de la trajectoireTCG

14

FtC Vecteur force conservative globale à l’instant t 14

At Matrice qui dépend uniquement de la position des grains à l’instant t, FC

t = AtxC

47

FtR Vecteur force aléatoire globale à l’instant t 14

Γ Matrice de friction 14

Γt Matrice de friction à l’instant t 47

Bt Matrice symétrique positive qui dépend uniquement de la position des grains à l’instant t,Γt = γBt

47

TMD Trajectoire de référence atomistique 14

TCG Trajectoire de référence nivelée 14

δt Pas de temps MD 16

∆t Pas de temps DPD 14

P Probabilité 14

L Opposé du logarithme népérien de la probabilitéP, L(x) = − ln (P(x))

47

λ Degré de nivellement iv

σ Amplitude de l’interaction aléatoire 19

(16)

C Amplitude de l’interaction SRP 24

rm Rayon de coupure conservatif intermédiaire 18

rc Rayon de coupure conservatif 18

rd Rayon de coupure dissipatif 19

rcSRP Rayon de coupure conservatif du potentiel de paire SRP entre deux liaisons

24

P Polynôme de Bernstein 18

nx Nombre de fonctions de Bernstein utilisées pour construire la force d’interaction de paire non-liée conservative

18

x Paramètres linéaires du modèle gros grain 14

xC Paramètres conservatifs du modèle gros grain 15

¯

xC Paramètres conservatifs optimaux du modèle gros grain 26 ¯

xC

M T Paramètres conservatifs optimaux du modèle Multi-T 49

¯

xC

M LT Paramètres conservatifs optimaux des modèles Multi-LinT et

Multi-LinT Multi-P, ¯xCM LT = ¯a + RT ¯b

50 ¯

a Premier terme de ¯xM LTC 50

¯b Deuxième terme de ¯xM LTC 50

xDP D Paramètres conservatifs du modèle DPD de référence 26 ¯

xDP D Paramètres conservatifs optimaux du modèle DPD de réfé-rence

26

γ Coefficient de friction de la DPD 19

¯

γ Coefficient de friction optimal 26

¯

γM T Coefficient de friction optimal du modèle Multi-T 49

¯

γM LT Coefficient de friction optimal des modèles Multi-LinT et

Multi-LinT Multi-P

50

γDP D Coefficient de friction du modèle DPD de référence 26

¯

γDP D Coefficient de friction optimal du modèle DPD de référence 26

γps Coefficient de friction polymère-silice 110

γpp Coefficient de friction polymère-polymère 110

nt Nombre de configurations pour lesquelles Ftrefa été calculée 26

∆KX Erreur relative sur les paramètres conservatifs 26

∆ Kγ Erreur relative sur le paramètre dissipatif 26

gnb(r) Fonction de distribution radiale non-liée 22

(17)

gbend(θ) Distribution des angles 22

Ree Vecteur bout-à-bout 22

Ree Longueur bout-à-bout, Ree= kReek 29

〈Ree〉 Longueur bout-à-bout moyenne 30

〈R2

ee〉 Carré moyen du vecteur bout-à-bout 16

Rg Rayon de giration 22

〈Rg〉 Rayon de giration moyen 30

〈R2

g〉 Carré moyen du rayon de giration 22

〈R2 g,k〉 Composante parallèle de〈R 2 g〉 85 〈R2 g,⊥〉 Composante perpendiculaire de〈R 2 g〉 85 〈r2 g,k〉 〈R 2 g,k〉 normalisée par 〈R 2 g〉 85 〈rg2,⊥〉 〈R 2 g,⊥〉 normalisée par 〈R 2 g〉 85

Ri j Vecteur entre les particules i et j xiv

〈R2i jCarré moyen du vecteur Ri j 55

Ni j Nombre de particules entre i et j, Ni j = |j − i| + 1 55

Bi j Nombre de liaisons entre i et j, Bi j = Ni j− 1 58

mi Masse molaire de la particule i 83

m0 Masse molaire d’une particule, UA ou grain selon le contexte 55

Mi j Masse molaire entre i et j, Mi j = m0Ni j 55

M Masse molaire d’une chaîne de polymère ou d’un gros grain selon le contexte

16

Ð Indice de polydispersité 67

p « Packing length » 54

〈l0〉 Longueur moyenne d’une liaison mésoscopique 53

〈lK〉 Longueur du segment de Kuhn 56

Lpp Longueur de contour du chemin primitif 68

Rgraing Tenseur de giration du gros grain 35

ωi Fraction massique 35

rg Vecteur position du centre de masse du groupe d’atomes 35

λ1 Valeur propre de Rgraing 35

λ2 Valeur propre de Rgraing 35

λ3 Valeur propre de Rgraing ,λ1 ¾ λ2¾ λ3¾ 0 35

v1 Vecteur propre associé àλ1 35

(18)

v3 Vecteur propre associé àλ2 35

a Longueur principale, a= pλ1 36

b Longueur principale, b= pλ2 36

c Longueur principale, c= pλ3 36

∆θa Angle de déviation,∆θa(t) = arccos (v1(t + ∆t) · v1(t)) 37

∆θb Angle de déviation,∆θb(t) = arccos (v2(t + ∆t) · v2(t)) 37

∆θc Angle de déviation,∆θc(t) = arccos (v3(t + ∆t) · v3(t)) 37

A Asphéricité 35

R Constante universelle des gaz parfaits 32

kB Constante de Boltzmann 14

NA Constante d’Avogadro 54

N Nombre de particules dans la boîte de simulation ou nombre d’atomes dans un grain

14

ρ Masse volumique 24

Vs Volume spécifique, Vs = ρ−1 59

V Volume 61

T Température 14

Tg Température de transition vitreuse 43

P Pression 16

PN Pression normale 83

PT Pression tangentielle 83

αP Coefficient de dilatation thermique 42

χT Compressibilité isotherme 42

K Module d’élasticité isostatique 69

ν Coefficient de Poisson 60

E Module d’Young 69

σ Tenseur des contraintes 61

os

σ Déviateur deσ 61

G(t) Module de relaxation des contraintes 58

Ge Module au plateau caoutchoutique 60

Me Masse d’enchevêtrement 60

Ne Nombre de monomères entre deux points d’enchevêtrement,

Ne= Me/m0

(19)

τe Temps d’enchevêtrement 63

τR Temps de Rouse 63

τrep Temps de reptation 63

τ Temps de relaxation du vecteur bout-à-bout 30

D Coefficient de diffusion 30

Mgft Masse molaire d’une chaîne de polymère greffée 92

Ngft Nombre de monomères dans la chaîne de polymère greffée 92

φgft Densité de greffage du polymère 79

dgft Distance typique entre deux points de greffage,

dgft= 1/Æφgft

91

φOCTEO Densité de greffage de l’OCTEO 79

h Hauteur (ou épaisseur) de brosse 88

w Largeur (ou profondeur) d’interpénétration chaînes libres-greffées

88

lz Dimension de la boîte de simulation selon l’axe z 90

ρl(z) Profil de masse volumique des chaînes libres 90

ρg(z) Profil de masse volumique des chaînes greffées 90

ρw(z) Profil de masse volumique des chaînes libres-greffées

inter-pénétrées,ρw(z) = min ρl(z), ρg(z)



(20)

Chapitre

1

Introduction générale

Sommaire

1.1 Contexte industriel. . . . 1

1.2 Contexte scientifique et technique . . . . 3

1.3 Organisation du manuscrit. . . . 9

1.1

Contexte industriel

Un polymère est une macromolécule constituée d’un enchaînement de plusieurs unités répétitives. Du fait de la multitude de ces unités et des nombreuses manières de les assem-bler, les structures pouvant être formées par l’assemblage de ces motifs répétitifs sont infinies et aboutissent à des propriétés physiques (e.g. mécaniques, rhéologiques, électriques, ther-miques) radicalement différentes offrant la possibilité aux chercheurs et aux ingénieurs de développer de nouveaux matériaux innovants. Aujourd’hui, le matériau polymère ne cesse de se développer dans de nombreux domaines d’applications et joue un rôle crucial dans notre société. En particulier, l’un des principaux domaines d’utilisation de ce matériau est l’industrie du pneumatique. Un pneumatique est composé d’environ 200 matériaux diffé-rents : gomme, nappes textiles, câbles et tringles métalliques, etc. Les composants textiles

(21)

et métalliques constituent l’armature du pneumatique, sur laquelle sont déposées différents types de gommes. Ces dernières sont constituées d’un élastomère (caoutchouc naturel et/ou synthétique), de différentes charges (e.g. silice, noir de carbone), de plastifiants (huiles et résines) et d’autres additifs supplémentaires (agent de réticulation, pigments, antioxydants,

etc.). Deux niveaux sont à considérer au moment de la conception d’un pneumatique : • L’étape de confection, qui fait intervenir des procédés de type mélangeage, extrusion,

calandrage, collage à cru, moulage et cuisson. L’étape de cuisson permet d’activer la réticulation chimique (e.g. vulcanisation si l’agent de réticulation est le soufre), qui donne ses propriétés élastiques à la gomme ;

• L’usage du pneumatique, où ce sont les performances qui importent, e.g. réponse ther-momécanique, adhérence, bruit de roulement, résistance à l’usure.

Ces différents paramètres ne sont pas indépendants les uns des autres et leur optimisation aboutit souvent à trouver le meilleur compromis en fonction du cahier des charges[1].

L’ajout de charges dans la matrice polymère constitue l’un des éléments clés. En 1915, l’addition de nanoparticules de carbone a permis d’augmenter considérablement la durée de vie des gommes (résistance à l’usure accrue, ralentissement du vieillissement) et, en outre, de donner sa couleur actuelle au pneumatique. Une étape a été franchie en 1992 avec l’addition de nanoparticules de silice dans le mélange. Cette innovation a abouti en 1994 au premier pneumatique vert, ayant pour avantages de réduire la consommation en carburant, d’améliorer l’adhérence sur sol froid, et d’augmenter la longévité des pneuma-tiques (meilleure résistance à la déchirure). Ces charges sont dites renforçantes. Le matériau nanocomposite résultant de ce mélange présente des propriétés physiques sensiblement dif-férentes de l’élastomère brut, et déterminent les caractéristiques du produit fini. Par ailleurs, en 2000, l’entreprise Michelin a changé son approche vis à vis du client en lançant le service « Michelin Fleet Solutions (MFS) », réservé aux transporteurs routiers. Le concept repose sur la facturation du pneumatique au kilomètre. Ce dernier reste la propriété du manufacturier. Les concepteurs matériaux ont donc aujourd’hui tout intérêt à développer des gommes per-formantes et résistantes dans la durée.

La simulation numérique, qui s’appuie sur la puissance de calcul sur ordinateur, est au-jourd’hui indispensable chez Michelin. Cette technologie est intégrée dans les étapes de confection et d’industrialisation. En particulier, l’amélioration des matériaux passe par la compréhension des origines physique et chimique de leur comportement. La prise en compte de leur microstructure dans les modèles numériques permet de réaliser des études prélimi-naires avant la fabrication de prototypes, ce qui accélère leur développement tout en rédui-sant les coûts. Ainsi, en 1984, Michelin a vécu la révolution des méthodes par éléments finis (« Finite Element Method (FEM) »), dans lesquelles les matériaux sont décrits à travers des lois de comportement. Cette échelle est adaptée à la modélisation d’un pneumatique dans

(22)

son ensemble. À l’échelle de l’élément de matière, les simulations moléculaires, qui rendent compte des détails microscopiques, permettent d’anticiper les propriétés du matériau. Au-jourd’hui, l’enjeu est aussi dans le transfert entre ces différents niveaux de simulation. C’est l’objet des approches multi-échelles.

Le groupe Michelin n’est pas le seul à s’intéresser aux méthodes de simulations molécu-laires. La concurrence directe travaille sur des sujets équivalents, e.g. le japonais Bridgestone [2], l’américain Goodyear [3], l’allemand Continental [4–6]. D’autres acteurs de l’industrie automobile utilisent également ces méthodes moléculaires pour mieux comprendre les pro-priétés tribologiques d’huiles moteurs, e.g. Toyota[7], Total [8]. De par leur formulation, les produits cosmétiques sont aussi étudiés par simulation numérique, e.g. L’Oréal[9]. Des logiciels commerciaux spécialisés, à l’instar des logiciels de conception assistée par ordina-teur (« Computer Aided Design (CAD) ») qui intègrent pour la plupart le calcul de structures par éléments finis, commencent également à se faire une place sur le marché, e.g. le français BIOVIA Materials Studio (Dassault Systèmes), ou l’allemand Schrödinger. Ces derniers sont notamment utilisés dans l’industrie pharmaceutique pour concevoir et présélectionner des molécules cibles en amont de toute synthèse[10].

De cet engouement est né en Novembre 2015 le projet SMICE, ou Simulation des Maté-riaux pour l’Industrie sur Calculateur Exaflopique, autour duquel se sont réunis le Commis-sariat à l’Énergie Atomique (CEA), Michelin, L’Oréal, Safran, Faurecia, Kitware, Paratools et l’École Centrale de Nantes. L’intérêt majeur d’un tel regroupement est le partage de moyens humains et matériels entre les différentes organisations, afin de construire des outils de si-mulation haute performance pour la science des matériaux. C’est dans le cadre de ce projet que s’inscrivent les travaux de recherche réalisés au cours de ce doctorat.

1.2

Contexte scientifique et technique

D’un point de vue fondamental en science des matériaux, l’intérêt est d’être capable d’établir un lien clair entre la structure des matériaux (e.g. chimie, morphologie) et leurs propriétés macroscopiques, qui, s’il est maîtrisé, ouvre la voie à la conception de matériaux sur mesure.

Le matériau polymère présente un comportement intermédiaire entre celui d’un fluide et celui d’un solide élastique parfait. Un tel matériau est dit viscoélastique. À basse tempé-rature, il est dans l’état vitreux et réagit à une contrainte comme le ferait un solide Hookéen élastique classique. À haute température, la mobilité des chaînes étant favorisée, son com-portement se rapproche de celui d’un fluide. De plus, une réaction analogue à ce compor-tement en température peut être observée lors d’une sollicitation isotherme en modifiant uniquement la fréquence de sollicitation du matériau. En effet, une fréquence d’excitation

(23)

très élevée n’est pas « détectée » par le matériau puisqu’il n’a pas le temps de relaxer ; il réagit comme s’il était vitreux. A contrario, à basse fréquence, le polymère a le temps de relaxer et son comportement sera dans ce cas plus proche de celui d’un fluide. C’est l’équivalence fréquence-température pour le phénomène de transition vitreuse dynamique[11].

En réalité, pour les polymères utilisés dans l’industrie du pneumatique, pour lesquels les chaînes sont enchevêtrées, le passage du régime vitreux au régime liquide visqueux conduit à un état caoutchoutique1. En effet, la dynamique des chaînes (conduisant à l’écoulement) est d’autant plus réduite que les chaînes sont entrelacées. Dans ce régime, le module élas-tique du polymère se stabilise autour d’une constante qui correspond au plateau caoutchou-tique. Le cas limite est celui du polymère réticulé. L’écoulement n’a pas lieu même à haute température puisque les chaînes sont liées entre elles par des liaisons chimiques, ce qui a pour conséquence de prolonger considérablement la taille du plateau caoutchoutique. De plus, les propriétés viscoélastiques du matériau dépendent aussi bien de la microstructure

Figure 1.1 – Illustration de l’effet

Mul-lins. Courbes contrainte-déformation d’un composite silice-PDMS chargé à 35 phr soumis à un essai de traction uniaxiale cy-clique (traits pleins), dans lequel la dé-formation maximale a été successivement incrémentée à 100 % (cercles rouges), 200 % (triangles bleues), puis 300 % (lo-sanges verts). Le résultat d’un essai de traction uniaxiale standard (trait en poin-tillé noir) jusqu’à atteindre 300 % est montré pour comparaison. Image tirée des travaux de Hanson et al.[12].

des chaînes que de la manière de les assembler [13,14].

L’addition de charges dans les matrices élas-tomères ajoute un degré de complexité sup-plémentaire. Ces matériaux composites pré-sentent des propriétés mécaniques particulière-ment complexes, puisque leur réponse méca-nique est non-linéaire. D’autre part, des phéno-mènes physiques non-visibles, pour la majorité des caoutchoucs non-chargés, apparaissent avec ce type de composite.

Le plus connu est l’effet Mullins [15]. Lors-qu’un élastomère chargé est soumis à des es-sais de chargement cyclique, il a été observé que sa rigidité décroît après la première extension, comme l’illustre la figure1.1. Autrement dit, le matériau conserve l’histoire des déformations su-bies. À noter que ce phénomène d’endommage-ment est réversible aux temps longs à haute tem-pérature [16]. De nombreux tentatives d’expli-cation du phénomène existent, e.g. rupture de liaisons chimiques polymère-charge[17],

glisse-1. Pour des polymères enchevêtrés, le régime fluide terminal est atteint après de très longues durées, pou-vant atteindre des mois voire des années à température ambiante.

(24)

ment des chaînes autour des charges[18], rupture de réseaux de charges [19], désenche-vêtrement des chaînes greffées[12], flambage des chaînes greffées entre les charges [20], rupture de ponts vitreux entre les charges[21]. Cependant, aucun consensus n’a été établi pour le moment. Un résumé schématique sur le sujet a été proposé par Diani et al.[22].

Figure 1.2 – Illustration de l’effet Payne.

En-haut, image TEM d’un compo-site silice-ESBR chargé avec une frac-tion volumique de 0.041. En-bas, mo-dule élastique dynamique G0 mesuré à vitesse de déformation constante 1 rad s−1 en fonction du taux de chargesϕ. A380 désigne le type de si-lice. D’après les travaux de Yang et al. [23].

Par ailleurs, dans le cas de sollicitations sinusoï-dales, l’élastomère non chargé présente un compor-tement linéaire pour des déformations inférieures à environ 100 %. Payne[24] a montré en 1960 que le module élastique dynamique d’un polymère chargé dépend de manière non-linéaire de l’amplitude des déformations appliquées, comme le montre la fi-gure1.2. Aux faibles déformations, le plateau caou-tchoutique est observé. Sa valeur est d’autant plus grande que le chargement est élevé, illustrant les propriétés renforçantes de la charge. Au-delà d’une déformation critique, typiquement comprise entre 1 et 100 %, le module dynamique décroît rapidement. La non-linéarité apparaît plus tôt lorsque le taux de charges est important. Cependant, à fraction volumique constante, une meilleure dispersion de ces dernières dans l’élastomère réduit l’effet Payne [25]. Des modèles récents sont capables de repro-duire ce comportement[21,26], mais comme pour l’effet Mullins, l’origine microscopique de ce phéno-mène reste encore largement débattue.

Ce bref résumé confirme l’intérêt majeur de la communauté scientifique pour les élastomères chargés. En particulier, le lien structure-propriétés n’est pas encore clairement établi pour ce type de matériau composite. Leurs propriétés macrosco-piques étant connues, cela n’empêche pas leur uti-lisation par les industriels dans leurs mélanges. Ces

deux visions ne sont pas incompatibles et aboutissent souvent à un travail collaboratif. En effet, l’amélioration des matériaux existants, ou bien le développement de nouveaux pro-duits, passe aussi par une meilleure compréhension des mécanismes physiques et chimiques qui leurs sont associés. C’est dans le cadre de ce type d’alliance entre monde académique et industriel que se place cette thèse Cifre.

(25)

La modélisation numérique occupe aujourd’hui une place importante aux côtés de la

théo-rieet de l’expérience. D’une part, elle permet de valider des hypothèses et des prédictions de

Théorie

Modélisation Numérique Expérience

Figure 1.3 – Trois approches couplées. modèles théoriques. D’autre part, elle joue le rôle

de sonde de la matière, en proposant l’explora-tion de territoires encore inaccessibles aux ex-périmentateurs. Ce domaine, fondamentalement pluridisciplinaire, est actuellement en plein es-sor. Les avancées rapides de la technologie per-mettent la modélisation de systèmes expérimen-taux complexes comme des systèmes biologiques [27, 28]. De nombreux développements restent cependant à mener [29]. À terme, de véritables laboratoires virtuels seront créés[30].

Dans le cadre de ce doctorat, nous nous

sommes intéressés à la modélisation numérique de systèmes polymères en interaction avec des charges inorganiques, en l’occurrence le polymère modèle 1,4-cis-polybutadiène (cPB) en interaction avec une surface puis avec une nanoparticule de silice a été sélectionné. Ces composés présentent un intérêt particulier pour l’industrie du pneumatique, puisqu’ils entrent dans la composition des gommes. Une description réaliste de l’interface polymère-silice passe nécessairement par la modélisation correcte du polymère en phase « bulk ». Une grande partie de ce travail s’est donc également focalisée sur ce système.

Afin de distinguer les caractéristiques propres à ces matériaux, il est nécessaire de se placer à l’échelle microscopique, où leur singularité chimique est visible. L’approche par la mécanique quantique, qui prend en compte explicitement tous les électrons, est réservée à l’étude de la structure et de la réactivité de petites molécules en raison du nombre important de particules à considérer et du temps de calcul conséquent associé. À l’échelle atomistique, les simulations de type Monte-Carlo (MC) et dynamique moléculaire (« Molecular Dynamics (MD) »), dans lesquelles chaque atome (modèles « All Atom (AA) ») ou groupe d’atomes (mo-dèles « United Atom (UA) ») est modélisé par un point matériel, sont les deux approches les plus communes. Ces deux techniques exploitent respectivement les moyennes d’ensemble et temporelle en physique statistique. L’approche MC consiste à parcourir l’espace des phases de manière aléatoire. La MD est basée sur l’intégration des équations du mouvement des particules du système considéré. Les particules suivent une trajectoire déterministe qu’il est possible d’enregistrer au cours du temps. Pour cette raison, nous avons retenu la méthode MD à cette échelle de description de la matière.

Cependant, les simulations MD sont très coûteuses en termes de temps de calcul. C’est pourquoi elles sont limitées à des durées de l’ordre de quelques dizaines de nanosecondes.

(26)

Cette limitation devient critique dans le cas des matériaux polymères, dont les temps de re-laxation classiques s’échelonnent autour d’une dizaine de femtosecondes pour les vibrations atomiques jusqu’à plusieurs secondes pour les temps caractéristiques de fusion et d’écoule-ment. Dans l’industrie du pneumatique, la masse molaire d’une seule chaîne polymère peut atteindre 200 kg mol−1, i.e. qu’une molécule contient plusieurs milliers d’unités répétitives et d’autant plus d’atomes. Pire, les propriétés viscoélastiques d’un matériau polymère résultent de la coopération entre plusieurs chaînes à travers des enchevêtrements (pour un polymère non-réticulé) et/ou des ponts de réticulation (pour un caoutchouc vulcanisé), nous ame-nant à considérer de très gros systèmes. L’étude des propriétés mécaniques et rhéologiques de tels systèmes à l’échelle atomistique demeure aujourd’hui impossible. L’augmentation du nombre de processeurs (« Central Processing Unit (CPU) »), peut partiellement résoudre le problème de la taille de la boîte de simulation (grâce à la décomposition spatiale), mais ne permettra en aucun cas d’atteindre des temps de simulation de l’ordre de 1µs dans un délai raisonnable. En effet, la vitesse d’intégration de l’équation du mouvement pour une particule donnée dépend essentiellement de la fréquence d’horloge du CPU. Cette fréquence n’augmente plus depuis 2005, comme on peut le voir dans la figure1.4, en raison de pro-blèmes de surchauffe (effet Joule) et de la perte en termes de consommation électrique qui en résulte[31]. La fréquence d’horloge typique est de l’ordre de 3 − 4 GHz.

Figure 1.4 – Evolution des processeurs INTEL et AMD des années 1970 à aujourd’hui. Données

collectées et tracées par Rupp[32].

Pour pallier aux limites des simulations atomistiques, les modèles gros grains sont de-venus très attractifs ces dernières années[33,34]. Le principe est de réduire le nombre de degrés de liberté du système en regroupant plusieurs atomes ensemble pour former un seul

(27)

gros grain afin de réduire le coût du calcul. La prédiction des propriétés caractéristiques du matériau à partir de la seule connaissance de sa microstructure peut être abordée par une approche de type « bottom up », qui vise à développer des champs de force gros grains à partir de simulations atomistiques de haute résolution[35, 36]. Cette stratégie s’oppose à des stratégies de type « top down » qui supposent que les propriétés cibles sont connues à l’avance, e.g. expérimentalement, supprimant en partie l’aspect prédictif des méthodes mé-soscopiques. À cette échelle de la matière, la méthode retenue dans le cadre de nos travaux est la dynamique de particules dissipatives (« Dissipative Particle Dynamics (DPD) »). Cette dernière a initialement été développée par Hoogerbrugge et Koelman [37] en 1992 dans le but de modéliser le comportement hydrodynamique de fluides. Tout comme en MD, les simulations DPD sont basées sur l’intégration des équations du mouvement de chaque parti-cule mésoscopique. Le recouvrement des gros grains étant autorisé à cette échelle, un terme de friction de paire est ajouté pour modéliser les frottements entre les particules.

Beaucoup d’efforts ont été consacrés au développement de potentiels mésoscopiques réalistes, i.e. conservant une précision suffisante par rapport aux descriptions atomistiques. Cependant, obtenir des résultats quantitatifs fiables à cette échelle demeure un défi. Pour des biomolécules chargées, le champ de force MARTINI (acronyme de « MARrink’s Toolkit INItiative ») a été développé en 2004 par Marrink et al.[38] par des approches couplées « bottom up » (pour les interactions liées) et « top down » (calculs d’énergies libre pour les interactions non-liées). Dans le milieu des polymères, la très populaire méthode d’inversion itérative de Boltzmann (« Iterative Boltzmann Inversion (IBI) ») [39, 40] et ses dérivées [41] produisent des potentiels mésoscopiques tabulés capables de reproduire fidèlement les propriétés structurales recherchées. Cependant, cette technique ne donne aucune indica-tion sur les propriétés dynamiques et la transférabilité en pression et/ou en température n’est pas forcément assurée[2,36]. Une autre méthode, nommée « Force-Matching (FM) », propose une optimisation des forces conservatives et du coefficient de friction à partir de l’analyse de trajectoires atomistiques contraintes[42,43]. Une nouvelle méthode, dite d’op-timisation bayésienne, a récemment été proposée par Dequidt et Canchaya[44]. Cette der-nière est basée sur la probabilité de reproduire statistiquement une trajectoire de référence. Elle permet l’optimisation de manière directe des composantes conservatives et dissipatives d’un modèle gros grain de type DPD. Autre avantage non négligeable, cette méthode au-torise la combinaison de plusieurs trajectoires de références produites dans des conditions thermodynamiques différentes, y compris hors équilibre. Le développement de potentiels mésoscopiques transférables en température et en pression est donc a priori possible. So-lano Canchaya et al.[45] ont illustré cette possibilité en 2016 en proposant un modèle gros grain du pentane reproduisant convenablement ses propriétés liquide-vapeur sur une large gamme de température. C’est cette stratégie bayésienne que nous avons choisie pour

(28)

dé-Figure 1.5 – Approche « bottom up ». De la mécanique quantique aux modèles éléments finis.

Échelle de temps et d’espace accessibles avec la puissance de calcul actuelle.

velopper les potentiels mésoscopiques de nos systèmes à partir de trajectoires atomistiques obtenues par MD.

Sur le plan technique, ce travail de doctorat a été réalisé avec le logiciel de simulation LAMMPS [46]. De par sa grande flexibilité, il est parfaitement adapté à notre étude qui a fait appel à des systèmes et des échelles moléculaires variés. L’avantage principal de ce logiciel réside dans le fait qu’il est possible de lancer à la fois des simulations MD et DPD. Le travail de préparation des fichiers d’entrée et le traitement des résultats s’en trouve donc facilité. Précisons aussi que les équations de la DPD sont codées dans le formalisme standard proposé par Groot et Warren[47] pour la partie dissipative, la partie conservative pouvant être choisie librement par l’utilisateur.

1.3

Organisation du manuscrit

Plutôt que de séparer les traditionnelles parties bibliographiques et théoriques du cœur de ce travail, j’ai fait le choix de les inclure directement dans la discussion. La littérature a servi aussi bien à guider ces travaux que de base de données de référence ayant diverses origines, e.g. mesures expérimentales, modèles théoriques, simulations antérieures. Ainsi, les résultats présentés dans cette thèse ont systématiquement, du moins autant que possible, été comparés avec cette base de données. De plus, de nombreuses références croisées ont été intégrées afin de faciliter la lecture de ce manuscrit en version digitale ou papier. Pour les mêmes raisons, ce mémoire peut être lu de manière linéaire ou utilisé de manière pratique, en fonction des besoins.

Les trois chapitres qui suivent sont basés sur des articles récents, qui, à l’heure de la rédaction de ce manuscrit, ont été soumis dans des journaux scientifiques. Cependant, de

(29)

nombreux ajouts ont été fait pour enrichir le discours.

La partie scientifique de ce manuscrit de thèse se décompose en quatre chapitres. Les deux premiers traitent spécifiquement de la modélisation numérique de polymère en phase « bulk ». Dans un premier temps, nous montrerons comment la manière de modéliser numé-riquement un fondu de polymère à l’échelle mésoscopique influence son comportement. En particulier, la capacité d’un modèle gros grain à reproduire des propriétés structurales et dy-namiques de référence, préalablement obtenues à l’aide de simulations atomistiques haute résolution, sera évaluée. Dans un second temps, nous présenterons en détail un champ de force gros grain, conçu dans le cadre de ce doctorat, représentatif du cPB. Les deux chapitres suivants seront dédiés à l’interface polymère-silice. Une description atomistique détaillée, en fonction de la microstructure locale de l’interface, sera proposée dans une première partie. Le développement d’un modèle gros grain représentatif de l’interface cPB-silice sera fina-lement abordé dans une dernière partie. Cette modélisation est désormais accessible, les interactions polymère-polymère, qui interviennent également au voisinage de l’interface, étant modélisées par le champ de force gros grain présenté au chapitre3.

(30)

Chapitre

2

Développement de potentiels gros grain

pour le fondu de polymère

Bayesian Optimization ? ? ? ? ?

Sommaire

2.1 Etat de l’art et problématique . . . . 12

2.2 Application de la méthode d’optimisation bayésienne aux fondus de polymère . . . . 13

2.2.1 Optimisation bayésienne . . . 13

2.2.2 Simulations atomistiques. . . 16

2.2.3 Procédure de nivellement . . . 17

2.3 Choix de la forme fonctionnelle des interactions. . . . 18

2.4 Choix de la définition du grain . . . . 22

2.4.1 Impact du degré de nivellement. . . 22

2.4.2 Choix du pas de temps de la simulation DPD. . . 32

2.4.3 Forme des gros grains . . . 35

(31)

2.1

Etat de l’art et problématique

Pour le physicien, les polymères peuvent être considérés comme de longues chaînes flexibles. Il a été montré que beaucoup de propriétés macroscopiques de ces matériaux sont génériques et suivent des lois d’échelle[48]. En principe, on peut donc décrire de tels sys-tèmes par simulation moléculaire à l’aide de modèles simples du type billes-ressorts[49,50] ou liens-glissants[51]. Cependant, pour le physico-chimiste, la nature chimique du polymère importe. On aimerait être capable de comprendre, voire de prédire, les propriétés macro-scopiques d’un matériau donné à partir de la seule connaissance de sa microstructure. Les simulations moléculaires classiques de type MD permettent d’atteindre un degré de réa-lisme suffisant, mais au prix de calculs coûteux, rendant inaccessible les échelles de temps et d’espace pertinentes en raison de la dynamique lente de ces grandes molécules[52]. Il est donc nécessaire de réduire le coût du calcul tout en maintenant un degré de réalisme élevé. Beaucoup d’efforts ont été consacrés au développement de potentiels mésoscopiques réalistes par des approches de type « bottom up », c’est-à-dire à partir de simulations MD à plus haute résolution. Les plus communes sont IBI[39,53] et FM [54–56].

La méthode IBI vise à reproduire les propriétés structurales à travers les fonctions de distribution radiales. Cette méthode, basée sur l’ajustement itératif des potentiels gros grain, est très efficace et simple à mettre en oeuvre. Elle est par conséquent très populaire mais possède toutefois quelques limitations :

• Elle n’est pas adaptée aux systèmes hétérogènes [57,58] ;

• Elle se concentre sur les propriétés structurales et ne donne aucune indication sur les propriétés dynamiques ;

• La solution n’est pas unique en pratique malgré le théorème d’Henderson [59, 60] (voir page22) ;

• La masse volumique n’est pas correctement reproduite sans un ajustement fin à la main[36,61].

La méthode FM est quant à elle basée sur la distribution des forces instantanées s’exerçant sur les particules mésoscopiques. Les forces non-conservatives (aléatoire et dissipative) sont optimisées à partir de trajectoires contraintes[42,43,62,63].

Récemment, une nouvelle méthode, dite d’optimisation bayésienne, a été proposée par Dequidt et Canchaya[44]. Les paramètres du modèle gros grain sont recherchés de manière à reproduire une trajectoire de référence avec la plus grande probabilité. Cette démarche bayésienne a prouvé son efficacité dans le cas du pentane[44,45]. Le but de ce premier chapitre est d’adapter la méthode aux systèmes polymères.

Toutefois, nous rappelons que l’hypothèse sous-jacente derrière toutes ces méthodes sup-pose qu’il existe un modèle gros grain suffisamment simple pour que le coût en termes de

(32)

temps de calcul soit intéressant tout en conservant la précision souhaitée. Toutes ces mé-thodes sont basées sur la définition de grains et choisissent une description formelle des interactions, e.g. des liaisons harmoniques, des interactions non-liées radiales, etc. Les para-mètres libres (coefficients) du modèle sont ensuite optimisés. Malheureusement, le meilleur modèle n’est pas toujours un bon modèle. En effet, si une propriété fondamentale est man-quante dans la définition du grain ou de leurs interactions, le modèle final n’aura jamais un comportement réaliste. 1,4-cis-polybutadiène • ˜ n Figure 2.1 – Structure chimique du cPB.

Dans ce chapitre, nous nous concentrerons sur l’impact du choix du modèle sur un polymère modèle, le 1,4-cis-polybutadiène (cPB). Les principes fondamentaux sur lesquels reposent la méthode bayé-sienne ainsi que des détails sur l’obtention des trajectoires atomis-tiques de référence sont décrits dans la section2.2. Le choix de la forme fonctionnelle des interactions est discuté dans la section2.3

page 18. Le choix de la définition du grain est étudié dans la section2.4 page 22. On se concentrera sur l’impact du degré de nivellement et la pertinence d’une description radiale des interactions de paire.

2.2

Application de la méthode d’optimisation bayésienne

aux fondus de polymère

2.2.1

Optimisation bayésienne

Rappelons brièvement1 les principes fondamentaux sur lesquels reposent la méthode

d’optimisation bayésienne de modèles gros grain dissipatifs de type DPD[44,45]. Les para-mètres du modèle gros grain sont déduits à partir de l’analyse de trajectoires atomistiques de référence de haute résolution obtenues par MD. Ces dernières sont nivelées, c’est-à-dire que certains degrés de liberté sont supprimés ou regroupés ensemble, ce qui permet de ré-duire leur nombre et de simplifier le système. La méthode bayésienne part de l’hypothèse (commune à toutes les stratégies « bottom up ») qu’il existe un modèle gros grain DPD qui se comporte de la même manière que le modèle haute résolution. Étant donné que les degrés de liberté écartés interagissent avec ceux conservés, il n’est en général pas possible de repro-duire exactement la même dynamique aux deux échelles, sauf si une contribution aléatoire des degrés de liberté cachés est ajoutée dans le modèle. La fidélité du modèle gros grain au modèle haute résolution est ensuite estimée statistiquement. L’idée principale derrière la méthode bayésienne est de trouver le modèle optimal ayant la plus grande probabilité

(33)

de reproduire exactement la même trajectoire que le modèle haute résolution nivelé. La procédure se décompose, dans l’ordre, de la façon suivante :

1. Lancer une simulation à haute résolution MD et enregistrer une trajectoire à intervalle régulier∆t, qui sera par la suite le pas de temps de la simulation gros grain. Cette trajectoire sera notéeTMD;

2. Niveler la trajectoire atomistique en écartant et/ou en conservant les degrés de liberté choisis. Nous noterons la trajectoire résultanteTCG;

3. Définir la forme fonctionnelle des interactions entre particules mésoscopiques ; 4. Déduire de la lecture de la trajectoireTCG les forces fi(t) qui doivent nécessairement

s’exercer entre les degrés de liberté mésoscopiques de manière à reproduire exacte-ment cette trajectoire ;

5. Calculer la probabilitéP de générer fi(t) à chaque pas de temps ∆t en fonction des

paramètres libres x du modèle gros grain ; 6. Maximiser cette probabilité en faisant varier x.

Nous considérerons dans la suite que les degrés de liberté mésoscopiques sont les N centres de masse de groupes d’atomes et le volume de la boîte de simulation. Nous suppo-serons de plus que la contribution aléatoire entre les degrés de liberté cachés est une force aléatoire de paire tirée d’une distribution normale sans corrélation entre les paires ni entre les pas de temps∆t. Bien sûr, c’est une simplification de la réalité, mais c’est une hypothèse faite dans l’immense majorité des simulations DPD.

En regroupant à l’instant t toutes les forces fi(t) dans un unique vecteur Fref

t de

dimen-sion2 3N , les équations de la DPD peuvent se réécrire sous la forme Ftref= FtC(Rt, x) − Γ (Rt, x) Vt+ FR

t (2.1)

avec FtC(Rt, x) les forces conservatives, FtRla force aléatoire etΓ (Rt, x) la matrice de friction

globale. Rt et Vt sont des vecteurs de dimension 3N contenant respectivement les positions et les vitesses des particules mésoscopiques. Le théorème de fluctuation-dissipation impose que la force aléatoire vérifie la relation (2.2)[64].

〈FR t〉 = 0 (2.2a) 〈FR t F R t0 ∗ 〉 = 2 Γ (Rt, x) kBTδ(t − t0) (2.2b)

2. Si les fluctuations de volume sont prises en compte dans la procédure d’optimisation, alors Ftrefa pour dimension 3N+ 3 (un degré de liberté supplémentaire par dimension de la boîte de simulation) [44].

(34)

La probabilité qu’un modèle donné reproduise exactement la trajectoireTCGest la proba-bilité qu’à chaque pas, la force aléatoire totale sur chaque grain soit la force fR

i (t). Puisque

la force aléatoire suit une loi normale (dans notre modèle), il a été démontré[44] que cette probabilité est telle que

P(TCG| x) ∝ Y t∈TCG 1 pdet+Γ (Rt, x) exp  − ∆t 4 kBT F R t ∗ Γ+(R t, x) FtR ‹ (2.3) où FR t = {f R 1(t), f R 2 (t), . . . , f R

3N(t)} est déduite de l’équation (2.1).

Si les forces conservatives FC

t peuvent s’écrire comme une combinaison linéaire de

fonc-tions de base, alors les coefficients xCde la combinaison linéaire peuvent être calculés

analy-tiquement. Des exemples importants sont listés dans le tableau2.1. Le poids de la matrice de frictionΓ peut également être optimisé analytiquement. Ce dernier contrôle la dynamique des interactions à travers le thermostat de la DPD.

Tableau 2.1 – Importantes fonctions de base pour lesquelles une optimisation analytique est

possible. Veuillez noter que les coefficients de la combinaison linéaire ne sont pas forcément les coefficients usuels des champs de force standard, mais la conversion des uns vers les autres est directe. Par exemple, 4ε” σr12 σr6—peut être écrit sous la forme ra12+

b r6 avec

a= 4εσ12et b= −4εσ6.

Modèle Fonction de base Exemples

Lois de puissance 1/rn Lennard-Jones

Polynômes rk liaisons ou angles harmoniques

Tabulé δ(r − rk) forme quelconque

Trigonométrique cos kφ potentiel de dièdre

D’autre part, certains paramètres du modèle ne peuvent pas être optimisés de manière directe. Ces derniers seront dits non-linéaires. Ils incluent les rayons de coupure des inter-actions (conservatives et dissipatives), les frictions relatives entre différents types de grains, les facteurs d’écrantage des interactions (conservatives et dissipatives) entre deux grains voisins dans une même molécule, etc. Pour de tels paramètres, la probabilité du modèle doit être calculée itérativement (en reprenant itérativement les étapes4à6de la procédure décrite page précédente). Les paramètres linéaires du modèle sont optimisés analytique-ment pour chaque jeu de paramètres non-linéaires sélectionné. Ces derniers sont optimisés itérativement en utilisant des algorithmes de type brute force ou particle swarms[65].

(35)

2.2.2

Simulations atomistiques

Les trajectoires atomistiques de haute résolutionTMDont été obtenues par simulation MD de fondus de cPB monodisperses en phase « bulk ». La boîte de simulation consiste en un cube périodique de 90 chaînes de polymère amorphe de longueur 240 UA chacune. Autrement dit, chaque chaîne contient 60 unités de répétition de cPB. Les chaînes sont suffisamment longues pour reproduire le comportement fractal attendu (voir figure 3.8 page 56) [66]. Comme on le verra plus loin, la boîte de simulation représente convenablement un fondu de polymère. Les propriétés structurales, comme par exemple le carré moyen du vecteur bout-à-bout〈R2

ee〉 normalisé par la masse de la chaîne M, peuvent être comparées aux résultats

expérimentaux. Le champ de force « United Atom » développé par Smith et Paul[67] a été selectionné pour modéliser le polymère. Les coefficients de raideur des liaisons, à l’origine rigides dans ce champ de force, ont été récupérés dans les travaux de Tsolou et al. [68]. Les paramètres du champ de force sont fournis en annexe dans le tableauA.2 page 122. Le rayon de coupure des interactions de paire de type Lennard-Jones (L J) a été fixé à 14 Å. L’équation du mouvement de Newton a été intégrée en utilisant l’algorithme velocity-Verlet avec un pas de tempsδt = 2 fs [69,70]. La pression a été contrôlée à l’aide de l’algorithme de Berendsen[71] avec un temps de relaxation de 1 ps et un module de compressibilité de 100 MPa. La température a été contrôlée à l’aide du thermostat de Langevin [72,73] avec un temps de relaxation de 10 ps. Nous reviendrons sur ces choix au chapitre4 page 73.

La configuration initiale est d’abord relaxée pendant 20 ns en suivant la procédure sui-vante :

1. Thermalisation à haute température T = 500 K dans l’ensemble statistique NVT pen-dant 10 ns ;

2. Trempe avec un gradient de température linéaire de−100 K ns−1 pendant 2 ns pour atteindre la température cible T = 300 K ;

3. Équilibration dans l’ensemble NPT sous conditions atmosphériques, i.e. à T = 300 K et P= 0.1 MPa, pendant 8 ns.

À l’échelle atomistique, cette procédure d’équilibration est systématique et a été utilisée à chaque génération de boîte, y compris pour les interfaces silice-polymère (avec quelques ajustements) comme nous le verrons page82.

Finalement, des trajectoires de référence haute résolution TMD ont été produites dans l’ensemble NPT. Pour quantifier les fluctuations de volume plus finement, les trois compo-santes du tenseur des contraintes du barostat ont été contrôlées indépendamment les unes des autres. En effet, les fluctuations de volume sont directement prises en compte comme l’un des degrés de liberté du système dans la procédure d’optimisation[44], ce qui permet le développement de potentiels gros grain ayant un comportement correct en pression (sous

(36)

réserve que le modèle choisi n’écarte pas des degrés de liberté capitaux). C’est là la grande

forcede la méthode bayésienne ! La trajectoire de référence a été enregistrée toutes les 50 fs, qui correspond au pas de temps∆t de la DPD souhaité. En pratique, seulement quelques centaines de configurations successives sont nécessaires, typiquement 500, car la procédure d’optimisation converge très rapidement comme nous le verrons plus loin à la figure 2.8 page 26.

2.2.3

Procédure de nivellement

Figure 2.2 – Procédure de nivellement d’une

chaîne de cPB. De haut en bas, une bille mésoscopique contient 1, 3 à 5 unités de répétition correspondant respectivement à un degré de nivellementλ de 1, 3 et 5.

La procédure de nivellement, plus connue sous le nom « Coarse-Graining (CG) », suit un cheminement identique aux récents travaux de Lemarchand et al. [43]. Un, deux, trois, quatre ou cinq unités de répétition (ou monomères, par abus de language) de la chaîne polymère sont re-groupées pour construire une bille mésoscopique dont les coordonnées sont données par le centre de masse de l’ensemble des UA considérés. La fi-gure2.2donne un exemple d’un tel nivellement. Le degré de nivellementλ se réfère au nombre de monomères par gros grain. Par exemple, un de-gré de nivellement deλ = 3 signifie que chaque bille gros grain contient 3 monomères, i.e. 12 UA. La position du grain correspond à celle occupée par le centre de masse du groupe d’atomes consi-dérés tout au long de la trajectoire de référence TMD. Une approche plus sophistiquée sera présen-tée à la fin de ce chapitre (voir page35). La vi-tesse instantanée3 du gros grain est calculée par

différence entre deux positions séparées par∆t.

De la même manière, la force totale agissant sur chaque grain à chaque pas de temps est ob-tenue à partir de son accélération en utilisant l’équation du mouvement de Newton. De plus, une liaison covalente entre deux UA appartenant à deux gros grains différents est conservée dans le modèle nivelé en ajoutant une liaison covalente mésoscopique entre les centres de masse des deux gros grains correspondants.

3. Les fluctuations de volume pour une trajectoire de référence produite dans l’ensemble NPT sont prises en compte dans le calcul de la vitesse instantanée.

(37)

2.3

Choix de la forme fonctionnelle des interactions

Les interactions non-liées conservatives ont été modélisées par un potentiel de paire dépendant seulement de la distance entre les grains. Les grains sont donc considérés comme des particules sphériques, bien qu’ils représentent en pratique une portion flexible d’un bout de chaîne. Pour cette raison, les centres de masse des grains peuvent se rapprocher fortement les uns des autres. Des interactions de type L J pourraient empêcher ce phénomène, en raison de la divergence du potentiel pour r → 0 (voir section C.1 page 129). Par ailleurs, il est

Figure 2.3 – Un jeu typique de polynômes

de Bernstein. rm délimite les deux ré-gions utilisées pour définir ces fonc-tions. Leur somme pondérée correspond à la force d’interaction de paire non-liée conservative optimisée pour modéliser le cPB avec un degré de nivellement de 5 comme tracé dans la figure2.4.

souhaitable de laisser plus de liberté quant à la forme du potentiel en utilisant plus de 2 para-mètres. Un potentiel tabulé semble être une alter-native intéressante. Les fonctions de base dont la force est une combinaison linéaire sont des fonc-tions triangles linéairement espacées en r, ce qui correspond en fait à une interpolation linéaire de la force sur un ensemble de points tabulés. L’inconvénient de cette forme fonctionnelle réside dans l’existence d’une très forte incertitude sur la force pour r → 0, en raison de la faible (voire nulle) quantité de paires à très courte distance dans la trajectoire de référence (voir figure 2.4 et figure 2.10 page 28). Or le problème majeur est que la masse volumique est extrêmement sen-sible à la valeur de la force lorsque r → 0. C’est pourquoi nous avons décidé, dans le cadre de ces travaux, d’introduire des fonctions de base plus lisses, en l’occurence des polynômes par morceaux. Plus spécifiquement, la distance r a été décomposée en deux régions sur lesquelles sont définies des polynômes de Bernstein[74]. La force non-liée est ensuite calculée par combinaison linéaire. L’utilisation de deux régions permet un contrôle fin des parties attractives et répulsives du potentiel. La force exercée par la particule j sur la particule i s’exprime donc sous la forme

fC j→i(r) =    nx−1 P k=0 xkPk(r) ei j pour r< rc, 0 pour r ¾ rc. (2.4)

(38)

figure2.3 page ci-contre, nx leur nombre (nx = 6 dans la figure 2.3), r la distance entre les particules j et i, ei j le vecteur unitaire dirigé dans la direction ri− rj, et rc le rayon de

coupure conservatif.

Les principaux avantages à utiliser des polynômes de Bernstein au lieu de potentiels tabulés pour décrire l’interaction de paire non-liée conservative sont les suivants :

• L’extrapolation pour r → 0 est directe ;

• La continuité et la dérivabilité de ces fonctions sont assurées ;

• Aucun artefact mathématique lié à une interpolation (linéaire, spline, « bit-mapping »,

etc.) ou à un lissage, d’autant plus que la pression (et par conséquent la masse volu-mique) est très sensible à de petites variations du potentiel à l’échelle mésoscopique ; • Peu de paramètres (un par fonction de base) sont nécessaires.

Les interactions intramoléculaires sont un paramètre clé pour les polymères, qui était ab-sent dans les travaux antérieurs réalisés avec la méthode Bayésienne sur le pentane. Dans le cadre de ces travaux, des potentiels de liaison et d’angle ont donc été intégrés à la mé-thode d’optimisation bayésienne. Après plusieurs essais, nous avons finalement opté pour une description simple à l’aide de potentiels de liaison et d’angle harmoniques, puisque aucune amélioration notable n’a été apportée par des modèles plus évolués (cosinus, poly-nômes de degré supérieur). Nous reviendrons sur ce point au chapitre3 page 41. Quatre paramètres linéaires supplémentaires (les deux constantes de raideur, la longueur et l’angle à l’équilibre) sont ainsi ajoutés à la liste des paramètres à optimiser.

La partie non-conservative du champ de force est basée sur les équations classiques de la DPD. Une interaction de paire dissipative est donc ajoutée. Le coefficient de friction γ est optimisé analytiquement à partir de l’analyse de la trajectoire de référence [44]. Pour tenir compte de la perte d’information suite à la réduction du nombre de degrés de liberté éliminés lors du nivellement, nous avons également utilisé le terme aléatoire classique de la DPD. Ensemble, ces deux forces forment le thermostat de la DPD. La force dissipative entre deux particules i et j est donnée par

fjD→i(r) =    − γ€1−rrd Š2 vi j· ei j ei j pour r< rd, 0 pour r ¾ rd. (2.5)

avec vi j la vitesse relative vi− vj et rd le rayon de coupure dissipatif. La force aléatoire entre

deux particules i et j s’exprime par

fjR→i(r) =    σ€1−rrdŠ θi j 1 p ∆tei j pour r< rd, 0 pour r ¾ rd. (2.6)

Figure

Figure 1.4 – Evolution des processeurs INTEL et AMD des années 1970 à aujourd’hui. Données collectées et tracées par Rupp [ 32 ] .
Figure 1.5 – Approche « bottom up ». De la mécanique quantique aux modèles éléments finis.
Figure 2.4 – a) Force conservative non-liée opti- opti-misée pour le cPB pour λ = 5 et b) potentiel associé.
Figure 2.5 – λ = 1 a) Vraisemblance du meilleur jeu de paramètres (linéaires) en fonction du délimiteur r m entre les fonctions de base de Bernstein comme décrit dans la figure 2.3
+7

Références

Documents relatifs

[33]. Precisely, each particle possesses two bonding poles on two opposite sides inducing that two patches on different particles can only interact if they overlap. Thus,

the interaction energies are calculated by the Inverse linearized Monte Carlo Method [5].. The Inverse Linearized Monte Carlo

(In the tree state handler of JF-V1.0, branches of independent units are created for all identifiers that appear in the lifting state.) Knowing the preceding event handler

The calculation of this correlation function for the water molecules strongly bound to the surface of tobermorite (within first two monolayers of H 2 O at the surface) shows

We propose in this article a review of the literature on the ability of molecular simulation techniques such as Molecular Dynamics (MD), Monte Carlo (MC) simulations,

the temperature is low ( Fig. The reason for this energy dependence is the non-linearity of Eqs. B2.2) The central area of the bottom solid-etchant interface of a partially

a) We distribute a total number fit of clusters in the mass space, assigning a mass M to each cluster according to the initial distribution function N(M,t~)... b) We select a couple

In order to obtain a more quantitative insight in trie temperature dependence of trie accep- tance rate Figure 2 presents an Arrhenius plot of trie bulk value Abuik Ii. e., trie