• Aucun résultat trouvé

Approche probabiliste dans la conception des modules de puissance

N/A
N/A
Protected

Academic year: 2021

Partager "Approche probabiliste dans la conception des modules de puissance"

Copied!
214
0
0

Texte intégral

(1)

UNIVERSITE TOULOUSE III - PAUL SABATIER

THESE

en vue de l’obtention du

DOCTORAT DE L’UNIVERSITE DE TOULOUSE

délivré par l’Université Toulouse III - Paul Sabatier

Ecole Doctorale Mécanique Energétique Génie civil et Procédés Discipline : Génie Mécanique

présentée et soutenue par

Alexandre Micol

le 06 décembre 2007

Approche probabiliste dans la conception des

modules de puissance

Directeur de thèse : Moussa KARAMA JURY

M. A. El hami Professeur d’Université à l’INSA de Rouen Rapporteur M. E. Woirgard Professeur d’Université à Bordeaux I Rapporteur M. C. Bès Professeur d’Université à l’UPS-Toulouse III Président M. M. Mermet-Guyennet Directeur du laboratoire PEARL Examinateur

M. R. Meuret Ingénieur, Expert Hispano-Suiza Examinateur

M. O. Dalverny Maître de Conférences à l’ENI de Tarbes Examinateur

Mme. C. Martin Maître de Conférences à l’ENI de Tarbes Co-encadrante de thèse M. M. Karama Professeur d’Université à l’ENI de Tarbes Directeur de thèse

Thèse réalisée au sein de l’équipe CMAO du Laboratoire Génie de Production de l’Ecole Nationale d’Ingénieurs de Tarbes

(2)
(3)

Remerciements

Cette thèse s’est réalisée au sein de l’équipe CMAO du laboratoire de production de l’Ecole Nationale d’Ingénieur de Tarbes en collaboration avec le laboratoire PEARL (Power Electronic Associated Research Labaratory) grâce à un financement du ministère de l’Enseignement supérieur et de la Recherche.

Je tiens en premier lieu à remercier tout particulièrement mon équipe encadrante. Je remercie le Professeur Moussa Karama, sans qui cette thèse n’aurait pas eu lieu, de m’avoir accueilli au sein de son équipe de recherche et de m’avoir fait confiance tout au long de se travail. Je remercie Madame Carmen Martin de m’avoir soutenu tant au niveau de ma recherche que dans ma formation pédagogique en acceptant d’être mon tuteur monitorat. J’exprime ici un remerciement tout particulier à Olivier Dalverny pour sa disponibi-lité, son écoute, sa compétence, pour avoir su prendre de son temps pour m’extirper de situations souvent délicates. Qu’il trouve dans ces quelques mots ma plus grande gratitude et reconnaissance.

Je remercie vivement Michel Mermet-Guyennet, Directeur du laboratoire PEARL, de m’avoir intégré dans les projets du laboratoire et d’avoir eu la patience, l’envie de comprendre ma démarche. Plus généralement, je remercie toute l’équipe du laboratoire PEARL pour leurs soutiens tout au long de ces trois années.

Enfin je tiens à remercier toutes les personnes du laboratoire LGP pour leurs soutiens, les aides qu’ils ont pu m’apporter grâce à la diversité des compétences de ce laboratoire et plus simplement pour l’ambiance chaleureuse et agréable. Je finirai par remercier tous les doctorants du laboratoire Adrien, Cédric, Benoît, François, Hocine, Roberta, Tony, Toufik, Valentin, Vincent, j’en passe et des meilleurs...Qu’ils sachent ô combien ils seront, avec ces trois années, inoubliables.

(4)
(5)

Table des matières

Introdution générale 11

1 Fiabilité mécanique 15

1.1 Introduction . . . 15

1.2 Sources d’incertitudes et représentation . . . 16

1.3 Définitions . . . 21

1.4 Méthodes de fiabilité : le couplage mécano-fiabiliste . . . 22

1.4.1 Solutions . . . 23

1.4.2 Méthode de Monte Carlo . . . 24

1.4.2.1 Monte Carlo Direct . . . 24

1.4.2.2 Monte Carlo par tirages d’importance . . . 25

1.4.3 Méthodes d’approximation FORM/SORM . . . 26

1.4.3.1 Transformation en variables Gaussiennes normées . . . 27

1.4.3.2 Recherche du point de conception . . . 30

1.4.3.3 Approximation de la surface d’état limite et calcul de la probabilité de défaillance . . . 35

1.4.3.4 Calcul des gradients et du Hessien . . . 36

1.4.3.5 Analyse de la sensibilité . . . 39

1.5 Méthodes fiabilistes pour les éléments finis . . . 40

1.5.1 Techniques de Perturbation . . . 41

1.5.2 Méthode en série de Neumann . . . 41

1.6 Méthode d’évaluation directe de la surface limite . . . 42

1.6.1 Méthode de la surface de réponse . . . 42

1.6.2 Réseaux de neurones . . . 44

1.6.3 Algorithme de recherche du point de conception . . . 47

1.6.4 Qualité de la régression . . . 47

1.6.5 Optimisation de la recherche d’une fonction d’état limite explicite . 49 1.6.5.1 Surface de réponse avec régression pondérée . . . 49

1.7 Conclusion . . . 50

2 Modes de défaillances et modélisations. 53 2.1 Introduction . . . 53

2.2 La chaîne de traction . . . 54

2.3 Nouvelle architecture d’IGBT dans l’électronique de puissance . . . 57

2.4 Modes de défaillance et durée de vie de l’IGBT . . . 59 5

(6)

2.4.1 Régimes extrêmes . . . 59

2.4.2 Vieillissement et fatigue . . . 60

2.4.2.1 Fatigue thermique . . . 61

2.4.2.2 Déconnexions de fils de bonding . . . 62

2.4.2.3 Craquelures des faisceaux de bonding . . . 63

2.4.2.4 Déformation des métallisations en surface de puce . . . 63

2.4.2.5 Fracture des substrats et des puces . . . 64

2.4.2.6 Fatigue des brasures . . . 65

2.4.2.7 Corrosion . . . 66 2.4.2.8 Electromigration . . . 68 2.4.2.9 Rayonnement cosmique . . . 70 2.4.2.10 Décharges partielles . . . 70 2.4.2.11 Oxydes de grille . . . 71 2.4.3 Conclusions . . . 74

2.5 Modélisation de la défaillance par fatigue des brasures. . . 74

2.5.1 Approche par la contrainte . . . 74

2.5.2 Approche par la déformation . . . 75

2.5.3 Approche par le fluage . . . 76

2.5.4 Approche par fluage et plasticité . . . 77

2.5.5 Approche par l’énergie . . . 77

2.5.6 Approche par endommagement . . . 78

2.6 Conclusion . . . 80

3 Modélisation des packaging de puissance 81 3.1 Introduction . . . 81 3.2 Modélisation Analytique . . . 83 3.2.1 Modélisation thermique . . . 83 3.2.2 Modélisation mécanique . . . 84 3.2.3 Conclusion . . . 85 3.3 Modélisation EF . . . 86

3.3.1 Stratégie de modélisation thermo-mécanique . . . 86

3.3.1.1 Calcul des pré-contraintes . . . 87

3.3.1.2 Calcul swicth 2D . . . 88

3.3.1.3 Calcul des bumps 3D . . . 89

3.3.2 Comportement élastique de la brasure. . . 90

3.3.3 Formulation des lois de comportement non-linéaire . . . 92

3.3.3.1 Formulation des lois de comportement . . . 94

3.3.4 Description du comportement visco-plastique des alliages de brasure 99 3.3.4.1 Loi de visco-plasticité parfaite : . . . 100

3.3.4.2 Fluage primaire . . . 103

3.3.4.3 Comportement plastique . . . 104

3.3.4.4 Modèle unifié . . . 105

3.4 Intégration numérique des lois visco-plastiques . . . 108

3.4.1 Loi puissance . . . 109

(7)

TABLE DES MATIÈRES 7

3.4.1.2 Loi puissance, écrouissage par la déformation : . . . 109

3.4.1.3 Double loi puissance . . . 110

3.4.2 Loi sinus hyperbolique . . . 110

3.4.3 Fluage primaire dans la relaxation . . . 110

3.5 Identification des lois . . . 111

3.5.0.1 A propos de l’identification . . . 111

3.5.0.2 Identification en relaxation . . . 112

3.5.1 Identification en fluage sur éprouvette bump . . . 120

3.6 Conclusions . . . 122

4 Application des méthodes de fiabilité 125 4.1 Introduction . . . 125

4.2 Surface de réponse adaptative . . . 127

4.2.1 Algorithme de la surface de réponse adaptative . . . 129

4.2.2 Parallélisation . . . 134

4.2.3 Exemples d’applications . . . 135

4.2.3.1 Exemple sur une fonction linéaire . . . 135

4.2.3.2 Exemple sur l’évaluation de la fiabilité d’une soudure SMC 137 4.2.3.3 Exemple sur deux variables avec appel au code EF . . . . 141

4.2.4 Conclusion . . . 143

4.3 Précision et sensibilité de la simulation par éléments finis . . . 143

4.3.1 Maillage effectué sur la structure. . . 144

4.3.2 Précision dans l’intégration de la loi de comportement. . . 146

4.3.3 Loi de comportement utilisée . . . 147

4.4 Définition de l’incertain dans les modules de puissance . . . 147

4.4.1 Processus de fabrication . . . 147

4.4.1.1 Microstructure de la brasure . . . 148

4.4.1.2 Vides . . . 148

4.4.1.3 Géométrie . . . 150

4.4.2 Prise en compte des actions . . . 151

4.4.2.1 Règles de l’accumulation de l’endommagement . . . 151

4.5 Application des méthodes aux modules de puissance . . . 154

4.5.1 Défaillance électrique d’un pack IGBT . . . 154

4.5.2 Défaillance thermique module NT . . . 157

4.5.2.1 Définition des variables aléatoires . . . 158

4.5.2.2 Définition du mode de défaillance . . . 158

4.5.2.3 Analyse fiabiliste . . . 158

4.5.3 Défaillance mécanique module NT . . . 160

4.5.3.1 Analyse avec des paramètres aléatoires dans le modèle de fatigue . . . 160

4.5.3.2 Analyse avec paramètres aléatoires sur les données du cal-cul EF . . . 163

4.5.3.3 Analyse fiabiliste en fonction de la loi de comportement . 168 4.6 Conclusion . . . 170

(8)

Conclusions et perspectives 173

A Surface de réponse adaptative 175

B Surface de réponse et réseau de neuronnes 177

B.1 Analyse pour la formulation sinh . . . 177 B.2 Analyse pour la formulation d’Anand . . . 183

(9)

Table des figures

1.1 Modèle Résistance-Sollicitation [94]. . . 21

1.2 Représentation des iso-courbes de densité et de la fonction d’état limite dans l’espace physique et normé. . . 27

1.3 Relation entre les fonctions de répartition F (x) et Φ(u) définissant la trans-formation T . . . 28

1.4 Évaluation des gradients pour un calcul non linéaire. . . 31

1.5 Algorithme d’Hasofer-Lind-Rackwitz-Fiessler. . . 33

1.6 Évaluation du gradient suivant différentes méthodes. . . 38

1.7 Réseaux de neurones. . . 45

1.8 Fonctions d’activation Fk. . . 46

2.1 Schéma de principe d’une automotrice Z2N5. . . 54

2.2 Prototype d’onduleur pour application Z2N5 et schéma électrique associé. . 55

2.3 Prototype d’une phase de l’onduleur pour l’application Z2N5 et schéma électrique associé. . . 56

2.4 Architectures de boîtiers. . . 57

2.5 Prototype d’interrupteur élémentaire ou switch et schéma électrique associé. 57 2.6 Composants du switch élémentaire . . . 58

2.7 Vue intérieur de l’interrupteur élémentaire (switch) et connexion type bump. 59 2.8 Défaillances des fils de bonding [30]. . . 63

2.9 A gauche, Surface de métallisation sans et avec passivation. A droite, Rup-ture du substrat en céramique Al203[30]. . . 64

2.10 délamination de la brasure substrat-semelle. . . 65

2.11 Corrosion de l’aluminium dans les modules IGBT. . . 67

2.12 Micro-section d’une brasure Sn3.0Ag0.5Cu après 1000 cycles de puissance [89]. . . 69

2.13 distribution cumulée de défaillance pour un oxyde de 50 nm d’épaisseur, soumis à une rampe de tension de 1 V/s (équivalent un champ de rupture constant de 3MV/cm)[30]. . . 72

2.14 Relation entre déformation et durée de vie. . . 75

3.1 Résultats d’un calcul éléments finis sur le switch en condition de cyclage actif. . . 82

(10)

3.2 Modèle RC équivalent d’une structure IGBT et comparaison avec les Modèle EF 3D.(a) Circuit électrique équivalent du système total. (b) comparaison d’une réponse dynamique avec le modèle EF pour une dissipation de 100W. (c) Effet

de la fréquence de la puissance appliquée[178]. . . 84

3.3 Principe du calcul analytique pour un modèle thermo-mécanique [155]. . . 85

3.4 Organigramme du calcul thermo-mécanique. . . 87

3.5 Conditions aux limites thermo-mécaniques pour le calcul du bump 3D. . . 89

3.6 Module d’Young de la brasure Sn/Ag3.5 suivant différents auteurs. . . 91

3.7 Essais de nano-indentation : (à gauche) Courbes de chargement, (à droite) Module d’Young. . . 92

3.8 Représentation des essais de fluage, relaxation et écrouissage dans l’espace des variables εv et ˙εv [53]. . . 96

3.9 Comportement de la brasure Sn/Ag3.5 pour les identifications en traction et en cisaillement [33]. . . 102

3.10 Évolution de la vitesse de déformation de la brasure Sn/Ag3.5 en fonction de la contrainte pour les différentes lois de comportement. . . 103

3.11 loi d’écrouissage de la brasure Sn96.5/Ag3.5 Wiese et Wolter [165]. . . 105

3.12 Montage et plan de l’essai de relaxation. . . 113

3.13 Résultats de l’essai de relaxation. . . 114

3.14 Loi puissance avec les coefficients de Wiese et optimisés pour la relaxation sans fluage primaire. . . 116

3.15 Critère d’identifiabilité en fonction du temps d’observation. . . 117

3.16 Lois optimisées pour la relaxation avec fluage primaire sans dépendance avec la température. . . 118

3.17 Loi sinh optimisée pour la relaxation avec fluage primaire avec dépendance des paramètres de fluage primaire dépendant de la température. . . 118

3.18 Variation des paramètres de la loi sinh en fonction de la température. . . . 119

3.19 Essai d’écrouissage sur éprouvette type bump. . . 120

3.20 Simulation de l’essai d’écrouissage suivant différentes lois de comportement et enveloppe extrême des essais d’écrouissage. . . 122

4.1 Couplage entre l’algorithme fiabiliste et le calcul éléments finis. . . 127

4.2 Motif du plan complet et représentation des points levier. . . 132

4.3 Optimisation du plan d’expérience numérique. . . 132

4.4 Ajout de points dans le plan d’expérience numériquesi la qualité recherchée n’est pas atteinte. . . 133

4.5 Organisation des calculs pour la résolution en environnement parallèle. . . 136

4.6 Densité de la valeur de β en fonction de la méthode d’obtention du plan d’expérience. . . 138

4.7 Structure simplifiée du composant SMC. . . 138

4.8 Densité de la valeur de β et R2 en fonction de la méthode d’obtention du plan d’expérience. . . 140

4.9 Surface de réponse pour la première itération. . . 142

4.10 Surface de réponse pour la seconde itération. . . 143

(11)

TABLE DES FIGURES 11

4.12 Images des brasures. . . 149

4.13 dimensions caractéristiques de la brasure et image de découpe de bump. . . 150

4.14 Définition d’un cycle de Rainflow. . . 153

4.15 Schéma électrique du montage [132]. . . 155

4.16 Élasticité de l’analyse de la surtension. . . 156

4.17 Résultats de l’analyse fiabiliste par l’étude de la surface de réponse modé-lisant la surtension. . . 157

4.18 Résultats de l’analyse de fiabilité du calcul thermique. . . 159

4.19 Élasticité de l’analyse thermique. . . 160

4.20 Distribution et répartition du nombre de cycles avant défaillance avec des paramètres de la loi de fatigue aléatoire. . . 162

4.21 Distribution du nombre de cycles avant défaillance. . . 163

4.22 Elasticités des moyennes et des écarts-type pour l’analyse thermo-mécanique.166 4.23 Représentation de la densité de la fonction d’état limite et évolution de l’indice de fiabilité en fonction de la variation de l’écart-type de n. . . 167

B.1 Analyse des résidus. . . 181

B.2 Simulation EF et surface de réponse. . . 182

B.3 Analyse des résidus. . . 186

B.4 Simulation EF et surface de réponse. . . 187

B.5 Réponse de la surface en fonction de l’évolution des variables aléatoires au point de conception. . . 188

B.6 Simulation EF et réponse du réseaux de neurones pour 7 neurones. . . 189

B.7 Réponse du réseau de neurones en fonction de l’évolution des variables aléatoires au point de conception pour 7 neurones. . . 190

B.8 Simulation EF et réponse du réseau de neurones pour 10 neurones. . . 191

B.9 Réponse du réseau de neurones en fonction de l’évolution des variables aléatoires au point de conception pour 10 neurones. . . 192

(12)
(13)

Liste des tableaux

2.1 Épaisseur, coefficient de dilatation et épaisseur caractéristique des différents

matériaux mis en jeu. . . 62

2.2 Mécanismes de dégradation des modules IGBT et modèles associés. . . 73

3.1 Analogie entre variables électriques et thermiques . . . 83

3.2 Résistances thermiques et rigidités mécaniques des éléments poutres rem-plaçant les connexions bumps. . . 89

3.3 Module d’Young selon différent auteurs, mesuré par nano-indentation et pour différentes valeurs de refroidissement de la brasure. . . 91

3.4 Coefficients de brasures selon Wiese [164]. . . 100

3.5 Coefficients de la brasure Sn/Ag3.5 pour l’équation (3.18). . . 101

3.6 Coefficients pour la loi double puissance [165]. . . 102

3.7 Coefficients de la brasure Sn/Ag3.5 selon Darveaux. . . 104

3.8 Paramètres du fluage primaire pour les brasures Sn59Pb40Ag1 et Sn95.5Ag3.8Cu0.7 pour l’équation (3.22). . . 104

3.9 A gauche, coefficients de la brasure Sn/Ag3.5 pour le modèle d’Anand selon Wilde et Pei. A droite, résultats de l’essai d’écrouissage [162, 122]. . . 107

3.10 Coefficients des lois de puissance et sinus hyperbolique pour la brasure Sn/Ag3.5. . . 119

3.11 Temps de calcul suivant les différentes loi de comportement. . . 122

4.1 Variables prises en compte dans le calcul de la fiabilité du composant SMC. 139 4.2 Résultats de l’analyse fiabiliste pour les deux méthodes . . . 142

4.3 Nombre de cycles avant défaillance Nf par rapport au maillage. . . 144

4.4 Nombre de cycles avant défaillance suivant plusieurs principes de calcul. [151]. . . 145

4.5 Nombre de cycles avant défaillance pour une simulation de cyclage de puis-sance. . . 146

4.6 Nombre de cycles avant défaillance par rapport à la précision de l’intégra-tion de la loi de fluage. . . 146

4.7 Nombre de cycles avant défaillance par rapport à la loi de comportement utilisée. . . 147

4.8 Pourcentage de vides pour les brasures 96,5Sn/3,5Ag et 92,5Pb/5Sn/2,5Ag. 149 4.9 Valeurs des dimensions caractéristiques de la brasure. . . 150

4.10 Variables aléatoires dans l’analyse thermique. . . 158 13

(14)

4.11 Variables aléatoires dans l’analyse thermo-mécanique. . . 164 4.12 Analyse de la qualité de la régression pour différentes formes de réponse de

surface et pour un réseau de neurones . . . 165 4.13 Indice de fiabilité et probabilité de défaillance selon la méthode employée

pour la loi d’Anand. . . 168 4.14 Récapitulatif des résultats de l’analyse fiabiliste pour plusieurs lois de

com-portement et identification. . . 171 4.15 Temps de calcul pour les différentes formulations. . . 171

(15)

Introduction générale

Contexte

L’électronique de puissance connaît un développement très actif depuis ces dernières années. Ceci s’explique par la diversité des domaines de compétences que demande son étude et par les nombreuses applications qui peuvent en découler. En effet, la recherche dans ce secteur peut passer de l’étude micro-structurale des matériaux, aux phénomènes électriques en passant par tous les processus physiques liés à l’utilisation de cette électro-nique (thermique, mécaélectro-nique, magnétique). L’électroélectro-nique de puissance apparaît dans la conception de systèmes électriques dans le domaine ferroviaire, en automobile et, depuis peu, intéresse également le monde de l’aéronautique. L’objectif de ces développements est de fournir des solutions technologiques toujours plus performantes, fiables, économiques et écologiques.

Concrètement, pour les applications ferroviaires, les équipements électriques entre la caténaire et le moteur, composant la chaîne de traction, sont constitués de modules d’élec-tronique de puissance. Les développements en cours se basent principalement sur l’intégra-tion de puissance : elle permet de réaliser un module comprenant l’équipement réalisant la fonction souhaitée, sa commande ainsi que son système de refroidissement. Le résultat permettra soit d’accroître la puissance globale de la chaîne de traction, soit de diminuer le nombre de composants, pour une même puissance. Plusieurs problèmes se posent pour cette intégration notamment en terme de fiabilité. C’est donc l’étude de la fiabilité des modules de puissance qui sera l’objectif de ce travail.

Objectifs et enjeux

Un des points faibles, en terme de durée de vie, pour les modules de puissance actuels, est la technique de connexion des puces silicium par fil d’aluminium "wire bonding". La fatigue engendrée par les contraintes thermomécaniques provoque des ruptures au niveau des soudures des fils d’aluminium. De plus l’utilisation de fils impose une faible section de passage de courant. C’est ainsi, dans le contexte de l’intégration de puissance, qu’un nouveau module de puissance est développé par PEARL/Alstom Transport [120]. Ce nouveau type de connexion permet de braser la surface du composant à l’aide de brasure à base d’étain ou de plots en cuivre nickelés. Ces nouvelles connexions permettent un passage de courant de forte intensité tout en autorisant une évacuation du flux thermique (amélioration du refroidissement du module).

Les systèmes de transport ferroviaires requièrent une très grande fiabilité pour les 15

(16)

équipements de traction et donc pour les semi-conducteurs de puissance. Les conditions de fonctionnement des convertisseurs des engins sont beaucoup plus sévères que dans la plupart des applications industrielles. De plus, la masse et l’encombrement doivent être optimisés.

L’aspect le plus contraignant vis à vis de la fiabilité, vient des contraintes de cyclage thermique. Celles-ci dépendent du profil de la ligne, du trafic et de l’environnement cli-matique. Les modules sont donc soumis à des cycles très variables en intensité et en fréquence qui auront des effets néfastes sur les matériaux. La durée de vie requise pour ce type d’équipement est de 30 ans soit environ 100 000 heures de fonctionnement, ce qui permet d’estimer le nombre de cycles thermiques à 5 millions.

Pour la puissance d’un engin ferroviaire, le nombre de modules embarqués peut être élevé, quelques dizaines à une centaine. Or le nombre de connexions internes ou bumps par modules est aussi élevé. Il apparaît donc important de maîtriser le comportement de la technologie et le dimensionnement en fonction des facteurs de contraintes, température et courant, afin de garder un niveau de fiabilité élevé.

Les modules doivent satisfaire à une tenue en fatigue thermique, les températures pouvant aller de -20°C à 120°C.

Les modules doivent également satisfaire la tenue en tension vis à vis de l’alimentation, mais aussi l’isolement galvanique pour la mise à la masse de la semelle du boîtier. Pour les semi-conducteurs, il est important de distinguer la tenue en tension continue permanente (liée au fonctionnement normal) et la tension de crête répétitive due aux surtensions accidentelles sur la ligne. Ainsi les IGBT et les diodes des modules utilisés en France doivent avoir une tenue en tension répétitive de 1600V et une tenue en tension continue de 2000V.

La fiabilité de ce type d’interconnexions va dépendre, en partie, des propriétés mé-caniques et métallurgiques de ces alliages. Les sollicitations thermiques ou mémé-caniques, internes ou externes du composant, vont se répercuter sur les connexions, pouvant alors produire des endommagements plus ou moins importants au sein de la structure. Les bumps ont un rôle double dans ce type d’assemblages : ils servent d’une part de connexions électriques, de pont thermique, et de connexions mécaniques entre le semi-conducteur et le circuit électrique.

Une question simple se pose et sera alors l’objectif tout au long de ce travail : com-ment étudier la fiabilité des modules IGBT ? La solution retenue est donc d’appliquer les méthodes de fiabilité existante au module de puissance. Le domaine d’application de ces méthodes de résolution fiabilistes se fait principalement sur l’étude de l’intégrité des structures. Elles n’ont cependant jamais ou peu été employées dans l’électronique de puis-sance afin d’analyser les causes de défaillances des modules IGBT. L’intérêt de ce travail consiste donc à mettre en application ces méthodes pour savoir si elles apportent des résultats sur la compréhension de la défaillance des modules de puissance. Mais quelles sont alors ces méthodes dites capables d’estimer la fiabilité d’un système ? Pour répondre à cette question en introduction de ce travail, nous allons prendre un cas simple et concret qui va permettre de définir les différents aspects de la méthode.

(17)

LISTE DES TABLEAUX 17

Méthodes de résolution

Pour rester dans le domaine du ferroviaire, prenons l’exemple du premier accident de train français entre Paris et Versailles en 1842 provoquant la mort de 45 passagers. L’expertise de l’époque relevait alors la rupture brutale d’un essieu alors que ce dernier était en service depuis de nombreuses années. La défaillance par la fatigue devenait alors un point crucial pour assurer une certaine fiabilité. De nos jours, des recommandations et solutions de calculs existent pour le dimensionnement de ces systèmes afin d’assurer cette fiabilité. Les méthodes numériques sont capables de prédire, par une modélisation du système d’une part et par l’emploi de modèles empiriques de fatigue d’autre part, le nombre de cycle avant défaillance. Ceci constitue une première approche mais les données ayant servi à ce calcul ne sont pas fixées à une valeur établie : les procédés de fabrication métallurgique de l’essieu ont-il été correctement suivis, le diamètre de l’essieu était-il suffisant, le train n’a-t-il pas été trop surchargé pendant toutes ces années ? Par ces trois questions, nous venons de faire apparaître trois grandes classes de paramètres influant sur la fiabilité d’un système : paramètres matériaux, géométriques et de chargement. Forts de notre capacité à prédire la défaillance par des modèles numériques, il apparaît naturel de vouloir estimer les temps de service en faisant varier les paramètres d’entrée de nos modèles : c’est une étude paramétrique par rapport à la défaillance. Grâce à cette étude, nous sommes capables d’éliminer certaines valeurs de conception dont on sait que le résultat sur la fiabilité ne sera pas satisfaisant. Il n’en reste pas moins que, de par la variabilité naturelle des données d’entrée, certaines configurations du système auront une possibilité de survenir. Si nous voulons aller plus loin dans la démarche, il nous est obligatoire de savoir dans quelle mesure certaines variables peuvent se détacher de leur valeur de conception. Les méthodes probabilistes répondent alors à cette représenation. Nos paramètres de calcul que l’on prenait fixes au départ sont dorénavant associés à une modélisation incertaine, c’est-à-dire une quantification de la possibilité de varier par rapport à leurs valeurs moyennes. Si nous savons dans quelle configuration de départ l’intégrité de la structure ne sera pas assurée d’une part (notion de domaine de défaillance) et dans quelle mesure ces configurations peuvent survenir (définition stochastique des variables du système), il est possible de quantifier la probabilité de défaillance du système. A partir de cette probabilité, la conception de systèmes est possible en pouvant assurer un certain degré de fiabilité sans pour autant basculer dans le sur-dimensionnement ayant des conséquences néfastes sur le coût et l’exploitation du système.

Organisation du mémoire

Le premier chapitre donnera donc les bases des méthodes fiabilistes par la définition des sources d’incertitudes en mécanique puis par les différentes méthodes qui permettent de calculer la probabilité de défaillance. En outre, nous verrons les différents résultats qui peuvent ressortir d’une telle étude.

Le deuxième chapitre s’attardera sur la définition des modes de défaillance des mo-dules IGBT et proposera des modélisations numériques pour pouvoir les utiliser dans les méthodes du premier chapitre. La fatigue des brasures des puces IGBT étant

(18)

prépondé-rante dans la défaillance des modules IGBT, les différents modèles de fatigue seront ici analysés.

Le troisième chapitre porte sur la simulation des modules IGBT. En effet, la mise en place des méthodes du premier chapitre suppose aussi que les quantités responsables de la fatigue qui sont utilisées par les modèles puissent être évaluées. Plusieurs méthodes de résolution existent. Elles peuvent être de nature analytique mais ont généralement recours à des méthodes numériques. Nous recenserons ces méthodes et analyserons celles faisant appel à la méthode des éléments finis. En outre, une modélisation d’un nouveau module IGBT sera ici proposée. La fatigue des brasures de puce passant par la modélisation de leur comportement, les différents modèles existants seront analysés et une identification par essais sera ici exposées.

Le dernier chapitre est l’application des méthodes fiabilistes au problème de défaillance des modules IGBT. Avec des appels à un code EF1, les calculs sont souvent lourds. Nous

proposerons alors une méthode de résolution du problème de fiabilité capable de réduire ces temps de calcul. Une analyse de fiabilité sera faite sur plusieurs exemples de défaillance de module IGBT.

(19)

Chapitre 1

Fiabilité mécanique

Sommaire

1.1 Introduction . . . 15

1.2 Sources d’incertitudes et représentation . . . 16

1.3 Définitions . . . 21

1.4 Méthodes de fiabilité : le couplage mécano-fiabiliste . . . 22

1.4.1 Solutions . . . 23

1.4.2 Méthode de Monte Carlo . . . 24

1.4.3 Méthodes d’approximation FORM/SORM . . . 26

1.5 Méthodes fiabilistes pour les éléments finis . . . 40

1.5.1 Techniques de Perturbation . . . 41

1.5.2 Méthode en série de Neumann . . . . 41

1.6 Méthode d’évaluation directe de la surface limite . . . 42

1.6.1 Méthode de la surface de réponse . . . 42

1.6.2 Réseaux de neurones . . . 44

1.6.3 Algorithme de recherche du point de conception . . . 47

1.6.4 Qualité de la régression . . . 47

1.6.5 Optimisation de la recherche d’une fonction d’état limite explicite 49 1.7 Conclusion . . . 50

1.1

Introduction

L’analyse fiabiliste en mécanique a été développée pour le dimensionnement des struc-tures mécaniques dans un contexte incertain. L’objectif de ces méthodes est d’évaluer la probabilité qu’un système puisse être dans une configuration considérée comme défaillante en prenant en compte le comportement “réel ” des différentes variables agissant sur le sys-tème. Deux aspects apparaissent alors en définissant cet objectif. Le premier concerne le fait que, dans ce comportement réel, les données caractéristiques du comportement d’un système mécanique ne sont pas deterministe. Le deuxième aspect est relatif au scéna-rio de défaillance, c’est-à-dire que dans certaines configurations, le système ne peut plus

(20)

remplir la fonction pour laquelle il a été conçu. Les méthodes fiabilistes apportent une so-lution afin d’évaluer la probabilité de défaillance en considérant un modèle mathématique capable de prendre en compte l’aléa des données et le scénario de défaillance. Il existe plusieurs familles de méthodes capables d’étudier la fiabilité des systèmes mécaniques qui ont chacune leurs avantages et inconvénients.

Après avoir énuméré les types d’aléas que nous pouvons rencontrer en mécanique, nous verrons donc dans la première partie de ce chapitre comment nous pouvons les représenter mathématiquement. La deuxième partie sera alors consacrée aux méthodes de fiabilité prenant en compte ce caractère aléatoire des données pour évaluer la probabilité de défaillance pour un scénario donné. Nous verrons quelles sont les méthodes les plus aptes à pouvoir calculer la probabilité de défaillance dans un contexte où la défaillance s’évalue grâce à la méthode des éléments finis. Les résultats d’une analyse par méthodes fiabilistes seront ici exposés pour la compréhension des chapitres suivants.

1.2

Sources d’incertitudes et représentation

L’étude des systèmes mécaniques repose d’une part sur l’observation des réponses du système réel par rapport aux différentes actions maîtrisées que nous pouvons lui appliquer et d’autre part par la construction d’une représentation de ce système appelée modèle. Dans les deux approches, la prise en compte des comportements aléatoires permet d’affiner la compréhension et l’importance des phénomènes mécaniques mis en jeu. L’introduction de la notion d’aléa intervient alors à plusieurs niveaux entre ces deux approches fortement couplées.

Les incertitudes, liées à la méconnaissance que nous avons sur une grandeur mesurable, peuvent être classées suivant trois grandes catégories : les incertitudes de mesure, les incertitudes naturelles et les incertitudes de modélisation.

Incertitude de la mesure.

Cet aléa, d’origine expérimentale, est propre aux conditions dans lesquelles l’identifica-tion de grandeurs physiques est effectuée. Les erreurs de mesure ne font donc pas partie des incertitudes que l’on cherche à modéliser pour étudier la fiabilité des systèmes puisqu’elles n’interviennent pas réellement dans le comportement du système par rapport à son envi-ronnement. Elles sont cependant bien présentes lors de l’étude du système et doivent être intégrées dans le processus d’identification des paramètres. Ce sont normalement des aléas maîtrisés puisque connus par la précision des moyens de mesure et en général inférieurs à la précision désirée sur la mesure. Les incertitudes portent alors sur (a) la précision de la mesure (résolution de l’instrument de mesure), (b) la dispersion statistique (la mesure est entachée d’une erreur aléatoire fonction de l’erreur d’échantillonnage, de l’erreur de prépa-ration et de la stabilité de l’appareil) et (c) de l’erreur systématique (reprenant les erreurs d’échantillonnage et de préparation ainsi que les problèmes d’étalonnage provoquant l’ap-parition d’offset). Les répétitions d’une mesure mettent en évidence ces dispersions venant des conditions expérimentales. Si le résultat de la mesure est utilisé pour des calculs, une étude de la propagation de l’erreur via les formules utilisées doit être faite.

(21)

1.2. SOURCES D’INCERTITUDES ET REPRÉSENTATION 21

Incertitude naturelle

Les systèmes mécaniques ont un comportement aléatoire intrinsèque. L’aléa naturel est la seule variabilité que nous voulons étudier et doit donc être le plus clairement défini et identifié sans oublier les effets d’interaction avec les autres (mesure et modélisation). Les différentes grandeurs physiques étudiées ont un comportement stochastique inhérent à la physique même associée à la grandeur. Ces aléas s’introduisent en complément des entrées des modèles et peuvent être classés en deux groupes. Le premier concerne les quantités dont la valeur est incertaine alors qu’elles ont été admises comme fixes. Les mesures de ces variables, qui peuvent être faites sur le système réel sous l’hypothèse d’une mesure exacte, auront alors des valeurs toujours différentes. Ce sont typiquement les quantités provenant du processus de fabrication du système mécanique, c’est-à-dire les variables matériaux (ex : module d’Young, coefficient de dilatation thermique,...) et dimensionnelles (épaisseur, longueur,...). Le deuxième groupe représente les quantités dites variables (ex : l’action du vent sur une structure métallique, sollicitation électrique dans un module IGBT). Nous retrouvons surtout ces quantités pour les variables représentant les actions agissant sur le système.

Incertitude de la modélisation.

La modélisation d’un système, d’un comportement ne vient au départ que de l’esprit de l’homme qui a su imaginer une représentation, mettre en place des concepts, expérimenter sur des systèmes réels afin de valider son modèle par rapport à une réalité. La modélisation se heurte alors à la connaissance humaine de la physique et des outils mathématiques qui les interprètent. Cette part entre la formulation du modèle et la réalité représente donc un aléa de modélisation. Nul ne connaît alors la marge qui existe entre cette représentation et les phénomènes intervenant effectivement dans le système. Par ailleurs, la plupart des modèles que le concepteur utilise n’est qu’une simplification d’une physique complexe et sur un domaine borné d’utilisation ou d’expérimentation. Plusieurs simplifications du modèle apportent des incertitudes par rapport au comportement réel :

– Aléa du modèle : Pour notre étude, cet aléa porte principalement sur l’approximation à proprement parler due à la méthode des éléments finis. La géométrie complexe de la structure est souvent simplifiée aux endroits où une solution précise importe peu par rapport au phénomène étudié. Ces simplifications sont par ailleurs faites afin d’obtenir des calculs convergents dans des temps raisonnables. Des analyses de convergence sont entreprises dans le but d’étudier la robustesse de la sortie face aux incertitudes du modèle.

– Aléa des conditions aux limites : les conditions aux limites d’un système ont un impact sur la solution de la structure entière. Le choix d’un type de conditions aux limites peut être fait par souci de simplification et se répercute donc sur la précision de la solution. Nous verrons comment l’approximation sur les conditions aux limites engendre des erreurs sur le comportement global du système.

– Aléa sur le chargement : la variation du chargement implique de grandes fluctuations sur la sortie d’un modèle mécanique et reste donc l’une des principales causes de défaillance d’un système.

– Aléa sur la résolution : la mise en place de modèles pour appréhender le comporte-ment d’un système réel peut se faire par des formulations analytiques manipulant des

(22)

valeurs algébriques. Mais dans de nombreux cas, seules les méthodes numériques ité-ratives sont capables d’apporter une solution. La modélisation d’un comportement complexe non-linéaire spatial ou temporel par des comportements linéaires sur des pas réduits induit par exemple des incertitudes. Les méthodes numériques ont par ailleurs une limite, celle des outils informatiques utilisés qui ne peuvent manipu-ler des grandeurs réelles sans effectuer une troncature. Cette erreur est cependant évaluable dans les algorithmes retenus et la puissance des ordinateurs évoluant, le nombre de chiffres significatifs est tel que l’erreur sur la troncature est négligeable. Cependant nous verrons que l’accumulation de ces erreurs peut avoir des répercus-sions sur le résultat final. Les algorithmes itératifs utilisés en méthodes numériques pour l’optimisation soulèvent aussi le problème de la condition d’arrêt. Par défini-tion, l’optimum d’une fonction d’optimisation n’est jamais trouvé au sens exact et l’algorithme s’arrête lorsque l’ajout d’une itération n’apporte rien à la convergence. Il existe donc une distance entre l’optimum théorique et l’optimum évalué. Cette distance formule l’aléa de la limite numérique en optimisation.

Parmi ces différents types d’aléa, certains sont contrôlables et peuvent être minimisés, d’autres non. Généralement, les aléas naturels ne peuvent être minimisés bien que les processus de fabrication des structures mécaniques puisse être optimisés afin d’en réduire les variabilités. Les erreurs de mesures ainsi que les incertitudes dues à la limite numé-rique sont quant à elles contrôlables et donc à priori minimisées. L’aléa de modélisation irréductible porte donc sur la vision que l’on a sur le modèle et tendrait donc à se réduire lorsque la théorie des phénomènes physiques s’enrichit. La minimisation des aléas contrô-lables passe cependant inévitablement par des coûts, que ce soit en temps de calcul pour les méthodes numériques ou financier pour les erreurs de mesures ou pour les processus de fabrication. Il revient alors à se poser la question de savoir s’il est judicieux de vouloir minimiser l’aléa s’il est connu et correctement intégré à la démarche de décision.

Représentation

En définissant les sources d’incertitudes, il vient naturellement à l’idée de vouloir les intégrer dans nos modélisations afin d’en tenir compte. Il faut donc formuler une repré-sentation de cette dernière alors même que nous venons de parler des incertitudes induites par la modélisation. Quelles erreurs sont engendrées suivant le type de modélisation de l’incertitude ? Plusieurs approches sont donc possibles pour qualifier et quantifier ces aléas en fonction de l’information disponible sur ceux-ci.

La première approche ne consiste à considérer qu’une évaluation qualitative de la variabilité d’un paramètre. Ainsi le paramètre x sera dit de l’ordre d’une valeur X sans pouvoir par ailleurs quantifier sa dispersion. L’ingénieur aura quant à lui tendance à utiliser une valeur caractéristique, c’est-à-dire une majoration ou minoration de la valeur moyenne du paramètre, pour concevoir avec le cas le plus défavorable.

Quand l’information est un peu plus précise, l’intervalle mathématique peut être uti-lisé. Dans de nombreux cas, la variabilité d’un paramètre peut être modélisé par les limites qu’il ne pourra dépasser. La probabilité de la réalisation de la variable à l’intérieur de ces limites ne peut être connue mais en contrepartie, aucune information supplémentaire n’est alors nécessaire. Des analyses par intervalles peuvent être mises en place, basées sur le concept “la valeur est inconnue mais limitée” et où les propriétés mathématiques

(23)

1.2. SOURCES D’INCERTITUDES ET REPRÉSENTATION 23

des intervalles peuvent être utilisées. Soit x, y deux paramètres bornés et représentés par l’intervalle [xl = ¯x − , xu = ¯x + ]. Les propriétés d’additivité et de multiplicativité sont

alors applicables :

x ± y = [xl±yl, xu± yu]

x.y = [min(xlyl, xuyu, xlyu, xuyl), max(xlyl, xuyu, xlyu, xuyl)]

x/y = [xl, xu]. h 1 yu, 1 yl i , 0 /∈ [yu, yl] (1.1)

Les calculs par intervalles sont implémentés dans les logiciels de calcul symboliques (Mathematica et Maple) ainsi que dans FORTRAN. Cette méthode par exemple est uti-lisée dans la conception optimale d’usine [49], dans l’aide à la décision [25] ainsi que l’estimation du déplacement incertain dans les structures dû à des actions externes in-certaines [84]. Hurme présente un raisonnement semi qualitatif basé sur les intervalles mathématiques dans le domaine chimique [69]. Le principal avantage de cette représen-tation passe par l’introduction de l’aléa dans les modèles lorsque l’information disponible est insuffisante pour construire une représentation probabiliste (densité inconnue).

Une extension de ces méthode par intervalle est alors la logique floue où la variable x, comprise entre deux valeurs limites, est associée à une possibilité Π(x) [36]. Elle propose donc une alternative à la logique booléenne en introduisant un autre état du paramètre que 0 ou 1. Dans une partie du domaine, le paramètre aura comme valeur Π(x) représentatif de la transition entre le tout et le rien. Cette méthode peut facilement être mise en place avec des fonctions de transition linéaires, hyperboliques (comme une sigmoïde ou une tangente hyperbolique), exponentielle, Gaussiennes (dans le cas d’un état moyen) et bon nombre d’études utilise cette approche. Yadav propose une structure utilisant la logique floue afin de prendre en compte l’information acquise lors de la phase conception pour l’estimation de la fiabilité [173]. Lou propose une méthode permettant de modéliser le processus de fabrication avec des données expérimentales limitées [102]. La prédiction de la fiabilité des modules électroniques a été étudiée par Bazu en développant un concept original de prise en compte des physiques de défaillances par l’approche de la logique floue [17]. D’autres domaines utilisent cette méthode comme la caractérisation de l’incertain dans le calcul de conception [168] ou le contrôle de qualité [130]. Les restrictions dans l’application de ces méthodes, résidant dans une modélisation pauvre de l’incertitude, sont notées par quelques recherches [160].

Lorsqu’une information sur la probabilité de la réalisation d’une valeur sur un para-mètre est disponible, les représentations stochastiques sont alors employées. Nous allons donc développer cette représentation afin d’apporter au lecteur la définition mathématique d’une variable aléatoire [13]. Le calcul des probabilités modélise les phénomènes aléatoires. Une modélisation implique donc certainement une simplification des phénomènes, mais cette simplification conduit à une quantification, donc à la possibilité de faire des calculs et à prédire. Nous conviendrons qu’effectuer une expérience, c’est sélectionner par un pro-cédé quelconque un élément ω dans un ensemble Ω (ex : ω ∈ Ω = {1, 2, 3, 4, 5, 6} pour le jet d’un dé). Cet ensemble Ω est appelé l’espace des observables. On dit aussi dans la litté-rature l’espace échantillon, l’espace des évènements élémentaires, l’expérimental ou encore l’évènementiel. Les éléments ω sont appelés observables ou évènements élémentaires. Les questions que l’on se pose sur le résultat d’une expérience sont systématiquement du type

(24)

suivant : on choisit un sous ensemble A de l’espace des observables et on se demande : le résultat de l’expérience va-t-il tomber dans A ou non ? Il existe alors des sous ensembles A qui sont inintéressants pour le paramètre considéré : savoir si le tirage aléatoire d’un module d’Young tombe dans le sous-ensemble des irrationnels en est un exemple. Les parties de A pour lesquelles on se pose ce genre de question sont appelées des évènements. L’idée de Kolmogorov est que l’ensemble F des évènements a une structure de tribu : Définition : Soit Ω un ensemble et soit F une partie de P(Ω). F a une structure de tribu si elle satisfait aux trois axiomes :

1. Si A ∈ F , alors son complémentaire Ac = Ω\A est aussi dans F .

2. Si on a une suite finie ou dénombrable A1, ..., An d’éléments de F , alors leur réunion

S

n≥1An est aussi dans F .

3. L’ensemble vide est dans F .

Un élément de F est appelé un événement. Comme nous venons de le dire, on ne considère pas nécessairement tout sous-ensemble A de Ω comme un élément de la tribu F des évènements. Typiquement, nous envisagerons deux cas particuliers importants :

Le cas où Ω est dénombrable, et nous prendrons comme tribu F la famille P(Ω) de tous les sous-ensembles de Ω.

Le cas où Ω est la droite réelle R. Nous prendrons alors pour tribu F la tribu B (dite tribu de Borel, dont les éléments sont appelés des boréliens) qui est la plus petite tribu qui contient tous les intervalles de R. Ainsi la question de savoir si un module d’Young tombe entre deux valeurs particulières est forcement associée à un évènement.

Définition : Soit un espace des observables et une tribu d’évènements F formée de certains sous ensembles de Ω, une probabilité P est une application de F dans [0, 1] , donc un procédé qui associe à tout évènement A de F un nombre P (A) compris entre 0 et 1 appelé probabilité de A, et qui satisfait aux axiomes suivants :

– L’évènement certain est de probabilité 1 : P (Ω) = 1.

– Axiome d’additivité dénombrable : pour toute suite A1, A2, ..., An. d’évènements de

A qui sont de plus deux à deux disjoints, c’est-à-dire tels que AkT Aj = ∅ si k 6= j,

alors la série P∞

k=1P (Ak) converge et a pour somme P (

S

k≥1Ak).

Le triplet (Ω, F , P ) est alors appelé un espace de probabilité. Une variable aléatoire est alors une application mesurable définie sur un espace de probabilités (Ω, F , P ) dans Rn.

La mesure image correspondante est appelée loi de la variable aléatoire.

Cet apport sur la définition mathématique d’une variable aléatoire est énoncé ici afin d’apporter la définition des entités qui seront sous-jacentes tout au long du discours et, dans la suite de ce travail, la notion de variable aléatoire sera effectué sur sa modélisation faible, c’est-à-dire que la variable aléatoire est uniquement décrite par sa loi. Ainsi nous utiliserons les notations f (x) et F (x) pour appeler respectivement la densité et la fonction de distribution de la variable aléatoire x. On remarque cependant, dans l’évolution des travaux couplant les calculs mécaniques avec les méthodes stochastiques, que le blocage se fait autant sur les hypothèses faites sur le modèle mécanique que sur les simplifica-tions faites sur la théorie des probabilités. La collaboration étroite entre le mécanicien et le probabiliste est alors la clé pour la résolution de tels problèmes. La partie suivante expliquera alors la démarche pour lier ces deux domaines, à priori différents et pourtant

(25)

1.3. DÉFINITIONS 25

compatibles, puisque les deux utilisent les outils mathématiques ou numériques afin de représenter une réalité.

1.3

Définitions

La fiabilité mécanique prédictive qui consiste à calculer la probabilité de défaillance d’un composant d’une structure n’étudie généralement pas le composant réel. Une re-présentation ou un modèle est utilisé pour évaluer cette défaillance pour un mode de défaillance donné. Nous apportons ici les définitions utiles pour la suite de cette étude.

Le modèle

Le modèle représente la structure mécanique réelle comme un système comportant une entrée, un état et une sortie (figure (1.1)).

F Model Material Geometry S R Resistance G(Ri, Si)

Fig. 1.1 – Modèle Résistance-Sollicitation [94].

Nous pouvons définir [94] :

-Ai(t)− les données d’entrée du système mécanique, fonction du temps t, qui sont en

général le chargement et les actions,

-Ki(t)− les données d’état du système mécanique, séparées en deux catégories : K f i

(données imposées par le cahier des charges) et Kip (données à la disposition du concep-teur). Elles contiennent les caractéristiques géométriques, celles des matériaux et les condi-tions aux limites.

-Ri(t)− les variables de la ressource disponible : résistances, déplacements admissibles,

nombre de cycles avant défaillance, ...

Le modèle mécanique permet de simuler une réalisation des besoins (sollicitations) qui constitue la sortie du modèle, notée Si. Si F (...) est l’opérateur du modèle mécanique, il

existe une relation du type :

F (t, Ai, K f i , K

p

(26)

La fonction d’état

La fonction d’état du système traduit le succès d’un dimensionnement par la vérification d’une inégalité du type :

G(Si(t), Ri(t)) ≥ 0, ∀t ∈ [0, T ] (1.3)

où [0, T ] est la durée de vie exigée ou période de référence pour laquelle le dimen-sionnement est étudié. En général, le modèle Résistance-Sollicitation est choisi pour sa simplicité où la fonction g(...), représentant le scénario des défaillances, est donnée par l’inégalité :

Si(t) ≤ Ri(t), ∀t ∈ [0, T ] (1.4)

Le système est alors dans le domaine de sûreté lorsque la sollicitation calculée (sortie du modèle mécanique) reste inférieure à la ressource disponible.

Les variables de base

Soit {X} le vecteur aléatoire constitué des variables aléatoires xj introduisant

l’incer-titude dans le modèle mécanique. La fonction G(xj), définit par les équations (1.2) et

(1.3), représente la surface d’état limite lorsqu’elle s’annule. G(xj) < 0 définie le domaine

de défaillance, G(xj) > 0 le domaine de sûreté. L’ensemble de définition des variables

aléatoires, constituant le domaine D, est alors divisé en deux sous-domaines par la surface G(xj) = 0 où Df représente le domaine de défaillance et Ds le domaine de sûreté.

La probabilité de défaillance

La probabilité de défaillance du système est alors définie par : Pf =

Z

g({X})≤0

f{X}({x})dx1...dxn (1.5)

où f{X}({x}) est la densité de probabilité du vecteur {X}.

1.4

Méthodes de fiabilité : le couplage mécano-fiabiliste

Le principe de toutes les méthodes fiabilistes est donc de trouver la valeur de l’intégrale (1.5) capable de nous offrir une notion quantitative de la fiabilité d’un système. Les différentes méthodes de fiabilité peuvent être classées en catégories en fonction de la sophistication dans l’évaluation de la fiabilité [43][148].

Les méthodes de niveau I caractérisent les variables aléatoires par une valeur unique enveloppe, évaluée par l’appréciation du concepteur généralement en queue de distribu-tion du paramètre (ces valeurs sont appelées valeurs caractéristiques correspondant à une valeur nominale, à l’espérance mathématique ou à un p-fractil [94]. Un facteur de sécu-rité est alors introduit afin de conserver une marge entre ces valeurs caractéristiques. Ces études correspondent à la démarche déterministe traditionnelle.

Les méthodes de niveau II sont basées sur des méthodes fiabilistes où chaque paramètre se caractérise par les deux premiers moments de sa distribution : sa valeur moyenne et

(27)

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 27

son écart-type. C’est la méthode la plus utilisée dans les codes de calculs. Les variables de base comprennent les chargements de la structure, les résistances, la géométrie, les matériaux, les défauts et toute autre variables incertaine sensible au mode de défaillance. Leur distribution est en général supposée de type normal.

Bien que De Vinci se soit déjà intéressé à la relation Résistance-Sollicitation, Cornell fut le premier à fournir un indice de la fiabilité pour ce type de problème caractérisant la marge normale implicite entre la résistance R et la sollicitation S [35] :

βc =

E[R] − E[S]

pV ar[R] + V ar[S] (1.6)

Il arrive que pour l’appréciation de probabilités de défaillance très faibles (chimie, nucléaire,...), la distribution normale ne soit plus adaptée pour la caractérisation des va-riables étant donnée la forte influence de la modélisation des queues de distribution des paramètres incertains sur les résultats de calcul. Les méthodes de niveau III prennent alors en considération des variables aléatoires quelconques. Des transformations sont alors effec-tuées pour passer dans un espace normal standard afin de pouvoir évaluer la fiabilité par des méthodes d’approximation (FORM/SORM) ou de simulation (Intégration numérique, Monte-Carlo).

Les méthodes de niveau IV font l’objet de l’étude du système dans son ensemble afin d’optimiser sa fiabilité par rapport au dimensionnement, à sa maintenance et aux inspections sous des contraintes économiques. Des fonctions de pénalités peuvent être alors incorporées dans la caractérisation des variables aléatoires.

1.4.1

Solutions

La résolution de l’intégrale (1.5) est conditionnée par la connaissance de la fonction d’état limite. En effet, si celle-ci est explicite, l’intégration de la densité multi dimension-nelle sur le domaine Df peut être faite par méthode numérique. En revanche, dans de

nombreux cas, la fonction G n’est pas analytique et seules des observations ponctuelles de G(X) pour un jeu de variables aléatoires {X} sont évaluables. L’évaluation de la sortie Si

où le modèle fait appel au code Éléments finis est l’exemple de fonction d’état implicite. Il existe alors deux grandes familles de résolution de cette intégrale : les méthodes basées sur la simulation et les méthodes d’approximation.

Les méthodes de simulations sont principalement basées sur les tirages de Monte-Carlo : plusieurs tirages aléatoires du vecteur {X} sont effectués dans le domaine D afin d’évaluer l’estimateur de la probabilité Pf. Plusieurs façons d’effectuer les tirages

aléatoires existent et nous noterons la méthode de Monte Carlo direct où les réalisations des variables aléatoires se font dans tout le domaine suivant les distributions respectives de chacune des variables. La méthode de tirage d’importance, quant à elle, biaise le tirage des variables aléatoires afin d’effectuer des réalisations de variables dans le domaine de défaillance Df prédit. Ces méthodes ont l’avantage de fournir un estimateur sûr (une

valeur de variance désirée pour l’estimateur peut être atteinte) pour peu que le nombre de tirages soit suffisamment important. Cet avantage conduit directement à son inconvénient : le nombre de tirages nécessaires peut engendrer des temps de calcul énormes lorsque l’évaluation de la fonction d’état limite passe par un calcul EF. C’est le cas pour notre

(28)

propos où les calculs en fatigue des matériaux mis en jeu font appel à des calculs itératifs pour la résolution des problèmes non-linéaires. Elles peuvent cependant être très utiles dans une démarche de résolution par surface de réponse.

La deuxième famille de méthodes concerne les méthodes d’approximation qui consistent à partager le domaine d’intégration entre le domaine de défaillance et le domaine de sûreté par un hyperplan linéaire dans les cas FORM( First Order Reliability Method) ou par une surface quadratique dans le cas SORM( Second Order Reliability Method) au point de conception, ce point étant le point de défaillance le plus probable. Ces méthodes sont particulièrement adaptées pour de petites probabilités de défaillance du système, la où les méthodes de tirages demanderaient un nombre assez important de tirages pour atteindre le domaine de défaillance.

La différence que l’on peut alors rencontrer entre une simulation de Monte Carlo et une analyse FORM peut nous informer sur la non-linéarité de la fonction d’état limite et donc de la nécessité d’effectuer une analyse de plus haut degré de type SORM.

1.4.2

Méthode de Monte Carlo

Les méthodes de Monte Carlo datent d’environ 1944 avec Fermi, von Neumann et Ulman lors de la réalisation de la bombe H. L’idée est plus ancienne (aiguille de Buffon en 1777) et apparaît en particulier au XIXème siècle avec par exemple Kelvin et Student. Les méthodes de Monte Carlo utilisent les lois des grands nombres afin d’évaluer un être déterministe, généralement une intégrale, représentant l’espérance ma-thématique d’un vecteur aléatoire {X} à valeurs dans Rn dont on simule N réalisations

indépendantes. Si E(X) existe alors :

∀ε lim n→∞P ( E(X) − ε ≤ 1 N N X k=1 xk≤ E(X) + ε ) = 1 (1.7)

où E(.) est l’espérance mathématique. Pour une suite (xk) de réalisations

indépen-dantes d’une variable aléatoire sur le domaine de définition D :

P ( lim N →∞ 1 N N X k=1 f (xk) = Z D f (t)dt ) = 1 (1.8) dès que f ∈ L1(D).

1.4.2.1 Monte Carlo Direct

Les valeurs des variables de base (le vecteur {X}) sont échantillonnées aléatoirement en fonction des distributions de probabilité de {X}. Le nombre de tirage Nf tombant dans

le domaine de défaillance Df, c’est-à-dire le nombre de tirage satisfaisant la condition de

g(x) ≤ 0, est identifié. La probabilité de défaillance Pf est alors évaluée par :

Pf =

Z

Df

φn(uk)du1...dun (1.9)

(29)

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 29

I (g(x)) = 1 si G(x) ≤ 0

0 si G(x) > 0 (1.10)

La probabilité de défaillance peut alors être exprimée sur tout le domaine par la relation :

Pf =

Z

D

I (G(x)) φn(uk)du1...dun= E[I (G(x))] (1.11)

Il est alors possible de définir un estimateur non biaisé de cette espérance par la moyenne empirique de I(.) pour N tirages aléatoires :

Pf = E[I (G(x))] ' Pf = 1 N N X i=1 I(G(x)) (1.12)

La moyenne de cet échantillon converge vers la moyenne réelle, Pf, lorsque le nombre de

tirages tend vers l’infini. Basée sur la loi des grands nombres, la variance de cet estimateur peut être calculée par :

σP2

f =

Pf(1 − Pf)

N (1.13)

qui est inversement proportionnelle à N. Des échantillons de grande taille sont donc nécessaires afin d’obtenir une approximation correcte de la probabilité de défaillance. Ainsi pour un coefficient de variation V (Pf) =

σ2

Pf

Pf donné, la taille de l’échantillon peut

être calculée grâce à l’équation (1.13) :

N > 1 V2(P f)  1 Pf − 1  (1.14) Il est à noter que la méthode de base de Monte-Carlo ne s’intéresse qu’au signe de la fonction G. Le calcul de cette dernière est en revanche nécessaire pour avoir cette infor-mation. Il existe alors des démarches basées sur les méthodes de Monte-Carlo profitant de cette information supplémentaire afin de réaliser ensuite une analyse de sensibilité par construction de surface de réponse [111].

1.4.2.2 Monte Carlo par tirages d’importance

Il peut être intéressant, dans le cas particulier où la localisation du domaine de dé-faillance peut être faite par une étude préliminaire (grâce aux méthodes d’approximation par exemple), de biaiser le tirage des variables aléatoires, qui se fait normalement suivant leurs distributions respectives, afin qu’un maximum de tirages tombent dans le domaine de défaillance. Il faut tout de même prendre conscience que l’information que l’on a sur le point de défaillance peut être faussée et n’est pas à priori un minimum global. En in-troduisant une nouvelle fonction de densité ϕ(x), l’intégrale (1.9) peut se réécrire de la façon suivante :

(30)

Pf =

Z

Df

φn(uk)

ϕ(uk)

ϕ(uk)du1...dun (1.15)

La même démarche suivant l’équation (1.12) peut être faite et l’estimateur de cette probabilité revient alors à calculer l’espérance mathématique de la fonctionφn(uk)

ϕ(uk) Pf = E[I (G(x)) φn(uk) ϕ(uk) ] ' Pf = 1 N N X i=1 I(G(x))φn(uk) ϕ(uk) (1.16)

Cette nouvelle fonction de densité est souvent prise normale centrée au point de concep-tion. Pour ce type de densité, la probabilité de défaillance s’écrit :

Pf = 1 N N X i=1 I(G(x))φn(uk) ϕ(uk) = 1 N N X i=1 I(G(x)) exp −X i u∗iu(r)i − β 2 2 !! (1.17)

avec β l’indice de Hasofer-Lind défini dans la prochaine section.

1.4.3

Méthodes d’approximation FORM/SORM

Les méthodes FORM/SORM sont des méthodes d’approximation qui permettent de calculer l’intégrale multidimensionnelle (1.5) [128]. Ces méthodes se décomposent en trois étapes (figure (1.2 a et b)) :

– La transformation T de l’espace des variables de l’espace physique xi à l’espace des

variables Gaussiennes normées ui;

– la détermination du point de défaillance le plus probable P∗ (point de conception) grâce à un algorithme d’optimisation ;

– l’approximation de la surface limite par un hyperplan ou une surface quadratique au point de conception.

(31)

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 31

G(x) < 0 x2

x1 G(x) = 0

(a) Espace physique

→ T 00 00 00 11 11 11 FORM SORM H(u) < 0 u1 u2 βH L H(u) = 0 α P∗ (b) Espace normé

Fig. 1.2 – Représentation des iso-courbes de densité et de la fonction d’état limite dans l’espace physique et normé.

1.4.3.1 Transformation en variables Gaussiennes normées

Pour pouvoir manipuler les variables aléatoires avec plus de commodité et puisque la distribution Gaussienne présente quelques propriétés, la première étape de cette méthode consiste à transformer ( par la transformation T ) le vecteur des variables aléatoires {X} en un vecteur {U } constitué de variables aléatoires normales de moyenne nulle et de variance unitaire :

ui = T (xj) et H(ui) = G(T−1(uj)) (1.18)

La distribution F (X) de chacune des variables aléatoires est donc transformée en une densité d’une variable aléatoire normale centrée réduite :

FX(X) = Φu(U ) = 1 (2π)n/2 exp  −1 2U TU  (1.19) Cette transformation existe toujours pour des variables aléatoires possédant une dis-tribution strictement continue et présente plusieurs propriétés :

– la densité de probabilité dans l’espace normé est symétrique en rotation, c’est-à-dire pour tous les hyperplans à égale distance de l’origine, la probabilité du demi-espace est constante.

– La densité décroît exponentiellement avec le carré de la distance par rapport à l’origine.

(32)

Fonction de répartition 1 Φ(u) ui xi F(xi) = Φ(ui) F(x) u, x

Fig. 1.3 – Relation entre les fonctions de répartition F (x) et Φ(u) définissant la transfor-mation T

La figure (1.3) illustre cette transformation depuis l’espace physique à l’espace normé pour le cas d’une variable aléatoire. Le choix de la transformation s’effectue en fonction : (1) de l’information statistique dont on dispose sur les variables aléatoires, (2) de la normalité des variables aléatoires, (3) de la dépendance qui peut exister entre les variables aléatoires. Nous présenterons ici trois transformations (Hasofer-Lind, Nataf et Rosenblatt) à choisir en fonction des restrictions énumérées ci-dessus.

Transformation de Hasofer-Lind La transformation de Hasofer-Lind est uti-lisée pour le cas simple de variables aléatoires normales et corrélées. Dans ce cas, la transformation se réduit donc à [64] :

U = L−1D−1(X − µx) (1.20)

où D = diag [σi], et σi l’écart-type de la i`eme variable aléatoire, L la matrice

triangu-laire inférieure de la décomposition de Cholesky de la matrice de corrélation R = LLT et

µx la moyenne du vecteur aléatoire X.

Dans le cas de variables indépendantes non-Gaussiennes, la transformation non linéaire se réduit à la transformation diagonale suivante :

ui = Φ−1[FXi(xi)] i = 1, ..., n (1.21)

où Φ [.] est la distribution normale et FXi(xi) la distribution de la variable ui. Cette

transformation est appelée diagonale car chaque variable xi est transformée séparément

des autres variables.

Transformation de Nataf Dans le cas d’une information statistique incomplète, c’est-à-dire lorsque seules les lois marginales de xi et de corrélations cor(xi, xj) sont

connues, la transformation dans l’espace normé se fait en deux étapes suivant le modèle de Nataf [114].

La première étape consiste à transformer les variables aléatoires xi dans l’espace normé

(33)

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 33

Φ(ˆui) = Fi(xi) =⇒ ˆui = Φ−1[Fi(xi)] (1.22)

Il faut maintenant décorréler les variables en utilisant la relation entraînée par la transformation : fX(X)dx1dx2...dxn = φ2( ˆU , ρ0,12)dˆu1dˆu2...dˆun (1.23) soit : fX(x1, x2, ..., xn) = φn( ˆU , ρ0,ij) dˆu1dˆu2...dˆun dx1dx2...dxn = φn( ˆU , ρ0,ij) fX1(x1)fX2(x2)...fXn(xn) φ(ˆu1)φ(ˆu2)...φ(ˆun) (1.24) où fX(xi) = dFX(xi)/dxi et φn( ˆU , ρ0,12) représente la fonction de densité normale

centrée réduite de corrélation ρ0,ij et de dimension n. L’équation (1.24) est obtenue en

différenciant l’équation (1.22). La transformation finale dans l’espace décorrélé en utilisant la transformation de Hasofer-Lind ((1.20)) s’écrit alors :

ui = Ti(xj) = Γ0,ijuˆj = Γ0,ijΦ−1[Fj(xj)] (1.25)

avec Γ0,ij représentant l’inverse de la matrice triangulaire inférieure de la

décomposi-tion de Cholesky de la matrice de corréladécomposi-tion ρ0.

La dernière tâche est de trouver la relation entre la matrice corrélation ρ0,ij des

va-riables ˆu et ρij(données du problème) en réécrivant le coefficient de corrélation par :

ρij = Z +∞ −∞ Z +∞ −∞  xi− µi σ   xi − µi σ  fXi,Xj(xi, xj)dxidxj = Z +∞ −∞ Z +∞ −∞  xi− µi σ   xi − µi σ  φ2(ˆui, ˆuj, ρ0,ij) fXi(xi)fXj(xj) φ(ˆuj)φ(ˆuj) dxidxj (1.26) = Z +∞ −∞ Z +∞ −∞  F−1(Φ(ˆu i)) − µi σ   F−1(Φ(ˆu j)) − µi σ  φ2(ˆui, ˆuj, ρ0,ij)dˆuidˆuj

Transformation de Rosenblatt La transformation de Rosenblatt est utilisée lorsqu’une information statistique complète est disponible, i.e la loi conjointe de distribu-tion du vecteur {X} est connue.

La transformation s’écrit alors :

u1 = Φ−1[FX1(x1)] (1.27)

u2 = Φ−1[FX2(x2|x1)] (1.28)

... (1.29)

ui = Φ−1[FXi(xi|x1, x2, ..., xi−1)] (1.30)

où FXi(xi|x1, x2, ..., xi−1) est la fonction de distribution conditionnelle de xi pour

x1, ..., xi−1 donnée.

Si cette transformation donne une solution générale pour construire la transformation des variables physiques vers l’espace des variables normées, elle pose cependant deux inconvénients :

(34)

– Il faut disposer de la densité conjointe du vecteur aléatoire, ce qui est une informa-tion très riche mais rarement disponible dans les problèmes réels. L’alternative est d’obtenir les fonctions de densité conditionnelle par des moyens numériques. – la transformation n’est pas unique et l’indice de fiabilité en dépend. En effet la

transformation peut s’effectuer dans n’importe quel ordre. Il y a donc n! façons d’effectuer la transformation de Rosenblatt.

Un facteur déterminant quant au choix de la méthode de transformation est la disponibilité très limitée de données qui peuvent caractériser avec confiance les fonctions de densité communes ; il est courant de recourir à la caractérisation de variables aléatoires de telle sorte que des techniques de transformation analytiques puissent être employées.

1.4.3.2 Recherche du point de conception

La deuxième étape des méthodes FORM/SORM est de déterminer le point de concep-tion, c’est-à-dire le point appartenant au domaine de défaillance et le plus proche de l’origine dans l’espace normé [45]. Dans l’espace normé, les contours de densité de proba-bilité sont des sphères concentriques et la densité de probaproba-bilité décroît avec la distance à l’origine. Donc, le point de conception u∗ a la probabilité d’occurrence la plus haute parmi tous les points d’échec. Le point de conception dans l’espace normal standard, u∗, peut être inversement calculé dans l’espace physique afin de donner une interprétation plus significative de ce point. Le point de conception est alors la solution du problème d’optimisation non-linéaire suivant :

u∗ = minp< u > {u} sous la contrainte : H(uk) ≤ 0 (1.31)

Formulation du problème d’optimisation Le problème d’optimisation dans un cas général peut être écrit avec les fonctions de Lagrange en transformant les contraintes d’inégalité de l’optimisation en contraintes d’égalité avec les multiplicateurs de Lagrange :

L(U, λ) =< u > {u} +X

j

λjHj(u) (1.32)

où λj sont respectivement les multiplicateurs de Lagrange associé à la fonction d’état

limite Hj(u) traduisant l’appartenance au domaine de défaillance : λj = 0 si u ∈ Df ⇔

Hj(u) < 0 et λj > 0 pour {u| Hj(u) < 0}. Le point (U∗, λ∗) est l’optimum recherché s’il

rend stationnaire la fonction de Lagrange L(U, λ). Les conditions de Kuhn-Tucker s’écrivent alors : 5 L(U, λ) = 0 ⇒      ∂L(U,λ) ∂ui = 0 ∂L(U,λj)

∂λl = 0 si la contrainte est active

λl = 0 si la contrainte est inactive

(1.33)

En supposant que le mode de défaillance se définit à l’aide d’une seul fonction d’état limite et en remarquant que ∂ (< u > {u}) /∂ui = 2ui, les conditions précédentes

Figure

Fig. 1.2 – Représentation des iso-courbes de densité et de la fonction d’état limite dans l’espace physique et normé.
Fig. 1.3 – Relation entre les fonctions de répartition F (x) et Φ(u) définissant la transfor- transfor-mation T
Fig. 2.3 – Prototype d’une phase de l’onduleur pour l’application Z2N5 et schéma élec- élec-trique associé.
Fig. 2.5 – Prototype d’interrupteur élémentaire ou switch et schéma électrique associé.
+7

Références

Documents relatifs

(a) Sans utiliser la notion de la dimension d’un espace vectoriel, don- ner la d´ efinition d’un espace vectoriel de dimension finie... (c) D´ emontrer que tout espace vectoriel

Aucun appareil ´ el´ ectronique n’est permis.. Ne pas d´ egrafer

Aucun appareil ´ el´ ectronique n’est permis.. Ne pas d´ egrafer

Donner la d´ efinition du compl´ ement ortho- gonal S ⊥ de S, et montrer qu’il est un sousespace

Aucun appareil ´ el´ ectronique n’est permis.. Ne pas d´ egrafer

(c) D´ emontrer que toute liste orthogonale est lin´ eairement ind´

(e) Montrer que toute valeur propre d’un op´ erateur auto-adjoint est r´ eelle.. (f) Enoncer le Th´ eor` eme

Aucun appareil ´ el´ ectronique n’est permis.. Ne pas d´ egrafer