• Aucun résultat trouvé

Ce chapitre a permis de retracer les étapes de la modélisation du comportement des brasures dans l’objectif d’évaluer la fiabilité des modules. Le premier aspect de cette modélisation reste le modèle en lui-même et les techniques de résolution associées. Les techniques de résolution analytiques existent mais ne se bornent trop souvent qu’à un domaine de validité réduit. Les méthodes par éléments finis, pouvant s’enrichir (modèles

3.6. CONCLUSIONS 127

de comportement, maillage), s’adapter (géométrie, matériaux), renseigner (évaluation pa- ramétrique), évoluer (développement) restent un moyen sûr et de plus en plus rapide pour l’évaluation du comportement des brasures. Les méthodes analytiques seront alors à pri- vilégier pour l’analyse et le choix d’une architecture. La fiabilité en tant qu’optimisation de la probabilité de défaillance intervient alors lorsque cette étape est acquise.

L’aspect fondamental sur l’évaluation de la fiabilité par les modèles du chapitre pré- cédant reste l’estimation correcte de la partie non-linéaire du comportent des brasures. Différentes solutions sont envisageables sur le type de loi à utiliser en fonction de la préci- sion, du domaine de validité et de la rapidité d’exécution. Le choix pour une loi engendre alors les essais à effectuer afin de parvenir à l’identification de ces paramètres. Des critères d’identifiabilité existent et ont été utilisés ici afin de pouvoir caractériser le comportement en fluage primaire et secondaire par un seul essai de relaxation sous différentes tempéra- tures. En effet, par rapport au type de sollicitation que subit une brasure dans un essai de cyclage de puissance retranscrivant au mieux les conditions réelles, l’identification pour approcher convenablement la modélisation des phénomènes de relaxation semble être la meilleure proposition. Il est intéressant d’appréhender alors les limites des modèles em- ployés, ainsi que des paramètres identifiés pour un même modèle. Le choix d’une loi et l’identification de ces paramètres est donc difficile puisqu’il existe un compromis entre la sophistication de la loi et la difficulté pour l’identifier. Le fluage primaire révèle ici son importance dans la compréhension des phénomènes de relaxation alors qu’ils sont inexis- tants dans l’essai d’écrouissage où la plasticité joue un rôle au même titre que le fluage secondaire.

Les essais d’écrouissage ont pu mettre en évidence une certaine dispersion sur la ré- ponse des efforts de réaction par rapport au déplacement imposé sans connaître pour autant la nature de cette incertitude (paramètres matériaux ou encore géométrie des bumps). Dans ce cas de figure, toutes les incertitudes sont observées simultanément avec cette réponse globale du système. Le chapitre suivant devra donc mettre en lumière les paramètres influant sur les réponses observées afin de clairement identifier leur dispersion et ainsi expliquer la variabilité totale du système.

Chapitre 4

Application des méthodes de fiabilité

Sommaire

4.1 Introduction . . . 125 4.2 Surface de réponse adaptative . . . 127 4.2.1 Algorithme de la surface de réponse adaptative . . . 129 4.2.2 Parallélisation . . . 134 4.2.3 Exemples d’applications . . . 135 4.2.4 Conclusion . . . 143 4.3 Précision et sensibilité de la simulation par éléments finis . . 143 4.3.1 Maillage effectué sur la structure. . . 144 4.3.2 Précision dans l’intégration de la loi de comportement. . . 146 4.3.3 Loi de comportement utilisée . . . 147 4.4 Définition de l’incertain dans les modules de puissance . . . . 147 4.4.1 Processus de fabrication . . . 147 4.4.2 Prise en compte des actions . . . 151 4.5 Application des méthodes aux modules de puissance . . . 154 4.5.1 Défaillance électrique d’un pack IGBT . . . 154 4.5.2 Défaillance thermique module NT . . . 157 4.5.3 Défaillance mécanique module NT . . . 160 4.6 Conclusion . . . 170

4.1

Introduction

En introduisant les méthodes capables d’évaluer la fiabilité d’une structure dans le premier chapitre, nous avons pu définir les éléments nécessaires à l’étude fiabiliste. Ces éléments ont ainsi été introduits dans les chapitres suivants avec la définition des modes de défaillance dans le deuxième chapitre (qui servira à l’écriture de la fonction d’état limite) et la modélisation par éléments finis des modules de puissance dans le troisième chapitre (pour le couplage mécano-fiabiliste). Il reste donc, pour pouvoir effectuer cette analyse, à

renseigner le code fiabiliste sur le caractère incertain des données d’entrée et à définir une fonction d’état limite modélisant le mode de défaillance étudié.

Peu de recherches se sont intéressées à ce couplage. Les travaux de Limaye étudient, par exemple, le couplage entre les méthodes fiabilistes et l’étude de la fiabilité d’un packa- ging BGA1 en définissant des variables incertaines sur la géométrie (épaisseur de la puce,

épaisseur de l’attache de la puce) et sur les matériaux (Module d’Young, CTE) [98]. Au- cune des variables prises en compte, par ailleurs, ne porte sur le chargement. Il introduit alors un concept intéressant du modèle de Kriging [76] pour l’optimisation du design par méthode fiabiliste. Cela permet en outre d’estimer l’erreur du modèle mécanique sur n’importe quel point du domaine. D’autres recherches s’orientent vers des approches sto- chastiques avec l’emploi de réseaux de neurones : Subbarayan propose alors d’évaluer le comportement aléatoire de la sortie du modèle éléments finis en estimant sa densité de distribution [146]. Les autres recherches effectuent des analyses paramétriques des mo- dules électroniques en vue d’une optimisation [41, 171, 172, 175, 156]. L’information sur la probabilité d’obtenir une configuration particulière en fonction de la variablité de l’entrée n’est alors plus prise en compte.

Ce chapitre présentera, dans un premier temps, un nouveau concept de surface de réponse optimisant le nombre d’évaluations de la fonction d’état limite dans un contexte où la valeur de celle-ci est munie d’une incertitude. Pour réduire le nombre d’évaluation de la fonction d’état limite faisant ici appel au code EF, cette méthode s’appuie sur des indices de qualité de la régression dans un environnement de calcul parallèle. Une solution logicielle, basée sur le code ferum [63] et complètement réécrite en langage python pour ses potentialités et la richesse de ses librairies scientifiques, a été élaborée tout au long de ce travail afin d’implémenter les méthodes de fiabilité. Le code, nommé PyFER pour Python Finite Element Reliability, sous licence GPL, est doté :

– du calcul de la probabilité de défaillance par les méthodes d’approximation FORM, SORM et de l’analyse des sensibilités et des élasticités des variables aléatoires par rapport à l’indice de fiabilité β et de la probabilité de défaillance,

– de la résolution de la probabilité de défaillance par les méthodes de simulation (Monte-Carlo direct et par tirage d’importance),

– du couplage mécano-fiabiliste au code EF Abaqus (en n’utilisant pas de méthodes propres à Abaqus pour les calculs paramétriques ce qui rend le portage sur d’autres codes EF facilement envisageable),

– de la substitution de la fonction d’état limite par construction d’une surface de réponse (regression linéaire et non-linéaire) ou par apprentissage d’un réseaux de neurones,

– du contrôle de la qualité de la surface de réponse par l’analyse de l’indice de qualité prédictive Q2. L’implémentation de l’algorithme de surface de réponse adaptative qui sera présenté ici est ainsi disponible,

– d’un code de parallélisation des tâches sur une grappe de machine,

– de scripts dédiés au post-processing et capables de créer les figures et tableaux associées aux résultats (à titre d’exemple, les figures de ce chapitre en sont issues). L’emploi de surface de réponse a déjà été utilisé pour l’analyse des contraintes dans les