• Aucun résultat trouvé

Dans ce chapitre, nous nous sommes intéressés à la notion d’incertitude qui peut se manifester dans le contexte d’analyse de modèles représentant un processus physique. Le traitement de ces différentes sources d’incertitude implique l’utilisation de méthodes de calcul stochastique. Nous avons vu que trois finalités sont possibles : l’analyse de tendance centrale qui se focalise sur la quantification de l’effet de l’aléa associé aux paramètres d’entrée sur la réponse d’un modèle en déterminant ses caractéristiques statistiques, l’analyse de la fiabilité qui consiste, dans le contexte de génie mécanique ou civil, à évaluer l’intégrité d’une structure vis-à-vis d’un scénario de défaillance, et l’analyse de sensibilité qui permet de quantifier l’effet de l’aléa associé à chaque paramètre incertain sur l’aléa de la réponse du modèle. Nous avons présenté les méthodes classiques qui permettent de satisfaire les trois finalités du calcul stochastique. La présentation de la formulation et l’implémentation des différentes catégories des méthodes de calcul stochastique a été soutenue par des exemples d’illustration, qui ont permis, de développer une analyse critique pour déterminer leurs avantages et leurs limites, ainsi que l’aptitude à l’extension de chaque méthode.

Concernant, les méthodes d’analyse de tendance centrale, on a montré que la méthode de collocation stochastique garantit le meilleur compromis entre la précision et le coût de calcul, tant que la dimension de l’espace aléatoire est modérée ( < 15) : en effet, le nombre d’appels au modèle augmente d’une manière exponentielle. L’efficacité de ces méthodes peut être améliorée en utilisant des règles de quadrature adaptées telles que celle proposée par Stroud ou celle basée sur les grilles de Smolyak.

Concernant l’analyse de fiabilité, nous avons montré que les méthodes d’approximation FORM/SORM sont efficaces et précises tant que la fonction d’état limite représentant le scénario de défaillance n’est pas complexe (i.e. absence de bruit de forme ou de fortes courbures), la dimension de l’espace aléatoire n’est pas élevée et que l’algorithme de détermination du point de défaillance le plus probable est robuste. Les simulations de Monte-Carlo ne sont pas sensibles à la dimension de l’espace aléatoire et permettent de plus d’obtenir un intervalle de confiance de l’estimation de la probabilité de défaillance. Cependant, leur efficacité est mise en défaut dans l’estimation des probabilités de défaillance d’ordre faible. Ce problème peut être surmonté en utilisant les techniques de réduction de la variance telles que les tirages d’importance, les tirages conditionnés, les tirages adaptatifs ou encore la méthode de Subset simulations.

Les méthodes d’analyse de sensibilité ont été traitées d’une façon plus détaillée. Selon la mesure de sensibilité fournie, ces méthodes peuvent être réparties en deux catégories : méthodes d’analyse de sensibilité globale et méthodes d’analyse de sensibilité locale. Grâce aux différentes applications traitées, nous avons déterminé le lien entre les mesures de sensibilité locales et les mesures de sensibilité globales. La méthode de Morris, basée sur l’évaluation des statistiques des effets élémentaires pour hiérarchiser les paramètres d’un modèle, permet de déterminer les paramètres importants, en étant la plus économique comparée aux autres méthodes d’analyse de sensibilité. Cependant, cette méthode ne permet qu’une analyse qualitative de la sensibilité d’un modèle vis-à-vis de ses paramètres d’entrée. Ainsi, elle peut être un moyen pour réduire la dimension de l’espace aléatoire avant d’entamer une analyse de sensibilité proprement dite, une analyse de fiabilité ou une analyse de tendance centrale.

73

IIChapitre II : problèmes à dimension

74

II.1 Introduction

Dans le chapitre précédent, nous avons passé en revue les principales méthodes de calcul stochastique qui permettent d’effectuer des analyses de tendance centrale, des analyses de fiabilité ou des analyses de sensibilité. Nous avons constaté que seule l’efficacité des simulations de Monte-Carlo et ses dérivées est indépendante de la dimension de l’espace aléatoire. Cependant, elles sont quasi inapplicables dans le cas où le modèle implicite représentant le phénomène physique à étudier est exigeant en temps de calcul, et en particulier pour l’évaluation des moments statistiques d’ordres élevés (i.e. coefficient d’aplatissement et coefficient d’asymétrie) et l’estimation des probabilités de défaillance d’ordre faible. Malgré leur efficacité et leur aptitude à être appliquées à des problèmes mécaniques complexes, elles ne permettent pas de traiter les différentes finalités du calcul stochastique. Malheureusement, dans les problèmes d’ingénierie, nous sommes le plus souvent amenés à développer des modèles numériques exigeants en temps de calcul pour simuler le comportement des structures réelles. De plus, les sources d’incertitude sont multiples, et puisque nous ne disposons pas d’informations préalables sur le poids de chacune d’elles, nous sommes contraints à toutes les prendre en compte dans le calcul stochastique ce qui engendre un nombre élevé de paramètres incertains. Dans le lexique du calcul stochastique, ces situations (grand nombre de paramètres incertains) sont regroupées sous l’appellation de problèmes à dimension stochastique élevée. Ces deux problèmes sont prépondérants dans notre travail qui consiste à analyser l’effet de l’aléa sur le comportement des structures à ossatures bois sous sollicitation sismique. En effet, le calcul mécanique est basé sur une analyse dynamique non linéaire exigeante en temps de calcul et le nombre de paramètres incertains peut avoisiner une centaine. Ainsi, l’application des méthodes de calcul stochastique présentées jusqu’ici n’est donc pas envisageable.

Afin de surmonter cette difficulté, nous proposons de poser le problème de la dimension stochastique élevée d’une façon plus intuitive. En effet, au lieu de chercher à développer une approche permettant d’aborder directement les différentes finalités du calcul stochastique tout en prenant en compte l’aléa associé aux différents paramètres incertains, il est plus pertinent de chercher, dans un premier temps, un moyen de réduire le nombre de paramètres incertains, et de ne considérer dans un deuxième temps que les paramètres les plus importants dans le calcul stochastique proprement dit. Ce raisonnement est soutenu par le fait que l’expérience a montré, en particulier pour les problèmes d’ingénierie, que le plus souvent, parmi l’ensemble des paramètres incertains considérés dans le calcul stochastique, seulement un nombre limité entre eux contribue efficacement à l’aléa observé sur la réponse du modèle ou sur la probabilité de défaillance. Cette observation conduit à distinguer la dimension stochastique nominale (nombre de paramètres incertains d’un modèle) et la dimension stochastique efficace (nombre de paramètres incertains qui contribuent effectivement à la variabilité de la réponse d’un modèle). Une fois cette dernière déterminée, nous ne considérons comme paramètres incertains que ceux jugés importants, les autres paramètres étant fixés à leurs valeurs moyennes respectives. Dans ce contexte, les méthodes de criblage présentées dans le premier chapitre, en particulier la méthode de Morris, sont des solutions intéressantes pour déterminer la dimension stochastique efficace. En effet, la méthode de Morris fournit des mesures de sensibilité qualitatives appelées effets élémentaires permettant de hiérarchiser les paramètres incertains considérés dans un problème. On a montré que ces mesures de sensibilité sont étroitement liées aux mesures de sensibilité globale telles que les indices de Sobol, ce qui justifie leur pertinence pour détecter les paramètres les plus importants. Ainsi, la procédure de calcul stochastique que nous proposons dans notre travail est composée de deux étapes : la première consiste à déterminer la dimension stochastique efficace au moyen de la

75 méthode de Morris, et la deuxième consiste à effectuer le calcul stochastique proprement dit en utilisant une technique de construction de surface de réponse ou de méta-modèle.

Dans ce chapitre, nous présentons dans un premier temps la stratégie de résolution du problème de dimension stochastique élevée, en rappelant au passage la notion de dimension stochastique efficace, et tout en proposant une approche efficace permettant son identification. Ensuite, nous nous intéressons à deux techniques de construction de méta-modèle : le Développement en Chaos Polynômial (DCP) [75] et la Méthode de Décomposition de la Dimension (MDD) [76]. La formulation mathématique ainsi que les différents aspects d’implémentation sont présentés en s’appuyant sur des exemples d’illustration, afin d’analyser et de comparer l’efficacité des deux approches. Enfin la stratégie de calcul stochastique est validée à travers un problème traitant le comportement d’une structure à cinq étages sollicitée par des charges latérales.