• Aucun résultat trouvé

Courbes de fragilité pour différentes classes de bâtiments

4.5 Application pour la construction de courbes de fragilité empiriques

4.5.3 Courbes de fragilité pour différentes classes de bâtiments

Mise en place d’une forme fonctionnelle

et construction de courbes de fragilité

empiriques

À partir des enregistrements de séismes présentés au chapitre précédent, on propose dans ce chapitre de mettre en place une forme fonctionnelle reliant un critère d’endommagement à plusieurs indicateurs de nocivité. Cette forme fonctionnelle sera ensuite utilisée pour construire des courbes de fragilité empiriques pour les deux premiers niveaux de dommages, adaptées aux bâtiments de la base de données.

Sommaire

4.1 Introduction . . . 114

4.2 Mise en place d’une forme fonctionnelle . . . 115

4.2.1 Forme générale . . . 115

4.2.2 Choix des indicateurs . . . 115

4.2.3 Forme fonctionnelle proposée . . . 117

4.3 Les méthodes d’optimisation globale . . . 118

4.4 Inversion des paramètres de la forme fonctionnelle . . . 120

4.4.1 Vérification du processus d’inversion à partir de données synthétiques . 120

4.4.2 Inversion des paramètres à partir des données réelles . . . 124

4.5 Application pour la construction de courbes de fragilité empiriques 130

4.5.1 Construction des courbes de fragilité empiriques . . . 130

4.5.2 Évaluation des paramètres µ et σ des courbes de fragilité, pour plusieurs

typologies de bâtiments . . . 131

4.5.3 Courbes de fragilité pour différentes classes de bâtiments . . . 137

4.6 Conclusion . . . 140

4.1 Introduction

L’acquisition croissante de données de séismes enregistrés dans des bâtiments au cours des dernières décennies apporte des informations sur le comportement des structures sous sollicita-tions sismiques. Couplées aux nombreuses missions post-sismiques, ces données ont permis de faire un lien entre les intensités sismiques et l’endommagement des structures de génie civil et d’en déduire des courbes de fragilité empiriques.

En Europe,Spence et al.(1992) etOrsini(1999) ont établi des courbes de fragilité empiriques à partir de dommages exprimés sur l’échelle M SK. De même, Rossetto et Elnashai (2003) ont développé des courbes de fragilité adaptées aux bâtiments en béton armé du parc immobilier européen à partir de dommages observés à la suite de 19 séismes.Yamazaki et Murao(2000) ont estimé la vulnérabilité de classes de bâtiments à partir d’informations sur l’état d’endommage-ment des structures collectées par le Building Research Institute suite au séisme de Kobe (1995). Pour l’ensemble des études – on peut également citer les travaux de Lagomarsino et Giovinazzi

(2006) sur la définition de courbes de fragilité empiriques pour les bâtiments en maçonnerie et

de Sarabandi et al. (2004) et Rota et al. (2008) pour les structures en béton armé –, des

enre-gistrements de séismes ont été utilisés, mais uniquement dans le but de calculer les indicateurs de nocivité au niveau du sol ou d’estimer l’intensité macrosismique.

Des enregistrements de séismes dans des bâtiments sont disponibles et permettent d’analyser la réponse des bâtiments sous sollicitations sismiques, en particulier pour des bâtiments ayant été endommagés (e.g.Todorovska et Trifunac,2007,2008). Les bâtiments californiens présentés au chapitre précédent sont, pour la majorité d’entre eux, instrumentés à différents étages, no-tamment au niveau du rez-de-chaussée et du dernier étage. Les capteurs se trouvant à ces étages nous permettent d’accéder par exemple au déplacement relatif du toit au cours d’une sollicitation (N RRD). Ce déplacement, normalisé par la hauteur du bâtiment, renseigne sur la déformation inter-étage moyenne qui a été subie par un bâtiment pendant un tremblement de terre. L’état d’endommagement de la structure peut alors être estimé en comparant cette mesure à des valeurs limites de déformations inter-étages ; par exemple, la FEMA (1999) propose les valeurs limites correspondantes à plusieurs niveaux de dommages.

Le chapitre précédent a abordé les relations entre les indicateurs de nocivité et les réponses des bâtiments instrumentés. Suivant le paramètre décrivant le mouvement du sol, plus ou moins de variabilité est observée dans la réponse des structures. En combinant plusieurs indicateurs, il est possible de réduire davantage cette incertitude. Ce chapitre a pour objectif de proposer une forme fonctionnelle reliant les déplacements observés au sein des bâtiments à une combinaison de paramètres décrivant la nocivité des séismes. La forme fonctionnelle permettra de donner une estimation plus précise du N RRD en fonction du mouvement du sol, afin d’effectuer une estimation dans le cadre d’un bâtiment spécifique ou pour construire des courbes de fragilité. En effet, à partir de cette forme fonctionnelle et d’une base de données de séismes synthétiques, des courbes de fragilité empiriques sont établies pour plusieurs typologies de bâtiments. Les courbes de fragilité ainsi obtenues sont comparées aux courbes Hazus (FEMA,2012) qui sont adaptées à l’estimation de la vulnérabilité des bâtiments américains. Pour chaque typologie, la médiane

et l’écart-type caractérisant les courbes de fragilité sont donnés : la médiane est la valeur du paramètre décrivant l’intensité sismique pour laquelle la probabilité de dommage est égale à 50 % et l’écart-type représente la variabilité intervenant dans les courbes de fragilité.

4.2 Mise en place d’une forme fonctionnelle

4.2.1 Forme générale

Dans cette section, on cherche à mettre en place une forme fonctionnelle du type :

g(DM ) = α0+ f1(IM1) + . . . + fi(IMi) + . . . + fn(IMn) (4.1)

où DM (Damage Measure) est un paramètre d’endommagement et les IMi (Intensity Measure) sont des indicateurs de nocivité. Les fonctions g, f1, ..., fn, correspondent aux fonctions les plus adaptées pour représenter le paramètre d’endommagement et les indicateurs de nocivité associés. Par exemple, si on considère le déplacement maximal relatif horizontal comme paramètre de dommage, mentionné dans le chapitre 3 et noté NRRD, on utilisera la fonction g(N RRD) = ln(N RRD) pour représenter ce paramètre. En effet, on a vu au chapitre précédent que le NRRD suit une distribution de loi lognormale lorsque les indicateurs de nocivité suivent une distri-bution uniforme. De même, si le P GA (Peak Ground Acceleration) est choisi dans cette forme fonctionnelle associée au ln(N RRD), on choisira de représenter cet indicateur de nocivité par la fonction f (P GA) = a + b ln(P GA) + c P GA car parmi les trois formes fonctionnelles testées dans le chapitre 3 pour modéliser le N RRD en fonction des différents indicateurs de nocivité, cette forme apporte le plus faible écart-type entre le P GA et le N RRD (tableau 3.2).

4.2.2 Choix des indicateurs

Il n’existe pas de relation reliant les indicateurs de dommage aux indicateurs de nocivité.

Hancock et al.(2008) utilisent une forme fonctionnelle habituellement utilisée pour modéliser le

P GA et le spectre en accélération Sa : log10(DM ) = c1+ c2MW + c3MW2 + c4 log10(qR2 jb+ c2 6) + c5qR2 jb+ c2 6 + c7S1+ c8S2+ c9F1+ c10F2 (4.2)

Cette forme fonctionnelle est très proche de celle utilisée par Akkar et Bommer(2007) pour modéliser le P GV (Peak Ground Velocity ) et par Akkar et Bommer (2010) pour modéliser le P GA, le P GV et le spectre en accélération Sa. Dans l’équation 4.2, DM est un paramètre de dommage, c1, ..., c10 sont les paramètres du modèle à déterminer, MW est la magnitude de mo-ment, Rjbest la distance la plus proche entre la projection verticale de la faille à la surface de la Terre et le site, telle que proposée parJoyner et Boore(1981), S1 et S2 sont des valeurs égales à 0 ou 1 et qui dépendent du type de sol, F1 et F2sont des valeurs égales à 0 ou 1 et qui dépendent des caractéristiques de la faille. Une fois qu’un séisme se produit, les paramètres utilisés dans l’équation 4.2 ne sont pas disponibles instantanément, en particulier la magnitude de moment

et la distance définie parJoyner et Boore (1981). Dans la perspective de fournir une estimation des dommages le plus tôt possible après qu’un tremblement de terre se produit, l’utilisation de ces paramètres ne permet pas une estimation rapide et est donc rejetée.

Il n’existe cependant pas de relation liant directement un paramètre de dommage DM à des indicateurs de nocivité IM . Dans les méthodes de vulnérabilité, les dommages sont expri-més à l’aide de courbes de fragilité ou de matrices de probabilités de dommage. Les matrices de probabilités de dommage peuvent être construites sur la base des relations entre l’intensité macroscopique et les dommages. Singhal et Kiremidjian(1996) construisent des courbes de fra-gilité en fonction du spectre en accélération Sa et proposent des matrices de probabilités de dommage en fonction de l’intensité M M I (Modified Mercalli Intensity ). Dans les deux cas, les dommages sont exprimés à partir de l’indice de dommage proposé parPark et al.(1985), prenant en compte la déformation maximale et la dissipation d’énergie au cours d’un chargement cyclique. De même, dans la méthodologie Hazus (FEMA, 1999), les courbes de fragilité sont exprimées en fonction du spectre en déplacement Sd et du P GA équivalent, les dommages étant obtenus en comparant la déformation inter-étage à des valeurs limites caractéristiques de plusieurs états d’endommagement.

Beaucoup d’études proposent des formes reliant les intensités macrosismiques – sur l’échelle M M I ou M SK – aux indicateurs de nocivité. Cabañas et al. (1997) ont effectué une analyse statistique et ont relié les dommages observés en fonction de paramètres décrivant l’énergie des séismes, i.e. la CAV et l’intensité d’Arias(1970). Il existe également des études reliant l’intensité au P GA, P GV et P GD (e.g. Trifunac et Brady, 1975a;Wald et al., 1999), et aux spectres de réponse. Les spectres présentent l’avantage de décrire à la fois l’amplitude et le contenu fréquen-tiel des mouvements sismiques. Le P GA étant défini dans les hautes fréquences, le P GV dans les fréquences intermédiaires et le P GD dans les basses fréquences,Wald et al. (1999) soulignent que ces trois indicateurs d’amplitude sont complémentaires et permettent de représenter une plus grande gamme de fréquences.

D’après ces études, il apparaît que l’utilisation du CAV ou de l’Ia est utile pour représenter l’énergie des séismes. Nous ne conserverons cependant qu’un seul de ces deux indicateurs, très corrélés entre eux, et le choix s’est porté sur la CAV . Parmi les indicateurs de pics, nous retenons le P GA car ce paramètre donne une indication sur le contenu hautes fréquences des séismes. De plus, les courbes de capacité fournissent des relations entre les forces qui s’appliquent lors d’un séisme, équivalentes à des accélérations lorsqu’elles sont multipliées par la masse de la structure, et les déplacements au sein de celle-ci. La prise en compte du P GA est donc justifiée par l’existence de relations liant les accélérations aux déplacements dans un bâtiment. Après avoir retenu deux paramètres équivalents à une vitesse et une accélération, nous retenons le spectre en déplacement Sd(f, ξ), qui correspond au déplacement d’un système à un degré de liberté, de fréquence f et d’amortissement ξ. De plus le Sd est l’indicateur qui apporte le moins de variabilité lorsque l’on modélise le N RRD (chapitre 3) car il fait intervenir les caractéristiques dynamiques des bâtiments. Enfin la prise en compte du Svmoy, c’est-à-dire la moyenne des Sv sur un intervalle de fréquences, permet de tenir compte de la chute de fréquence d’une structure lors d’un séisme,

et donc de son endommagement.

La durée des mouvements du sol est couramment utilisée pour représenter la nocivité des mouvements sismiques. Cependant, nous ne l’avons pas retenue car nous avons déjà remarqué la faible corrélation entre le N RRD et les durées, excepté pour les durées proposant un seuil (chapitre 3). De plus, avec ces durées reposant sur la définition d’un seuil, il est possible d’obtenir des durées nulles correspondantes à de forts déplacements. C’est pourquoi nous avons choisi de ne pas conserver la durée dans l’expression de la forme fonctionnelle.

4.2.3 Forme fonctionnelle proposée

Nous avons donc choisi d’utiliser le P GA, la CAV , le Sd et le Sv moyen sur un intervalle de fréquences pour modéliser le N RRD. Les fonctions fi de l’équation 4.1 sont choisies parmi les formes fonctionnelles testées au chapitre 3. On conserve, pour chaque indicateur de nocivité la forme apportant le moins de variabilité. On a vu dans le chapitre 3 que la forme ln(N RRD) = a + b ln(IM ) + c IM + d ln(IM )2+ e IM2 est celle qui apporte le moins de variabilité entre les N RRD observés et le P GA, le Sd et le Sv. Cependant, cette fonction diverge très rapidement en dehors de l’intervalle des données pour laquelle elle est définie et n’est donc pas adaptée pour être utilisée à partir d’une base d’enregistrements de séismes, où peuvent être présents des séismes de très petites et de très fortes amplitudes. Nous conservons donc pour ces trois indicateurs la deuxième forme apportant le moins de variabilité, i.e. ln(N RRD) = a + b ln(IM ) + c IM . Pour la CAV , les résultats apportés par les formes 1 et 2 au chapitre précédent étant très proches, nous avons conservé la forme 1 pour représenter cet indicateur de façon à limiter le nombre de paramètres à inverser. Nous représenterons donc la CAV à partir de la fonction suivante : ln(N RRD) = a + b ln(IM ). C’est pourquoi nous avons choisi d’utiliser la forme fonctionnelle suivante :

ln(N RRD) = a + b P GA + c ln(P GA) + d ln(CAV ) + e Sd(fbldg, 5 %) + f ln(Sd(fbldg, 5 %)) + g M ean Sv([fmin−bldg; f0−bldg], 5 %) + h ln(M ean Sv([fmin−bldg; f0−bldg], 5 %)) + ε

(4.3)

où P GA (Peak Ground Acceleration) est l’accélération horizontale maximale enregistrée au niveau du sol, CAV est la Cumulative Absolute Velocity (EPRI, 1988), Sd(fbldg, 5 %) cor-respond au spectre en déplacement pour une fréquence fbldg et un amortissement de 5 % et M ean Sv([fmin−bldg; f0−bldg], 5 %) correspond à la moyenne des vitesses spectrales sur un inter-valle de fréquences – entre la fréquence pré-sismique f0−bldg, évaluée au début du signal, et la fréquence minimale co-sismique fmin−bldg – et pour un amortissement de 5 %. On utilise la fré-quence déterminée à partir de la transformée de Fourier, et notée fF F T au chapitre précédent, pour définir la fréquence du bâtiment fbldg. Les fréquences f0−bldg et fmin−bldg ont été détermi-nées au chapitre 3 à partir de représentations temps-fréquence. a, b, c, d, e, f , g et h sont les paramètres à déterminer. ε correspond aux résidus, c’est-à-dire à la part que le modèle n’explique pas, et est représentatif de la variabilité aléatoire qui existe au sein des données observées. La notation ln fait référence au logarithme naturel. Les données utilisées sont en m/s2 pour les

accélérations, en m/s pour les vitesses et en m pour les déplacements. Les paramètres seront déterminés de telle sorte que la moyenne de ε sur l’ensemble des données soit nulle et que la variance associée soit égale à σε2.

Afin d’identifier les paramètres inconnus de l’équation 4.2,Hancock et al. (2008) ont utilisé une méthode de régression adaptée à cette équation et basée sur la recherche d’un maximum de vraisemblance entre les données réelles et les données simulées (Joyner et Boore,1993). Dans cette étude, à partir d’une méthode d’optimisation globale, nous proposons d’effectuer une recherche des paramètres a, b, c, d, e, f , g ou h qui apportent la plus faible variabilité entre les données observées et les données simulées.

4.3 Les méthodes d’optimisation globale

Les méthodes d’optimisation globale consistent à chercher un minimum global d’une fonction scalaire (appelée fonction Coˆut) sur un ensemble de définition, en évitant de converger vers un minimum local. Ces méthodes sont utilisées lorsque la fonction Coˆut ne peut pas être exprimée simplement de façon analytique, auquel cas il est difficile de calculer les dérivées partielles de la fonction Coˆut par rapport à chaque paramètre à inverser. L’optimisation globale peut être menée soit à partir d’une recherche sur grille, soit à l’aide de méthodes stochastiques.

La recherche sur grille Les paramètres à inverser varient parmi un ensemble de valeurs espacées linéairement, et toutes les combinaisons de paramètres sont explorées. Le temps de calcul est extrêmement long, et dépend du nombre de paramètres à inverser et du pas d’échantillonnage de chaque paramètre.

Les méthodes stochastiques Metropolis publia les premiers travaux sur les simulations de Monte Carlo (Metropolis et Ulam, 1949). La méthode de Monte Carlo consiste à rechercher les paramètres de façon aléatoire sur l’ensemble de définition, avec un coût de calcul également long et dépendant du nombre de paramètres à inverser. Cependant, cela a permis d’établir de nouvelles méthodes, les méthodes Monte Carlo orientées, basées sur une exploration aléatoire dirigée vers les meilleurs modèles afin de réduire les temps de calcul. Il existe plusieurs variantes :

– les algorithmes génétiques (Holland, 1975) : basés sur une analogie avec la biologie et la sélection naturelle. À partir de sélections, de croisements et de mutations, les populations convergent vers un état optimal de génération en génération ;

– le recuit simulé (Simulated Annealing, SA) (Kirkpatrick et al.,1983) : basé sur une analogie avec la métallurgie. La recherche consiste à faire varier une fonction de température de telle sorte que les modèles convergent vers un état optimal minimisant l’énergie (fonction Coˆut) ; – l’algorithme de voisinage (Sambridge, 1999a,b) : principalement utilisée en géophysique, cette méthode consiste à partager l’espace des paramètres à partir de cellules de Voronoi.

L’optimisation consiste à trouver l’Etat optimal qui permet de minimiser la fonction Coˆut décrivant l’écart entre les données observées N RRDobset calculées N RRDmod. La fonction Coˆut utilisée pour décrire l’écart est l’écart-type des résidus :

Coˆut =pE(Res − E(Res))2 (4.4)

où E est l’espérance et Res correspond aux résidus entre le logarithme des NRRD observés et le logarithme des NRRD calculés à partir de l’équation 4.6 :

Res = ln(N RRDobs) − ln(N RRDmod) (4.5)

Nous avons choisi d’utiliser une variante du recuit simulé pour inverser les huit paramètres de la forme fonctionnelle, le Very Fast Simulated Annealing, VFSA (Ingber,1989). Le principe de la méthode consiste à générer un nouvel état à partir d’un état de référence Etatref, associé à un coût Coˆutref. Ce changement d’état implique une modification du coût, notée ∆Coˆut, entre les deux états successifs.

Etat initial On définit au préalable un état initial Etat0 comme état de référence. Un coût Coˆut0 accompagne cet état. On définit également une température initiale T = T0.

Itérations À partir de l’état de référence, un nouvel état est généré dans le voisinage de Etatref, correspondant à un nouveau coût. La génération d’un nouvel état dépend de la tempé-rature T , de telle sorte qu’avec des tempétempé-ratures élevées chaque paramètre est tiré aléatoirement sur l’ensemble des valeurs possibles. Au contraire, avec des températures de plus en plus faibles, la génération d’un nouvel état se concentre dans un voisinage de plus en plus proche de l’état de référence.

Si ∆Coˆut < 0, c’est-à-dire si une diminution du coût accompagne le nouvel état, on conserve ce nouvel état comme état de référence Etatref. Si on accepte un état améliorant le coût, on tend ainsi à chercher l’état optimal dans le voisinage de l’état de départ Etat0. C’est pourquoi il est nécessaire d’accepter également des états qui n’améliorent pas le coût, afin d’explorer une plus grande partie de l’espace des solutions et d’éviter de rechercher un minimum local. Pour ce faire, dans le cas où ∆Coˆut > 0, le critère de Metropolis est utilisé : si un nouvel état n’améliore pas le coût, alors l’état courant a une probabilité e∆Co ˆTut d’être accepté comme nouveau Etatref. Ainsi, si la condition e∆Co ˆTut > r est vérifiée, avec T la valeur de la température et r = U [0, 1] un nombre tiré aléatoirement entre 0 et 1, alors le nouvel état est conservé comme nouvel état de référence. Sinon, il est rejeté et on conserve l’ancien.

On réalise ce processus N fois à température constante, puis on diminue la température suivant le schéma de refroidissement choisi – dans notre cas T (k) = 0.9k× T0. La valeur e∆Co ˆTut

étant proche de 1 pour des températures élevées et proche de 0 pour des températures faibles, on conserve de moins en moins les états qui ne réduisent pas le coût. Ceci permet alors de converger vers un état final qui correspond au minimum global de la fonction Coˆut.

Fin de l’algorithme L’algorithme se termine lorsqu’un coût cible est atteint ou lorsque la température atteint la température finale Tf.

Dans le cas de la recherche d’un minimum global, l’algorithme de recuit simulé nécessite donc de définir au préalable un Etat0, une température T0, le nombre d’itérations N à température constante, un schéma de refroidissement et la température finale Tf. Le nombre d’itérations dépend donc des paramètres T0, N et Tf.

La convergence de l’algorithme est contrôlée par le schéma de température : une tempéra-ture qui décroit rapidement implique une convergence vers un minimum local ; inversement, une température avec un schéma de décroissance trop lent entraîne une convergence très lente. Il est donc nécessaire de vérifier que les paramètres fixés ci-dessus permettent de retrouver le minimum global de la fonction Coˆut.

Pour la suite de l’étude, on conservera l’appellation Etat pour caractériser l’ensemble des

Documents relatifs