• Aucun résultat trouvé

4.3 Obtention d’une spécification : Méthodes de personnalisation

4.4.1 Aperçus des méthodes existantes

Il existe diverses méthodes pour générer des signaux temporels aléatoires cor-respondant à une DSP donnée. Ces méthodes sont nécessaires aux réalisations "physiques" des densités spectrales de puissance, comme les excitations générées par une table sismique. Ces excitations correspondent à des processus aléatoires

stationnaires discrets. On peut notamment trouver dans [BAC 08] plusieurs exemples de ces méthodes.

• Les modèles ARMA

Le premier exemple est basé sur des outils statistiques. Il s’agit des modèles de Box-Jenkins plus souvent dénommés ARMA. Lorsqu’on considère une série temporelle, un modèle ARMA est un outil permettant de comprendre ou de prédire les valeurs futures de cette série. Il s’agit de la combinaison de deux parties : l’autorégressive (AR) et la moyenne-mobile (MA : moving average).

La partie auto-régressive du modèle s’exprime de la façon suivante :

Xt= c +

n

i=1

ϕiXt−i+ εt (4.29)

Les différents ϕisont les paramètres du modèle, c est une constante, et εt un bruit blanc.

La partie moyenne-mobile quant à elle est de la forme :

Xt= εt+

n

i=1

θiεt−i (4.30)

Dans ce cas les θisont les paramètres.

Un modèle ARMA est directement une combinaison linéaire des deux modèles pré-cédents. On note ARMA(p, q) un modèle avec p termes auto-régressifs et q termes moyenne-mobile. Il s’exprimera naturellement par :

Xt = εt+ c + p

i=1 ϕiXt−i+ q

i=1 θiεt−i (4.31)

Dans la littérature, on omet le plus souvent la constante c. La définition du modèle passe par le recalage des paramètres des deux parties du modèle. Ce recalage peut être réalisé par des méthodes des moindres de carrés en fonction de la Densité Spectrale de Puissance du processus dont on souhaite générer les trajectoires. • Méthode de markovianisation

ment si sa densité spectrale de puissance peut s’écrire sous une forme rationnelle du type : ΦX X(ω) = 1 2π R( jω)R( jω) |P( jω)|2 (4.32)

avec P( jω) polynôme à coefficients réels dont les racines sont complexes et ont une partie réelle négative, et R( jω) un polynôme à coefficients réels de degré inférieur à celui de P.

Une simple division par le module carré de R( jω) fait apparaître le filtrage :

ΦZZ(ω) = ΦX X(ω) 1

|R( jω)|2 = 1

2π|P( jω)|2 (4.33) On peut ainsi définir le nouveau processus Z(t) comme le résultat de deux filtrages : -le filtrage de X (t) par un filtre de fonction de transfert 1/R( jω).

-le filtrage d’un bruit blanc par un filtre de fonction de transfert 1/P( jω).

Ces deux manières d’appréhender le processus permettent de représenter les échan-tillons de celui-ci sous deux formes (liées à X (t) ou à la représentation temporelle d’un bruit blanc). Cette double représentation conduit à un système d’équations différentielles que l’on représente sous la forme d’équations différentielles stochas-tiques d’Itô (EDSI) que l’on sait résoudre par un schéma d’intégration classique.

La principale difficulté dans cette méthode est la définition des filtres à employer d’autant plus lorsque les DSP sont constituées de successions de pics et non pas de plateaux. C’est pour cette raison que, dans notre cas, nous avons mis en oeuvre une génération de signaux basée sur la troisième famille de méthode : les méthodes spectrales présentées ci aprés.

Ces méthodes sont les plus utilisées industriellement notamment du fait de la simplicité de leur mise en oeuvre. Leur principe de base est simplement la décomposition du signal aléatoire en série de fourrier. Notre processus peut en effet être simplement décrit comme une somme de signaux périodiques, dont les informations sont piochées directement dans le gabarit de sa DSP. Nous pouvons définir ainsi directement chaque réalisation du processus comme la somme de réalisation de sinus.

Il y a cependant des hypothèses à vérifier. Le fondement mathématique de celles-ci peut être trouvé dans [PUI 03] ainsi que la démarche d’utilisation, que l’on trouve également dans [LAL 02a].

La méthode commence par le choix des discrétisations des espaces de temps et de fréquence. La discrétisation temporelle est directement liée au théorème de Shan-non. Celui-ci énonce que la fréquence d’échantillonnage d’un signal doit être égale ou supérieure au double de la fréquence maximale contenue dans ce signal pour permettre la discrétisation. Dans la pratique la fréquence d’échantillonnage est sou-vent choisie comme comprise entre 2 et 2.6 fois la fréquence maximum. Cela se traduit finalement par :

∆t = 1

fechantillonnage = 1

2 fmax (4.34)

La discrétisation fréquentielle δ f est choisie comme une puissance de 2, par ana-logie aux algorithmes liés aux transformées de Fourier rapides (FFT : Fast Fourier Transform). Si on retient M points dans le domaine fréquentiel on aura donc un intervalle de fréquence défini comme :

∆ f = fechantillonnage

2M (4.35)

On utilise alors les points composant la DSP afin de calculer l’amplitude et la phase de sinusoïdes que l’on sommera. Ces sinusoïdes sont de la forme :

et l’amplitude xMi(t) :

AMi(t) = q

2G( fMi)∆ f (4.38)

G( fMi) représente ici la valeur de la DSP à la fréquence fMi.

L’aspect aléatoire peut être choisi comme provenant des fréquences ou des phases. Le problème d’une expression en fréquence aléatoire à phase fixe, est l’apparition d’un fort overshoot pour les premières valeurs de temps. En effet, les amplitudes augmentant simultanément pour toutes les fréquences en phase, on obtient un pic numérique égal à la somme des ces amplitudes. Cela nécessite donc un post-traitement de ces valeurs afin de les éliminer du signal temporel que l’on conservera finalement. C’est pourquoi l’aspect le plus facile à traiter reste celui en phase aléatoire. On utilisera ainsi l’ensemble des points constituant la DSP dans un sinus dont la phase sera tiré aléatoirement. En conservant l’aspect Gaussien de notre processus, la phase devra donc être obtenue comme un tirage d’une variable aléatoire gaussienne.

Une variable aléatoire gaussienne peut être obtenue simplement à partir de deux variables aléatoires uniformes sur [0, 1]. Soient r1et r2deux VA uniformes sur [0, 1] et rgune VA gaussienne. On a :

rg=p−2ln(r1).cos(2πr2) (4.39)

La phase variant sur l’intervalle [0, 2π], son expression générale est donc :

φMi = 2πp−2lnri1.cos(2πri2) (4.40) L’échantillon temporel est obtenu par la fonction suivante :

x(t) = M

i q 2G( fMi)∆ f (sin(2πi∆ f t)) + 2πp−2lnri1(cos(2πri2)) (4.41)

On a choisi dans cette forme de calculer simultanément tous les pas de temps, sans effectuer un nouveau tirage aléatoire pour chaque indice temporel. Cette solution permet de rendre plus rapide l’évaluation du signal temporel. La formule proposée dans [PUI 03] est basée sur un calcul indépendant de chaque instant. On illustre l’algorithme dans la figure 4.5.