• Aucun résultat trouvé

3.1.1 Densités de probabilité

Etant donné qu’un processus aléatoire n’est jamais qu’une succession de valeurs in¿niment proches les unes des autres, il est tout à fait naturel d’essayer de les caractériser de la même manière que les variables aléatoires. Il paraît donc logique d’utiliser la densité de probabilité de premier ordrepx+x; t, qui est maintenant une fonction du temps puisque la densité peut éventuellement évoluer au cours du temps (cas d’un processus instationnaire). Comme dans le cas d’une variable aléatoire, px+x; t,dx représente la probabilité que la fonction prenne une valeur comprise entrex et x . dx à l’instant t.

La¿gure 3.2 montre par exemple la densité de probabilité de premier ordre d’un proces- sus gaussien instationnaire dont la moyenne augmente et la variance diminue au cours du temps. La connaissance de cette fonction permet de déterminer un fuseau enveloppe en de- hors duquel un échantillon du processus a peu de chance de se trouver. Il suf¿t de constater qu’en chaque instant il y a une probabilité de3:<<: (Tab. 2.1) que l’échantillon se trouve compris entrež+t,  6£+t, et ž+t, . 6£+t,. Ceci permet d’obtenir le fuseau représenté en traits pointillés sur le graphique central3.

0 5 0 20 40 0 0.01 0.02 0.03 0.04 Temps [s] x 00 2 4 6 8 5 10 15 20 25 30 35 40 Temps [s] x 0 10 20 30 40 0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 x p x (x ) t=0 t=4s t=8s

FIGURE3.2. DENSITÉ DE PROBABILITÉ DE PREMIER ORDRE(PROCESSUS INSTATIONNAIRE)

On comprend aisément que cette première densité de probabilité donne déjà une quan- tité d’information non négligeable sur le processus mais elle ne le caractérise pas encore suf¿samment. C’est pour cette raison que l’on introduit la densité de probabilité d’ordre 2 :

px+x; t> x2; t2, (3.1) telle que px+x; t> x2; t2,dxdx2 représente la probabilité quex se trouve entre x et

x. dx à l’instanttet entrex2 etx2. dx2à l’instantt2(Fig. 3.3).

Nous verrons dans la suite qu’il existe des méthodes plus précises pour estimer les valeurs extrémales

La caractérisation du processus aléatoire semble désormais se préciser petit à petit mais on imagine facilement qu’une caractérisation complète du processus nécessiterait de dé¿nir les densités de probabilité d’ordres de plus en plus élevés (jusqu’à l’in¿ni, en principe).

Connaissant la densité de probabilité d’un certain ordre, il est toujours possible de retrouver les densité de probabilité d’ordre inférieur par intégration. Par exemple, pour obtenir la densité de probabilité d’ordre 1 à partir de la densité de probabilité d’ordre 2, il suf¿t d’intégrer sur x2:

px+x; t, @

] n"

3" px+x; t> x2; t2,dx2 (3.2)

Cette dé¿nition est à rapprocher de la densité de probabilité conjointe de plusieurs vari- ables aléatoires. En effet, ces deux notions permettent d’une part d’apprécier une éventuelle corrélation entre variables pour l’une ou entre valeurs prises par la fonction en différents in- stants pour l’autre. D’autre part, ce sont des notions très complètes puisqu’elle permettent par exemple de retrouver des densités de probabilité marginale (d’ordre inférieur).

Dans le cas de plusieurs processus aléatoires, on dé¿nit aussi des densités de probabilité conjointes4:

 d’ordre 1 : pxy+x; t> y; s,

pxy+x; t> y; s,dxdyreprésente alors la probabilité quex se trouve entre xetx.

dxentet quey se trouve entre y ety. dy ens.

 d’ordre 2 : pxy+x; t> x2; t2> y; s,

pxy+x; t> x2; t2> y; s,dxdx2dyreprésente la probabilité quex se trouve entre xet

x . dx ent et quey se trouve entre y ety. dy ens à condition quex se trouve entrex2 etx2. dx2 ent2.

3.1.2 Moyennes d’ensemble – Les fonctions moments

On comprend aisément que cette première manière de caractériser un processus aléatoire est très complète mais peu évidente à mettre en œuvre en pratique. Une méthode tout à fait équivalente consisterait en la représentation des transformées de Fourrier (par rapport à la variable et non par rapport au temps) de ces densités de probabilité, ce que l’on appelle les fonctions caractéristiques : Mx+#; t, @ ] n" 3" e i#xEtp x+x; t,dx (3.3) Mx+#; t> #2; t2, @ ] n" 3" ] n" 3" e i#4xEt4ei#5xEt5p x+x; t> x2; t2,dxdx2 (3.4) Généralement, à ce type de représentation du processus aléatoire, on préfère plutôt les e Le terme conjoint est cette fois utilisé parce qu’il y a plusieurs fonctions

fonctions moments qui ne sont en réalité que les termes du développement en série (Taylor) de ces fonctions caractéristiques.

Puisque les fonctions caractéristiques représentent le processus aléatoire aussi bien que les densités de probabilité de tous ordres, il en est bien sûr de même pour les fonctions moment. En d’autre termes, la connaissance de toutes les fonctions moments (il y en a un nombre in¿ni) permet de caractériser parfaitement le processus aléatoire.

Les fonctions moments prennent une forme semblable à celle des moments associés aux variables aléatoires . Les deux premiers moments ont une importance telle qu‘ils ont reçu des noms particuliers :

 la moyenne žx+t, @ E ^x+t,` @] n" 3" xpx+x; t,dx (3.5)  la fonction d’autocorrélation : Rxx+t; t2, @ E ^x+t,; x +t2,` @ ] n" 3" ] n" 3" xx2px+x; t> x2; t2,dxdx2 (3.6)

On dé¿nit également la fonction d’autocovariance qui est la fonction d’autocorrélation centrée.

La¿gure 3.4 représente une illustration de ces deux premiers moments. L’évolution de la moyenne est conforme à l’intuition habituelle qu’elle donne. Quant à l’autocovariance, on constate qu’elle est d’autant plus grande quet ett2sont faibles. En effet, les échantil- lons représentés ont une plus forte variabilité aux premiers instants. De plus, on remarque qu’elle prend des valeurs plus importantes dans le plan bissecteur des axest ett2. Cela ne fait que traduire mathématiquement l’inégalité de Cauchy-Schwartz et physiquement le fait que l’on possède, pour une valeur connue dex+t,, davantage de renseignements sur

x+t2, lorsque t2est proche det.

Les deux premiers moments jouent un rôle particulièrement important dans la mesure où, en cas de processus gaussien, ils suf¿sent à caractériser entièrement le processus. De plus, les moments d’ordres plus élevés sont bien plus ardus à obtenir lors de l’identi¿cation et, lors d’essais, on ne sait généralement pas déterminer les caractéristiques d’ordres supérieurs à trois.

Pour les processus stationnaires, ces deux fonctions sont indépendantes d’un change- ment de l’origine du temps. Ainsi,žx+t, @ žxest une constante etRxx+t; t2, @ Rxx+t, devient une fonction du décalage temporelt @ t2 t.

Il est également important de noter que les dé¿nitions données de la moyenne et de la fonction d’autocorrélation font intervenir les densités de probabilité inconnues a priori. Bien que ces relations en constituent la dé¿nition, les fonctions moment sont généralement utilisées autrement en pratique.

En effet, les relations qui font appel à des moyennes d’ensemble (notéeE^ `) sont peu faciles à utiliser. Au lieu de parcourir un ensemble d’échantillons et de relever la valeur de la fonction en un instant choisi, il serait préférable de ne considérer qu’un seul échantillon

0 2 4 6 8 0 0.2 0.4 0.6 0.8 1 t u (t ) 0 2 4 6 8 0 0.2 0.4 0.6 0.8 1 t u (t ) 0 2 4 6 8 0 0.2 0.4 0.6 0.8 1 Temps Moyenne 0 5 0 5 0 0.1 0.2 t1 Autocovariance t2

et de réaliser la moyenne en faisant varier cette fois le temps. Le théorème d’ergodicité postule que ces deux moyennes sont égales. Il s’agit là d’une hypothèse simpli¿catrice très importante mais qui est souvent posée pour les processus stationnaires.

u(t)

t

Moyenne temporelle E [...]

FIGURE3.5. ILLUSTRATION DE L’ERGODICITÉ

La fonction d’autocorrélation calculée sur un échantillon d’un processus stationnaire:

Rxx+t, @ olpT <"

] nT=2

3T=2 x+t,x+t . t,dt (3.7)

est donc supposée représenter la fonction d’autocorrélation du processus aléatoire. L’équation (3.7) permet également d’interpréter plus facilement la notion de corrélation:

Rxx+t, prendra en effet des valeurs d’autant plus grandes que x+t, et x+t . t, ont

des valeurs proches (conséquence de Cauchy-Schwartz), c’est-à-dire sont corrélées. Par exemple pour un processus aléatoire dont la fonction d’autocorrélation serait représentée par le dessin de la¿gure 3.6, on peut af¿rmer que la connaissance de la valeur de la fonction en l’instantt n’aidera presqu’en aucune manière à la connaissance de la valeur en t . 6 . Par contre, la valeur prise en l’instantt inÀuence dans une certaine mesure la valeur prise ent . 3:8.

3.1.3 Propriétés des fonctions moments

L’équation (3.7) est la forme habituelle sous laquelle est représentée la fonction d’autocorrélation. Comme annoncé, elle est bien plus maniable que la dé¿nition de base. De cette nouvelle forme, on peut par exemple déduire ces propriétés importantes :

 La valeur de la fonction d’autocorrélation à l’origine est égale à la variance (de l’échantillon) Rxx+3, @ olpT <"

] nT=2

3T=2 ^x+t,`

2dt @ £2

x (3.8)

 La fonction d’autocorrélation est une fonction paire Rxx+t, @ olp

T <"

] nT=2

-5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Dt A u to c o rr é la ti o n

 Pour un processus stationnaire, la fonction d’autocorrélation est maximale à l’origine.

Cette propriété représente bien le sens physique que la corrélation doit faire passer : la fonction d’autocorrélation représente un certain pourcentage de certitude surx+t . t, lorsquex+t, est connu.

mRxx+t,m  Rxx+3, (conséquence de Cauchy-Schwartz) (3.10)

 Une autre propriété intéressante mais dont la démonstration sort du cadre de ce docu-

ment relie les fonctions d’autocorrélation d’un processus et de ses dérivées successives. Cette propriété s’avère évidemment être intéressante lorsqu’il s’agit par exemple de cal- culer la fonction d’autocorrélation de la vitesse ou l’accélération en un point lorsque l’on connaît celle de son déplacement.

R: xx:+t, @ d 2Rxx+t, dt2 (3.11) R:: x::x+t, @ d eRxx+t, dte (3.12)

3.1.4 Les densités spectrales de puissance

La fonction d’autocorrélation est dé¿nie non négative : quelle que soit la fonction complexe

h+t, dé¿nie sur l’intervalle ^a; b^ : ] b

a

] b

a Rxx+t; t2,h+t,h+t2,dtdt2 A 3 (3.13)

Ceci implique (théorème de Bochner) que la transformée de Fourier de la fonction d’autocorrélation soit toujours positive. Cette fonction occupe un rôle majeur dans l’analyse stochastique des structures. Elle porte le nom de densité de puissance spectrale :

Sxx+!, @ 4

] n"

3" Rxx+¤,e

3j!¤ (3.14)

Il s’agit donc d’une fonction positive et réelle puisque la fonction d’autocorrélation est paire. Elle représente une distribution fréquentielle de l’énergie moyenne contenue dans le processus aléatoire.

Les deux fonctionsSxx+!, et Rxx+¤, forment donc une paire de Fourier. La relation directe (Equ. (3.14)) et la transformée inverse :

Rxx+¤, @

] n"

3" Sxx+!,e

j!¤d! (3.15)

Pour les processus aléatoires rencontrés en pratique, la densité spectrale de puissance véri¿e la relation suivante :

Sxx+!, @ olp T <" T E k mXi+!; T,m2 l (3.16)

où lesXi+!; T , @  U3T=2nT=2xi+t,e3j!tdt représentent les transformées de Fourier tron- quées de chacun des échantillons. Cette relation permet d’interpréter la densité spectrale de puissance comme une répartition fréquentielle de l’énergie contenue dans le proces- sus aléatoire. Il s’agit donc d’un moyen supplémentaire à la traditionnelle transformée de Fourier de la réponse pour caractériser le contenu fréquentiel d’une fonction. Le théorème d’ergodicité suppose à nouveau que la densité spectrale de puissance peut être calculée à l’aide d’un seul échantillon :

Sxx+!, @ olpT <"T mXi+!; T ,m2 (3.17)

Ce théorème d’ergodicité est donc fortement utile car, connaissant un échantillon du processus aléatoire, il est possible d’en calculer la fonction d’autocorrélation (Equ. (3.7)) et la densité spectrale de puissance (Equ. (3.17)).

Lorsque l’on remplace¤ par 0 dans la seconde relation de Wiener-Khintchine, on obtient la première propriété importante de la densité spectrale de puissance (¿gure 3.7) :

Rxx+3, @

] n"

3" Sxx+!,d! @ £ 2

x (3.18)

L’intégrale de la densité spectrale de puissance est égale à la variance du processus considéré.5

Les propriétés développées concernant les fonctions d’autocorrélation peuvent être traduites en termes de densités spectrales de puissance en prenant la transformée de Fourier membre à membre de la relation en question. Ainsi, par exemple, la relation entre le processus et sa dérivée devient : R: xx:+t, @ d 2R xx+t, dt2 , Sx:x:+!, @ !2Sxx+!, (3.19) R:: x::x+t, @ d eRxx+t, dte , S::x::x+!, @ !eSxx+!, (3.20)

D L’analyse au vent turbulent travaille avec des densités spectrales de puissance légèrement différentes. On

peut d’ailleurs souvent constater une certaine confusion dans la littérature. Le plus simple pour introduire la différence consiste à mentionner cette propriété fondamentale pour les densités spectrales utilisées dans l’analyse au vent turbulent, elle s’exprime par£2x 'Ufn"SxxEndn. La variance du processus est donc

obtenue en intégrant sur les fréquences et non pas sur les pulsations. De plus, a¿n de ne travailler qu’avec des fréquences positives (dont on perçoit mieux le sens physique), les bornes d’intégration sontf et n". Jusqu’à la¿n de ce chapitre, nous continuerons cependant d’utiliser les notations habituelles à la théorie des processus aléatoires.

-5 -4 -3 -2 -1 0 1 2 3 4 5 0 0.01 0.02 0.03 0.04 0.05 ω S σ 2

On est généralement amené à dé¿nir les moments spectraux par la relation : mi @ ] n" 3" m!m iS xx+!,d! (3.21)

De cette dé¿nition, il découle que :

 le moment spectral d’ordre 0 s’identi¿e à la variance du processus (déplacement)  le moment spectral d’ordre 2 s’identi¿e à la variance du processus dérivé (vitesse)  le moment spectral d’ordre 4 s’identi¿e à la variance du processus dérivé deux fois

(accélération)

Ces notions seront amplement utilisées à l’occasion du calcul des probabilités de fran- chissement de seuil et des valeurs maximales.

Etant donné que l’on sera dans la suite amené à calculer la réponse d’un système soumis à une excitation extérieure variable dans le temps, c’est-à-dire procéder à une intégration de convolution dans le domaine temporel, on comprend dès à présent tout l’intérêt de la densité de puissance spectrale puisque dans le domaine fréquentiel, la même opération se traduit par une multiplication. D’autres propriétés importantes des densités spectrale de puissance seront développées dans le cadre de processus aléatoires à plusieurs variables.

3.1.5 Exemples

Le processus aléatoire le plus simple du point de vue analytique est le bruit blanc. Il est dé¿ni par une densité spectrale de puissance constante :

Sxx+!, @ Sf (3.22)

Puisqu’elle est sa conjointe dans une paire de Fourier, la fonction d’autocorrélation as- sociée est donc une impulsion de Dirac centrée à l’origine :

Rxx+t, @ 5¡Sf– +t, (3.23)

Ce processus n’est pas physique puisqu’il est caractérisé par une variance in¿nie (in- tégrale de la densité spectrale de puissance). Cependant, sous certaines conditions, un processus réel peut être approché par un bruit blanc. Cette approximation ne peut être que locale si bien que globalement le processus réel ne sera pas d’énergie in¿nie. (Toute l’énergie contenue dans le bruit blanc doit être¿ltrée). Cette méthode connue sous le nom d’approximation en bruit blanc sera développée au chapitre 4.

Le processus à corrélation exponentielle est un autre exemple intéressant qui indique clairement les deux propriétés principales de la fonction d’autocorrélation, à savoir qu’elle est décroissante et que sa valeur ent @ 3 représente la variance du processus :

La densité spectrale de puissance associée à cette autocorrélation peut être obtenue à l’aide de la première relation de Wiener-Khintchine :

Sxx+!, @ £ 2 x ¡” ” 2 ”2. !2 (3.25) -1 -0.5 0 0.5 1 0 0.5 1 1.5 2 2.5 ω Bruit blanc : DSP -1 -0.5 0 0.5 1 0 2 4 6 8 Dt

Bruit blanc : Autocorrélation

-1 -0.5 0 0.5 1 0 0.2 0.4 0.6 0.8 1 ω Corr. exp : DSP -4 -2 0 2 4 0 0.05 0.1 0.15 0.2 Dt

Corr. exp : Autocorrélation

FIGURE3.8. EXEMPLES DE DENSITÉS SPECTRALES ET FONCTIONS D’AUTOCORRÉLATIONS HABITUELLES

Documents relatifs