• Aucun résultat trouvé

Densit´e spectrale d’un processus ARMA

Dans le document ´ECOLE NATIONALE DES PONTS ET CHAUSS´EES (Page 169-0)

VII.7 Processus ARMA

VII.7.3 Densit´e spectrale d’un processus ARMA

Proposition VII.45. Soit(Xt)tZ un processus ARM A(p, q) (pas forc´ement sous sa forme canonique), Φ (B)Xt= Θ (B)εt. Sa densit´e spectrale vaut :

Le but est d’estimer les coefficients des polynˆomes Φ et Θ, ainsi queσ2.

Une premi`ere approche consiste `a d´eterminer ces valeurs `a partir des autocorr´elations.

En g´en´eral, ces estimateurs ne sont pas efficaces3. C’est pourquoi, on utilise des estimations pr´eliminaires comme premi`ere ´etape dans des m´ethodes it´eratives, du type maximum de vraisemblance ou moindres carr´es.

Estimation pr´eliminaire Cas des processus AR

3Un estimateur efficace est un estimateur sans biais atteignant la borne FDCR (donc de variance minimale).

Dans le cas d’un processus AR(p) canonique, on peut utiliser les ´equations de Cas des processus MA et ARMA

Si on a une partie moyenne mobile, on utilise plutˆot l’algorithme des innovations. On consid`ere ici le cas d’un processus ARM A(p, q) canonique minimal. Le cas d’un processus M A(q) n’est qu’un cas particulier.

Consid´erons l’´ecriture M A(∞) du processus : Xtt+ l’algo-rithme des innovations. On se fixena priori ; on le prend suffisamment grand pour avoir assez d’´equations n´ecessaires `a la r´esolution du probl`eme, sachant queψi

i→+∞0.

VII.7. PROCESSUS ARMA 161

Estimation par la m´ethode du maximum de vraisemblance

En g´en´eral, on ajoute une hypoth`ese sur la loi des r´esidus. On suppose ici que les r´esidus sont distribu´es selon une loi normale N 0, σ2

, hypoth`ese qu’il faudrait v´erifier `a l’aide d’un test (Kolmogorov par exemple).

Si l’hypoth`ese de normalit´e n’est pas v´erifi´ee, on peut tout de mˆeme consid´erer que la vraisemblance normale est un crit`ere d’ajustement qui peut convenir.

Si on dispose d’un ´echantillon (X1, ..., XT), la vraisemblance s’´ecrit : V x1, ..., xT1, ..., ϕp, θ1, ..., θq, σ2

Remarquons que (X1, ..., XT) est un vecteur gaussien, en tant que transformation lin´eaire du vecteur gaussien (ε1, ..., εT).

La maximisation de cette vraisemblance n’est pas simple et n´ecessite l’utilisation d’algo-rithmes d’optimisation.

Notons pour touti∈ {2, ..., T},Xbi=EL(Xi|Xi−1, ..., X1).

On peut utiliser l’algorithme des innovations pour calculer les erreurs de pr´evision au pas 1,εi=Xi−Xbi, ainsi que leur variancevi. On ´evite ainsi le calcul direct de ΣT1 et de det ΣT.

avec la matrice CT (estim´ee par l’algorithme des innovations) d´efinie par

CT =

i∈{1,...,T} ne sont pas corr´el´es, la matrice de covariance de (εi)i∈{1,...,T} vaut :

o`u les pr´evisionsxbi sont donn´ees par l’algorithme des innovations.

La vraisemblance s’´ecrit donc :

L’algorithme des innovations nous indique que :

Xbi+1=

On utilise la log-vraisemblance. L’estimateur du maximum de vraisemblance v´erifie : –

La maximisation s’effectue de mani`ere it´erative, et l’estimation pr´eliminaire fournit des valeurs initiales. Les estimateurs obtenus sont efficaces.

Estimation par la m´ethode des moindres carr´es

On cherche cette fois `a minimiser la quantit´e suivante : S(ϕ1, ..., ϕp, θ1, ..., θq) =

XT i=1

(xi−xbi)2 ri1

L’estimateur des moindres carr´es v´erifie : –

Remarque VII.46. Il existe d’autres m´ethodes d’estimation qu’on ne pr´esente pas ici, no-tamment la m´ethode du maximum de vraisemblance conditionnel et la m´ethode des moindres

carr´es conditionnels. ♦

VII.7.5 Choix de mod`ele

Les crit`eres de choix de mod`eles sont un compromis entre l’ajustement de la s´erie mod´elis´ee (on cherche `a minimiser la variance r´esiduelle non expliqu´ee :σb2), et la r`egle de parcimonie (on cherche `a minimiser le nombre de param`etrep+q), ces deux crit`eres ´etant antagonistes.

Ces crit`eres sont ´etablis en calculant une distance, appel´ee distance de Kullback, entre la loi inconnue et l’ensemble des lois propos´ees par le mod`ele.

VII.8. PRATIQUE DES MOD `ELES SARIMA 163 – Crit`ere d’Aka¨ıke. La fonction que l’on d´esire minimiser est

AIC(p, q) = log bσ2

+ 2p+q T – Crit`ere de Schwarz. La fonction que l’on d´esire minimiser est

BIC(p, q) = log σb2

+ (p+q)log (T) T

VII.8 Pratique des mod` eles SARIMA

Cette partie pr´esente la mise en oeuvre pratique des mod`eles SARIMA.

VII.8.1 M´ethodologie Synth`ese

La d´emarche adopt´ee par Box et Jenkins est la suivante : 1. Stationnarisation

2. Identification a priori de mod`eles potentiels 3. Estimation des mod`eles potentiels

4. V´erification des mod`eles potentiels 5. Choix d´efinitif d’un mod`ele

6. Pr´evision `a l’aide du mod`ele choisi 7. Analyse a posteriori

Stationnarisation M´ethodes

La plupart des s´eries temporelles pr´esentent une tendance et/ou une saisonnalit´e, et ne sont donc pas mod´elisables par un processus stationnaire. Afin de se ramener `a un processus ARMA, il faut stationnariser la s´erie4 et diff´erentes m´ethodes sont envisageables :

– D´ecomposition saisonni`ere

Cette m´ethode permet d’´eliminer tendance et saisonnalit´e, sources ´evidentes de non-stationnarit´e ; il se peut n´eanmoins que la s´erie r´esultant de la d´ecomposition ne soit toujours pas stationnaire.

– Diff´erenciation

C’est la m´ethode employ´ee par les mod`eles ARIMA et SARIMA. On ne mod´elise pas la s´erie brute mais la s´erie diff´erenci´ee, en “tendance” `a l’aide de∇d= (I−B)d, ou la s´erie diff´erenci´ee en “saisonnalit´e” `a l’aide de ∇Ds = (I −Bs)D. De mani`ere g´en´erale,

d permet de stationnariser des s´eries poss´edant une tendance polynomiale de degr´e d, et∇Ds des s´eries poss´edant une composante saisonni`ere de p´eriode s.

Si les processus stationnaires peuvent ˆetre approch´es par des mod`eles ARMA, il n’est pas certain que la diff´erenciation permette de stationnariser tous les processus.

4En toute rigueur, on devrait parler de stationnariser un processus et non une s´erie temporelle.

– M´ethode de Box-Cox

Elle permet une stationnarisation en “variance” (ou encore de stationnariser des s´eries pr´esentant une tendance exponentielle). On utilise la transformation suivante : Xtλ−1 avec λ ∈ R. Il existe des m´ethodes alternatives si Xt n’est pas une s´erie positive.λ Remarquons que :

Xtλ−1 λ

λ0

−→log (Xt)

Il existe des tests de stationnarit´e, mais aucun n’est “universel”. Citons tout de mˆeme le test de Dickey-Fuller.

Pratique de la diff´erenciation dans les mod`eles SARIMA

On utilise tr`es souvent une m´ethode empirique bas´ee sur l’autocorr´elogramme simple.

– On effectue une diff´erenciation en “tendance” si :

– Les autocorr´elations ρb(h)5 sont proches de 1 pour un grand nombre de retards.

– Les premi`eres autocorr´elations ρb(h) sont proches les unes des autres (mˆeme si elles ne sont pas forc´ement proches de 1).

On parle souvent de d´ecroissance lente des autocorr´elations simples.

– On effectue une diff´erenciation en “saisonnalit´e” si des comportements similaires sont observ´es de mani`ere p´eriodique. Par exemple, siρb(12),ρb(24), ... sont proches de 1, on utilise une diff´erenciation en “saisonnalit´e” avecs= 12.

Remarques

1. Quelle que soit la m´ethode, on proc`ede de mani`ere it´erative : on effectue une premi`ere diff´erenciation ; si celle-ci n’est pas suffisante, on en effectue une seconde...

2. En pratique, on a souventd≤2 et D≤2.

On travaille dor´enavant sur une suite stationnaris´ee.

Identification a priori de mod`eles potentiels (Ordre de grandeur de p et q

Une fois la stationnarisation effectu´ee, on peut se consacrer aux choix potentiels des polynˆomesARetM A.

Il existe diff´erentes m´ethodes pour identifier un mod`ele ARM A(p, q) : – M´ethode de Box et Jenkins

Il s’agit d’une m´ethode heuristique pour majorerp etq.

– Pour un processusAR(p) : On peut montrer que :

∀h > p:√

nbr(h)→ NL (0,1)

On peut d´efinir un intervalle de confiance `a 95% et on recherche `a partir de quelle valeur, 95% desbr(h) sont dans l’intervalle

−1.96

√n,1.96

√n

.

5Il s’agit ici d’un abus de langage car si la sortie nomm´ee “autocorr´elations simples” nous permet de douter de la stationnarit´e du processus sous-jacent, nous ne devrions pas parler alors d’autocorr´elations simples.

VII.8. PRATIQUE DES MOD `ELES SARIMA 165

On peut d´efinir un intervalle de confiance `a 95% et on recherche `a partir de quelle valeur, 95% desρb(h) sont dans l’intervalle suivant :

"

On utilise la m´ethode du coin avec les estimations de ρb(h). Cette m´ethode ne permet pas toujours d’aboutir, surtout si on a des effets saisonniers.

– M´ethode empirique

En pratique (surtout pour les mod`eles SARIMA), on essaye d’identifier les autocorr´ela-tions simples et partielles “significatives” pour caler ensuite des polynˆomes AR et MA qui reflettent ces liens temporels.

Afin d’obtenir des mod`eles potentiels, l’id´eal est de regarder l’autocorr´elogramme par-tiel afin d’´emettre une hypoth`ese sur la partie autor´egressive (simple et saisonni`ere), la tester puis regarder l’autocorr´elogramme simple (et partiel) du r´esidu afin d’identi-fier compl`etement un mod`ele. Cette d´emarche par ´etape permet en g´en´eral d’obtenir plusieurs mod`eles potentiels.

Estimation des mod`eles potentiels

On estime les mod`eles potentiels `a l’aide des m´ethodes classiques : maximum de vraisem-blance ou moindres carr´es.

V´erification des mod`eles potentiels

Afin de v´erifier la validit´e des mod`eles estim´es, on doit v´erifier : – Significativit´e des param`etres

Par exemple, pour le coefficient AR d’ordrep, on effectue le test suivant : H0: le processus est unARM A(p, q)

H1: le processus est unARM A(p−1, q) On utilise pour cela la statistique de test suivante :

t= |ϕbp| V(ϕbp),

o`u V(ϕbp) est la variance (que nous ne pr´ecisons pas ici) deϕbp.

Le test de Student permet de rejeter H0 au niveau 5% si|t|est sup´erieur `a 1.96.

Il existe des r´esultats similaire pour les coeffcients MA.

– Blancheur du r´esidu

On v´erifie que le r´esidu est bien un bruit blanc, `a l’aide du test de Portmanteau par exemple.

Remarque VII.47. Les logiciels fournissent g´en´eralement la valeur de la statistique de test, ainsi que la p-valeur. On rejetteH0 si la p-valeur est inf´erieure au niveau du testα. ♦

Choix d´efinitif d’un mod`ele

Ce choix s’op`ere entre les mod`eles potentiels retenus. Il y a plusieurs crit`eres possibles : – Des crit`eres d’information bas´es sur l’information de Kullback (par exemple, les crit`eres

d’Akaike et de Schwartz).

– Des crit`eres bas´es sur le pouvoir pr´edictif.

Une fois ce choix effectu´e, le mod`ele retenu est utilis´e `a des fins de pr´evision.

Pr´evision `a l’aide du mod`ele choisi

La fonction de pr´evision s’obtient assez facilement `a partir des ´ecritures autor´egressive ou moyenne mobile.

Analyse a posteriori

L’analyse a posteriori permet de voir les ´ecarts entre les pr´evisions et les r´ealisations, en tronquant la s´erie d’un certain nombre de points ; le mod`ele doit ˆetre correctement estim´e sur la s´erie tronqu´ee, et les ´ecarts entre pr´evisions et r´ealisations doivent ˆetre faibles. On utilise des crit`eres d’erreur comme l’erreur quadratique moyenne (Root Mean Square Error : RMSE) ou l’erreur relative absolue moyenne (Mean Average Percentage Error : MAPE) :

RM SE= vu ut1

n Xn

i=1

Xi−Xbi2

M AP E= 1 n

Xn i=1

Xi−Xbi Xi

VII.8.2 Exemple

On consid`ere le nombre de passagers a´eriens qu’on cherche `a mod´eliser `a l’aide la m´ethode de Box et Jenkins.

VII.8. PRATIQUE DES MOD `ELES SARIMA 167

Le graphique de la s´erie brute, figure VII.8.2, montre une s´erie avec une tendance (de type parabolique ou exponentielle), ainsi qu’une saisonnalit´e (de p´eriode 12). On constate

´egalement un accroissement de la variabilit´e, ce qui explique la transformation logarithmique op´er´ee par la suite.

On voit que la s´erie transform´ee, figure VII.8.2, pr´esente une tendance (quasiment lin´eaire) et conserve une saisonnalit´e (de p´eriode 12) ; c’est cette derni`ere s´erie qui est mod´elis´ee par la suite (pour revenir `a la s´erie de base, il suffit d’effectuer une transformation exponentielle).

L’autocorr´elogramme simple, figure VII.8.2, de la s´erie montre que les autocorr´elations simples d´ecroissent lentement vers 0, ce qui indique un probl`eme de non-stationnarit´e. On effectue donc une diff´erenciation (I−B). Remarquons qu’il est inutile de commenter l’auto-corr´elogramme partiel pour l’instant.

L’autocorr´elogramme simple, figure VII.8.2, de la s´erie ainsi diff´erenci´ee montre encore que les corr´elations multiples de 12 d´ecroissent lentement vers 0. On applique cette fois la diff´erenciation (I−B12).

VII.8. PRATIQUE DES MOD `ELES SARIMA 169

L’autocorr´elogramme simple, figure VII.8.2, de la s´erie doublement diff´erenci´ee ne semble pas poser de probl`eme de stationnarit´e. La s´erie sur laquelle on travaille est donc :

Yt= (I−B) I−B12

log (Xt)

On constate que certaines autocorr´elations simples et partielles de cette s´erie sont signifi-cativement diff´erentes de 0 ; voici trois mod`eles qui sont test´es, et les r´esultats obtenus pour chacun de ces mod`eles, voir figures VII.8.2, VII.8.2 et VII.8.2.

Fig. VII.7 – Mod`ele 1 : I −ϕ1B−ϕ12B12

Yt= I+θ1B+θ12B12 εt

Fig. VII.8 – Mod`ele 2 :(I−ϕ1B)Yt= I+θ12B12 εt

Fig. VII.9 – Mod`ele 3 :Yt= (I+θ1B) I+θ12B12 εt

Afin de lire quel est le mod`ele test´e sous SAS, il faut regarder la fin du listing dans lequel apparaissent les polynˆomes moyenne mobile et autor´egressif.

On constate que seuls les mod`eles 2 et 3 conviennent. En effet les coefficients estim´es dans le mod`ele 1 ne sont pas tous significatifs (M A1,1 = −θ1 et AR1,2 = −ϕ12). On peut ´egalement remarquer que le test de Portmanteau n’est pas valid´e sur les 6 premi`eres autocorr´elations, ce qui n’est pas forc´ement trop grave car les r´esultats sont toujours plus incertains sur six autocorr´elations. Ces lectures de tests sont effectu´ees avec un niveau de test de 5%.

Le mod`ele 3 pr´esente un AIC plus faible que le mod`ele 2 ; on choisit donc le mod`ele 3 pour effectuer la pr´evision. On pourrait ´egalement prendre comme crit`eres le BIC ou encore l’´ecart-type du r´esidu.

VII.8. PRATIQUE DES MOD `ELES SARIMA 171

Fig.VII.10 – Pr´evision par le mod`ele 3

La pr´evision effectu´ee, cf. figure VII.8.2, par le mod`ele 3 semble raisonnable vu le pass´e de la s´erie.

On effectue une analyse a posteriori, cf. figure VII.8.2 et VII.8.2, en : – tronquant la s´erie de 12 points ;

– estimant le mod`ele 3 sur la s´erie tronqu´ee (on constate que le mod`ele est correctement estim´e) ;

– pr´evoyant les douze points manquants `a l’aide du mod`ele SARIMA ainsi estim´e.

Fig. VII.11 – Analyse a posteriori

On obtient les r´esultats suivants :

RM SE = 18,5 M AP E = 2,9

Fig. VII.12 – L’interpr´etation des crit`eres d’erreur d´epend de la s´erie et de la qualit´e de pr´evision exig´ee. Dans le cas pr´esent, un MAPE de 2.9% semble satisfaisant a priori.

Chapitre VIII

Apprentissage Statistique

VIII.1 Introduction

Nous avons vu en introduction de ce cours que la statistique comprend deux pans : – la statistique d´ecisionnelle (ou inf´erencielle) qui utilise les bases de donn´ees pour pr´edire

la valeur de variables non observ´ees

– la statistique descriptive qui a pour but de d´ecrire les liens existant entre les diff´erentes variables observ´ees.

En statistique d´ecisionnelle, les deux types de mod`eles consid´er´es sont les mod`eles param´e-triques (qui basent leur pr´ediction sur un nombre de param`etres fini ind´ependant de la taille de la base de donn´ees) et les mod`eles non param´etriques.

L’apprentissage statistique est la branche non param´etique de la statistique d´ecisionnelle qui s’int´eresse aux bases de donn´ees compos´ees dencouples, souvent appel´es couples entr´ee-sortie, suppos´es ind´ependants et identiquement distribu´es. Le but d’un algorithme d’appren-tissage statistique est de proposer pour toute nouvelle entr´ee une pr´ediction de la sortie associ´ee `a cette entr´ee.

Les proc´edures d’apprentissage statistique sont utiles lorsqu’une mod´elisation param`e-trique de la loi g´en´erant les donn´ees n’est pas accessible ou lorsque la complexit´e du mod`ele est telle qu’elle empˆeche son utilisation pour la pr´ediction.

Ces m´ethodes sont devenues incontournables dans de nombreuses applications pratiques (classement et analyse d’images, reconnaissance d’objets, classement de documents textuels (par exemple : pourriel vs non pourriel), diagnostic m´edical, analyse de s´equences g´en´etiques ou de prot´eines, pr´ediction du rendement d’actifs financiers, interface cerveau-machine, ...).

VIII.2 Description formelle et exemples

VIII.2.1 Probl´ematique

Nous observons une base de donn´ees compos´ee de n couples Z1 = (X1, Y1), . . . , Zn = (Xn, Yn) que nous supposons ˆetre des r´ealisations ind´ependantes d’une mˆeme loiPinconnue.

LesX1, . . . , Xnappartiennent `a un espaceX et s’appellent les entr´ees. Typiquement,X =Rd pour un grand entierd. LesY1, . . . , Yn appartiennent `a un espaceY, et s’appellent les sorties.

Typiquement, Y est fini ouY est un sous-ensemble deR. 173

But de l’apprentissage statistique : pr´edire la sortie Y associ´ee `a toute nouvelle entr´ee X, o`u il est sous-entendu que la paire (X, Y) est une nouvelle r´ealisation de la loi P, cette r´ealisation ´etant ind´ependante des r´ealisations pr´ec´edemment observ´ees.

Unefonction de pr´ediction est une fonction (mesurable) de X dans Y. Dans ce chapitre, nous supposons que toutes les quantit´es que nous manipulons sont mesurables. L’ensemble de toutes les fonctions de pr´ediction est not´e F(X,Y). La base de donn´ees Z1, . . . , Zn est appel´ee ensemble d’apprentissage, et sera parfois not´ee Z1n. Un algorithme d’apprentissage est une fonction qui `a tout ensemble d’apprentissage renvoie une fonction de pr´ediction, i.e.

une fonction de l’union∪n1Zndans l’ensembleF(X,Y), o`uZ =X ×Y. C’est un estimateur de “la meilleure” fonction de pr´ediction, o`u le terme “meilleure” sera pr´ecis´e ult´erieurement.

Soit ℓ(y, y) la perte encourue lorsque la sortie r´eelle est y et la sortie pr´edite est y. La fonctionℓ:Y × Y →R est appel´eefonction de perte.

Exemple du classement : ℓ(y, y) =1y6=y (i.e. ℓ(y, y) = 1 siy 6=y etℓ(y, y) = 0 sinon).

Un probl`eme d’apprentissage pour lequel cette fonction de perte est utilis´ee est appel´e probl`eme declassement (ou plus couramment par anglicismeclassification). L’ensemble Y consid´er´e en classement est le plus souvent fini, voire mˆeme de cardinal deux en classement binaire.

Exemple de la r´egression Lp : Y = R et ℓ(y, y) = |y−y|p o`u p ≥ 1 est un r´eel fix´e.

Dans ce cas, on parle de r´egressionLp. La tˆache d’apprentissage lorsquep= 2 est aussi appel´eer´egression aux moindres carr´es.

La qualit´e d’une fonction de pr´ediction g:X → Y est mesur´ee par son risque (ouerreur de g´en´eralisation) :

R(g) =E

ℓ Y, g(X)

. (VIII.1)

Le risque est donc l’esp´erance par rapport `a loi Pde la perte encourue sur la donn´ee (X, Y) par la fonction de pr´ediction g. La qualit´e d’un algorithme d’apprentissage ˆgn, construit `a partir de Z1n, peut ˆetre mesur´ee par son risque moyen ER[ˆgn], o`u il est sous-entendu que l’esp´erance est prise par rapport `a la loi de l’ensemble d’apprentissage.

La “meilleure” fonction de pr´ediction est la (ou plus rigoureusement une) fonction de F(X,Y) minimisant R. Une telle fonction n’existe pas n´ecessairement mais existe pour les fonctions de pertes usuelles (notamment celles que nous consid´ererons par la suite). Cette

“meilleure” fonction sera appel´ee fonction cible ou fonction oracle.

Exemple du classement : ℓ(y, y) =1y6=y. La fonction qui `a une entr´eexrenvoie la sortie la plus probable (au sens de la distribution conditionnelle de Y sachant X = x : L(Y|X=x)) est “la” fonction cible en classement.

Exemple de la r´egression aux moindres carr´es : Y =Retℓ(y, y) =|y−y|2. La fonction qui `a une entr´ee x renvoie la sortie moyenne E(Y|X = x) est “la” fonction cible en r´egression aux moindres carr´es.

VIII.2.2 Exemples

Dans ce paragraphe, nous proposons des exemples illustrant la probl´ematique pr´ec´edente.

Exemple VIII.1. La reconnaissance de caract`eres manuscrits est un des probl`emes sur lequel les m´ethodes d’apprentissage ont permis des avanc´ees fulgurantes. Le contexte est

VIII.2. DESCRIPTION FORMELLE ET EXEMPLES 175 le suivant : nous disposons d’une image num´eris´ee d’un caract`ere manuscrit. Cette image est essentiellement un tableau de nombre r´eels indiquant l’intensit´e lumineuse en chacun des pixels. Nous souhaitons trouver la fonction qui `a ce tableau de r´eels renvoie le caract`ere pr´esent dans l’image. A l’heure actuelle, les meilleures m´ethodes pour trouver une telle fonction sont de nature statistique : elles reposent donc sur

Fig.VIII.1 – Reconnaissance de chiffres manuscrits. Les 56 erreurs sur les 10 000 caract`eres de la base de test (MNIST/VSV2) d’un des meilleurs algorithmes de reconnaissance de caract`eres manuscrits [2, 7]. Le premier nombre en haut `a droite indique la valeur pr´edite et le second indique la vraie valeur. Le nombre en bas `a gauche est le num´ero de l’image (de 1 `a 10 000).

1. la constitution d’une base d’images de caract`eres o`u les images sont ´etiquet´ees par le caract`ere qu’elle contient. Un Xi correspond donc `a une de ces images et unYi d´esigne le caract`ere queXi contient.

2. l’utilisation de cette base pour proposer une estimation non param´etrique de la fonction

2. l’utilisation de cette base pour proposer une estimation non param´etrique de la fonction

Dans le document ´ECOLE NATIONALE DES PONTS ET CHAUSS´EES (Page 169-0)