• Aucun résultat trouvé

Champ aléatoire sous hypothèse de Gauss

2.4 Recours à la donnée réelle

3.1.3 Champ aléatoire sous hypothèse de Gauss

L’hypothèse de Gauss réduit la complexité du champ aléatoire en postulant que pour tout paramètre ~g P G , la variable aléatoire Hp~gq est distribuée de façon gaussienne. Ainsi, le champ est entièrement déterminé par sa moyenne EpHp~gqq et sa covariance CovpHp~g1q, Hp~g2qq. La plupart du temps, l’hypothèse de champ stationnaire est ajoutée : la distribution jointe d’un sous-ensemble de variables tHp~g1` ~τ q, Hp~g2` ~τ q, ¨ ¨ ¨ , Hp~gi ` ~τ qu est indépendante de toute translation dans l’espace des paramètres ~τ P G , et ce, quel que soit le nombre i de variables dans le sous-ensemble. De façon pratique, cette propriété prévoit que l’observation de ce champ aléatoire à travers une fenêtre montrera des structures similaires quelle que soit la position de la fenêtre comme illustré en Figure 3.2. Cette hypothèse permet de simplifier un peu plus la fonction de covariance qui ne dépend alors que du vecteur joignant les deux points considérés : CovpHp~g1q, Hp~g2qq “ fCovp~g1´~g2q qui sera noté plus simplement fCovpg ~eq avec g la distance entre les deux points et ~e le vecteur unitaire donnant la direction ; et dans le cas isotrope, CovpHp~g1q, Hp~g2qq “ fCovp||~g1´ ~g2||q qui devient alors simplement fCovpgq.

(a) Exemple de champ gaussien station-naire

A

B

(b) Exemple de champ gaussien non sta-tionnaire

A

B

Figure 3.2 – Notion de champ stationnaire

Dans le cas stationnaire 3.2a, si deux fragments A et B de l’image sont extraits, il n’est plus possible d’estimer la région de l’image initiale dont proviennent ces fragments. A contrario, dans le cas non-stationnaire 3.2b, les deux fragments sont suffisamment distincts pour pouvoir être associés à une région de l’image initiale, par exemple la dominante bleu de B indique qu’il provient du coin inférieur gauche.

Le champ aléatoire ainsi construit fait directement écho aux outils présentés dans le cadre du krigeage (cf. paragraphe 2.2.2.2.2). A ce titre, ce type de champ est un outil de modélisation très répandu. En effet, un méta-modèle par krigeage modélise la sortie du système étudié comme un champ aléatoire gaussien qui est contraint de prendre une valeur fixée là où les données mesurées sont disponibles. Des champs aléatoires gaussiens non-contraints peuvent aussi être synthétisés de

diverses manières. Cette approche est appliquée en Section 3.2 à la modélisation du phénomène de perturbation de l’amplitude du signal ultrasonore par la micro-structure du matériau. Le lecteur trouvera ci-dessous la bibliographie établit dans ce cadre pour choisir la meilleure façon d’obtenir un champ aléatoire gaussien. Les simulations sont menées sur un sous-espace Gse de G , le champ aléatoire sera considéré isotrope de moyenne m et de fonction de covariance fCov. Les valeurs du champ ne sont estimées qu’en un ensemble fini de points p~giq1ăiďnPGse, l’application de fCov à tous les couples de points permet de construire la matrice de covariance KfCov.

3.1.3.1. Technique de base

L’approche de base pour la simulation d’un champ aléatoire gaussien défini par la moyenne m et la matrice de covariance KfCov est la suivante :

— calculer la racine carrée R de KfCov, i.e. KfCov “ RR|;

— tirer des variables aléatoires pθiq1ăiďn„N p0, 1q où n est le nombre de points où le champ sera simulé ;

— générer le champ aléatoire H “ m ` R `θ1, θ2, ¨ ¨ ¨ , θn

˘|

“ m ` Rθ, ici θ est un vecteur de variables aléatoires.

Le champ ainsi produit répond bien aux exigences. En termes de moyenne, EpHq “ Epm`Rθq “ m. En termes de covariance, EpHH˚

q “ E`pm ` Rθqpm ` Rθq˚˘ “ EpRθθ|R|q “ RR|Epθθ|q “ KfCov. Cette méthode très élégante se limite à la simulation d’un nombre de points n relativement faible. Si p est la dimension de l’espace G sur lequel le champ aléatoire est calculé, alors la matrice de covariance aura une dimension de npˆnp ! Les manipulations de KfCovdeviennent donc rapidement trop gourmandes en ressources mémoires.

Le calcul de la matrice R s’optimise en utilisant la décomposition de Cholesky qui permet une extraction de la racine carrée en Opn3qpour une matrice n ˆ n. Dans certains cas, il est préférable de travailler avec la matrice des précisions KfCov´1au lieu des covariances car elle s’exprime parfois sous forme creuse. Malgré ces raffinements, la taille des matrices manipulées posent rapidement problème.

3.1.3.2. Imbrication circulaire

Lorsque le champ doit être calculé pour des points répartis uniformément sur une grille, alors la matrice de covariance prend une forme particulière : KfCov est symétrique et Toeplitz par blocs Toeplitz (BTTB). De plus, n’importe quelle matrice ayant cette structure peut être incluse dans une matrice plus grande KfCov telle que KfCov soit circulante par blocs circulants (BCCB). Et finalement, une matrice BCCB peut s’exprimer ainsi :

KfCov “ WΣW˚ (3.1)

avec : KfCov matrice de covariance agrandie pour avoir une structure BCCB ;

W matrice de Fourier permettant de faire une Transformée de Fourier Discrète (TFD) ; W˚ transposée hermitienne de W permettant de faire une Transformée de Fourier

In-verse Discrète (TFID) ;

Σ matrice diagonale des valeurs propres.

Ces matrices très structurées optimisent l’utilisation de la mémoire et la propriété ci-dessus permet d’élaborer une stratégie de simulation efficace [141][142] :

— tirer des variables aléatoires pθiq1ăiďn„N p0, 1q où n est le nombre de points où le champ sera simulé ;

— compléter la matrice KfCov pour obtenir une matrice BCCB non-négative KfCov; — appliquer la Transformée de Fourier Inverse Discrète (TFID) à KfCov;

— calculer ˜H “?Σθ(la racine carrée se calcule sans difficulté puisque la matrice est diagonale) ; — appliquer la Transformée de Fourier Discrète (TFD) à H et y ajouter la moyenne m ; — extraire la sous-partie du vecteur H qui correspond aux points d’intérêt (la phase de

La partie réelle et imaginaire de H sont alors des champs aléatoires présentant les propriétés requises après ajout de la moyenne. En termes de moyenne, EpHq “ Epm`W?Σθq “ m. En termes de covariance, pour alléger les notations la moyenne est omise, EpHH˚

q “ E`pW?ΣθqpW?Σθq˚˘ “ W?ΣEpθθ˚q ? ΣW˚ “ W ?

ΣI?ΣW˚ “ KfCov. Coeurjolly [143] rapporte dans le cas de la si-mulation d’un mouvement brownien que la méthode requiert Opn logpnqq opérations pour simuler un champ de n points. Par ailleurs, les limitations sur la taille des matrices sont contournées en travaillant avec une représentation efficace des matrices. Un problème persiste lorsque la fonction de covariance décroit trop lentement, dans ce cas, il faut ajouter de nombreux éléments à KfCov

pour en faire une matrice BCCB non-négative pouvant alors causer à nouveau des problèmes de mémoire.

3.1.3.3. Moyenne glissante

La moyenne glissante est une méthode extrêmement rapide permettant de générer un champ aléatoire gaussien mais la maîtrise de la fonction de covariance sous-jacente est malaisée.

— générer un processus ponctuel uniforme et indépendant de n points sur Gse;

— calculer H tel que Hp~gq corresponde au nombre moyen de points compté sur un disque de diamètre r.

Cette approche a déjà été évoquée avec les processus ponctuels basés sur les objets, ici l’objet est le disque de rayon r. D’autres techniques assez proches d’un effet de moyenne consistent à filtrer un bruit blanc en fréquence de façon à obtenir un champ aléatoire corrélé. Lorsque le spectre du bruit est connu, cette technique est facile à mettre en œuvre. Par exemple, dans le cadre du bruit électronique présenté en Figure 3.1, cette approche peut être utilisée afin d’imposer au bruit blanc le spectre issu du bruit expérimental.

3.1.3.4. Bandes tournantes

Les bandes tournantes [144] ont été développées pour des champs aléatoires à trois dimensions, i.e. pour le cas où G possède trois dimensions. L’intérêt de la méthode réside dans sa capacité à construire ce champ tri-dimensionnel en n’utilisant que des champs aléatoires unidimensionnels. Pour ce faire, les champs aléatoires unidimensionnels sont superposés dans l’espace avec des di-rections aléatoires ; le théorème central limite assure alors que le champ résultant tend vers une distribution gaussienne lorsque le nombre de champs unidimensionnels ajoutés est grand. La tech-nique se décompose en trois étapes [140][142][145] :

— tirer uniformément n~g directions de l’espace, la ième direction sera portée par le vecteur unitaire ~gui. La série à discrépance faible de Van der Corput donne de bons résultats de convergence.

— simuler la réalisation d’un champ aléatoire unidimensionnel H1Di pour chaque ligne i. La méthode dépendra de la fonction de covariance visée fCov1D;

— orienter chaque H1Di selon ~gui puis les additionner pour générer H.

Le champ aléatoire résultant H respectera la fonction de covariance fCov dès lors que les champs unidimensionnels respectent fCov1Ddrd prfCovprqqoù r “ ||~g1´ ~g2||2 [145]. Marcotte [146] rap-porte un nombre d’opérations en Opnq pour un champ aléatoire de n points. Adaptée au domaine spectral, cette méthode a notamment été choisie pour une implémentation sur processeur gra-phique (GPU) pour la simulation massive de champs aléatoires [147]. Elle présente donc a priori les meilleures performances en termes de rapidité de calcul.

Les simplifications amenées par l’hypothèse de Gauss font des champs aléatoires gaussiens un objet mathématique intéressant largement utilisé pour la modélisation. Par contre, cette hypothèse est très forte et les phénomènes naturels ne se plient pas nécessairement à cette théorie. Il existe quelques approches permettant de forcer des caractéristiques gaussiennes [148] ou alors de corriger la non-stationnarité [149] mais elles restent limitées. Emery [150] relève notamment qu’une telle hypothèse empèche la génération de « motifs tels que des chapelets connectés ou des amas de valeurs extrêmes ». Cette limitation s’explique par la tendance des champs gaussiens à maximiser l’entropie [151]. De tels champs sont incapables de présenter des structures géométriques telles que des lignes aléatoirement distribuées. Cet élément sera mis en évidence lors de l’utilisation de cette approche pour rendre compte de l’effet de la micro-structure sur les signaux ultrasonores (cf. paragraphe 3.2.2).