• Aucun résultat trouvé

Modèle de krigeage

4.3 Synthèse à partir de données expérimentales

4.3.1 Modèle de krigeage

(b) Reconstruction d’un A-scan avec 20 modes SVD

0 5 10 15 20 Temps t [µs] ´1,0 ´0,5 0,0 0,5 1,0 Amplitude [u .a .] Référence Reconstruction

Figure 4.5 – Compression par SVD de signaux A-scans

Tous les signaux utilisés ici possèdent des pics à des temps de vol similaires (cf. discussion 4.3.3). La réduction de 2 199 échantillons temporels à 20 composantes principales n’entraîne pas une perte de réalisme du signal. Sur les 729 A-scans, l’erreur quadratique moyenne est de 8 ˆ 10´3u.a.. L’erreur relative moyenne sur l’amplitude maximale de l’écho d’entrée est de 0,07 %, sur l’écho de fond de 1,3 % et l’erreur relative maximale constatée en moyenne sur les amplitudes au-dessus du niveau de bruit — estimé à 0,1 u.a. ici — est de 17,6 %. Le signal A-scan utile est donc peu perturbé par la compression.

4.3. Synthèse à partir de données expérimentales

Après avoir sélectionné le TFP comme défaut à modéliser, puis après avoir identifié la meilleure façon de représenter les signaux ultrasonores issus de l’inspection de ce type de défaut, l’approche de méta-modélisation peut enfin être appliquée pour construire un modèle de simulation rapide et réaliste de sa signature ultrasonore. Et, plus particulièrement, la possibilité d’appliquer un méta-modèle directement à une base de données expérimentales peut être évaluée.

4.3.1. Modèle de krigeage

La base de données qui a été constituée contient 21 TFP. Les inspections ont été faites en immersion sur une pièce étalon en matériau composite T800/M21 présentant 3 épaisseurs dif-férentes e P t7,2 ; 14,5 ; 21,8u mm sur lesquelles ont été percés 7 TFP de diamètres φ P t4 ; 6 ; 7 ; 8 ; 9 ; 12 ; 16u mm et de profondeur fixée d “ 1,5 mm. Le traducteur utilisé compte 32 éléments espacés de 1 mm, excités à une fréquence centrale de 4,2 MHz avec une ou-verture de 8 éléments. La hauteur d’eau entre le traducteur et la surface de la pièce est fixée à 40 mm. Pour compenser l’atténuation d’amplitude induite par le matériau et pouvant diminuer la qualité des signaux acquis, une amplification variable en temps (en anglais, Distance Amplitude Curve DAC ou Time Correction Gain TCG) est appliquée. Pour chaque TFP, la zone scannée s’étend sur un carré de 27 mm ˆ 27 mm centré sur le défaut. Cette taille assure que, sur la fron-tière de la zone, le signal n’est plus affecté par la présence du défaut, et que, par conséquent, la totalité de la signature ultrasonore du défaut est acquise. La résolution spatiale est de 1 mmˆ1 mm.

Epaisseur de pièce Diamètre du TFP Position du S Entrées X p “ 4 Sorties Y q “ 20 Signature compressée du TFP e Y px φ traducteur py Figure 4.6 – Méta-modèle à construire

Les paramètres expérimentaux variables dans la base de données correspondent aux paramètres d’entrée du modèle de défaut visé dans ce chapitre (cf. Figure 4.2) à l’exception de la profondeur du défaut. Cette base de données permet ainsi de construire un méta-modèle ayant 4 paramètres d’entrée tels que schématisés ci-contre en Figure 4.6 : X “ pe, φ, px, pyq| avec e P r7,2 ; 21,8s mm l’épaisseur de pièce, φ P r4 ; 16s mm le diamètre du TFP et ppx, pyq P r0 mm ; 27 mms2 la position de la sonde par rapport au TFP. Le vecteur de sortie Y du méta-modèle correspond à la signature du défaut, c’est-à-dire la portion de A-scan contenant l’écho de défaut et de fond12. La profondeur du défaut étant figée, la durée qui sépare l’écho de défaut de l’écho de fond est fixe. Cette propriété permet de compresser la signature du défaut grâce à la méthode SVD vue ci-avant. En outre, les signatures de défauts se ressemblent

12. La méthode d’extraction de cette signature est décrite en paragraphe 5.2.2.2.1 car elle est liée à l’exploitation de ce modèle pour la simulation opérationnelle.

suffisamment pour pouvoir extraire les composantes principales, ou modes SVD, à partir d’un unique TFP. Les 200 échantillons temporels des signatures ultrasonores sont réduites à 20 com-posantes compressées : le vecteur de sortie Y contient 20 réels. Compte-tenu de l’ensemble des n configurations différentes des 4 paramètres d’entrée, la matrice des observations Y fait une taille de n ˆ q “ 17 496 ˆ 20 tandis que celle des paramètres X une taille de n ˆ p “ 17 496 ˆ 4.

A propos du choix du méta-modèle, la Section 2.2.2 a déjà permis d’établir un panorama des différentes approches possibles en distinguant notamment les approches paramétriques des approches non-paramétriques. Dans le cas présent, le comportement de Y en fonction de X n’a aucune chance d’être linéaire. En outre, en ayant compressé Y , trouver une équation paramétrique modélisant le lien entre X et Y devient trop complexe et rend les méthodes paramétriques in-adaptées. Seules les approches non-paramétriques sont applicables, le paragraphe 2.2.2.2 liste les principales techniques :

la régression par Base de Fonctions Radiales (RBF) offre un formalisme ne faisant intervenir les vecteurs d’entrée qu’au travers de calculs de normes. Puisque les normes s’étendent facilement aux espaces à plusieurs dimensions, cette approche peut s’ap-pliquer ici avec les vecteurs d’entrée X de dimensions p “ 4. Pour s’adapter à un vecteur de sortie Y de dimension q “ 20, il suffit de considérer indépendamment chaque composante du vecteur comme si la méthode était appliquée 20 fois. Il faut noter que, pour des questions de rapidité, les 20 calculs peuvent se mettre sous la forme d’un seul calcul matriciel. Pour que la régression soit correctement menée, il faut identifier les hyper-paramètres les plus adaptés au problème. Comme noté par Buche et al., la littérature offre un nombre limité d’outils théoriques pour répondre à ce problème et des solutions empiriques sont avancées [230].

le krigeage est une méthode à noyau au même titre que la précédente et offre ainsi les mêmes avantages en termes de gestion des vecteurs d’entrée à plusieurs dimensions. Par ailleurs, son formalisme donne des outils pour le calcul des hyper-paramètres et permet également de calculer la moyenne et l’écart-type de la sortie Y du système13. le réseau de neurones possède une structure particulière lui permettant de s’appliquer à la modélisation de n’importe quel système. Il suffit d’adapter le nombre de neurones d’entrées et de sorties. Par contre, cette approche pose des difficultés à établir l’archi-tecture optimale du réseau et notamment le nombre de neurones requis entre les neu-rones d’entrée et les neuneu-rones de sortie. En outre, contrairement aux hyper-paramètres des méthodes à noyaux qui définissent la forme du noyau, les hyper-paramètres des réseaux de neurones sont difficiles à interpréter.

les méthodes applicables en grandes dimensions La Régression par Machine à Vec-teurs de Support (SVR) ou les grilles parcimonieuses sont essentiellement développées pour répondre au fléau des dimensions, à savoir aux difficultés causées par l’augmen-tation des dimensions des vecteurs d’entrée et/ou de la quantité de données connues n. Par exemple, une approche par krigeage à partir d’une base de données de n obser-vations demande Opnq calculs pour estimer un vecteur de sortie [230]. Pour les bases de données trop volumineuses, ce nombre de calculs devient trop important et les SVR ou les grilles parcimonieuses doivent être utilisées. Ces méthodes appliquées à des bases de données de taille modeste entraînent parfois des simulations un peu plus lentes que le krigeage. Dans le cas des inspections de TFP, n “ 17 496 signatures de défauts ont été acquises, soit une quantité modeste en regard des capacités de calculs des ordinateurs.

Dans le cas étudié ici, l’approche par krigeage — aussi appelée gaussian process — apparaît donc comme la plus adaptée. Le choix du noyau est guidé par la nature des données disponibles. Dans le cas des inspections de TFP, la quantité de données collectées selon chacun des paramètres d’entrée est très disparate. Il est facile d’accumuler beaucoup de données en fonction de la position de la sonde puisqu’il suffit de la déplacer et d’enregistrer les signaux. Par contre, il est plus difficile d’obtenir des données en fonction de l’épaisseur de la pièce puisque il faut alors fabriquer de nouveaux échantillons. Par ailleurs, les échelles de variation de ces paramètres diffèrent, entraînant

13. L’évaluation de l’écart-type demande des calculs supplémentaires par rapport à ceux nécessaires pour évaluer la moyenne. Dès lors, l’utilisation de l’écart-type — et des intervalles de confiance qui en découlent — pénalisent la rapidité de la méthode.

un espace des paramètres d’entrée très anisotrope. Par conséquent, il faut choisir un noyau de krigeage anisotrope : κpXi, Xjq “ exp ˜ ´ ˆ |Xi´ Xj|e λe ` |Xi´ Xj|φ λφ ` |Xi´ Xj|px λpx ` |Xi´ Xj|py λpy ˙2¸ (4.2) avec : | |e distance euclidienne du projeté sur le paramètre d’entrée épaisseur de pièce ;

| |φ distance euclidienne du projeté sur le paramètre d’entrée diamètre du défaut ; | |px distance euclidienne du projeté sur le paramètre d’entrée position de la sonde selon

x;

| |py distance euclidienne du projeté sur le paramètre d’entrée position de la sonde selon y;

λ hyper-paramètres définissant la taille caractéristique du noyau selon chacun des axes de l’espace des paramètres d’entrée.

La forme du noyau est contrôlée par 4 hyper-paramètres à identifier. Le bruit qui affecte inévitable-ment les données expériinévitable-mentales demande d’ajouter un cinquième hyper-paramètre qui correspond au terme σ2de l’Equation 2.29. Il permet de relaxer la régression — i.e. de régulariser le problème — en associant aux observations une incertitude de mesure.

L’implémentation du krigeage utilisée est celle proposée par Rasmussen et al. [101], diponible dans le module Python Scikit-learn [46]. L’algorithme d’optimisation des hyper-paramètres peut s’appuyer sur différentes techniques comme vu en paragraphe 2.2.2.2.2. Pour cette première im-plémentation, le maximum de vraisemblance a été testé. La recherche de son maximum repose sur la méthode LM-BFGS [231], une méthode d’optimisation basée sur l’approche de Newton. L’utilisation simultanée de 17 496 observations lors de l’optimisation a conduit à un dépassement des capacités de l’ordinateur utilisé14. La recherche des hyper-paramètres demande beaucoup plus de calculs que ceux requis pour la prédiction d’une valeur de sortie lorsque les hyper-paramètres sont connus... La technique généralement utilisée pour l’entraînement de méta-modèles à partir d’un grand nombre d’observations consiste à restreindre les données à des sous-ensembles15. La recherche des hyper-paramètres est ré-itérée à plusieurs reprises sur ces différents sous-ensembles choisis aléatoirement. Dans le cas traité ici, il s’avère que la densité d’observations selon un pa-ramètre d’entrée influence directement l’hyper-papa-ramètre associé. La Figure 4.7 illustre comment varie l’estimation de λpx pour différentes densités d’observations, i.e. différentes tailles de sous-ensembles choisis aléatoirement parmis les 17 496 observations. Des observations très nombreuses ayant des paramètres d’entrée très similaires — i.e. très proches dans l’espace des paramètres d’entrée — requièrent une fonction noyau moins étendue que des observations rares ayant des paramètres d’entrée très différents — i.e. très éloignées dans l’espace des paramètres d’entrée. De ce fait, modifier la densité de donnée par un sous-échantillonnage aléatoire risque de conduire à des estimations erronées des hyper-paramètres. La solution qui a été retenue est la suivante. L’op-timisation est faite indépendamment pour chacun des hyper-paramètres en ne considérant qu’un seul paramètre d’entrée à la fois. Les sous-ensembles de données sont sélectionnés de sorte à ne pas altérer la densité d’observations selon le paramètre d’entrée étudié :

— pour estimer λpx et λpy, toutes les observations disponibles pour toutes les positions du traducteur ppx, pyqsont utilisées mais seulement pour un unique TFP — donc à épaisseur de pièce e fixée et à diamètre de défaut φ fixé. Le fait que les observations soient disponibles sur une même grille spatiale régulière limite la dépendance de l’hyper-paramètre aux paramètres géométriques du TFP utilisé. En moyennant l’effet du TFP choisi, λpx “ 4,3 mm et λpy “ 4,7 mm.

— pour estimer λφ, toutes les observations disponibles pour tous les diamètres φ du défaut sont utilisées mais seulement pour une unique épaisseur de pièce et pour la position du traducteur où le défaut est le plus visible, à savoir à l’aplomb de son centre. En moyennant l’effet de l’épaisseur choisie, λφ“ 9,6 mm.

14. Configuration de l’ordinateur : portable utilisant Windows 10, Intel RCoreTMi7-4710HQ CPU @ 2,5 GHz et 8 Gibitde RAM.

— pour estimer λe, toutes les observations disponibles pour toutes les épaisseurs e de la pièce sont utilisées mais seulement pour un unique diamètre de défaut et pour la position du traducteur où le défaut est le plus visible, à savoir à l’aplomb de son centre. En moyennant l’effet du diamètre choisi, λe“ 14,9 mm.

— pour estimer le niveau de bruit σ2, le niveau de bruit maximal — estimé par maximum de vraisemblance lors des régressions précédentes — est utilisé.

La Figure 4.8 montre le résultat pour chaque paramètre d’entrée. Cette méthode — orientée par la connaissance du comportement du système — permet de trouver des hyper-paramètres optimaux pour chacun des paramètres d’entrée mais rien ne permet d’assurer qu’ils soient globalement op-timaux. Pour raffiner leur recherche, il faudrait se tourner vers d’autres techniques plus récentes telles que celles inspirées par l’apprentissage profond et permettant de considérer simultanément l’ensemble des observations disponibles [232].

0 500 1 000 1 500 2 000 2 500 3 000 Taille du sous-échantillon 0 2 4 6 8 10 Hyp er-param ètre optimisé λp x [u .a .]

Figure 4.7 – Influence de la densité de données sur l’estimation des hyper-paramètres

17 496observations sont disponibles pour calculer les hyper-paramètres du méta-modèle, par contre, elles ne peuvent pas toutes être utilisées simultanément car les calculs requis dépassent les capacités disponibles. Dès lors, des sous-ensembles de données de taille plus modeste sont constitués par sélection aléatoire d’observations. Pour chaque taille, 5 sous-ensembles différents sont extraits puis utilisés pour évaluer les hyper-paramètres. Ici, la valeur de l’hyper-paramètre λpxassocié à la position du traducteur sur la pièce est reportée pour chaque taille de sous-ensemble. Il apparaît que la densité d’observations influence directement la valeur de l’hyper-paramètre optimal. Si les hyper-paramètres sont optimisés avec peu d’observations correspondant à des paramètres d’entrée très différents les uns des autres, ils ne seront pas nécessairement valables pour une quantité d’observations plus importante. Les pointillés rouges correspondent à la valeur de λpx estimée à partir de toutes les observations disponibles pour toutes les positions du traducteur ppx, pyq— donc pour une densité maximale d’observations — mais restreinte à un unique TFP pour que les calculs soient faisables.

(a) Restriction à l’épaisseur de pièce (φ “ 16 mm) 10 15 20 Epaisseur e de la pièce [mm] 0,4 0,6 0,8 Amplitude [u .a .] Référence Krigeage (b) Restriction au diamètre du défaut (e “ 21,8 mm) 5 10 15 Diamètre φ du défaut [mm] 0,2 0,4 0,6 0,8 Amplitude [u .a .] Référence Krigeage (c) Restriction à la position du traducteur (φ “ 16 mm et e “ 21,8 mm) 0 10 20 Position pxdu transducteur [mm] 0,00 0,25 0,50 0,75 Amplitude [u .a .] Référence Krigeage

Figure 4.8 – Recherche des hyper-paramètres

Chaque hyper-paramètre est estimé en restreignant le problème à un seul paramètre d’entrée : l’effet de l’épaisseur de la pièce est étudié pour φ “ 12 mm, l’effet du diamètre du défaut pour e “ 7,2 mm et l’effet de la position du traducteur pour φ “ 12 mm et e “ 7,2 mm. Les résultats ci-dessus montrent l’amplitude maximale du défaut estimée par le méta-modèle pour chacune de ces conditions ainsi que les mesures expérimentales de référence.