• Aucun résultat trouvé

Mesure de la Pertinence de la Physique Multi-échelle Génie Logiciel et Mesures Statistiques Projet CETIM

N/A
N/A
Protected

Academic year: 2021

Partager "Mesure de la Pertinence de la Physique Multi-échelle Génie Logiciel et Mesures Statistiques Projet CETIM"

Copied!
9
0
0

Texte intégral

(1)

Science Arts & Métiers (SAM)

is an open access repository that collects the work of Arts et Métiers Institute of Technology researchers and makes it freely available over the web where possible.

This is an author-deposited version published in: https://sam.ensam.eu Handle ID: .http://hdl.handle.net/10985/10168

To cite this version :

Alain IOST, Thierry COOREVITS, Hassan ZAHOUANI, Karine ANSELME, Mohamed EL MANSORI, Denis NAJJAR, Gildas GUILLEMOT, Benjamin HAGEGE, Abdeljalil JOURANI, Phllippe REVEL, Pierre-Emmanuel MAZERAN, Maxence BIGERELLE - Mesure de la Pertinence de la Physique Multi-échelle Génie Logiciel et Mesures Statistiques Projet CETIM - In:

Caractérisation multi-échelle de la rugosité Analyse d'images de topographie, France, 2007-10-11 - Caractérisation multi-échelle de la rugosité Analyse d'images de topographie - 2007

Any correspondence concerning this service should be sent to the repository Administrator : archiveouverte@ensam.eu

(2)

Mesure de la Pertinence de la Physique Multi-échelle

Génie Logiciel et Mesures Statistiques

Projet CETIM

M. Bigerelle (1), A. Iost (2), T. Correvitz (3), H. Zahouani (4), K. Anselme (5), M. El Mansori (6) D. Najjar (2), G. Guillemot (2), B. Hagege (1), A. Jourani (1), P. Revel (1), P.E. Mazeran (1). B. Bounichane (1), O. Saber (1), A. Van Gorp (1,2), F. Hennebelle (2,3), A. Gautier (1), S. Gilgean (5).

(1) Laboratoire Roberval, FRE 2833, UTC/CNRS, Centre de Recherches de Royallieu, BP20529, 60205 Compiègne, France.

(2) Laboratoire de Métallurgie Physique et Génie des Matériaux (LMPGM), UMR CNRS 8517, Equipe de Caractérisation et Propriétés des Périsurfaces, ENSAM, 8 Bd Louis XIV, 59046 Lille Cedex, France. (3) Laboratoire de Métrologie et de Mathématiques Appliquées. ENSAM Lille, 8 boulevard Louis XIV, 59046

LILLE Cedex, France

(4) Laboratoire de Tribologie et Dynamique des Systèmes, UMR 5513, Ecole Centrale de Lyon 36 Av Guy de Collongue, 69134 Ecully Cedex

(5) Institut de Chimie des Surfaces et Interfaces, UPR CNRS 9069, 15 rue Jean Starcky, BP2488, 68057, Mulhouse Cedex

(6) Laboratoire de Mécanique et Procédés de Fabrication (LMPF - JE2381), ENSAM - Rue Saint Dominique, BP 508, 51006, Châlons en Champagne, France.

1- Outils de caractérisation statistique

L'objet principal des études en morphologie des surfaces consiste à résumer l'information de manière optimale. Dans nos études, nous étudions plus particulièrement la signification physique, les méthodes numériques et les artefacts numériques du calcul de la dimension fractale. Le problème fondamental est de répondre à la question suivante "La dimension fractale est-elle un paramètre pertinent et à quelle échelle ?" Cette question n'a aucun sens s’il n’est pas précisé « pertinent vis à vis de quels processus physiques ». Illustrons ce propos par un exemple de caractérisation de surface par mesure de rugosité : p échantillons d'un matériau ont subi différents mécanismes d'usure. n mesures de rugosité sont effectuées sur chaque échantillon (un raisonnement analogue serait applicable à la caractérisation de surface par analyse d'images).

Disposant alors des mesures de rugosité, l'usage courant est d’en déduire quelques paramètres (par exemple, le Ra, Rt, Rq, etc...). Nous recherchons une corrélation entre ces quelques paramètres et les différents mécanismes d'usure. Par exemple, il peut être d'usage dans une catégorie professionnelle d'utiliser un paramètre particulier de rugosité (souvent le Ra ou le Rt) et d’analyser les relations de ce paramètre avec le phénomène d’usure puis de déduire éventuellement des caractéristiques tribologiques du matériau. Cependant, si un autre paramètre permet de mieux caractériser la surface vis à vis du phénomène d’usure, les conclusions de l’analyse doivent être nuancées, voire même différentes. De même, il est d'usage très fréquent, dans la communauté scientifique, de retenir le paramètre de morphologie de surface qui possède une interprétation physique connue (le Rq d'une surface caractérise les phénomènes de brillance). Cependant s’il est montré expérimentalement qu'un autre paramètre de rugosité caractérise mieux le phénomène physique, alors son caractère discriminant doit être justifié.

Durant nos études de rugosimétrie, nous avons créé une vingtaine de paramètres de rugosité en plus des paramètres existants (« Paramètres de rugosité », Maxence Bigerelle, Cours ENSAM, 260 Pages, projet d’édition chez Hermes). Une nouvelle méthode de calcul de la dimension fractale, plus précise que les précédentes, est développée pour calculer la dimension fractale d'un signal. Cependant, rien n'affirme que cette dimension fractale caractérisera correctement un processus physique. Objectivement, la pertinence de ce nouveau paramètre devra être confrontée aux paramètres d'état de surface déjà existants. Donc, pour tester l’efficacité d'un paramètre d'état de surface, une mesure de

(3)

pertinence doit être construite et appliquée à la globalité des paramètres d'état de surface. Cette démarche n'a jamais était entreprise dans la science des états de surfaces et constitue la clef de voûte de notre approche. Elle nécessite de calculer tous les paramètres recensés dans les normes et la bibliographie. Aucun logiciel commercial ne permet une telle tâche et les personnes tentées d'appliquer cette approche devront concevoir leur propre application informatique. De plus, il est nécessaire de créer une méthode statistique robuste de la mesure de l’efficacité qui induit un codage du système physique. Dans les chapitres traitant des états de surfaces, tous les paramètres de rugosité sont analysés et affectés d'un chiffre d’efficacité permettant un classement de leur pertinence en fonction de leur indice d’efficacité. Cette philosophie de traitements numériques des états de surface permet de s’affranchir d'une certaine subjectivité dans l'utilisation des paramètres et de traiter l'information avec plus d’objectivité. Par cette méthode, nous avons montrer que la dimension fractale est un paramètre très pertinent vis à vis de nombreux phénomènes physiques.

2- Construction d’une méthode

Le problème de la recherche des paramètres de caractérisation des états de surface est complexe et il n'est guère possible, en l'état actuel, de déterminer une méthode universelle applicable à toute étude de rugosité. Pour cerner le problème lié à la détermination des paramètres influents, nous avons montré qu'une étude de la rugosité peut être mise sous forme d'un système matriciel. Un mécanisme opératoire ou physique permet d'obtenir une surface ayant une rugosité déterminée. Cette surface peut être décrite par une multitude de paramètres. Elle est ensuite soumise à un processus physique et en fonction des paramètres de la surface, qui dépendent des conditions initiales, la réponse du processus sera différente. Selon la nature numérique des réglages du procédé (variables qualitatives, quantitatives, mixtes, aléatoires ou déterministes, contrôlables ou non contrôlables) et la nature présumée des relations entre paramètres de rugosité et processus physiques (linéaires, logarithmiques, paraboliques, etc...), la méthode de recherche des paramètres optimaux sera différente.

Afin de garantir une homogénéité d’interprétation des résultats, toute méthode devra respecter dix règles de bases :

1) Ne pas présumer de l'influence d'un paramètre particulier, et donc traiter la totalité des paramètres. 2) Construire une statistique qui soit la plus fiable possible. Elle doit être :

Robuste : être peu sensible à des écarts de mesure,

Convergente : donner en moyenne les mêmes résultats si les conditions expérimentales restent inchangées,

De faible variance : parmi toutes les méthodes statistiques retenues, nous choisirons celle qui permet la construction d'estimateurs à faibles variances.

3) Créer un indice probabiliste : chaque paramètre sera affecté d'un indice probabiliste compris entre 0 et 1 qui représentera la probabilité d'affirmer à tort que le paramètre est influent alors qu'il ne l'est pas. Ce chiffre fournit, pour chaque méthode de traitement, un indice universel qui permet de comparer la pertinence d'un paramètre vis à vis d'une classe de phénomènes physiques.

4) Etre visuelle : le traitement doit fournir une représentation visuelle de la pertinence du paramètre ainsi que de sa variabilité.

5) Classer les paramètres par ordre de caractère discriminant. 6) Vérifier l’homogénéité des données.

7) Considérer chaque paramètre de rugosité comme une variable aléatoire. 8) Regrouper les paramètres d'égale influence.

9) Détecter les éventuelles corrélations entre les paramètres.

10) Si un nouveau paramètre est introduit, l’indice probabiliste affecté aux autres paramètres devra rester inchangé.

Nous pensons qu'il n'est pas possible de trouver une méthode universelle qui permette de traiter tous les cas physiques. En effet, en fonction de ces conditions expérimentales, une méthode de traitement sera plus ou moins perspicace. Il est d'abord nécessaire de construire la matrice d'étude du système qui permet de faire abstraction du phénomène physique et par là, rechercher une méthode existante. Nous avons donc choisi cette approche pour caractériser une surface car une caractérisation n'a aucun sens si la physique du phénomène n'est pas prise en compte avec la même rigueur que la construction de l'outil numérique de la morphologie de surface. Cette approche des états de surface

(4)

complexe car nouvelle, nécessite la construction de méthodes statistiques et la création d'outils informatiques adéquats. Cependant, nous sommes convaincus que cette philosophie d'approche offrira des perspectives nouvelles dans la mesure et le traitement des états de surfaces.

3- Les aspects Informatiques

Notre approche statistique de la mesure des états de surface nécessite le calcul de la totalité des paramètres d’état de surface pour toutes les mesures effectuées, et donc de disposer d'une application informatique qui permette leurs calculs, ainsi que d’un traitement statistique. Dans ce but, les valeurs numériques des paramètres doivent être traitées sans manipulation excessive. De plus, l'application doit permettre d'interfacer les différents appareils de mesure (rugosimètre tactile, microscope confocale, etc...). Une étude de caractérisation d'état de surface n'est pas une mesure d'état de

surface mais l’analyse d'une banque de données relationnelles. De même, les études doivent être

codifiées et archivées pour pouvoir être éventuellement retraitées ultérieurement, car la pertinence d’un nouveau paramètre de rugosité doit être analysé pour la totalité des études existantes. Ceci nécessite une traçabilité des mesures effectuée dans un système de gestion de base de données relationnelles.

La majorité des surfaces rencontrées en Sciences des Matériaux sont stochastiques : une mesure ne suffit pas à les caractériser. Si plusieurs surfaces sont étudiées, le nombre de données à traiter devient considérable et un traitement individuel n’est plus envisageable. Les mesures doivent

être traitées dans leur globalité. En effet, le nombre impressionnant de mesure d'état de surface rend

rédhibitoire un traitement individuel intéractif et l’ensemble des données doit être traité en lot.

3-1- Les Logiciels existants

Seuls les logiciels de rugosimétrie seront abordés mais cette analyse pourra être étendue sans difficulté majeure à d’autres applications de traitement de morphologie de surfaces (analyse d’images, traitement du signal, etc...). Dans cette partie, nous allons montrer que les logiciels existants sont peu adaptés au traitement de surfaces stochastiques sans citer de marques de logiciels car notre but n'est pas d'effectuer un essai comparatif mais plutôt d'analyser les lacunes communes des logiciels existants. Ces derniers sont :

1) Adaptés à ne traiter qu'un fichier de mesures : les logiciels actuels ne traitent qu'un fichier de mesures. Or, une étude d'état de surface peut contenir jusque 1000 fichiers de mesures. Faut-il alors

effectuer les 1000 traitements, noter les paramètres (près d'une centaine) et reporter manuellement ces résultats dans un tableur pour divers traitements statistiques ?

2) Ne contiennent qu'un nombre limité de paramètres : notre champ d'investigation ne peut être limité aux paramètres conventionnels. Il est donc nécessaire d’inclure de nouveaux paramètres d'état de surface dans le logiciel (calcul de dimension fractale). Certes, des logiciels, dont « Aphelion », disposent d’un langage de programmation pour construire certains paramètres. Cependant, ces programmes sont tributaires de routines internes au logiciel qui risquent de ne plus être portables pour une version ultérieure. Comment alors être assuré de la rentabilité de l'investissement ?

3) Inadaptés à l'analyse statistique : les programmes permettent de quantifier une surface individuelle mais pas son évolution. Ils sont donc peu adaptés à traiter un problème d'état de surface dans sa globalité. Comment alors faire pour caractériser une surface vis à vis d'un phénomène

physique ?

4) Souvent conçus pour un système de mesure spécifique. Les logiciels actuels sont souvent développés (ou sous-traités) par les fabricants des appareils de mesure. De ce fait, ils ne seront adaptés qu'aux traitements des données propres à chaque appareil. Comment alors traiter de manière

homogène les signaux issus d'appareils de mesures différents ?

5) Trop nombreuses manipulations : une étude d'état de surface est effectuée sur de nombreux fichiers. Les acquisitions faites, aucune manipulation ne doit être entreprise pour traiter les données, l’opérateur ne doit se concentrer que sur les résultats de l'analyse et non sur les manipulations liées à cette analyse (perte de temps). Comment alors avoir une vision globale sur une étude de rugosité

quand plusieurs milliers de manipulations doivent être entreprises ?

6) Fiabilité de certaines procédures : il est absolument nécessaire de connaître les algorithmes utilisés pour la construction de certains paramètres (transformée de Fourier, filtrage, etc...). Les

(5)

algorithmes sont rarement précisés dans les documentations relatives aux logiciels. Comment alors

garantir la véracité des paramètres ?

7) Pas d'algorithme non linéaire : certains calculs de paramètres nécessitent formellement une optimisation non linéaire (calcul des longueurs d'autocorrélation, dimension fractale, etc...). Ces algorithmes très complexes sont itératifs et peuvent souvent ne pas converger et introduire des dépassements de capacité numérique ou des valeurs aberrantes. Pour ces raisons, les auteurs utilisent des algorithmes non itératifs en linéarisant la physique du phénomène. Comment alors garantir que les

approches linéaires sont pertinentes ?

8) Pérénité du logiciel : la durée de vie des sociétés de construction de logiciel est en moyenne assez courte et il nous paraît illusoire de reposer intégralement nos systèmes d'analyse sur ce paramètre extérieur indépendant de la politique suivie dans le laboratoire. Comment alors garantir l'évolution du

sytème informatique ?

Ces nombreuses interrogations n'ont pas de réponse en l'état actuel. En effet, les logiciels commerciaux ne peuvent apporter de solution aux questions soulevées sans remettre en cause leur existence. Pour ces raisons, nous avons décidé de concevoir notre propre système d'analyse d'état de surface appelé Mesrug.

3.2 - Présentation de Mesrug

Mesrug n'est pas un simple logiciel de traitement de fichier de rugosité, il constitue un environnement d'analyse d'état de surface. L’analyse débute par le codage de l’information. Chaque lettre du nom de fichier contient une information représentative d’une signification physique de la surface. Une table de décodage permet le traitement simplifié des données du problème. La partie délicate du traitement réside dans l’encodage et le décodage de l'information initiale. Cette étape réalisée, le gain de temps en traitement informatique est impressionnant. Illustrons cette démarche par un exemple simple. Soient dix échantillons d'état de surface différents correspondant à deux matériaux. Trente mesures de rugosité sont effectuées sur chaque échantillon. L'objet de cette analyse est de répondre à la question : quels sont les paramètres qui discriminent au mieux les différents états de surfaces des deux matériaux ? Il précise alors dans Mesrug le nom de dossier, celui de la table des correspondances et les options de calculs des paramètres de rugosité puis lance le calcul des paramètres. Mesrug décripte la totalité des fichiers, calcule les paramètres de rugosité, crée des fichiers textes pour d'éventuelles analyses ultérieures (spectre, fonction d'autocorrélation, etc...), et crée des fichiers graphiques en préservant le codage effectué par l'opérateur. Le fichier des paramètres est codé pour être utilisable sous ExcelTM, StatisticaTM et sous le langage SASTM. La structure du fichier est construite pour que l'utilisateur n'ait plus qu'à "questionner" la banque de données. Les traitements statistiques sont effectués sous le langage SASTM (Statistical Analyses System). Le fichier des paramètres est introduit dans ce langage et l'utilisateur dispose alors de requêtes qui permettent le traitement des informations. Par exemple "Quels sont les moyennes des paramètres par classe de matériaux ?". Il dispose de toutes les routines de traitement statistique du langage SASTM (SASTM est le langage de référence en traitement statistique) ainsi que de ses outils graphiques et d’analyses Bootstrap (§2.3) de recherches automatiques des paramètres influents. Les fichiers graphiques offrent l'avantage de pouvoir être observés rapidement avec un visualisateur d'image quelconque. Cette technique permet de visualiser instantanément les profils de rugosité, les histogrammes des amplitudes, les spectres, etc... sans relancer une application. L'idée directrice suivie est de permettre un interfaçage avec les logiciels existants car il est inutile de réécrire un logiciel de statistique, ni un logiciel de retouche d'image... Nous concevons les fichiers pour que la majorité des logiciels puisse traiter les résultats d’une manière optimale.

Mesrug est utilisée dans notre laboratoire depuis plus de 5 ans et une centaine d’études de rugosité ont été effectuées. Certes il a fallu plus de deux années de travail pour concevoir cette application mais le gain de temps en traitement et d’efficacité en analyse a déjà rentabilisé de suite cet investissement. La création de Mesrug3D est commencée pour traiter cette fois des données de surfaces tridimensionnelle.

4- Méthodes statistiques

(6)

qui respectent les conditions évoquées au chapitre §1.A. Nous avions postulé qu’une méthode de recherche des paramètres influents devait être robuste. Le nombre important de paramètres à tester interdit d’utiliser une analyse statistique individuelle et de vérifier les hypothèses de l’inférence statistique de l’analyse de données. Pour ces raisons, une technique très récente d’analyse de données connue sous le nom de Bootstrap sera utilisée. Cette approche permet de donner un nouveau regard sur l’analyse de la variance et de déterminer la pertinence des paramètres répartie en classe. Cette technique sera utilisée pour rechercher le paramètre qui donne la meilleure corrélation avec un processus physique. Ces méthodes seront systématiquement utilisées dans les études de rugosité et permettront en outre de déterminer objectivement la pertinence de la dimension fractale.

4-1- Le Bootstrap

La méthode du bootstrap, due à Efron, a été créée en 1979. Le principe consiste à effectuer un sur-échantillonnage des données et utiliser la puissance des ordinateurs pour calculer un grand nombre de fois l’estimateur de base de la statistique recherchée. Cette méthode est à la statistique mathématique ce que la méthode de Monte Carlo est à la physique de la diffusion. Efron, bio-statisticien, a créé cette méthode (nous pourrions même dire « méthodologie », car le sur-échantillonnage est une technique pour concevoir des méthodes d’analyse), pour interpréter des données qui violaient les hypothèses de l’inférence statistique. Depuis 1985, la bibliographie statistique sur le sur-échantillonnage ne cesse de croître et cette technique pourrait devenir la méthode d’analyse statistique du futur. Cependant, bien que Efron ait fait un effort considérable de vulgarisation, les articles actuels demeurent très hermétiques aux novices et servent surtout à développer un fodement mathématique à cette nouvelle approche. Les premiers livres synthétisant l’état d’avancement du sur-échantillonnage, sont dus à Hall et à Shao et Tu. Le principe du sur-échantillonnage consiste à extraire un échantillon à partir de la série de données initiale et à construire une statistique sur cet échantillon, puis à reproduire cette statistique un grand nombre de fois pour analyser le comportement de la série initiale. La difficulté majeure de l’utilisation de cette technique est de ne pas « oublier » que ces données ne sont que des répliques et qu’elles n’ont pas la même crédibilité que les données initiales. En ce sens, « bootstraper » demande une certaine connaissance de la statistique pour éviter cet écueil. De plus, il est nécessaire de posséder des bases solides en informatique car il n’existe aucun logiciel informatique commercialisé. Ecrire un sur-échantillonnage revient à appeler un grand nombre de fois une procédure de la statistique, ce qui requiert une optimisation numérique importante au contraire des routines de logiciel de statistique prévues pour n’être appelées qu’une seule fois . Quels sont donc les avantages escomptés d’une telle méthode ? D’après la bibliographie, ce sont les suivants :

1) Suppression des hypothèses statistiques : il n’est plus nécessaire de supposer que les données suivent une densité précise (fait pratiquement impossible à vérifier). En Science des Matériaux, de nombreuses données ne suivent pas une loi gaussienne ce qui rend les traitements statistiques très délicats. Par exemple, nous avons appliqué cette méthode pour isoler les trois modes de propagation de fissure d’un essai de fatigue fissuration. Dans ce cas, il n’est plus nécessaire de supposer que le résidu autour de la « loi » de Paris vérifie une loi log-normale.

2) Réduction de biais : le biais statistique est un artefact redoutable en Science des Matériaux. Il signifie simplement que la valeur estimée d’après les données n’est pas la vraie valeur en moyenne. Le biais le plus perfide est celui obtenu sur la régression linéaire dû au non respect des hypothèses de Gauss Markov (qui ne sont d’ailleurs que rarement respectées). En effet, la valeur du biais statistique peut dépendre du nombre de données, de leurs dispersions, de l’intervalle d’étude, etc... Or, il est d’usage très courant en Science des Matériaux, d’utiliser les coefficients issus d’une régression pour caractériser le comportement d’un matériau (module de Young, coefficients de la loi de Paris, dimension fractale, coefficient d’écrouissage, dureté intrinseque, etc...). Si l’une des causes expérimentales responsable du biais varie pendant différents essais, il est possible de trouver une corrélation très marquée avec un phénomène physique alors qu’il n’y a pas corrélation. Pire, la corrélation risque d’être plus pertinente statistiquement que si elle existait physiquement.

3) Construction d’estimateurs par développement asymptotique des résultats sur-échantillonnés. Nous ajouterons à la bibliographie les avantages suivants :

4) Visualisation des données : comme le sur-échantillonnage permet de générer un grand nombre de simulations, il devient aisé de construire une application graphique pour percevoir des tendances dans les données initiales.

(7)

5) Tests de robustesse des modèles analytiques ou numériques : comme le sur-échantillonnage crée une banque de données de valeurs possibles de la statistique recherchée, il est possible d’introduire ces valeurs dans un modèle pour tester les répercussions numériques de ces incertitudes. Par exemple, supposons que l’on ait calculé par sur-échantillonnage le coefficient n de la loi d’écrouissage de Ludwig et que ce coefficient est utilisé pour une modélisation d’emboutissage par éléments finis. Il devient possible d’introduire un certain nombre de ces coefficients simulés pour tester l’influence de la variation expérimentale sur les résultats modélisés. Nous avons utilisé une méthode similaire pour tester l’influence des erreurs de mesure de température sur la prédiction des températures de recristallisation d’acier doux à Sollac.

4-1- Quelques Méthodes Développées.

La géométrie des surfaces est caractérisée par plus d’une centaine de paramètres. Ce travail nous a amené à construire trois applications informatiques originales de sur-échantillonnage permettant de traiter la majorité des études présentées.

Analyse de la variance sur-échantillonnée : Un système physique est souvent décrit par plusieurs paramètres d'entrée et fournit souvent une multitude de paramètres de sortie. Pour résoudre ce problème, nous utilisons une extension de la méthode d'analyse de la variance (ANOVA). Le problème est formulé en ces termes : Parmi n paramètres, k mesures sont faites sur p échantillons. Quel est donc le paramètre qui discrimine au mieux les p échantillons ?

Analyse des corrélations linéaires sur-échantillonnées : Cette méthode s’applique dans de nombreux cas rencontrés en Science des Matériaux. Elle peut se résumer en ces termes. Comment corréler un phénomène physique (quantifié numériquement) avec les paramètres de caractérisation de surface mesurés sur plusieurs échantillons quand P mesures de ce phénomène physique et Q mesures de caractérisation de surface sont effectuées sur chaque échantillon ?

Analyse discriminante sur-échantillonnée : Elle peut se résumer en ces termes. Comment peut on classer des surfaces en relation avec un phénomène physique (quantifié numériquement) avec plus d’un paramètre de rugosité mesurés sur plusieurs échantillons.

5- Prise en Compte des aspects Multi-échelle : Projet fondation CETIM

Nous proposons dans ce projet d’étendre ce travail, en associant de manière forte les modélisations physiques et mécaniques, les techniques statistiques et l’approche multi échelle pour proposer, étudier et tester des nouvelles méthodes et méthodologies pour caractériser les surfaces. La démarche proposée permettra d’extraire les paramètres les plus pertinents en fonction de l’application. Cette approche sera appliquée à divers appareils de mesure tels que la machine à mesurer (L2MA), le rugosimètre tactile (L2MA, UTC, LTDS, LMPGM), l’interféromètre laser (UTC, LTDS), le microscope confocal (LMPGM, UTC), jusqu’au microscope à force atomique (UTC, ICSI, LTDS, LMPGM).

Pour mener à terme ce projet, un consortium complémentaire et multidisciplinaire est proposé et capable d’appréhender les états de surfaces :

- sous les aspects géométriques (L2MA, LTDS, UTC),

- mécaniques (LMPGM, LTDS)

- physico-chimiques (ICSI, LMPGM)

- matériaux (LMPGM, LTDS)

- analyses statistiques et fractales (UTC, LTDS)

Nous étudierons plus spécifiquement les applications suivantes :

- interaction rugosité – usure (LTDS-UTC-ICSI),

- paramètre d’usinabilité et états de surface (LMPGM, ICSI, UTC).

Nous aborderons de plus les aspects liés à la métrologie de la mesure des états de surface (L2MA). L’approche que nous avions développée durant les dix dernières années consistait à rechercher parmi les paramètres de rugosité existants lesquels permettaient de caractériser au mieux l’influence d’un phénomène physique. Ces paramètres étaient estimés sur une longueur d’évaluation globale qui était constante et choisie de manière arbitraire. Il s’est avéré que sur plus d’une centaine d’études menées, la dimension fractale se trouvait être parmi les paramètres les plus pertinents dans de nombreux cas.

(8)

Ce paramètre revient, en quelques sortes, à quantifier par un nombre réel, l’évolution d’une mesure sur la surface intégrant une large gamme d’échelle spatiale. Nous pensons intimement que ce paramètre devient pertinent car les autres ne caractérisent la surface que sur l’échelle spatiale fixée par la longueur d’évaluation qui peut être complètement différente de la véritable échelle sur laquelle le paramètre doit être estimé. De ce fait, la dimension fractale apparaît fortement discriminante pour la principale raison qu’elle inclut grossièrement dans son calcul l’échelle de mesure sur laquelle la morphologie est la plus pertinente. Mais des études préliminaires semblent montrer que la mesure d’autres paramètres de rugosité évalués sur une échelle pertinente donnerait un résultat bien meilleur que la dimension fractale. De ce fait, nous développons dans le cadre d’un projet financé par la Fondation CETIM, une approche originale prenant en compte deux éléments nouveau : la longueur d’évaluation et le redressement local de la surface. La norme définit un certain nombre de critères visant à caractériser la rugosité de surface. On y trouve d’abord la description de la ligne moyenne du profil de rugosité qui est la courbe définie par une fonction polynomiale, de degré 1 (le plus souvent), qui minimise les écarts par rapport au profil au sens des moindres carrés sur une distance égale à la longueur d’onde en dessous de laquelle on souhaite étudier la microgéométrie (longueur de base). A partir de ce profil redressé en faisant la différence des hauteurs des points du profil par le polynôme de régression, on définit les saillies (respectivement les creux du profil) comme étant les parties situées au dessus (respectivement en dessous) de la ligne moyenne. Nous proposons dans ce projet de tester le calcul des paramètres d’état de surface par une théorie multi-échelle et de tester la pertinence d’échelle.

Un cahier des charges défini l'environnement logiciel ainsi que l’architecture génie logiciel. Ce cahier des charges définit la structure des données, la conception des objets à créer ainsi que leurs interactivités. Puis l‘analyse des méthodes de redressement, cœur de l‘analyse multi-échelle, est effectuée sur une base de données définie par les partenaires du projet.

7 librairies informatiques sont en cours d’implémentation couvrant les domaines suivants : - Gestion bases de données,

- Décodage-Encodage standardisé des fichiers de mesures, - Outils statistiques et numériques génériques,

- Redressement multi-échelle,

- Calcul des paramètres d’état de surfaces, - Implémentation du Bootstrap,

- Visualisation des profils/surfaces.

Ce travail est effectué au sein de l’UTC en liaison forte avec le LTDS (intégration des outils numériques existants) et l’ENSAM (structure C++).

Références

M. Bigerelle et A. Iost, Calcul de la dimension fractale d’un profil par la méthode des autocorrélations moyennées normées A.M.N, C. R. Acad. Sci. Paris, t. 323, Série II b, 1996, 669-675.

M. Bigerelle and A. Iost, A new method to calculate the fractal dimension of surfaces. Application to human cell proliferation, Computer and Mathematics with Application, 42, 2001, 241-253.

K. Anselme, P. Linez, M. Bigerelle, D. Le Maguer, A. Le Maguer, P. Hardouin, H.F. Hildebrand, A. Iost and J. M Leroy, The relative influence of the topography and chemistery of TiAl6V4 surfaces on osteoblastic cell behaviour, Biomaterials, 21, 15, 2000, 1567-1577.

M. Bigerelle, K. Anselme, B. Noel, Y. Ruderman, P. Hardouin and A. Iost, Improvement in the morphology of Ti-based surfaces: a new process to increase in vitro human osteoblast response, Biomaterials, 23, 2002, 1563-1577.

K. Anselme, M. Bigerelle, B. Noel, A. Iost and P. Hardouin, Effects of grooved titanium substratum on human osteoblastic cell growth, Journal of Biomedical Materials Research, 60, 4, 2002, 529-540.

M. Bigerelle, K. Anselme, E. Dufresne, P. Hardouin and A. Iost, An unscaled parameter to measure the order of surfaces. A new surface elaboration to increase cells adhesion, Biomolecular Engineering, 19, 2-6, 2002, 79-83. M. Bigerelle, D. Najjar and A. Iost, Relevance of roughness parameters for description and modelling of machined surfaces, J. Mater. Sci., 38, 11, 2003, 2525-2536.

D. Najjar, M. Bigerelle and A. Iost, The computer based Bootstrap method as a tool to select a relevant surface roughness parameter, Wear, 254, 5-6, 2003, 450-460.

(9)

A. Iost, D. Najjar, K. Anselme and M. Bigerelle, Relationships between the surface Morphology and a physical response in the biomaterial field, Materials Science Forum, 462-463, 2003, 3031-3036.

M. Bigerelle, D. Najjar and A. Iost, Multiscale Functional analyses of Wear : A Fractal Model of the Grinding process, Wear, 258, 1-4, 2005, 232-239.

K. Anselme and M. Bigerelle, Topography effects of pure titanium substrates on human osteoblast long-term adhesion, Acta Biomaterialia, 1, 2, 2005, 211-222.

D. Najjar, M. Bigerelle and A. IOST, Indentification of the mechanism of scratch generation on retrieved femoral head, Wear, 258, 2005, 240-250.

D. Najjar, M. Bigerelle, F. Hennebelle and A. Iost, Contribution of statistical methods to the study of worn paint coatings surface topography, Surface and Coatings Technology, 200, 20-21, 2006, 6088-6100.

D. Najjar, M. Bigerelle, H. Migaud and A. Iost, About the relevance of roughness parameters used for characterizing worn femoral heads, Tribology Internationnal, 39, 12, 2006, 1527-1537.

S. Gilgean, D. Najjar, M. Bigerelle and A. Iost. Analyse multi-échelle de l’abrasion. Mécanique et Industries, 7, 2006, 13-20.

K. Anselme and M. Bigerelle, Statistical demonstration of the relative effect of surface chemistry and roughness on human osteoblast short-term adhesion, J. of Materials Science: Materials in Medicine, 17, 5, 2006, 471-479. F. Hennebel, D. Najjar, M. Bigerelle and A. Iost, Influence of the morphological texture on the low wear damage of paint coated sheets, Progress in Organic Coatings, 56, 1, 2006, 81-89.

M. Bigerelle, A. Gautier and A. Iost, Roughness characteristic length scales of micro-machined surfaces: A multi-scale modelling, Sensors and Actuators B: Chemical, In Press, Corrected Proof, Available online 30 November 2006.

A. Van Gorp, M. Bigerelle, A. Grellier, A. Iost and D. Najjar, A multi-scale approach of roughness measurements: Evaluation of the relevant scale, Materials Science and Engineering: C, In Press, Corrected Proof, Available online 13 November 2006.

M. Bigerelle and A. Iost, A numerical method to calculate the Abbott parameters: a wear application, Tribology

International, 40, 9, 2007, 1319-1334.

M. Bigerelle, Alain Iost and Philippe Rocher, Analyse de la rugosité obtenue par un nouveau procédé de tribofinition, Mécanique & Industries 8, 7 (2007).

Références

Documents relatifs

Méthodes, techniques, outils Développer un logiciel c’est comme cuisiner.. „ Principe = Règles d’hygiène, fraîcheur

Le programme permet, à partir de seulement le numéro du jour dans l’année ( N compris entre 1 à 365 ) et les coordonnées du lieu (latitude, longitude et altitude), d’effectuer

Notre conviction est qu’il s’agit l` a d’une tr` es bonne fa¸ con d’aborder l’enseignement du g´ enie logiciel : le fait de reprendre, modifier/adapter ` a chaque phase ce qui

Plusieurs étapes sont nécessaires pour aller des besoins du client à la spécification du système.. Étude

Munitions Vous pouvez ajouter une jauge de munitions limitant le nombre de missiles que le joueur peut tirer. Vous pourrez ajouter la possibilité de ramasser des munitions sous forme

La conception du système est la phase la plus créative et stimulante du SDLC. La conception décrit le système final et le processus par lequel il est développé. Cette phase est

Les institutions suivantes ont participé au programme d’informatique appliquée : (1) Université d’Abomey Calavi au Bénin ; (2) Université de Ougagadougou au Burkina Faso ;

Introduction Le génie logiciel Architecture logicielle Principes de conception Patrons logiciels.. Production du code source Gestion des versions Travail