• Aucun résultat trouvé

Vers une statégie de contrôle des composants tirant profit des modèles fiabilistes Y=F(X) et des structures arborescentes de l'ingéniérie des systèmes

N/A
N/A
Protected

Academic year: 2021

Partager "Vers une statégie de contrôle des composants tirant profit des modèles fiabilistes Y=F(X) et des structures arborescentes de l'ingéniérie des systèmes"

Copied!
9
0
0

Texte intégral

(1)

HAL Id: hal-01149807

https://hal.archives-ouvertes.fr/hal-01149807

Submitted on 7 May 2015

HAL

is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire

HAL, est

destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Vers une statégie de contrôle des composants tirant profit des modèles fiabilistes Y=F(X) et des structures

arborescentes de l’ingéniérie des systèmes

Jean-Marc Judic

To cite this version:

Jean-Marc Judic. Vers une statégie de contrôle des composants tirant profit des modèles fiabilistes

Y=F(X) et des structures arborescentes de l’ingéniérie des systèmes. QUALITA’ 2015, Mar 2015,

Nancy, France. �hal-01149807�

(2)

Vers une statégie de contrôle des composants tirant profit des modèles fiabilistes Y=F(X) et des structures

arborescentes de l’ingéniérie des systèmes

Dr. Jean-Marc JUDIC Expert/Consultant St Rémy lès Chevreuse, France

jeanmarc.judic@sfr.fr Abstract— L’objectif de cet article est de montrer que les

modèles causes-effets, et autres fonctions transferts pouvant être créés en phase d’études, pour traiter des problèmes de fiabilité ou d’allocation de tolérances, peuvent être d’une grande utilité pour la construction des plans de contrôle et le pilotage des procédés et moyens de production. Ces modèles peuvent permettre aux producteurs de faire le lien entre les paramètres qu’ils peuvent piloter, sur les composants ou sur procédés (les X), et les critères de performance en relation avec la satisfaction des clients (les Y).

Sans ces fonctions transfert, un producteur est condamné à faire aveuglément de la conformité sur les X comme il doit le faire sur les Y, avec des conséquences économiques parfois désastreuse, par des coûts de contrôle et des rebuts sans réelle justification ni réels bénéfices sur la qualité finale du produit. Une mine d’or est là, trop souvent inexploitée par manque de partage des bonnes données et des bons modèles, entre ces deux mondes, la R&D et la Production, qui le plus souvent, sur ces problèmes de tolérances et de qualité, s’affrontent alors que leurs destins sont liés par un objectif commun : une plus grande satisfaction des clients et une meilleure rentabilité de l’entreprise. Cet article tente de bousculer des idées reçues et d’ouvrir de nouvelles perspectives.

Keywords— Modèles fiabilistes, plan de contrôle, conformité, pilotage des procédés.

I. INTRODUCTION

En phase de conception, de nombreux bureaux d’études construisent des modèles prédictifs de la performance des produits ou systèmes étudiés. Ces modèles peuvent être des arbres de défaillance, ou des fonctions transfert Y=F(X), où les Y sont les critères « attendus » sur lesquels portent des exigences du client, et les X des facteurs influents, caractéristiques de composants ou paramètres de procédés.

L’ingénierie système élabore aussi des modèles arborescents pouvant parfois combiner les deux approches. Lorsque les aspects géométriques priment sur d’autres aspects physiques, ces modèles Y=F(X) sont appelés des chaines de côtes et la fonction est alors souvent linéarisée. Ces modèles que nous qualifierons de R&D sont généralement réalisés pour valider des conceptions, en étudier la robustesse, prédire la fiabilité, ou encore plus simplement gérer des problèmes d’allocations de tolérances. Le plus souvent, ces modèles restent ensuite stockés sur les disques d’ordinateurs des Centres d’Etudes. Ils constituent pourtant une richesse incroyable qui gagnerait à être utilisée, mise à profit, à l’endroit où les choses se jouent dans la chaine de création de valeur : les usines.

II. DE LOPACITE DES PLANS DE DEFINITION

Sur les plans de définition que reçoivent les usines les spécifications, géométriques, mécaniques, physiques s’additionnent sans que le producteur puisse discerner ce qui relate directement d’une exigence du client, et que ce dernier va vraisemblablement contrôler, et ce qui ne concerne que des caractéristiques plus ou moins influentes sur la performance, ou encore des préférences du concepteur sans influence réellement démontrée. Tout est sur le même « plan », et de ce fait exigible au même titre. Faut-il alors tout surveiller avec la même énergie, le même soin ?

La limitation des ressources et la recherche bien ordinaire de rentabilité imposent aux acteurs d’aller à l’essentiel. Comme le suggère Anna Thornton «it is not economically or logistically feasible to control and/or monitor all of the thousands of tolerances specified in a drawing set » [1]. Une question émerge : pourquoi contrôler toutes les caractéristiques de tous les composants d’un produit? Ne suffirait-il pas de contrôler simplement les performances du produit final pour assurer au client que la qualité attendue est servie ?

La réponse fait évidence : oui, un contrôle final sur les points qualité Client, sous réserve d’efficacité, suffirait ! Mais l’intérêt de contrôler en amont les composants est d’anticiper des problèmes pouvant couter plus cher s’ils sont détectés plus tard. Mettre au rebut un composant défectueux est souvent moins onéreux que de jeter un assemblage complet. La décision de contrôler (ou non) en amont les composants est donc prise « pour gagner de l’argent », ou en perdre moins. Un principe clef pourrait alors être dicté : on ne contrôle les paramètres des composants en amont que lorsque le coût de ce contrôle est inférieur au coût du défaut sur le produit fini!

C’est bien ce que suggère encore A. Thornton : “Special control should be applied to those characteristics where the cost of variation justifies the cost of control ».

Mais comment un fabricant peut-il discerner l’essentiel du superflu? Sans pouvoir distinguer les exigences client des paramètres certes influents mais ne déterminant à eux seuls le résultat, comment savoir si une caractéristique légèrement hors tolérance peut avoir ou non des conséquences sur le fonctionnement? Comment alors, dans l’atelier, faire autrement que de gérer « en aveugle » la conformité de toutes les caractéristiques spécifiées au plan : la fonction transfert

(3)

demeure une boite noire inaccessible et on ne sait sur le plan distinguer la cause de l’effet. On ne doit alors pas s’étonner que l’exigence de conformité soit appliquée sur les paramètres des composants avec la même vigueur et les mêmes préceptes que sur les critères clients. Mais est-ce raisonnable de fonctionner ainsi ? Y-a-t-il des alternatives ?

III. UNE NOTION DE CONFORMITE « COMPOSANTS »

A REMETTRE EN CAUSE

Pour une exigence client, exprimée classiquement par la spécification non équivoque des bornes de conformité, une pièce hors tolérance est sans discussion non conforme. Une non-conformité ne signifie cependant pas systématiquement un produit défectueux ou impropre à l’usage pour le client, mais cela reste une non-conformité par rapport à l’engagement.

Prenons l’exemple d’un vélo tout-terrain dont la spécification fixerait à 11.2kg le poids maxi : il n’y a pas de risque à utiliser un vélo dont le poids serait de 11.3kg, mais un retour client reste possible, le produit n’est pas conforme à l’engagement.

Par contre, lorsqu’il s’agit de caractéristiques de composants, potentiellement influentes sur la performance du produit, la situation est différente. Une non-conformité sur une caractéristique n’a pas systématiquement pour conséquence une non-conformité du produit fini, et donc un défaut pour le client. Quand plusieurs paramètres interviennent ensemble, c’est la combinaison de ces paramètres qui « fabrique » la performance, et non un paramètre à lui seul. C’est ainsi, et c’est heureux, que le plus souvent, des axes un peu trop gros fonctionnent très bien car leur probabilité d’être assemblés avec des alésages moyens est assez forte.

Nous proposons d’éclaircir la relation entre la conformité des composants et la conformité des produits assemblés, et nous allons le voir, cette relation dépend beaucoup de la méthode choisie pour l’allocation des tolérances.

Si le tolérancement Arithmétique, ou Worst-Case, a été utilisé en allocation, il suffit que tous les composants soient dans leurs tolérances pour que le pire soit évité : avec des composants conformes, le résultat est assuré. Mais si la conformité des composants est une condition suffisante, elle n’est pas pour autant une condition nécessaire : une non- conformité d’un composant n’est pas suffisante pour entrainer la non-conformité du produit.

Dans le cas du vélo précédent, supposons qu’à l’atelier de montage, un cadre dépasse de 50 gramme sa spécification de 1.9kg : ce cadre n’est assurément pas conforme (à sa spécification), mais faut-il le jeter ? Supposons que tous les cadres d’un même lot se situent autour des 1950 grammes, faut-ils les jeter tous, arrêter la production et mécontenter des clients qui ne seront pas livrés à temps, ou bien évaluer plus précisément le risque de dépasser le poids total de 11.2kg avant de prendre la décision ? Un bon sens « artisanal » nous indique qu’il conviendrait d’y regarder de plus près avant de tout jeter, mais est-ce cela qui est fait dans nos entreprises dans pareilles situations ?

Il semble évident que de nombreux vélos d’un poids tout à fait conforme au final, peuvent être assemblés avec des cadres de 1.950kg : il n’y a que 50g à gagner ! Il suffit de quelques

composants légèrement en dessous de leurs poids maxi, et le tour est joué, et il raisonnable d’espérer que la moyenne de composants de poids assez variables, comme les roues, les pneus, la selle, soient fréquemment en deçà de leur limites supérieures, sinon les procédés ne seraient pas «capables».

Encore une fois dans ce bas monde, le pire n’est pas l’évènement le plus probable, et cela souvent nous sauve. Il semble donc ici opportun de chercher « sans attendre » des informations précises sur les poids des composants disponibles dans les bacs pour savoir si la production peut continuer, sous surveillance renforcée peut-être, mais continuer, ou si une autre décision doit être prise.

Le propos de cet article est de contribuer à apporter un cadre méthodologique pour que ce type de raisonnement devienne une manière de travailler et de construire des décisions avec des risques mesurés et maitrisés.

A. Illustration du problème posé dans le cas du tolérancement Arithmétique ou Worst-Case.

Prenons un exemple d’école, un assemblage simple de 3 pièces : tels deux livres dans une étagère.

Le critère résultant est ici simple à déterminer : Y=X1 – X2 –X3

Supposons aussi que l’exigence fonctionnelle concer- nant le jeu d’assemblage Y soit : 0 ≤ Y ≤ 0.6

La cible optimale pour le Y est alors de 0.3 avec une tolérance associée de ±0.3

En utilisant la méthode de tolérancement « Arithmétique » ou « Worst-Case » pour l’allocation des tolérances, on obtient alors par exemple :

X1= 25.3±0.1, X2 = 15±0.1 et X3=10±0.1,

Rem : le choix des nominaux a été réalisé pour atteindre la cible optimale de 0.3

Regardons ce que l’on peut alors prédire, en termes de risque pour l’assemblage, sur le Y, lorsqu’une non-conformité est observée sur l’une des pièces, par exemple X3. Pour les 2 autres pièces, nous supposons n’avoir aucune information et faisons alors pour simple hypothèse que X1 et X2 sont conformes, c’est-à-dire dans leurs « tolérances ».

Pour obtenir une vision probabiliste du risque sur le critère résultant Y, il est alors nécessaire de définir des hypothèses probabilistes sur X1 et X2. En l’absence de données, l’a priori ordinairement fait, est de considérer que toutes les valeurs à l’intérieur de l’intervalle de tolérance sont d’égale probabilité, et donc de considérer des distributions a priori uniformes sur leurs intervalles respectifs. Construisons alors la grandeur intermédiaire X’=X1-X2. La distribution de X’ s’obtient classiquement par convolution des deux distributions, mais ici nous sommes dans un cas connu et simple : la convolution de deux distributions uniformes de même largeur est une distribution triangulaire.

(4)

Fig. 1. Distribution de X’ par convolution de 2 distributions uniforme

En fonction de la valeur observée sur X3, on peut alors calculer les valeurs mini et maxi acceptables sur X’ pour respecter les conditions fonctionnelles Y>0 et Y<0.6, et par suite à l’aide de la fonction Répartition, calculer la probabilité d’obtenir un défaut. Pour toutes les valeurs de X3 comprises entre 9.9 et 10.1, il n’y a bien sûr, par construction des tolérances (ici en Worst-Case), aucun risque. Pour des valeurs supérieures à 10.1, un risque de jeu insuffisant apparait : l’exigence Y>0 risque de ne pas être respectée.

Illustrons le détail des calculs pour X3=10.2 (½IT hors tolérance). La valeur mini de X’ pour assurer l’assemblage est alors de 10.2 (+ε), et le calcul de la probabilité de défaillance sur le Y est alors simple (aire rouge), et est égal à 12.5% (1/8 de l’aire totale, voir fig.2).

Fig. 2. Calcul du risque de défaillance pour X3=10.2 (1/2 IT hors maxi)

Notons au passage que pour des pièces X3 hors tolérance de 0.05 (soit 1/4 IT), le risque serait alors de 3.125% ! Faudrait-il les jeter aussi ? Ou bien se dire qu’il y a 96.875% de chance que ça marche et qu’il serait bon de tenter le coup ?

Dans ce cas d’une chaine de 3 maillons, une non- conformité sur un maillon de ½ IT ne correspond qu’à un risque de 12.5% sur l’assemblage. Trop pour ne pas s’en occuper, mais est-ce le bon choix de mettre en place un tri à 100% et de mettre au rebut tous les composants hors tolérances? Il est intéressant de représenter la courbe donnant le risque sur l’assemblage en fonction de la valeur de X3.

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

9.3 9.4 9.5 9.6 9.7 9.8 9.9 10 10.1 10.2 10.3 10.4 10.5 10.6 10.7

valeur de X3 Risque sur Y=X1-X2-X3

Fig. 3. Evolution du risque résultant sur Y=X1-X2-X3 en fonction de X3.

Ce graphe met sans surprise en évidence, que lorsque X3 est dans sa tolérance, alors que X1 et X2 y sont aussi par hypothèse, le risque pour l’assemblage est nul.

Il met aussi en évidence un autre résultat moins immédiat : il faut que X3 sorte de sa tolérance de plus que la valeur cumulée des tolérances des autres maillons pour que l’on soit sûr qu’il n’y ait plus aucune chance, et ce seuil est d’autant plus éloigné que le nombre de maillons influents est grand. Entre les deux domaines où l’on pour l’un «sûr que ça marche », et pour l’autre «sûr que ça ne marche plus », il existe un domaine incertain où il convient d’évaluer avec plus précision le risque d’une mauvaise décision avant de s’aventurer.

Quand le nombre de paramètres influents augmente, il devient nécessaire de calculer la distribution résultante pour le critère X’ par convolution de plusieurs lois uniformes. Cela peut se faire par l’intermédiaire de produits de FFT et de FFT inverse avec des outils comme Matlab ou Scilab, ou encore directement à l’aide de la fonction Convolution disponible dans certains logiciels comme Mathematica.

En fig.4 nous illustrons ce que l’on peut obtenir pour un critère Y résultant de 7 contributeurs dont les tolérances seraient, ici pour simplifier, identiques et égales à ±1 (la tolérance sur le Y serait alors bien sûr égale à ±7).

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

-15 -14 -13 -12 -11 -10 -9-8-7 -6-5 -4-3-2 -1 0 1 2 3 4 5 6 7 8 910 11 12 13 14 15 valeur de X7 autour de sa cible ( pour un IT de ±1 sur chacun des X)

Risque sur Y=X1+X2+X3+X4+X5+X6+X7

Fig. 4. Evolution du risque résultant sur 7 maillons en fonction de X7

Pour un empilage de 7 contributeurs, une non-conformité de « 1 IT » sur l’un des maillons, soit pour ce graphe +2 par rapport à la borne de +1, et donc une valeur +3 par rapport à la cible, ou symétriquement -3, le risque sur l’assemblage, avec un a priori uniforme dans les intervalles respectifs de ±1, n’est que de 0.091% : moins d’une (mal)chance sur 1000 !

D’autres résultats remarquables peuvent être évoqués: pour 10 contributeurs, une non-conformité de 3.IT donne un risque résultant de 4.15%, et une non-conformité de 2.IT, un risque de 0.11% ! La Fig 5 offre une représentation de cette réalité.

On peut donc conclure ici que lorsque l’allocation de tolérances est effectuée en Arithmétique (ou Worst-Case), les tolérances allouées sont si petites que l’entêtement ordinaire à rejeter des composants non conformes conduit le plus souvent à rejeter des composants qui auraient très bien fonctionné.

Il y a là un réel gaspillage, très bien illustré par M. Pillet [2]

quand il évoque les « incohérences » des méthodes de tolérancement classique et en particulier du tolérancement « au pire des cas ».

(5)

Fig. 5. Valeur hors tolérance en nombre d’IT en fonction du nombre de maillons et pour un niveau de risque résultant donné

Il semble surtout étrange que l’on décide sans doute souvent, dans le but d’éradiquer certes un risque non nul pour le client, de mettre en place des murs qualités sur des composants, avec des conséquences directes en termes de rebut, sans évaluer ce risque au préalable, alors que nos ordinateurs sont là disponibles pour nous rendre ce service au moyen de quelques calculs simples mettant en jeu des moyennes et d’écart-types.

B. Une notion de conformité prise en défaut dans le cas du tolérancement statistique « Quadratique »

Lorsque les tolérances allouées en Arithmétique deviennent trop petites et que les procédés ne sont plus « capables », il est usuel de recourir au tolérancement statistique, appelé Quadratique ou RSS pour « Root Sum Square ».

Cette méthode est appréciée car elle permet d’augmenter les tolérances en moyenne d’un facteur de l’ordre de N où N est le nombre de contributeurs pour le critère étudié.

Le principe de cette méthode repose sur l’additivité des variances pour un critère résultant linéaire, ou raisonnablement linéarisé, c’est-à-dire pour les critères du type :

+

=

i i

i X

a a

Y 0 . (1)

Sous réserve de pertinence de l’approximation linéaire, et dans le cas de l’indépendance des Xi, la variance de Y est :

=

i

i

i Var X

a Y

Var( ) 2. ( ) (2)

On en déduit alors la formule clef du tolérancement Quadratique, qui n’exige pas la normalité des distributions :

= ∑

i

2 . i 2 ai

Y σ

σ (3)

La normalité des Xi devient seulement nécessaire pour passer des écart-types aux intervalles de tolérance, par le biais de l’indice de capabilité définit par :

σ σ 6. .

6

IT LsL

Cp UsL − =

= (4)

On en tire la relation IT=6.Cp.σ. et si tous les contributeurs Xi ont le même Cp, et également le même Cp que le critère Y résultant étudié, on peut multiplier les termes de l’équation (3) de part et d’autre du signe égal par (6.Cp) et obtenir la formule la plus connue mais aussi plus hypothétique:

= ∑

i ITi ai

ITY 2. 2 (5)

Illustrons maintenant notre problème de conformité en reprenant l’exemple précédent à 3 maillons. Dans cet exemple les coefficients ai valent 1 ou -1, et en répartissant également les tolérances, on obtient alors :

ITX

ITY = 3. d’où 0.346 3

6 .

0 =

X = IT

Les tolérances pouvant être allouées en Quadratique sur nos Xi sont donc de ±0.173, les nominaux ne changeant pas par rapport au calcul arithmétique précédent.

Si on reprend maintenant le calcul de la distribution de X’=X1-X2, avec X1= 25.3±0.173 et X2 = 15±0.173, on peut alors constater que même avec une valeur pour X3 idéalement à la cible de 10, un risque existe alors même que X1 et X2 sont par hypothèse dans leurs tolérances.

0 0.5 1 1.5 2 2.5 3

9.9 10 10.1 10.2 10.3 10.4 10.5 10.6 10.7

9.9536 10.6464

Fig. 6. Distribution de X’=X1-X2 dans le cas du tolerancement quadratique

Pour X3=10, les valeurs extrêmes admissibles pour X’ sont en effet de 10 d’une part pour assurer le montage, et de 10.6 d’autre part pour respecter le jeu maxi. Le calcul de la probabilité de défaut, avec cet « a priori » de distributions uniformes pour X1 et X2, donne alors 1.79% !

Et quand X3 prend une valeur proche de son maxi de 10.173, le risque de ne pas pouvoir assembler est alors de 20.1% ! Et la situation ne s’arrange pas du tout lorsque le nombre de maillons augmente.

On peut donc conclure que lorsque les tolérances ont été allouées avec la méthode statistique quadratique, la conformité des composants n’est plus une condition suffisante. Il serait donc pertinent que les fabricants soient avertis de l’usage du tolérancement statistique et ne soient alors plus autorisés à se réfugier derrière des murs qualité avec des Go/NoGo clairement inappropriés dans cette situation.

Le standard américain ASME Y14.5 définissant les principes GD&T [3], propose une solution simple pour éviter ces mauvaises pratiques, à l’aide d’une spécification duale contenant d’une part une tolérance « statistique » utilisable lorsque les procédés sont « sous contrôle statistique » et

(6)

identifiée par le flag , et en parallèle, une tolérance arithmétique plus restrictive devant être utilisée lorsqu’ils ne le sont pas. Cette proposition, malheureusement, tarde à devenir populaire et acceptée de ce côté de l’Atlantique.

C. Avec le tolérancement « Quadratique », respecter l’exigence de capabilité sur les composants ne suffit pas.

De nombreux auteurs ont depuis longtemps démontré que le respect de l’exigence de Capabilité (Cpk) sur les composants n’est pas suffisant pour assurer le résultat lorsque les tolérances ont été allouée avec la méthode Quadratique (ou RSS). Citons principalement S. Bisgaard & S. Grave [4] ,[5] et M. Pillet [2].

Il semble que cette vérité soit encore assez mal acceptée, ou méconnue des services Qualité de nombreuses entreprises.

Sans doute remet-elle en cause trop de pratiques trop bien installées et que l’on préfère feindre de ne pas savoir. Nous allons donc une nouvelle fois présenter un exemple démontrant cette réalité. Prenons à cette fin un exemple simple : une chaîne de cote à 4 maillons, sans effet de levier, représentant un problème courant d’assemblage 1D.

La plage fonctionnelle pour ce jeu Y est alors 0.4±0.4, et les tolérances sur les Xi, dans le cas d’une équi-répartition, avec la méthode quadratique, sont de ITi = ±0.2.

On a en effet bien 4×0.4² = 0.64 =0.8

Nous remarquerons au passage que la méthode Quadratique a permis ici de doubler les tolérances par rapport à la méthode Arithmétique. Mais regardons ce qui peut se passer maintenant, dans une situation qui en apparence n’aurait alerté que très peu de responsables Qualité, un cas où l’usine reçevrait des composants ayant tous les quatre des Cp de 2 et des Cpk de 1.

Rappelons que Cpk est l’indice de performance du procédé et est défini, dans le cas de distributions normales, par :

σ

µ µ

. 3

) ,

( − −

= Min LsL UsL

Cpk (6)

Ou µ est la moyenne de la production, σ son écart-type.

Le tableau ci-après donne les éléments de la situation.

Cibles Tolerances moyennes écart-types Cp Cpk

X1 36 ± 0.200 35.90 0.0333 2.0 1.0

X2 14 ± 0.200 14.10 0.0333 2.0 1.0

X3 9.6 ± 0.200 9.70 0.0333 2.0 1.0

X4 12 ± 0.200 12.10 0.0333 2.0 1.0

Au Bureau d'Etudes En Production

Ainsi présentée, la situation n’inquiète personne, pourtant, à l’assemblage, les choses vont se gâter.

L’écart-type obtenu sur le Y est très bon, σy=0.00667, donnant un Cp conforme à ce que l’on peut attendre, c’est a dire égal à celui des X, mais c’est la moyenne du Y qui va poser souci : µy=35.9 – 14.1 -9.7 -12.1 = 0. La moyenne est sur la borne inférieure, ce qui donne un Cpk résultant de 0 ! Soit 500 000 ppm avec des composants tout à fait conformes et que personne ne pourrait refuser.

C’est là le problème connu du décentrage, le tolérancement Quadratique ne permet d’assurer le résultat que lorsque les composants sont idéalement centrés, ou si par chance les décentrages se compensent. Les Bureaux d’Etudes font

« comme si » ce centrage parfait des procédés était accessible, mais à l’épreuve des faits, dans les usines, cette hypothèse ne tient pas. Ainsi, personne ne s’inquiète d’un Cp élevé tant que le Cpk est bon. Pourtant, un Cp dépassant d’une unité le Cpk signifie un décentrage de 3σ !

Cette situation est doublement insatisfaisante car les conséquences de ses hypothèses et méthodes inadaptées peuvent être catastrophiques, et parce que des solutions au problème existent depuis des années. M. Pillet a en effet proposé une nouvelle méthode appelée le « Tolérancement Inertie » [2], et nous avons proposé [6] une évolution des méthodes Semi-Quadratiques plus anciennes [7], [8] et [9] et que W .A Taylor a proposé d’appeler « Process Tolerancing ».

Ces deux méthodes ont en commun de transformer la nature des exigences sur les X, pour la première, en spécifiant une inertie, hypoténuse du décentrage et de l’écart-type, et introduisant ainsi une grandeur pas toujours facile à interpréter et piloter en atelier, et pour la seconde, en spécifiant de manière indépendante, une tolérance de centrage, et une dispersion maxi, spécifications pouvant être mises en relation simple et directe avec des cartes Xbar d’une part et S d’autre part.

A l’opposé de la méthode Quadratique, ces deux méthodes sont fiables : elles permettent d’assurer le respect de l’exigence de capabilité sur le critère résultant (le Y) lorsque les caractéristiques des composants sont conformes à leurs spécifications : il n’y a plus de situations catastrophiques à redouter. Mais un problème demeure. Comme avec les autres méthodes, des composants non conformes peuvent très bien fonctionner, une non-conformité sur un composant ne signifiant pas systématiquement un défaut pour le client. Si on convient que l’objectif d’une méthode de tolérancement fonctionnelle est à la fois de pouvoir écarter les composants inaptes à l’emploi, et d’accepter les composants aptes à l’emploi, il manque une brique à l’édifice : toutes les méthodes de tolérancement connues prennent le risque, sans le mesurer, de rejeter des composants qui auraient pu fonctionner.

IV. VERS UNE NOUVELLE METHODE POUR LE PILOTAGE INDUSTRIEL DES PROCESSUS : LE « MODEL BASED PILOTING »

Avec des méthodes fiables comme les méthodes Inertielle et Process Tolerancing, la conformité des composants à leurs exigences assure la performance e le respect du Cpk attendu sur les critères « client »: l’usine est protégée par le calcul fait en amont au Bureau d’Etudes lorsque les contributeurs respectent leurs spécifications.

ST

(7)

Ce domaine de conformité des composants est la zone de confort qu’il faut viser, celle où l’on peut produire sans se poser (trop) de questions, avec des coûts de contrôle réduits.

Lorsqu’un ou des composants ne sont plus « à l’intérieur de leurs spécifications », une incertitude apparait : l’usine n’est plus protégée par le calcul prévisionnel fait au Bureau d’Etudes. Mais le pire n’est pas sûr pour autant. Nous l’avons vu précédemment, la probabilité de défaillance de saute pas de la valeur 0 à 1 dès qu’un composant sort de sa spécification.

Rejeter alors systématiquement des composants non conformes permet certes de protéger le client, mais comporte un risque potentiellement très grand, pour le fabricant, de mettre inutilement au rebut des composants qui aurait pu très bien fonctionner, et occasionne des surcouts souvent aussi importants qu’inutiles. Ce qui est étonnant, c’est que la décision de mettre au rebut des lots entiers de composants non conformes soit généralement prise sans évaluation sérieuse du risque réel pour le client. Le problème pour le fabricant est en effet de traduire la non-conformité observée sur un composant, en probabilité, de défaut pour le client. Cette traduction est impossible pour un fabricant qui ne reçoit que des plans où s’accumulent des exigences de conformité. Il ne dispose pas du moyen de passer de la caractéristique du composant, sur lequel il peut observer une réalité, au critère de performance du système pour lequel une décision doit être prise.

Ce qui est étrange, c’est que la solution au problème semble compliquée, inaccessible, alors qu’elle est là, simple, et disponible. Avant de mettre toutes ces exigences sur le même plan, les ingénieurs du Bureau d’Etudes ont le plus souvent réalisés des modèles, ou des chaines de côtes, permettant de faire le lien entre les exigences du client, ou des conditions de fonctionnement, les Y, et les caractéristiques des composants ou des paramètres process. les X. Grâce à ces modèles Y=F(X) ils ont établi, optimisé, validé les tolérances des composants pour assurer les performances attendues.

La brique manquante est là, ces modèles Y=F(X) utilisés au Bureau d’Etudes pour la synthèse des tolérances sont la clef de voute du management des problèmes de tolérances du bureau d’étude jusque dans l’usine. Il suffit de les faire tourner avec les bonnes données pour pouvoir prendre les bonnes décisions.

Etrangement c’est en usine que l’usage de ses modèles repose sur le moins de conjectures. Les concepteurs doivent introduire des hypothèses pour transformer les intervalles de tolérances apparaissant sur les plans en hypothèses relatives aux moyennes et aux écart-types des procédés, hypothèses qu’ils injectent alors dans leurs modèles Y=F(X) pour prédire la performance sur les critères Y attendus par les clients.

Dans les usines, nul besoin d’hypothèses, on peut disposer des moyennes et des écart-types réels à un moment donné, ou du moins en construire des estimateurs crédibles sur la base d’échantillons. Pourquoi ne pas injecter sans compter et sans attendre ces données disponibles dans les modèles préparés au Bureau d’Etude pour prédire ce qui sortira dans quelques heures ou dans quelques jours des chaines de montage ?

Lorsque l’usine n’est plus protégée par le calcul fait en amont au Bureau d’Etudes, et qu’un risque doit être géré parce que les hypothèses de ce premier calcul ne sont plus vérifiées,

la solution est simple : il suffit de faire un nouveau calcul avec les données réelles du problème. La brique manquante existe, elle n’a seulement pas été mise à la disposition de ceux qui peuvent en tirer profit, en exploiter toute la valeur, pour une plus grande satisfaction des clients et une plus grande rentabilité de l’entreprise. Refuser aux fabricants l’accès à ces modèles c’est prendre délibérément la décision de les enfermer dans l’entonnoir de la conformité des composants.

Nous avons fait la critique d’un management binaire de la conformité des composants, responsable de rebuts inutiles, cependant la solution que nous proposons n’est pas un relâchement amblyope des exigences sur les composants mais un pilotage mieux maitrisé, plus intelligent, des paramètres disponibles, les X, au service de la satisfaction des exigences sur les critères clients, les Y. La clef pour ce pilotage est la mise à disposition des fonctions transfert Y=F(X) aux les services Qualité des usines.

Si cette solution d’apparence simple n’est pas déjà effective dans les entreprises, c’est qu’il existe des freins qu’il convient d’identifier pour pouvoir les contourner ou les desserrer. Le premier est peut-être inscrit dans la répartition des rôles et des pouvoirs : le Bureau d’Etudes, en relation avec les clients sait ce qui est demandé : il traduit les attentes des clients en spécifications pour les composants. Chaque fabricant reçoit un plan et réalise ses pièces, il exécute le plan! On ne lui demande pas de réfléchir, de comprendre ni de décider.

Cet aspect des choses a sans doute été renforcé par l’un des dogmes de « la Qualité Totale » qui a généralisé le concept de relation client-fournisseur à tous les étages de l’entreprise.

Nous serions ainsi tous fournisseur de quelqu’un, qui attendrait le résultat de notre travail, et le client de quelqu’un d’autre qui nous transmettrait le fruit du sien. Selon le deuxième postulat de la Qualité, si chacun dans l’entreprise fait son possible pour satisfaire son client interne, alors le client final, par voie de conséquence, serait satisfait. Dans ce jeu, le Bureau d’Etudes se positionne en client de l’usine, en lui envoyant des spécifications, comme il en reçoit lui-même, et considère que l’usine doit fournir des pièces conformes, au même titre que l’entreprise doit livrer des produits conformes au client final.

L’idée opposée, que le Bureau d’Etudes serait en réalité le fournisseur de l’usine, et devrait lui fournir tous les éléments, des plans, mais aussi des modèles, permettant de fabriquer de manière rentable des produits satisfaisant le client final, semble beaucoup moins partagée, comme si un dogme nous dictait que

« le client est celui qui impose les spécifications ».

Un autre frein est l’éventuel intérêt des Bureaux d’Etudes à maintenir une certaine opacité sur les modèles qu’ils établissent pour construire leurs spécifications. La démonstration de la nécessité des exigences n’est pas toujours bien faite, il existe parfois des zones d’ombre, de belles réalisations scientifiques côtoient des empirismes plus ou moins valides. Rendre les modèles disponibles, c’est faire acte de transparence, donner à voir la vérité, ce qui est bien fait comme ce qui l’est moins.

L’opacité n’est pourtant pas l’intérêt de l’entreprise: un pare- brise opaque n’est un bon pour le pilotage.

Enfin, la distance à la fois géographique et culturelle entre les centres R&D et les Usines est aussi une barrière. Osons la

(8)

caricature. En R&D, des ingénieurs diplômés, avec des logiciels sophistiqués et des ordinateurs connectés, ont accès à toutes les données, connaissent les clients et côtoient les décideurs… Dans les usines, les opérateurs n’ont ni le temps ni la mission de réfléchir. Ils n’ont ni la formation, ni les données ni les outils pour évaluer et gérer des risques.

Nous devons cependant aller au-delà de ces clichés. Pour faire face à une concurrence mondiale, nos entreprises ont besoin d’usines agiles et véloces, intégrant les meilleures solutions pour accroitre leur compétitivité. Ce que nous proposons va dans ce sens :

• Donner aux usines d’assemblage l’accès aux modèles Y=F(X) pour leur permettre d’intégrer le lien entre les paramètres qu’ils peuvent piloter et la satisfaction des clients.

• Connecter les modèles Y=F(X) utilisés en conception avec les données relevées en usine pour donner aux équipes R&D l’accès à la vérité des procédés et leur offrir la perspective de prévisions consolidées pour leurs études futures.

La figure ci-après schématise l’usage des modèles Y=F(X) pour l’allocation et l’optimisation des tolérances :

Y=F(X) Y

X

Objectivation du besoin du

client

Exigences sur les Paramètres

influents

La résolution de ce type de problème de synthèse n’est pas toujours aisée car il y a souvent plus d’inconnues que d’équations et donc rarement de solution unique. Parfois plusieurs Y contraignent de mêmes X et il n’y a pas de solution parfaite et des compromis doivent être élaborés. Pour ces raisons, la validation des tolérances est souvent réalisée en remplaçant la synthèse par l’analyse, par le biais de simulations d’hypothèses process basées sur des « a priori » et l’expérience.

Il n’y a alors plus de problème d’inversion de système. Le schéma ci-après représente la logique de ces analyses.

Y=F(X)

Hypothèses Process

Y

X Fiabilité

prévisionnelle et validation

conception

Produit&Process

Tolérances portées au

Plan

Ce qui est proposé est simplement d’étendre ce schéma de fonctionnement en remplaçant les hypothèses « Bureaux d’Etudes » par les observations du réel faites en Usine.

Y=F(X) X Y

Fiabilité Anticipée et gestion des dérogations Mesures du

réel sur les procédés

pilotage

La mise à disposition des modèles Y=F(X) pour le Fabricant permet de ne plus subir le contrôle des X en boucle ouverte et d’anticiper grâce à l’inférence rendue possible, les

problèmes de qualité pour le client. La réalisation des modèles reste la mission et la responsabilité des équipes R&D et de Méthodes, c’est leur métier. Les personnels des usines, ici en particuliers les responsables qualité, grâce à l’accès à ces modèles vont pouvoir pour effectuer des simulations, évaluer des risques, construire des décisions, et enfin réaliser pleinement leur métier de pilotage des procédés. Pour effectuer ces tâches dans l’environnement qui est le leur, ils vont devoir être outillés convenablement, c’est-à-dire être connectés aux serveurs de données et disposer des logiciels adaptés à leur métier et leur environnement

Les perspectives ouvertes par ce dispositif sont :

• Aide à la mise au point en phase de lancement.

• Réduction des rebuts au niveau des composants : on ne jette pas des composants qui marchent !

• Réduction des rebuts au niveau des systèmes assemblés : on n’assemble plus des composants qui ne se marient pas !

• Réduction des coûts de contrôle fin de chaine lorsque les prévisions sont au vert, réactivation du contrôle lorsque des risques sont détectés.

• Adaptation des fréquences d’échantillonnage en fonction des risques évalués.

• Management prédictif de la maintenance.

• Autonomie des usines d’assemblage dans la gestion des dérogations.

Il est bien sûr toujours préférable de maintenir une vision statistique sur tous les composants, par une mise en place de la SPC (Maitrise Statistique des Procédés), pour disposer à chaque instant de données objectives, mais il est aussi possible d’éclairer des décisions dans des situations où des données manquent. L’usage des statistiques Bayésiennes permet en effet de prendre en compte les données disponibles incomplètes et de conserver pour les paramètres sur lesquels des données manquent, les hypothèses construites initialement en R&D en accord avec les « spécifications » établies.

V. PERSPECTIVES NOUVELLES OFFERTES PAR LES MODELES ARBORESCENTS DE L’INGENIERIE DES SYSTEMES

Un modèle Y=F(X) simple, gère la relation entre le critère Y client étudié et les paramètres X influents, caractéristiques composants ou paramètres process. Tous ces X sont alors placés au même niveau, comme s’ils entraient en jeu dans le système de la même manière, au même moment. Cette vision est mathématiquement « satisfaisante » : les calculs statistiques attendus sont correctement réalisés, mais ce type de modèle ne rend pas compte de la réelle structure du produit, de son assemblage, tant du point de vue physique, que temporel.

Généralement dans l’industrie, des composants primaires sont d’abord fabriqués, puis assemblés par étapes successives en sous-ensembles, pour constituer peu à peu le système complet. Il est évidement opportun, voire stratégique, de placer des contrôles à des points intermédiaires du process pour détecter au plus tôt des défauts et éviter l’apport vain de valeur à des composants ou sous-ensembles défectueux qui finiraient au rebut. On perçoit alors le besoin d’une démarche rationnelle pour gérer cette situation.

(9)

L’Ingénierie Système a développé des méthodes et des outils pour fédérer la conception et la validation des systèmes complexes, structurer et intégrer les apports des différents métiers et intervenant contributeurs. Des standards comme l’IEEE 1220 et l’EIA 632 proposent des méthodes pour organiser des activités clefs comme le management des exigences à partir du besoin client, les analyses fonctionnelles du point de vue interne, la synthèse d’architecture, et la validation. Le système est découpé en sous-système, les exigences sont alors déclinées jusqu’aux composants à travers des structures fonctionnelles arborescentes [10] & [11]. Si les mises en œuvre classiques sont généralement orientées conception, l’esprit de l’ingénierie système n’interdit en rien de considérer comme système « l’outil de production dont il faudrait assurer le pilotage », avec des objectifs de qualité et de rentabilité, le produit n’étant alors plus considéré comme une unité mais comme un flux. La conception conjointe du produit et des procédés ne serait alors plus le but, mais un moyen, un ensemble de paramètres disponibles.

Ce point de vue est en accord avec les principes de l’IS, mais réclame néanmoins quelques aménagements pour sa mise en œuvre. Les « arbres fonctionnels » envisagés classiquement du point de vue du fonctionnement du produit, et à des fins de conception, doivent ici être adaptés pour correspondre à la réalité physique des procédés être le reflet de l’« arbre d’assemblage », pour révéler l’histoire du « produit en train de se faire ». Les X doivent ensuite correspondre à des caractéristiques mesurables, dont les valeurs individuelles doivent être déterministes de la performance sur les Y, et dont les grandeurs statistiques (moyennes et écart-types) doivent permettre une inférence « prédictive » sur les critères résultants pour les populations de pièces considérées. Certaines grandeurs non signées souvent associées à des exigences GD&T pour traiter de conformité ne sont alors plus appropriées.

La structure arborescente Y=F(X) devant être construite est finalement celle reflétant la combinaison réelle les causes X qu’il s’agit de piloter pour maitriser l’effet Y pour le client. Il faut aussi avoir identifié les X sur lesquels une action corrective est possible, le modèle devenant l’élément clef du pilotage en proportionnant l’action adaptée sur les X appropriés en fonction de l’effet attendu.

Y X1

Procédé X10=f(x)

X2 X3 Sous Système

X1=f(x)

Critère de Performance

Y=f(X) Sous

Système X3=f(x) x10

x11

x101

Niveau Système

Procédé X2=f(x) x21

x31

x32

Pour savoir que l’on peut assembler sans crainte, il n’est pas nécessaire de disposer au même instant de toutes les données jusqu’au niveau le plus profond. Dans l’exemple ici représenté, savoir que X1, X2 et X3 satisfont leurs exigences suffit pour aborder l’assemblage final avec confiance, et il n’est

nul besoin de requérir la conformité des X plus en amont. Par contre, si un problème est détecté sur l’un des maillons primaires, l’action de pilotage sera déterminée grâce à l’arbre par la recherche de la cause plus profonde. Dans notre exemple, l’enquête ne se dirigera peut être pas dans la même usine si le problème est observé sur X1, X2 ou X3.

L’arborescence permet aussi de gérer plus intelligemment les alertes montantes, qui peuvent être stoppées à un niveau intermédiaire permettant de démontrer que le problème amont est sans conséquence sur le client. La production n’a alors pas lieu d’être perturbée plus en aval.

Construite à cette fin, la structure arborescente Y=F(X) peut devenir le « délivrable » le plus important que peuvent offrir un Bureau d’Etudes et un Bureau des Méthodes à leurs Services de Production : la véritable plateforme de pilotage des procédés au service de satisfaction des clients et de la performance industrielle.

Pour rendre cette aventure possible, nous avons aujourd’hui tous les outils : des langages adaptés à l’approche système, des logiciels en technologie Web apportant à chaque utilisateur la version adaptée à son besoin, des serveurs connectés assurant le partage des modèles, des données, et des résultats… Nous pouvons construire ce pont nécessaire entre les centres R&D et les Usines, les faire coopérer à ces 2 objectifs communs que sont la satisfaction des clients et la rentabilité de l’activité, en donnant aux producteurs la visibilité sur les critères de satisfaction des clients et l’accès aux fonctions transferts entre les paramètres pilotables et ces critères de jugement, et en ouvrant aux centres R&D la vision sur le réel des procédés.

REFERENCES

[1] Thornton A. C., “A Mathematical Framework for the Key Characteristic Process”, Research in Engineering Design n°11, Springer-Verlag London, 199, pp 145–157

[2] Pillet M., “Améliorer la productivité, déploiement industriel du tolérancement inertiel”, Editions d’Organisation, Eyrolles, Paris, 2010 [3] ASME Y14.5, Dimensioning & Tolerancing, American society of

Mechanical Engineers, 2009

[4] Bisgaard S. & Graves S.: “Quality Quandaries, A Negative Process Capability Index from Assembling Good Components. A Problem in Statistical Tolerancing”, CQPI Report n°160 April 1997. Published in Quality Engineering, 1997-1998, Vol. 10, No. 2.

[5] Graves S. & Bisgaard S. : “Five ways statistical tolerancing can fail and what do about them”, CQPI Report n°159 September 1997.

[6] Judic JM, “Process Tolerancing: A new statistical tolerancing method for industrial processes not daily adjustable in mass production. Proposal of an improvement to Wayne Taylor’s method”, Proceedings of IDMME, Virtual Concept, Bordeaux, Octobre 2010, in Research in Interactive Design, Vol.3, X. Fischer & J.P. Nadeau, Springer-Verlag France, 2011.

[7] Greenwood W.H & Chase K.W. « A New Tolerance Analysis Method for Designers & Manufactures » , Transaction of the ASME : Journal of Engineering Industry n°109 p 112-116, may 1987

[8] Mansoor E.M. « The Application of Probability to Tolerances Used in Engineering Designs », Proceeding of the institution of Mechanical Engineers, 178.1.1 p28-51, 1963

[9] Taylor W.A., “Process tolerancing: a solution to the dilemma of worst- case versus statistical tolerancing”, Fall Technical Conference, 1995 [10] IEEE 1220-2005, Standard for application and Management of the

Systems Engineering Process

[11] Meinadier J.P., « Ingénierie et intégration des systèmes », Hermès, 1998

Références

Documents relatifs

Le gone du Chaâba est comme nous l’avons déjà présenté, est le premier roman d’Azouz Begag dans lequel, il raconte avec tendresse et humour ses aventures

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

The central lesson from our theoretical foray is the following: it cannot be assumed that collective production is justified as soon as insurance markets are incomplete and agents

configurations : pas du réseau, teneur, épaisseur de gaine. Ces derniers sont caractérisées par les bilans matière, les tolérances géométriques et les différentes erreurs

Deux applications sont présentées dans cette section afin d’illustrer les capa- cités d’un schéma d’optimisation fiabiliste à répondre au problème de la synthèse

 InterPro analysis: the Proteome Analysis pages make available InterPro-based statistical analysis of each of the proteomes, like general statistics (matches per genome and the

Last but not least, has been the availability of an international French speaking registry specialized in the follow up of PD patients in French speaking countries (France,

λΠ-calcul modulo HOL0 qui ne sont la traduction d’aucun type, terme, ou preuve de la théorie des types simples. Heureusement, on peut les réduire pour arriver à quelque chose de