• Aucun résultat trouvé

2 Cas d’étude 2D : Assemblage de poutres nomi- nomi-nalement droites

2.6 Synthèse de tolérances

L’objectif de la synthèse de tolérances est de déterminer des ensembles d’in-tervalles de tolérances qui assurent de la conformité de l’assemblage. Parmi ces ensembles, on pourra choisir celui qui convient le mieux selon des critères de coût de fabrication. Le problème se complique car on cherche maintenant à estimer la réponse de la simulation d’assemblage non plus face à des variations bornées de défauts, mais face à des variations de ces bornes.

Pour ce cas d’application, on réalisera plusieurs analyses successives pour les-quelles des couples d’intervalles de tolérances (ITk

1, IT2k) seront incrémentés et ser-viront à trier des instances de skin-model.

Tout d’abord, il s’agit de générer des instances de skin-model aléatoires et de les ranger dans des collections. Ce tri est fait en fonction de la taille de la zone de tolérance qu’elles respectent. Dans cet exemple, 2000 vecteurs aléatoires (δ1, δ2) et 2000 vecteurs aléatoires (δ3, δ4) ont été générés. Pour chacune des instances de skin-model qu’ils caractérisent, on calcule l’écart maximal Ec1 max et Ec2 max comme dans l’équation 3.5 en page 72.

Ensuite, il s’agit de créer les intervalles de tolérances ITk

1 et ITk

2 caractérisant les collections d’instances. On initialise d’abord IT0

1 = 1mm et IT0

2 = 1mm. Puis

IT1k et ITk

2 sont incrémentés de manière croissante par pas de 1mm, c’est à dire que

ITik+1= ITk i + 1.

À chacun de ces incréments, le tri est effectué en parcourant les listes des écarts maximaux Ec1 max et Ec2 max et en inventoriant ceux qui vérifient l’inéquation 4.11.

ITik

2 < Eci max

ITik+1

2 (4.11)

Cette procédure est répétée jusqu’à ce que les collections obtenues contiennent moins de 100 pièces. De cette manière, on s’assure que pour chaque analyse de tolérance qui sera effectuée, on disposera d’au moins 100×100 = 10000 combinaisons d’assemblage possibles. Sachant que chaque analyse de tolérance sera effectuée avec 1000 simulations, la probabilité de de simuler deux fois le même assemblage sera strictement inférieure à 100−1× 100−1× 999 = 9,99%.

De cette manière, 11 collections pour la poutre de gauche (1mm ≤ ITk

1 ≤ 12mm) et 9 collections pour celle de droite (1mm ≤ ITk

2 ≤ 12mm) ont été obtenues. On retrouve ici la nécessité de bien choisir l’écart-type des contributeurs afin de bien couvrir le domaine d’étude des variations géométriques.

Une fois les instances de skin-model triées, la procédure qui suit est appliquée. Elle est illustrée en six étapes sur la figure 4.6 :

1. On dispose de deux collections d’instances aléatoires triées. 1000 vecteurs aléa-toires (δ1, δ2, δ3, δ4) sont sélectionnés aléatoirement comme expliqué dans le chapitre 2.5 en page 96. On parlera de “zone d’analyse”, représentée en gris sur la figure 4.6.

2. L’analyse de tolérance est effectuée pour cette zone d’analyse avec la méthode de Monte-Carlo, c’est à dire que les 1000 simulations d’assemblages sont réa-lisées et les distributions des quantités d’intérêt αj sont estimées.

3. On choisit ici d’identifier la valeur maximale αj max des quantités d’intérêt obtenues et de l’associer à cette zone d’analyse. On supposera ainsi que les quantités d’intérêt issues des assemblages d’instances conformes à (ITk

1, IT2k) ne dépasseront pas cette valeur maximale. Il s’agit bien entendu d’une ap-proximation dont la fiabilité dépend entre autre du nombre de simulations. 4. On incrémente un intervalle de tolérance (ici ITk+1

1 ). Une nouvelle zone d’ana-lyse est ainsi obtenue et 1000 couples d’instances sont à nouveau sélectionnées aléatoirement. Les écarts maximums Ec1 max et Ec2 max de chacune de ces instances sont donc compris entre le demi-intervalle de tolérance précédent et le nouveau (voir équation 4.11).

5. Les 1000 simulations d’assemblages sont réalisées et les distributions des quan-tités d’intérêt sont estimées derechef.

6. La valeur maximale est identifiée parmi ces nouvelles quantités d’intérêt. On compare cette valeur à celles attribuées aux trois zones d’analyses contiguës dont l’un des intervalles de tolérances est plus petit. On attribuera à cette zone d’analyse la plus grande de ces quatres valeurs. En effet, des pièces apparte-nant à des zones de tolérances d’intervalle ITk

i appartiennent aussi à celles d’intervalle ITk+1

(Quantité d'intérêt)

1 2

3 4

5 6

Figure 4.7: Résultat de synthèse de tolérances.

La figure 4.7 montre le résultat ainsi obtenu. Il correspond à l’approximation de la fonction max(Dymax) = f(IT1, IT2) sous forme d’une surface 3D par interpolation linéaire. Grâce à cette approximation, on peut choisir les valeurs des intervalles de tolérances permettant la conformité de l’assemblage vis-à-vis de ce critère. En traçant une fonction de ce genre pour chaque critère, il est possible d’approximer un domaine de validité des couples (IT1, IT2) afin d’en choisir un convenable.

On peut choisir d’attribuer aux zones d’analyse une autre valeur que le maxi obtenu par simulations. Par exemple si la quantité d’intérêt observée s’avère suivre une loi normale de moyenne µ et d’écart type σ, on peut approximer la fonction

µ ± 3σ = f(IT1, IT2). Cela reviendrait à supposer que pour un couple d’intervalles de tolérances donné, on estime que 99,7 % des cas assemblages ne dépasseront pas la valeur prescrite par la surface d’approximation.

Le temps CPU de calcul pour cette synthèse de tolérances est de 236839 cen-tièmes de seconde pour des liaisons complètes avec prise en compte du contact unilatéral. Effectivement, 9 × 11 = 99 analyses ont été effectuées avec 1000 simula-tions d’assemblage et réactualisation de rigidité chacune. Sachant que le temps CPU de calcul d’une telle analyse a été chiffré à 1822 centièmes de seconde (cf. tableau 4.4), on retrouve un temps CPU de 180378 centièmes de seconde pour 99 analyses. La différence s’explique par le temps perdu pendant les opérations de gestion de la mémoire par CAST3M.

Bref, la synthèse de tolérances par analyses successives est faisable mais extrême-ment coûteuse, d’autant plus que le coût de calcul augextrême-mente de manière exponentielle avec le nombre d’intervalles de tolérances à déterminer. Ici il n’y en a que deux donc le coût de calcul reste raisonnable, et les résultats peuvent encore être représentés graphiquement. Mais pour un problème plus complexe et avec plus de tolérances à chiffrer, la synthèse de tolérances par analyses successives n’est plus envisageable sans tenter de diminuer les coûts de calcul des simulations et des analyses. On se focalisera maintenant sur cet objectif.