• Aucun résultat trouvé

2.3 Création des dtlm

2.3.2 Choix des méthodes d’optimisation

De nombreuses liaisons mécaniques peuvent donner lieu à un problème d’optimisation simple en paramétrant judicieusement la géométrie du dtlm. Cela peut être facilité par l’introduction de règles empiriques, ou issues d’études, dans l’association des variables. De la finesse des modèles employés dépend la pérennité de la solution proposée. Ainsi, si les modèles sont trop grossiers, ou les coefficients de sécurité adoptés trop importants, on court le risque de s’éloigner de la solution optimale. Une approche par objets tels que les dtlm permet d’utiliser, en fonction du degré de fidélité recherché, des modèles ayant des définitions géométriques et comportementales plus ou moins fines. L’abstraction et l’encapsulation facilitent la substitution d’objets de modélisations plus ou moins fines, sans modifier la structure de données existante.

Nous aurions pu tester d’autres méthodes de recherche de solutions optimales. Les méthodes stochastiques, actuellement en vogue, semblent parfaitement adaptées aux types de problèmes que nous rencontrons (variables mixtes). Au rang de celles-ci nous pouvons citer les méthodes évolutionnistes (algorithmes génétiques,. . . ) ou purement aléatoires (Monte-Carlo). Nous pen- sons cependant qu’il n’est pas opportun d’utiliser de telles méthodes dans le cadre du dimen- sionnement des dtlm pour les raisons suivantes :

– Le nombre de combinaisons engendré par la faible taille des problèmes ne justifie que rarement l’utilisation de méthodes stochastiques. L’emploi de règles visant à diminuer la combinatoire s’avère souvent plus efficace sur une méthode de recherche directe que l’exploration aléatoire complète du domaine des solutions. Bien souvent, pour les problèmes de taille faible, la méthode stochastique s’apparente, de facto, à une énumération complète avec l’inconvénient de pouvoir passer plusieurs fois en revue les mêmes solutions !

– Les méthodes stochastiques sont souvent d’une mise en œuvre complexe. Elles sont sensibles au point (ou population) de départ et au codage des données du problème. Le réglage est souvent long et peut réclamer des modifications si les paramètres viennent à évoluer (nombre de variables, codage. . . ).

– La gestion des contraintes est rudimentaire. Elle recourt à des méthodes de pénalités dont le choix et la mise au point restent délicats.

– Les temps de calcul des méthodes stochastiques sont souvent supérieurs à ceux des mé- thodes traditionelles. Ceci est dû au grand nombre d’évaluations effectuées par l’algorithme. – L’introduction de méthodes stochastiques dans un processus de traitement automatique n’est pas aisé. Ces dernières nécessitent souvent des phases de réglage de paramètres, ainsi que de codage des données qui alourdissent l’ensemble de la procédure.

– Plus fondamentalement, les problèmes que nous rencontrons font appel à des modélisations relativement simples qui sont issues de comportements physiques avérés. Il est donc aisé pour le concepteur de deviner la prépondérance de certains paramètres et leur tendance à évoluer dans le bon sens. Le processus aléatoire ne profite pas de cette connaissance ex-

stochastique bénéficie par définition d’une lisibilité faible pour le concepteur. L’historique de recherche est souvent difficile à exploiter voire inexistant. Dans tous les cas, la recherche d’une solution ne s’appuie ni ne met en évidence aucune « règle » que le concepteur pour- rait mettre ultérieurement à profit (par exemple, tel paramètre ou contrainte est souvent prépondérant dans tel cas d’optimisation).

Pour toutes ces raisons, nous pensons que ces méthodes sont à réserver à des problèmes plus complexes pour lesquels peu d’heuristiques existent.

Les méthodes classiques de gradient peuvent être utilisées dans des cas où le problème ne fait apparaître que des variables continues et des fonctions dérivables sur leur domaine d’existence. C’est notamment le cas pour la liaison par frettage où les paramètres de conception —longueur, diamètre de frettage et éventuellement ajustement— répondent à ces conditions.

La structure de données associées au traitement des dtlm autorise l’utilisation de méthodes d’optimisation propres à chacun d’eux. Il nous est ainsi plus facile de sélectionner la méthode qui s’adaptera le mieux à la nature du problème rencontré (nombre et nature des variables et des contraintes).

La méthode algorithmique de Johnson est intéressante, comme nous l’avons montré dans le cas d’étude présenté ci-avant. Il existe pourtant des limitations à son utilisation. Un point critique est la dimension du problème d’optimisation : le nombre de composantes du vecteur des variables de conception et le nombre de fonctions contraintes. Si la réduction du nombre de variables s’avère difficile et que, de ce fait, ce nombre est supérieur à deux, il est alors nécessaire de tracer des diagrammes à n dimensions, n représentant le nombre de variables de conception, ce qui n’est pas aisé. Par ailleurs, un trop grand nombre de contraintes entraîne une surcharge graphique des diagrammes de variation et par conséquent une mauvaise lisibilité.

Lorsque nous devons traiter des problèmes faisant intervenir des variables discrètes ou en- tières, la méthode algorithmique que nous avons illustrée par l’exemple de la liaison complète, doit être réaménagée. Plusieurs solutions sont envisageables : l’une d’elle consiste à fixer les va- leurs des variables discrètes une par une. On doit alors lancer l’algorithme autant de fois qu’il existe de combinaisons de valeurs discrètes. Une autre méthode consiste à rendre ces variables continues, soit en découpant le domaine d’étude comme nous l’avons fait pour la liaison clavetée, soit en approximant leurs valeurs à l’aide de polynômes de degré plus ou moins élevé, au prix d’une certaine erreur. Une fois les points solutions déterminés dans le domaine continu, il nous reste encore à rechercher les points solutions voisins ayant des valeurs discrètes de ces variables, afin d’obtenir la solution.

L’utilisation d’une méthode d’énumération n’est pas sans intérêt lorsqu’on aborde la création de dtlm ne présentant que peu (ou pas) de variables continues comme la liaison par cannelure (module de denture et nombre de dents) ou la liaison par roulement (composants catalogue). Les progrès de l’informatique permettent actuellement de parcourir très rapidement une base de données à la recherche du composant fournissant la solution optimale en s’affranchissant des contraintes liées aux méthodes d’optimisation traditionnelles. Son traitement algorithmique simple présente également l’avantage d’une maintenance aisée du code : l’introduction ou la suppression de contraintes liées, par exemple, à une évolution du degré de précision de la mo- délisation n’entraîne qu’un minimum de modifications sur le code informatique. La méthode énumérative possède aussi l’avantage de pouvoir fournir l’ensemble des solutions réalisables et non la seule solution optimale. Cette méthode ne doit donc pas être négligée, et mérite d’être considérée dès lors que d’autres atteignent leurs limites.