• Aucun résultat trouvé

Expérimentation 1 : validation de la méthode de sélection des outils permettant la

L’expérience précédente montre que les concepteurs lors des étapes d’évaluation ont besoin d’aide pour choisir la meilleure représentation intermédiaire. Nous avons pu voir dans l’état de l’art qu’il existait un grand nombre d’outils d’évaluation de performance disponibles pour les concepteurs, mais qu’il leur était très difficile de choisir les bons dans le cas de projets multidomaines. En raison de ces observations, nous avons proposé une méthode d’évaluation de ces outils que nous avons détaillée dans la section 5.1.2, permettant de quantifier la performance d’évaluation d’outils d'évaluation. Cette expérimentation étudiera seulement trois des quatre paramètres définis pour quantifier la performance des outils d’évaluation.

Comme l’expérimentation 0, celle-ci s’est déroulée lors d’un séjour de recherche à l’école Polytechnique de Turin (juin 2017) au sein du master sustainable engineering. Il y a eu 12 participants et tous étudiants de ce master.

6.3.1 Objectif

L'objectif de cette expérience est de valider la méthode d'évaluation des outils d'évaluation en fonction de trois critères :

• La position dans le processus de conception (DPP) • La facilité d'outil (F)

• Le bénéfice de l’outil (B)

La différence entre cette méthode d’évaluation et celle proposée à la section 5.1.2 est le critère EDC (External data constraint). En effet, lors de cette expérimentation (2017) ce critère n’était pas encore formalisé sous cette forme, et n’a donc pas été pris en compte.

Figure 40 : Méthode d'évaluation des outils

La grille d’évaluation est la même que celle formulée dans la section 5.1.2.

Cette expérimentation a pour objectif de s’assurer de l’objectivité de la méthode d’évaluation des outils en analysant la répétabilité de l’évaluation. Cela nous permettra de fournir le meilleur outil, quel que soit l’objectif du concepteur.

6.3.2 Protocole

Des groupes de quatre étudiants présentent aux autres le résumé d'un article scientifique sélectionné traitant d'un outil d'évaluation des aspects d’innovation et d’impact environnemental. Les étudiants doivent évaluer la position du processus de conception (DPP), la facilité (F) et le bénéfice (B) de chaque outil présenté dans les articles selon la méthode proposée à la Figure 40. Les résultats sont comparés aux résultats obtenus dans la section 6.4.3.

1 Position dans le processus de conception 2 Evaluation de la facilité 3 Evaluation du bénéfice 𝐷𝑃𝑃 𝐵 𝐹 Base de données 𝑜𝑢𝑡𝑖𝑙𝑠 = 𝑓(𝑜𝑏𝑗𝑒𝑐𝑡𝑖𝑓𝑠, 𝑑𝑜𝑚𝑎𝑖𝑛𝑒𝑠)

L’expérience est constituée de trois étapes :

• Chaque groupe d’étudiants avait 3 jours pour étudier et analyser un article traitant d’un outil d’évaluation afin de préparer une présentation montrant la méthode d’évaluation et les caractéristiques des représentations intermédiaires ;

• Chaque groupe présente leur analyse ;

• À la fin de chaque présentation, les étudiants appliquent la méthode d’évaluation.

6.3.2.1 Critères de validation

Le résultat de chaque participant est comparé à l’évaluation obtenue par le référent (l’auteur de cette thèse) pour estimer six paramètres de résultat :

• Nombre de réponses exactes (réponses similaires à l'évaluation de référence)

• Nombre de réponses proches (réponses avec la bonne position dans le processus de conception et la différence entre l’évaluation de référence et le participant est de 1.) • Pourcentage de réponses exactes

• Pourcentage de réponses proches

• Résultat global sur l’ensemble des articles

• Résultat global sur l’ensemble des articles avec réponses proches

Notre analyse des résultats se fera donc sur la valeur de ces 6 paramètres. Si les résultats des participants sont proches de l’évaluation réalisée par le référent, alors nous pourrons en conclure que les critères et la méthode d’évaluation permettent d’obtenir des résultats répétables et donc objectifs.

6.3.2.2 Résultats

Les scores sont présentés dans le Tableau 16. Le résultat global montre que la méthode est relativement simple à appliquer. La principale difficulté présentée par les participants est l’identification de la position dans le processus conception de l’utilisation de l’outil.

Tableau 16 : Résultat de l'évaluation des outils

Analyse du besoin Recherche de concepts Développement Implémentation

F B F B F B F B Article 1 Réponse exacte 10 4 8 8 10 10 11 11 Réponse proche 1 7 0 0 0 0 0 0 Réponse 11 11 11 11 11 11 11 11 Résultat exact 91 % 36 % 73 % 73 % 91 % 91 % 100 % 100 % Résultat proche 100 % 100 % 73 % 73 % 91 % 91 % 100 % 100 % Article 2 Réponse exacte 16 16 17 17 17 17 5 15 Réponse proche 0 0 0 0 0 0 0 2 Réponse 17 17 17 17 17 17 17 17 Résultat exact 94 % 94 % 100 % 100 % 100 % 100 % 29 % 88 % Résultat proche 94 % 94 % 100 % 100 % 100 % 100 % 29 % 100 % Article 3 Réponse exacte 10 10 4 4 0 1 0 0 Réponse proche 0 0 0 0 3 2 2 2 Réponse 11 11 11 11 11 11 11 11 Résultat exact 91 % 91 % 36 % 36 % 0 % 9 % 0 % 0 % Résultat proche 91 % 91 % 36 % 36 % 27 % 27 % 18 % 18 % Global Résultat exact 63 % Résultat proche 69 %

Pour les trois articles (Article 1 : [95] ; Article 2 : [32] ; Article 3 : [96]), nous pouvons observer que le nombre de réponses est de 11 pour chacune des évaluations. Les résultats vont de 0 % à 100 % pour le résultat exact et de 18 % à 100 % pour le résultat proche. Nous avons mis en couleur verte les résultats jugés très corrects (entre 67 % et 100 %), en orange les résultats corrects (entre 33 % et 67 %) et en rouge les résultats mauvais (entre 0 % et 33 %).

6.3.2.3 Conclusion de l’expérimentation

L'expérience valide l’objectivité et la simplicité de la méthode. En effet, l’écart constaté entre les résultats de référence et les résultats des participants s’explique par le fait qu’un grand nombre d’entre eux ont exprimé une difficulté à trouver le bon positionnement des outils dans le processus de conception. Malgré cette difficulté, nous pouvons observer que la différence entre résultat exact et résultat proche est très faible, ce qui montre que les critères de facilité et de bénéfice ont été correctement compris. La limite de cette expérience est donc qu’il aurait été nécessaire de proposer un descriptif détaillé du processus de conception afin de garantir la compréhension des différents états des représentations intermédiaires d’un produit et ainsi faciliter la détermination de la position d’un outil. Cette limite est due au fait que le panel interrogé était étudiant et peu à l’aise dans la compréhension d’un processus de conception. L’expérimentation 1 permet d’éliminer la crainte de la subjectivité de la méthode de sélection des outils. Dès lors, il est possible d’appliquer cette méthode pour la création du MDET aux domaines de l’impact environnemental, de l’innovation et de la fabrication additive pour les phases amont de conception. Cela nous permet donc de valider partiellement les hypothèses 1 et 2 (section 4.2) à savoir que la sélection permettant de créer l’outil d’évaluation n’est pas biaisée par la subjectivité des concepteurs.

Nous pouvons dès à présent proposer la création de l’outil MDET adapté au contexte présenté en section 6.1 à savoir aux domaines de l’innovation, de l’impact environnemental et de la fabrication additive. Cet outil s’intéressera aux phases amont de conception qui ont été présentées en section 2.1.4 comme étant les phases ayant le plus d’influence sur le produit final.