• Aucun résultat trouvé

Opérationnalisation de la dimension « aptitude à surmonter un dysfonctionnement »163

Partie III : Vers un outil d’analyse de risques en co-développement avec les fournisseurs141

Chapitre 7 . Développement d’un outil d’analyse de risques en co-développement avec les

2. Développement de l’évaluation de criticité

2.2. Amélioration de l’évaluation de criticité suite aux retours du terrain

2.2.3. Opérationnalisation de la dimension « aptitude à surmonter un dysfonctionnement »163

détection dans le projet. Pour cela, cet interlocuteur a préconisé de s’appuyer sur le phasage

des projets de développement. En effet, à l’issue de chacune des phases, des rendus ou

résultats sont nécessaires pour valider le jalon permettant le passage à la phase suivante et s’il y

a du retard, des coûts sont engendrés. De même s’il y a du retard dans la détection d’un

dysfonctionnement, cela peut impacter le passage d’un de ces jalons et augmenter les coûts

encourus. Ces notions ont été également préconisées par les deux équipes projet.

Un autre élément a été suggéré lors de la réunion avec l’équipe projet P1 concernant une notion

de visibilité du dysfonctionnement. En effet, selon l’acheteur projet de cette équipe, « dans le

pire des cas, le dysfonctionnement est presque invisible et détectable très tard dans le projet ».

Lors de la journée de travail, les interlocuteurs ont confirmé la nécessité de prendre en compte

le temps nécessaire à la détection d’un dysfonctionnement.

Nous avons ensuite discuté avec les équipes de notre proposition initiale autour de l’évaluation

de la détection présentée au Chapitre 6. Les praticiens ont confirmé l’idée d’un temps de latence

plus ou moins important nécessaire pour remarquer un dysfonctionnement. Concernant la

notion de visibilité suggérée au cours des discussions, elle est fonction de la présence de signaux

plus ou moins évidents indiquant la présence du dysfonctionnement.

2.2.3. Opérationnalisation de la dimension « aptitude à surmonter un

dysfonctionnement »

Il s’agit ici d’adapter la dimension « occurrence » dans les évaluations de criticité classiques à

notre contexte. Des premiers éléments ont déjà été présentés au Chapitre 6 et les interactions

avec les interlocuteurs industriels viennent les compléter pour arriver au terme que nous avions

suggéré à savoir l’aptitude.

Le premier terme utilisé pour cette dimension a été celui de la « maitrise » suggéré par le

responsable qualité du projet P1. Il s’agit d’une dimension propre à l’entreprise voire à l’équipe

projet qui traduit le niveau de maitrise détenu par l’équipe projet face au dysfonctionnement. Au

sujet de cette dimension, l’équipe projet P2 avait suggéré l’évaluation suivante :

Maitrise 10 : Aucune expérience ou compétence relative à ce point

Maitrise 7 : Légère expérience, quelques compétences

Maitrise 4 : Bonne expérience

Maitrise 1 : Maitrise totale

L’équipe projet P1 y a vu une notion de ressources possédées ou non face au

dysfonctionnement considéré. Il s’agit de la capacité à faire face à un dysfonctionnement s’il

se présente. La notion de ressource interne et externe à l’équipe projet a également été

abordée. La maitrise est-elle obtenue par des compétences seulement internes à l’équipe projet

De cette manière, suite à nos discussions issues du groupe de travail et des discussions chez

Somfy, la détection a été définie de manière collégiale comme traduisant « la période de

latence pour observer le dysfonctionnement et la visibilité du dysfonctionnement ». L’exemple

donné par l’acheteur projet concernant « le pire des cas » a été pris comme référence lors des

discussions autour de la définition de l’échelle de mesure propre à cette dimension.

164

ou également par celle externes à l’équipe et relatives au management par exemple. En fait,

selon l’acteur qualité de l’équipe projet, « il s’agit de savoir si nous avons un bras de levier à notre

disposition ou pas, si nous avons une prise face au problème ». En effet, comme renchéri par

l’acheteur projet, « parfois, on saurait faire face mais nous n’avons pas la main, cela relève du

management ».

Concernant cette dimension, les praticiens ont admis l’impossibilité de définir des probabilités

statistiques d’occurrence des dysfonctionnements dans notre cas étant donnée la nouveauté du

sujet et le manque de recul sur l’observation des dysfonctionnements considérés. Ils ont

également approuvé que la notion d’aptitude à surmonter un dysfonctionnement est plus

adaptée que l’occurrence dans le cas spécifique des dysfonctionnements rencontrés en

co-développement avec les fournisseurs.

En outre, ils ont mis en exergue que cette notion se trouve en fait liée à l’occurrence mais

davantage dans une perspective de prédiction. En effet, si l’équipe projet est capable de

surmonter le dysfonctionnement, alors son occurrence est faible. Cependant, ils ont mentionné

le fait que les compétences de l’équipe projet ne sont pas toujours suffisantes pour surmonter

certains dysfonctionnements. Ceci impacte également le temps de traitement, notion que nous

avions soulignée pour cette dimension au Chapitre 6. Ainsi, comme mentionné par l’acheteur

projet de l’équipe projet P1, parfois l’équipe dispose des compétences requises pour surmonter

un dysfonctionnement mais n’est pas sure d’être capable de les mobiliser ou bien de les

mobiliser dans un délai suffisamment court. Par ailleurs, comme mentionné toujours par cet

acteur, « parfois, nous avons besoin de l’intervention de la direction achats mais cela est rendu

difficile en raison d’aspects stratégiques liés à la relation avec le fournisseur concerné ». Par

exemple, des négociations en cours sur un autre projet ou pour un problème

d’approvisionnement avec ce fournisseur rendent parfois délicate l’intervention du management

pour le projet. Dans ce cas, l’équipe projet sait exactement les compétences extérieures qui sont

à mobiliser mais ne peuvent garantir que ce sera possible.

2.2.4. Discussions autour d’éléments relatifs à l’évaluation globale de criticité

Au-delà des dimensions considérées de manière individuelle, des discussions d’ordre plus

général ont été conduites afin de faire évoluer la proposition d’évaluation de criticité initiale

(Figure 7-2) dans son ensemble. Pour cela, les deux équipes projets ont été mobilisées et des

discussions ont eu lieu concernant les éventuels points à modifier. Une présentation a également

été faite aux acteurs qualité projet P1 et qualité fournisseur de l’entreprise Somfy afin de

bénéficier de leur retour et de viser également une diffusion de l’outil pour la suite. Deux avis

externes ont également été possibles. Le premier est celui de la personne issue de l’entreprise

En tenant compte de tous ces éléments, le terme plus général d’aptitude a été introduit pour

cette dimension. Cette dernière représente « l’aptitude de l’équipe projet à surmonter le

dysfonctionnement grâce à ses propres compétences ou en mobilisant les compétences externes

nécessaires ». Les éléments considérés lors des discussions ont également servi pour la

définition de l’échelle de cotation de cette dimension d’aptitude. Nous avons donc considéré

l’indépendance en termes de périmètre d’action et de compétences de l’équipe projet face au

dysfonctionnement s’il se présente. En particulier, est-il nécessaire de faire appel à un acteur

externe au projet ? Le temps de traitement est-il raisonnable ?

165

externe dans le secteur électronique et le second avis provient de l’entreprise E3. Les modalités

de ces retours sont présentées ci-dessous.

Retours des équipes projets :

Les équipes projets ont fait remarquer qu’en donnant le même poids à chacune des cinq

évaluations (trois pour la gravité, une pour la détection et une pour l’aptitude), la gravité a un

poids trop important en comparaison des deux autres dimensions de détection et d’aptitude.

Une solution envisagée serait de faire une moyenne des trois sous-évaluations constituant la

gravité afin que cette dernière ait le même poids que la détection et l’aptitude dans le calcul de la

criticité. Cependant, cette solution va lisser les résultats de la gravité et ne permettra pas de

savoir sur quelle dimension de la gravité (efficacité, relation avec le fournisseur, efficience)

porte l’impact le plus important. En effet, les membres des équipes ont renouvelé leur volonté de

conserver les trois évaluations pour la gravité (efficacité, relation avec le fournisseur et

efficience) car cela permet réellement d’affiner la notation et ensuite les actions de prévention

en considérant les sous produits et donc d’être plus efficaces dans le traitement des plans

d’action. Concernant ces actions préventives, ils ont insisté sur la nécessité de définir des

porteurs d’action pour chacune d’entre elles car ils sont déjà tellement chargés en termes de

travail que si les choses ne sont pas clairement réparties, elles ne seront tout simplement pas

faites.

En outre, une remarque a été faite concernant l’importance du chiffre issu du calcul de

criticité résultant de la multiplication de cinq évaluations. Comme le soulignent Otto & Wood

(2001), si l’indice de criticité reste relativement linéaire pour les faibles évaluations, la

différence entre les criticités avec de hautes évaluations des différentes dimensions devient de

plus en plus importante. Néanmoins, il est généralement convenu que la criticité représente un

moyen de comparaison davantage qu’une valeur « absolue ». Il n’y a pas réellement de valeur

cible pour la criticité et les dysfonctionnements peuvent survenir quelle que soit l’évaluation

obtenue. La vraie question est de savoir quel est le risque que l’équipe projet ou l’entreprise veut

prendre (Otto & Wood, 2001). De plus, comme le font remarquer Pfohl, et al. (2010), « le

management des risques de la chaine logistique ne fonctionne pas simplement en appliquant une

série de méthodes. Il s’agit davantage d’une philosophie qui est supposée être profondément ancrée

au sein de l’entreprise et de la chaine logistique »

24

.

La question de mettre à jour l’évaluation de criticité durant le projet a également été

soulevée. En effet, le management des risques est un processus dynamique (Wagner & Bode,

2008) et les probabilités d’occurrence d’événements non souhaités peuvent évoluer dans le

temps tout comme l’impact de ces événements (Hallikas, et al., 2004). Pour cette raison,

plusieurs évaluations de criticité durant le projet de co-développement sont recommandées. Les

moments appropriés de ces nouvelles évaluations sont à définir selon le processus de

développement de produit de chaque entreprise. En effet, contrôler ces risques au moment

opportun est nécessaire pour le bon déroulement des projets. Cela permet de fournir des

alarmes relativement tôt lorsque les niveaux de risques sont sur le point d’augmenter et de

donner ainsi aux entreprises le temps de réagir à ces circonstances changeantes en modifiant

24

Citation originale : “supply chain risk management does not work simply by applying a number of methods. It

rather is a philosophy that is supposed to be deeply rooted within the company and the supply chain”

166

leurs stratégies (Hoffmann, et al., 2012). Peu d’auteurs soulignent l’importance de contrôler les

risques de manière proactive et de façon régulière (Dani, 2009; Hallikas, et al., 2004; Norrman &

Jansson, 2004). Il s’agit également d’un processus très chronophage et les entreprises ne sont

donc pas en mesure de l’appliquer à tous les risques auxquels elles font face de manière aussi

complète (Hoffmann, et al., 2012). Le principal défi du management des risques est de trouver

l’équilibre optimal entre le coût d’accepter de prendre un risque et celui de l’éviter.

Le travail autour de l’évaluation de la criticité des dysfonctionnements fait avec les équipes

projet était particulier dans la mesure où les évaluations ont été faites de manière a posteriori

puisque les fournisseurs ont déjà été choisis et que les collaborations sont bien avancées. Les

membres des équipes ont ainsi remarqué que pour certains dysfonctionnements, leur évaluation

aurait été totalement différente s’ils avaient évalué au tout début du projet. « Là on a tendance à

vouloir refaire l’histoire finalement mais on se rend aussi compte qu’on est passé peut être à côté de

certains éléments ou du moins qu’on les a sous-estimés » (concepteur projet P2). En outre, des

divergences d’évaluation selon les métiers ont été observées selon les problématiques

propres à chaque métier.

L’idée de pré-remplir certaines évaluations comme la gravité comme déjà abordé n’a pas

paru très judicieuse au risque d’influencer les équipes car chaque projet est différent de par ses

enjeux, son contexte et les personnes concernées. En revanche, les équipes étaient volontaires

pour remplir entièrement l’outil selon leur projet et leur expérience de développement de cet

outil dans l’objectif de fournir un exemple aux équipes qui rempliront cet outil pour la

première fois.

Retours externes :

L’entreprise E3 a été mobilisée. Cette proposition d’évaluation de criticité a été présentée à un

directeur achat projet d’une ligne produit et à un responsable qualité spécialisé dans les

démarches AMDEC. Les résultats de cet échange nous ont confortés dans le choix de notre

proposition d’évaluation. Des remarques d’ordre général ont été faites. Tout d’abord concernant

le choix d’avoir cinq évaluations (trois pour la gravité, une pour la détection et une pour

l’aptitude), aucun problème n’a été perçu sur la charge de travail alors engendrée car « de toute

façon, faire une AMDEC, cela prend du temps, tout le monde le sait ! » (responsable qualité).

Ensuite, sur le sujet abordé initialement de figer certaines évaluations, notamment celle de la

gravité dans l’outil final, l’idée ne semble pas négligeable selon l’interlocuteur achat qui pense

qu’il « ne faut pas trop laisser les gens dans le créatif ». En revanche, selon l’acteur qualité, il est

préférable de ne pas pré-remplir les évaluations car les éléments changent tellement d’un

projet à l’autre et cela risque d’influencer les équipes et de les écarter de la réalité de leur

projet. Eventuellement, un outil exemple déjà entièrement rempli peut servir de modèle

pour les gens peu familiers avec l’outil dans la phase de sa mise en place. En outre, ils ont bien

insisté sur la nécessité de réactualiser les évaluations en cours de projet afin de réajuster les

plans d’action. Enfin, ils nous ont recommandé d’être bien clairs sur le moment exact

d’utilisation de cet outil lors d’un projet de co-développement et sur qui était l’acteur

responsable de l’outil c'est-à-dire le porteur de l’outil au sein de l’équipe ou de l’organisation

en général.

Un spécialiste qualité issu d’une autre entreprise du secteur électronique a également été

sollicité pour bénéficier de son retour concernant cette proposition d’évaluation. Tout d’abord, il

a jugé notre démarche très intéressante, novice et correspondant tout à fait aux problématiques

167

actuelles auxquelles les entreprises font face. Par ailleurs, il nous a suggéré, dans le calcul de la

criticité, de ne pas négliger le poids de chacun des cinq facteurs. Comme vu précédemment

suite aux discussions avec les équipes projet P1 et P2, nous avions envisagé de faire une

moyenne des trois évaluations de la gravité pour que cette dernière pèse de la même façon que

l’aptitude et la détection dans le calcul. Selon lui, il ne s’agit effectivement pas de la bonne

méthode car alors les trois sous-dimensions de la gravité qui sont d’une grande importance et

traduisent des concepts primordiaux (efficacité, relation avec le fournisseur et efficience) ne

peuvent pas suffisamment s’exprimer. Nous avons échangé avec lui autour des travaux de

Carbone & Tippett (2004) qui ont envisagé des « produits intermédiaires » comme mentionné

au Chapitre 6. En effet, selon ces auteurs, dans le calcul global de criticité, une dimension peut

être tellement forte qu’elle va masquer l’expression d’une autre. Ils recommandent donc de

considérer séparément le calcul global de criticité de celui du « risk score » isolant la détection

du produit « gravité*occurrence » afin de permettre d’affiner les interprétations. Ainsi, dans

notre cas, il serait intéressant pour l’interprétation finale des résultats de considérer non

seulement le produit global avec éventuellement la moyenne générale des trois sous-dimensions

de la gravité mais également les sous produits intermédiaires de la façon suivante :

Efficacité*Aptitude ; Efficacité*Détection ; Relation avec le fournisseur*Aptitude ; Relation avec

le fournisseur*Détection ; Efficience*Aptitude ; Efficience*Détection et Aptitude*Détection. Cette

méthode permet de laisser chacune des dimensions s’exprimer et de ne pas négliger certains

aspects dans l’interprétation des résultats et les plans d’actions engendrés. Cette idée a été très

fortement encouragée par notre interlocuteur.

Retours du responsable qualité du projet P1 :

De manière générale, cet interlocuteur a jugé utile l’outil que nous développions, tout

particulièrement en considérant les difficultés rencontrées avec le fournisseur CAB pour le

développement de la connectique externe

25

. Il n’a pas jugé nécessaire de pré-remplir

certaines évaluations comme la gravité car cela pourrait influencer les équipes et parce que

«finalement l’évaluation du risque n’est pas importante, ce qu’il faut c’est identifier les principaux

risques ». En outre, la possibilité de mettre des poids aux dimensions de la gravité

(efficacité, relation avec le fournisseur et efficience) en fonction du projet et de ses enjeux a

été mentionnée. En effet, parfois, le relationnel avec le fournisseur est très important car il est

prévu de collaborer sur le long terme avec lui et dans d’autres cas, il s’agit d’une unique

collaboration qu’il n’est pas prévu de renouveler donc les enjeux sont différents. Par ailleurs, cet

interlocuteur pense qu’il faut réaliser trois évaluations : une au tout début du projet quand le

fournisseur n’a pas été choisi, une prévisionnelle en fonction du fournisseur pour tenir compte

des actions préventives à envisager et une actualisation en cours de projet. Concernant l’analyse

des résultats et la définition de seuils critiques dans les calculs de criticité au-delà desquels les

dysfonctionnements sont jugés prioritaires, il suggère d’utiliser des Pareto et « de laisser faire le

temps et l’expérience » avec lesquels on verra apparaitre naturellement des limites claires. En

effet, l’idée est d’identifier où se situent 80% des risques les plus critiques et de regarder où se

situe la rupture dans la courbe cumulée des criticités.

168

Retours du responsable qualité fournisseurs de Somfy :

Au départ, cet acteur a eu quelques a priori concernant notre outil car il le voyait « comme un

outil de plus parmi les nombreux déjà existants ». Après avoir longuement discuté et exposé les

enjeux et principes derrière cet outil et après une confirmation du directeur achats, il a mieux

saisi son utilité et la manière dont il peut être intégré à la « batterie d’outils et de tests déjà

existants ». Une de ses réticences résidait dans le fait qu’ils disposent déjà d’outils d’audit

fournisseur très pointus et prenant en compte un certain nombre d’éléments liés au

co-développement. Toutefois, comme souligné par le directeur achats, « les audits sont certes

réalisés par les membres de l’équipe qualité fournisseur mais lorsque les équipes projets doivent

choisir un fournisseur pour un co-développement trois ans après la réalisation de ces audits, les

personnes n’ont plus cela en tête, cet outil doit venir le leur rappeler et faire un focus sur le contexte

spécifique du projet car les fournisseurs ont été audités auparavant de manière générale pour

renter dans la base fournisseur Somfy ». Une des craintes du responsable qualité fournisseur était

aussi que les gens ne sachent pas répondre à certains critères comme par exemple celui

concernant la divergence de langue entre Somfy et le fournisseur. Selon lui, les équipes ayant

parfois des problèmes avec l’anglais vont surestimer ce critère en termes de criticité. Pour le

directeur achats, cet argument n’était pas justifié dans le sens où «s’il y a un problème avec

l’anglais dans l’équipe, il faut se le dire et agir en conséquence ! ». Une remarque a été faite

concernant l’analyse et sa volonté de voir une analyse des risques non seulement en fonction de

leur criticité mais également de leur répartition par classe et sous-classe de dysfonctionnements.

En conclusion de cette discussion, avant toute chose, cet interlocuteur responsable qualité

fournisseur souhaitait confronter l’outil à une équipe ignorant totalement son existence et

débutant un nouveau projet de co-développement afin de se mettre en situation réelle. Il a donc

participé à l’organisation de ce test en situation réelle avec une équipe projet qui est exposé en

dernière section de ce chapitre.