• Aucun résultat trouvé

V – Coûts, analyse de la valeur et gestion de la production

Nous voudrions, dans cette section, faire apparaître les limites du contrôle de gestion. Dans un premier paragraphe consacré à l’analyse de la valeur, nous verrons que la maîtrise des coûts de production relève parfois plus des compétences des ingénieurs et des techniciens que de celles des comptables et des contrôleurs de gestion. Le second paragraphe, en abordant la gestion de la production, illustrera le fait qu’un raisonnement économique reposant sur une information nécessairement incomplète ne mène pas obligatoirement à l’optimum économique.

1 Coûts et analyse de la valeur

L’objet de ce paragraphe est moins de faire un exposé complet sur l’analyse de la valeur167 que de montrer les relations étroites existant entre le calcul des coûts et la gestion de la production et, surtout, de combattre un fétichisme du contrôle de gestion. On peut, certes, améliorer la productivité et, plus généralement, les performances d’une organisation en la mettant sous tension. Mais il y a un seuil de tolérance qu’il ne faut pas

167L’expression complète est « analyse de la valeur fonctionnelle ». Bien que plus précise, elle est rarement utilisée. Il existe de nombreux ouvrages consacrés à cette méthode : L.D. MILES, L’Analyse de la valeur, Dunod, 1961 ; Cl. JOUINEAU, L’Analyse de la valeur et ses nouvelles applications industrielles, EME, 1982 ; Jacques LACHNITT, L’Analyse de la valeur, PUF, 1980, « Que sais-je? », n° 1815 ; Sora-management, La Maîtrise des coûts administratifs par l’analyse de la valeur, EME, 1975. D’autres ouvrages abordent cette technique dans un cadre particulier : Pierre BARANGER et Guy HUGUEL, Production, Vuibert, 1987 ; Armand DAYAN, Marketing industriel, Vuibert, 1985.

dépasser, sous peine de déclencher des conflits aigus au point de tout perturber gravement, voire de tout paralyser. Par ailleurs, la mise sous tension ne stimule pas nécessairement la créativité, quand elle ne la tue pas en mobilisant toutes les énergies sur des difficultés purement conjoncturelles. Réaliser des prouesses en matière d’organisation pour produire un article obsolète et invendable n’a jamais été le meilleur moyen de faire fortune.

Pour desserrer l’étau, il faut repenser le produit en fonction de l’évolution des techniques et du marché. « On constate que la conception du produit est pratiquement responsable de 75 % du coût du produit, c’est-à-dire que, lorsque la liasse de développement sort du bureau d’études, le coût du produit est déjà prédéterminé pour 75 % et que les possibilités de réduction de coût ne peuvent s’exercer que sur les 25 % restants. Cette marge constituait en quelque sorte le domaine d’application des techniques de réduction de coût classiques antérieurement à l’apparition des techniques d’analyse de la valeur168. » Plus précisément, dans l’industrie, les responsabilités dans la formation des coûts se répartissent comme suit169 :

Figure 2.19. Responsabilités dans la formation des coûts

Apparue aux États-Unis vers la fin de la Seconde Guerre mondiale (elle fut introduite à la General Electric par L.D. Miles dès 1943), l’analyse de la valeur s’y est développée dans les années 60 de façon décisive lorsque le ministre de la Défense R. McNamara imagina d’inclure dans tous les contrats passés par son ministère avec les fabricants d’armement des clauses leur faisant obligation d’appliquer l’analyse de la valeur avec des modalités d’intéressement financier en fonction des économies réalisées. Lawrence

D. Miles observa à la General Electric des économies pouvant atteindre 20 % du coût d’un produit. L’étude peut porter soit sur des produits existants (value analysis), soit sur des produits encore à l’étude (value engineering)170. En France, des travaux d’analyse de la valeur furent entrepris dès les années 60 dans l’automobile, l’électroménager, l’électronique, l’aéronautique et à la SNCF.

Schématiquement, la méthode consiste à identifier les différentes fonctions d’un bien ou service, à faire une analyse critique de la façon dont les différents composants remplissent ces fonctions (phase dubitative), à imaginer des solutions de remplacement (phase imaginative) et, enfin, à examiner la cohérence des différentes modifications que l’on souhaite retenir (phase évaluative).

L’identification des fonctions constitue le « noyau dur » de la méthode. On distingue deux grandes catégories de fonctions :

• Les fonctions principales

Ce sont celles pour lesquelles le produit est effectivement conçu. Par exemple, la fonction principale d’un interrupteur est de couper et fermer un circuit électrique. Il peut y avoir plusieurs fonctions principales. Ainsi, des verres correcteurs teintés doivent à la fois corriger la vue et protéger l’œil de la lumière du soleil.

• Les fonctions secondaires

La qualification de secondaires affectée à ces fonctions ne signifie aucunement que l’on peut les négliger. Au contraire, les fonctions secondaires doivent être impérative-ment satisfaites, comme les fonctions principales, mais elles ne constituent pas la raison d’être du produit. Dans le cas de l’interrupteur, celui-ci doit être isolé,

168LACHNITT, op. cit., p. 12.

169Ibid., p.11. L’origine de ces chiffres n’est pas précisée.

170Ces deux termes n’ont pas encore reçu de traduction française.

mais il est évident que l’on ne réalise pas un interrupteur pour qu’il soit un isolant ; la fonction isolation est une fonction secondaire.

On peut distinguer plusieurs types de fonctions secondaires :

– les fonctions de construction, imposées par la nécessité de pouvoir réaliser le produit avec les technologies existantes. Par exemple, pendant longtemps, on n’a pas su équiper les roues des voitures de pneus sans chambre à air ;

– les fonctions de contrainte, imposées par des règlements et des normes. Par exemple, les phares d’une voiture doivent être montés à une certaine hauteur du sol et posséder des caractéristiques bien précises ;

– les fonctions d’estime, qui sont toutes les fonctions liées à l’esthétique du produit : chromes ne servant à rien d’autre qu’à la décoration, etc. ;

– les fonctions inutiles, qui sont en fait fort nombreuses. Dans l’industrie, ce sont souvent les pièces superflues ou dont les tolérances sont trop serrées, c’est-à-dire inutilement sévères. Ces « marges de sécurité » ne sont souvent que des « marges de tranquillité » ! Par exemple, alors qu’autrefois on mettait souvent cinq boulons et parfois plus pour fixer une roue de voiture, on n’en met plus aujourd’hui que quatre au maximum et souvent trois, sans que le nombre d’accidents causés par le détachement d’une roue ait augmenté. Dans un autre domaine, un fabricant d’appareils électroménagers montait des moteurs électriques conçus pour durer deux à trois fois plus longtemps que l’espérance de vie de l’appareil lui-même. Il a donc équipé ses appareils de moteurs moins solides et moins chers mais dont la solidité était encore largement suffisante pour que l’utilisateur ne perçoive pas cette baisse de qualité.

En matière de travaux administratifs, la construction de diagrammes de circulation de documents (flow charts) permet de mettre en évidence des fonctions inutiles. Ce serait par exemple le cas du classement de plusieurs copies d’un même document en des endroits différents selon le même critère (ordre numérique, alphabétique, etc.).

Après avoir donné cette définition des différentes fonctions, il est plus aisé de comprendre ce qu’est l’analyse de la valeur. Il s’agit d’un processus de travail qui permet « de réaliser le produit optimal, c’est-à-dire celui qui satisfait les fonctions nécessaires et elles seules pour le coût minimal171 ». L’« objectif est donc de trouver le compromis optimal entre le coût et les fonctions d’un produit, tout en assurant un niveau de qualité nécessaire et suffisant172 ».

Les termes de valeur et de coût reviennent constamment. En ce qui concerne la valeur, il s’agit de valeur d’usage. Deux articles qui remplissent les mêmes fonctions principales et secondaires ont la même valeur d’usage. Quant à la détermination des coûts, elle pose des problèmes classiques étudiés ci-dessus dans les chapitre 1 et 2. « Il serait illogique de faire dépendre le choix économique entre deux solutions techniques différentes des taux d’activité des différentes sections de production, parfois relative-ment variables au cours du temps, et dont le niveau à l’époque où le produit sera en production est inconnu. Pour éviter cet inconvénient, les coûts de production sont déterminés pour les études d’analyse de la valeur en supposant un taux d’activité uniforme pour toutes les sections ; ce taux peut être égal au taux potentiel maximal de la section, ou à un certain pourcentage préalablement fixé de ce taux, par exemple 80 %173. Dans le même ordre d’idées, il faut noter que, si une analyse de la valeur fait apparaître une possibilité de réduction de temps, l’économie réalisée n’est pas automatiquement égale au produit du gain de temps par le taux horaire correspondant. [...] L’économie ne correspond qu’au montant des dépenses directes174175. »

En conclusion, à travers cette présentation schématique de l’analyse de la valeur, nous voudrions souligner une fois de plus que la gestion constitue un tout. Bien gérer c’est s’assurer d’un système de contrôle de gestion efficace mais faire aussi de la gestion de production, de la gestion commerciale, financière, etc. Et surtout, c’est savoir faire preuve d’imagination pour trouver des solutions originales, anticiper les évolutions de la demande et, finalement, être toujours le premier ou l’un des seuls à proposer tel type de bien ou service susceptible de satisfaire un besoin. L’entreprise peut alors réaliser une sorte de rente de monopole souvent bien supérieure à ce que l’on peut attendre d’un gain de productivité quelconque. La mise sous tension du seul appareil de production n’est pas le seul levier sauf dans les secteurs traditionnels, produisant des biens totalement banalisés et où la concurrence ne se fait que par les prix.

171LACHNITT, op. cit., p. 15.

172Ibid., p. 27.

173Il s’agit de neutraliser les écarts sur activité grâce à l’imputation rationnelle des charges fixes.

174LACHNITT, op. cit., p. 23.

175

Les dépenses directes sont supposées ici variables, ce qui, comme nous l’avons vu, n’est pas nécessairement le cas. De façon plus rigoureuse, nous dirions que la réduction d’activité n’entraîne pas une économie égale au coût complet des biens que l’on a renoncé à produire mais équivalente à leur coût marginal.

2 Coûts et gestion de la production

L’objectif n’est pas d’étudier tous les apports des calculs des coûts à la gestion de production mais, à travers quelques exemples, de montrer que les données comptables qui réduisent nécessairement la complexité des situations réelles et les déforment peuvent, de ce fait, conduire à des solutions ne correspondant pas à un optimum.

1. L’EXEMPLE DE LA GESTION DES STOCKS

Conserver un stock important apporte bien des avantages : moins de ruptures d’approvisionnement (matières premières), délais de livraison réduits (produits finis), possibilité de remplacer sans délai les pièces défectueuses, production par lots importants, ce qui permet de réaliser des économies d’échelle, frais administratifs moins élevés, lorsque les approvisionnements sont moins fréquents même s’ils portent sur des quantités plus importantes, etc. Inversement, conserver un stock important coûte cher : frais financiers du fait d’un décalage plus grand entre les dépenses liées à la production et les recettes des ventes, coût du stockage physique (amortissement des bâtiments, gardiennage, électricité, etc.), augmentation des risques de mévente ou de détérioration physique des produits, etc. On estime que le coût annuel d’un stock peut être égal à 30 % de sa valeur ou plus dans de nombreux cas. Bref, quand le stock est trop faible, les coûts de transaction augmentent et, quand il est trop fort, ce sont les coûts de possession.

Un des premiers à avoir recherché « scientifiquement » un optimum fut Wilson, qui, en 1929, proposa son modèle de gestion des stocks. Il donne la fréquence ou le volume optimal des approvisionnements pour réduire au minimum le coût total de la fonction « stock », égal à la somme des coûts d’approvisionnement et de possession au cours d’une période. On désigne par :

D : la demande annuelle en quantités de l’article stocké ;

a : le coût d’achat unitaire, indépendant des quantités commandées ; N : le nombre de commandes par année ;

A : le coût fixe d’approvisionnement supporté à chaque commande (coût de transac-tion) ; t : le coût de possession du stock exprimé en pourcentage de sa valeur ;

S : le coût annuel de la fonction stock. Le coût d’acquisition du stock est égal à :

Le stock moyen est égal à la moitié de la quantité commandée à chaque fois en supposant le stock résiduel nul à chaque livraison et la consommation parfaitement linéaire :

N

L’étude de cette fonction montre qu’elle passe par un minimum lorsque sa dérivée première par rapport à N devient nulle

On obtient ainsi le nombre annuel de commandes et, par conséquent, le niveau du stock qui minimise le coût total S176.

La pratique récente de certaines entreprises contredit cette théorie du compromis. Il est moins coûteux, lorsque cela est possible, de supprimer le problème du stock optimum... en supprimant le stock ! Cela suppose que les fournisseurs puissent vous approvisionner juste-à-temps177, sans aléa sur les délais de livraison, que la main-d’œuvre et les machines soient polyvalentes et puissent être transférées sans délai et à faible coût sur une autre

176C’est ce que l’on désigne aussi par la « quantité économique » (Economic Order Quantity – EOQ).

177Just-in-time inventory system, ou JIT.

production en cas de rupture des approvisionnements. De plus, le « zéro-stock » libère de l’espace (parfois près de 50 % des surfaces disponibles !), ce qui permet une extension peu coûteuse des capacités de production. Bref, pour parvenir à cette solution, il fallait imaginer un environnement de la production totalement différent et auquel les modèles comme celui de Wilson ne conduisent pas, puisqu’ils reposent sur des données comptables qu’ils ne remettent pas en question. Le stock dissimulait des problèmes puisque le « délai « et le « zéro-défaut » aboutissent au « zéro-stock ».

2. FLEXIBILITÉ : DE LA GRANDE SÉRIE AU SUR-MESURE

En lançant la « Ford T », en 1908, Henry Ford révèle au monde de l’industrie ce que peuvent être des économies d’échelle. De fait, ce modèle, standardisé et monté à la chaîne, produit en grandes séries et vendu bon marché178, fut un tel succès qu’il s’en est vendu plus de 15 millions d’exemplaires. Il fut conçu par un homme seul qui ne croyait pas au marketing, mais à l’importance de la qualité du produit et à l’élasticité de la demande par rapport au prix.

La situation est aujourd’hui radicalement inverse dans de nombreux secteurs : le profit se fait sur le marketing, la conception et le design plus que sur les coûts. La marge sur coût de production peut être énorme et sans signification, quand la plupart des coûts sont antérieurs à la production : recherche et développement, investissement en équipement de production, études de marché et investissements commerciaux. Deux contraintes théoriquement incompatibles apparaissent : d’une part, l’adaptation permanente pour suivre les progrès techniques rapides et les variations de la demande (en quantité et en qualité) qui s’oppose, d’autre part, à la production en grandes séries pour « amortir » tous les coûts antérieurs au lancement du produit. La réponse fournie par le calcul économique est la recherche d’un compromis qui ne détourne pas trop la clientèle grâce à une évolution des produits, mais aussi lente que possible pour amortir au mieux les coûts initiaux. La réponse des ingénieurs et des techniciens a consisté à utiliser des « banques d’organes » et à rendre les ateliers

« flexibles ».

• Une banque d’organes est un ensemble de pièces standard, produites en grandes séries mais pouvant être combinées entre elles de différentes façons179. Ainsi, dans l’automobile, chaque constructeur dispose de quatre ou cinq moteurs différents, de quatre ou cinq modèles de carrosseries (3 portes, 4 portes, 5 portes), de plusieurs transmissions (4 vitesses, 5 vitesses et automatique) et de différents niveaux de finition qui, combinés entre eux, peuvent donner naissance à plusieurs centaines de modèles, sans compter les options. Tout en gardant les avantages de la grande série, on peut ainsi faire presque du sur-mesure.

Les ateliers flexibles sont faits de machines polyvalentes interconnectées grâce à un ordinateur et capables de produire des suites d’articles différents sans arrêt de la production. Leur coût est évidemment plus élevé que celui de machines classiques180, mais la demande d’articles personnalisés permet :

– une réduction des coûts de stockage et de manutention (vers le zéro-stock) ; – une réduction des risques pesant sur le stock (obsolescence et détérioration) ; – une amélioration de la qualité, grâce à une plus grande automatisation ; – un meilleur positionnement sur le marché.

Ces quatre avantages sont classés par difficulté de quantification croissante.

En conclusion, nous pensons avoir illustré, à travers ces deux exemples, le fait que le calcul des coûts, la mise sous tension de l’appareil de production ne peuvent conduire qu’à un optimum dans un cadre donné, loin d’être toujours la meilleure solution possible. Cela se vérifie également à propos de la qualité. On a réalisé, dans les années 80, que, la qualité totale coûtant moins cher que le compromis traditionnel coût-qualité, selon lequel trop de qualité coûterait trop cher à la production et pas assez de qualité coûterait trop cher au service après-vente, la solution se trouvait au juste milieu. La remise en question de l’environnement est le fait d’ingénieurs et de techniciens qui modifieront ainsi les données introduites par les procédures du contrôle de gestion, lesquelles ont tendance à réduire l’avenir à une extrapolation du passé.

178Selon Claude LAMOTTE, « La Ford T », Le Monde du 28-29 août 1988, p. 2 : son prix en 1908 était de l’ordre de 1 000 dollars, soit un prix tout à fait comparable à ceux d’aujourd’hui pour des voitures moyennes.

179Dans le domaine des jeux éducatifs, le Meccano et le Lego fonctionnent selon le principe des banques d’organes. La variété résulte plus des possibilités de combinaisons que du nombre de pièces différentes.

180 Selon Reinhold MAYER, « Computer Integrated Manufacturing Technologies and the Accountant’s View ». Dactylographié, 1988, Universität Stuttgart, p. 6.

VI – Coûts et gestion de la conception :