• Aucun résultat trouvé

CHAPITRE I La régulation à travers deux exemples sur la longue durée : Taylorisme

4. Les années de routine (1930-1970)

Une comparaison, même rapide de notre présentation du Taylorisme et des descriptions usuelles de la crise du système qui porte son nom, laisse entrevoir un certain écart entre la doctrine et les "réalités" qu'elle était censée produire. Ecart parfois trop important pour qu'on puisse l'imputer aux inévitables hiatus qui glisse entre la volonté et l'œuvre (*). Dans ce qui suit, nous nous employerons, donc, à expliquer cet écart, en proposant un schéma explicatif (2) qui insiste sur un

événement dont les effets sur l'évolution du paysage industriel étaient déterminants : l'institutionnalisation du projet Taylorien. Institutionnalisation est à entendre ici au sens suivant : diffusion d'un corps d'instruments de gestion, mise en œuvre massive d'un certain nombre des pratiques codifiées, dont la reproduction mécanique est considérée comme condition suffisante pour le fonctionnement efficace de l'usine. Institutionnalisation qui marque une rupture par rapport à la période précédente, pendant laquelle le projet Taylorien était encore fluide, et les

Ainsi des calculs qui ont été faits aux Etats-Unis dans l'industrie mécanique (1975) ont montré un taux très faible d'usage effectif des machines (de l'ordre de 30% du temps ouvrable) ce qui est vraiment incompréhensible compte tenu de l'attention que le mouvement taylorien avait accordé au problème d'usage des ressources productives, attention consacrée par le développement des outils spécifiques (voir par exemple les fiches individuelles pour chaque machine évaluant son taux d'occupation). De même, la flânerie des matériaux (stock, pièces en attente), reste baignée d'une aura de mystère, étant donné les références explicites des Tayloriens aux effets indésirables du stockage (voir notre Annexe I). On pourrait facilement allonger la liste.

Encore une fois, le schéma explicatif ici proposé ne rend compte que d'une partie de la crise actuelle, celle imputée à la dynamique interne du système, dont les ingrédients principaux ont été réunis au seuil des années 1930 et mis en œuvre massivement après la deuxième guerre mondiale. Ainsi, la crise sociale du "Taylorisme" (réification du travail de plus en plus insupportable aux nouvelles générations de travailleurs) ne sera pas abordée.

70

propositions circulaient entre les membres de la communauté des ingénieurs. De l'effervescence, donc, au repos. C'est vers les pratiques codifiées, insérées au sein de morphologies organisationnelles fixes, que nous nous tournerons à présent afin d'étudier comment une unité < pratiques-acteurs-structures organisationnelles > s'établit et évolue dans le temps.

L'histoire industrielle, bien qu'elle se soit montrée sélective à l'égard de l'utopie façonnée par le mouvement, a retenu au moins une de ces idées nouvelles dont les Tayloriens furent les apôtres : le dédoublement de l'usine en usine abstraite et planifiée, issue du plan et du calcul, et en usine concrète, usine des machines et des hommes en acte. Dédoublement qui instaure des hiérarchies nettes. L'abstrait prime sur le concret qui sera obligé de se plier à ses prérogatives. Comment cette emprise de l'abstrait sur le concret se réalisera-t-elle ? Nous avons vu que les ingénieurs avaient développé un ensemble d'instruments de gestion et de contrôle, qui, détachés de tout usage spécifique et d'un substrat technique particulier, faisaient d'activités disparates un flux de temps et de coûts. Ces instruments de gestion, une fois constitués, sont investis d'une fonction cognitive et agissent comme autant de prismes à travers lesquels les acteurs qui les mettent en œuvre perçoivent et jugent la réalité de la production. Applicables à plusieurs types de production, ces instruments se trouvent à l'origine d'un certain nombre de pratiques codifiées et de règles de conduite, censées optimiser le fonctionnement de l'usine. Petit à petit, la figure de l'ingénieur s'efface des lieux de production, y laisse un corps des règles de gestion marqué par un haut degré d'automaticité et de standardisation. Petit à petit, l'espace de production se fragmente en régions qui s'érigent en acteurs relativement autonomes, prises dans des rapports asymétriques, communiquant selon des procédures et via des canaux spécifiques et régies par leurs propres règles, routinières. Ce sont les outils de gestion à l'œuvre qui dessinent la cartographie de l'ensemble, en distribuant des relations de dépendance et d'assujettissement. C'est à travers eux que nous approcherons donc chaque région- acteur afin de spécifier son rôle dans la totalité. En premier lieu, la fonction qui se trouve au sommet de la pyramide, celle de "Méthodes".

4.1. Méthodes

Cette fonction a comme tâche générale la définition des caractéristiques du processus technique jugé le plus intéressant pour la fabrication d'un produit dont les traits sont définis par les "Etudes" (intéressant est à entendre ici au sens suivant : minimisation de coûts de conception et d'exploitation du processus). Pour y parvenir, les agents de la fonction ont évidemment besoin d'une représentation du processus technique, d'un "résumé" de son fonctionnement, qui fera office de matière première sur laquelle ils vont agir. C'est le rôle des outils de gestion, développés à l'intérieur de la fonction, de fournir ce "résumé" et d'instaurer par là son autonomie institutionnelle. La fonction "Méthodes" est bien armée d'un outil dont la simplicité ne peut que contraster avec ses effets, tant il est vrai que ces derniers sont multiples et importants. Cet outil est le "temps opératoire", c'est-à- dire les temps correspondants à des opérations manuelles élémentaires (par exemple, atteindre, saisir, tourner une vis...), et dont la combinaison avec le temps- machine peut fournir le temps total théorique nécessaire à la fabrication d'une pièce donnée (!) (figure 7). Le temps opératoire, produit d'un formidable travail

d'objectivation, de cumul et de mémorisation, dessine une topographie de l'atelier et sert de carte rassemblant un grand nombre d'informations. Or le propre d'une carte (2) est sa mobilité ; transmise de main en main, la carte transporte devant les

yeux de n'importe qui un paysage non visité, et, par là, elle supprime la nécessité d'une observation directe. Les "temps opératoires" ont, grâce à leur stabilité, la propriété remarquable de pouvoir être transportés d'une situation à une autre, mis en relation, afin de construire et de prévoir des objets-situations inédits, et cela sans que l'agent des "Méthodes" se rende une seule fois sur les lieux de production. Aucune proximité dans l'espace, aucune rencontre de longue durée entre le

Nos remarques sur l'impossibilité de passer d'une analyse positive et descriptive, réalisée à l'aide de l'appareil statistique, à la prescription de temps normalisés, restent évidemment toujours valables. Les "temps

opératoires", issus d'un vaste travail d'observation et d'enregistrement,

entrepris durant les années 1930 (voir Lawry et al., Time and motion Study, New-York, 1940), n'ont qu'une fonction opératoire, sans prétendre à une scientificité quelconque. Ils ne se substituent pas aux "temps réels", mais ils les orientent et les contrôlent. Voir les classiques : Barnes R.M., Etude des

mouvements et des temps, Paris, Les Editions d'Organisation, 1960 (édition

originale 1948).

Sur cette question, voir Latour B, "Les vues de l'esprit", Culture technique, n° 14, 1985, pp. 14-29.

Figure 7: Quelques exemples de "temps opératoires".

73

concepteur et l'exécutant ne sont plus requises pour que des contacts se nouent et que des liaisons s'établissent.

Outil de gestion, le "temps opératoire" est également un opérateur de simplification de la réalité multiforme de l'atelier, transformé dès lors en une combinaison de gestes élémentaires et des temps normalisés. Ainsi des phénomènes tels que la panne, l'erreur, l'aléa de quelque sorte qu'il soit, sont renvoyés à un non-lieu : littéralement, ils n'existent pas pour la fonction Méthodes. Outil manié par l'acteur, il devient en même temps réalité qui s'impose à lui. On doit souligner ici la corrélation qui existe entre l'efficacité de l'outil et la simplification de la réalité. Le schématisme, l'idéalisation d'une réalité projetée désormais sur un axe unidimensionnel, sont le prix à payer pour l'efficacité de l'outil. Prix parfois très élevé, quand la partie de la réalité qui est exclue de la représentation façonnée par l'outil devient dominante, tout en s'avérant en profond décalage avec l'outil lui- même. Nous y reviendrons. Pour l'instant continuons de scruter le fonctionnement de l'outil et ses effets. Nous avons vu que l'outil peut créer des réalités normalisées, concevoir ex nihilo des ateliers, qui doivent fonctionner selon la règle édictée par lui. Mais son fonctionnement ne s'arrête pas là. Une fois la norme faite, l'atelier projeté devenu atelier en marche, l'outil assurera le contrôle de la réalité qu'il a produit. Car l'atelier sera jugé à son rendement, tel qu'il est fixé par les méthodes, sur sa capacité à minimiser l'écart entre le temps technique idéal et le temps réellement écoulé pour produire. Bref, l'outil réalise une économie drastique de communications entre Fabrication et Méthodes. Les Méthodes peuvent se passer de la Fabrication, tandis que cette dernière ne communique que son rendement, qui fera l'objet d'une comparaison automatique avec le rendement théorique.

4.2. Ordonnancement

Plus proche de l'atelier et de son activité de tous les jours, cette fonction a comme tâche générale la définition, dans l'espace et le temps, du circuit de l'objet du travail

(l) (quand faut-il fabriquer ; quand faut-il approvisionner les matières ; où faut-il

produire ; quel atelier mobiliser ; sur quels postes ?...)• A l'instar des Méthodes, l'Ordonnancement est également armé d'un certain nombre d'outils de gestion. Pendant notre présentation de la phase de constitution du Taylorisme, nous nous sommes déjà référés aux outils graphiques développés notamment par Gantt dans le but de suivre la progression de l'activité dans le temps. Ici, nous aimerions présenter deux autres outils amplement mobilisés dans la pratique : la quantité économique de lancement (QEL) (2) et son homologue dans le domaine de la

gestion de stocks, la quantité économique d'approvisionnement (QEA) (3), outils

par ailleurs isomorphes quant à leur structure (figure 8). La QEL correspond à la taille du lot (4) lancé en fabrication qui minimise le temps du cycle de fabrication,

c'est-à-dire qui assure le compromis optimal entre le temps de reconversion des moyens de production (changements des outils, réglage de machines quand on passe d'un produit à un autre) et le temps de fabrication. La QEA se définit comme la quantité qui réalise le compromis optimal entre les coûts (variant en sens inverse) de possession de stock et de commande. Outils qui, grâce au haut degré de formalisation facilitant leur emploi, ont joué un rôle déterminant dans l'évolution du processus technique (voir infra p. 80). Ajoutons, que si l'Ordonnancement prime la Fabrication, il reste néanmoins dépendant de Méthodes, et cela de deux manières. Tout d'abord, ce sont les Méthodes qui lui fournissent les temps nécessaires pour la planification des activités. Deuxièmement, de proche en proche, les Méthodes "se sont appropriées" (en partie) l'objet de l'Ordonnancement, en imposant elles- mêmes par l'intermédiaire du processus technique, de manière unique, le circuit de l'objet du travail. Songeons à la chaîne de montage, à la ligne-transfert, où le circuit est objectivé une fois pour toutes dans le processus technique.

Voir Lambert P., La fonction Ordonnancement, Paris, Les Editions d'Organisation, 1974.

Voir Harris F.W., Operations and cost (Factury Management Series), Chicago, A.W. Shaw Co., 1915, chapitre 2.

Wilson R.H., "A scientific routine for stock control", Harvard Business Review, vol. 13, n° 1, 1934, pp. 116-128.

76

4.3. Qualité

La qualité comme activité distincte avait déjà sa place dans l'édifice conçu par Taylor et ses disciples. Parmi les huit chefs composant le "contre-maître fonctionnel", l'un d'eux, nommé surveillant responsable de qualité, avait été investi de la fonction de veiller à ce que le travail soit exécuté de manière satisfaisante (voir p. 46). Quelques règles générales construites par l'ingénieur taylonen encadraient dès le début son travail. Ainsi, mû par une logique d'anticipation et s'appuyant sur des considérations de nature probabiliste, le "management scientifique attache plus d'importance au contrôle de la première pièce d'un lot qu'à l'inspection finale du lot entier" (J). Mais, c'est sous la production de masse que la fonction "Qualité" va

instaurer son autonomie institutionnelle. Son arme : l'outil statistique. La même logique d'optimisation des coûts qui a présidé à l'élaboration des outils de l'ordonnancement (QEL, QEA, voir § 4.2), est ici à l'œuvre. Les coûts de contrôle sont identifiés ; ceux de la non-qualité (i.e., coûts dus aux pièces défectueuses) également. Les deux coûts allant dans des directions opposées (2), il suffit de

"réduire la proportion p de défectueux au point que le taux d'accroissement du coût de contrôle vienne à égaler le taux d'accroissement des économies engendrées par la diminution du nombre de pièces refusées" (3). Les fameuses "cartes de qualité",

matérialisation de la logique que nous venons d'évoquer, assurent l'automaticité du choix, en indiquant pour chaque taille de lot la quantité optimale des pièces à contrôler.

Le raisonnement à l'œuvre est le suivant : "Si les matériaux sont en bon état dès

la première étape, ce qui implique le contrôle à la réception et dans les entrepôts, et si, ensuite, l'ouvrier comprend ce qu'il est en train de faire et comment il doit le faire à chaque opération, et si ceci est vérifié par l'inspection de son travail à la première pièce du lot, il est évident que, à moins que quelque chose d'inhabituel ne survienne, dans la majorité des cas le lot entier sera correctement fait". Thompson C.B., The Taylor System..., op.cit.,

p. 93.

Si on contrôle l'ensemble du lot, les coûts de contrôle atteignent leur maximum, en revanche les coûts de la non-qualité sont égaux à zéro, puisque, à la sortie du contrôle, il n'y a pas de pièces défectueuses (toutes sont repérées).

Shewhart W.A., Les fondements de la Maîtrise de la Qualité, Paris, Economica, 1989 (édition originale 1939), p. 4. Shewhart fut le théoricien incontesté de l'utilisation des statistiques à des fins de contrôle de qualité. En revanche, le premier qui y a pensé semble être Radford G. S., G.S., The control of quality in

Parvenus à ce point de notre exposé sur les outils de gestion à l'œuvre pendant la phase d'institutionnalisation du projet taylorien, nous voudrions, ici, ouvrir une longue parenthèse qui vise à expliciter les principes communs qui président à l'élaboration de ces outils (QEL, QEA, "cartes de contrôle"... mais également la définition exacte du bonus optimal pour ce qui concerne la politique de salaires prônée par les Tayloriens, la définition optimale de la taille et de la forme des outils 0) ...). Leur analyse montre la présence du même principe dont une formulation non mathématique est donnée par Taylor lui-même dans son article On the art of cutting metals :''Selon la méthode scientifique, après une analyse de tous les éléments qui affectent le résultat final, on fait varier chacun d'eux en gardant les autres constants, afin d'étudier "l'effet" de chaque élément sur le phénomène en question (2). Ce principe (3), traduction opérationnelle, de l'expression "toutes

choses égales par ailleurs", a montré une productivité extraordinaire dans la pratique. Remarquons qu'il présuppose la doctrine atomiste puisque les variables sont définies indépendamment de leurs relations (i.e., on modifie une variable pour étudier son influence sur le résultat global, en présupposant que cette modification n'affecte pas les autres variables en question) et qu'il fonctionne après avoir opéré une "stabilisation du monde" (i.e., on change une partie du "monde" (variable à modifier) tandis que le reste demeure stable (les autres variables)). Cette stabilisation, loin d'être une entrave dont la pensée doit se dégager afin de saisir le monde dans son mouvement, est une condition pour que cette dernière (la pensée) puisse opérer de manière efficace. Tout mouvement se déploie sur fond de stabilité

(4) .

Sur une description de la procédure expérimentale de la définition de la taille optimale d'une pelle, voir Taylor F.W., Ce que Taylor..., op.cit.

Taylor F.W., "On the art of cutting metals" (paru en 1907), in Thompson C.B.,

Scientific Management, op.cit., p. 235.

On trouve ce principe en acte dans l'étude de Coulomb sur la fatigue humaine. Coulomb, "Mémoire sur la force des hommes", Académie Royale des Sciences, 24 février 1798, in Théorie des machines, Paris, Bachelier, 1821.

On reconnaît ici les analyses de Heidegger sur la notion de vérité. Heidegger M., L'époque des "conceptions du monde", op.cit.

78

4.4. Entretien

Etant la plus proche de l'atelier, cette fonction, à l'opposé des trois précédentes, n'a pas bâti son autonomie institutionnelle sur l'explicite et le formalisé, mais sur l'implicite et le savoir-faire non thématisé. Point d'outils standardisés et de pratiques codifiées opérés à l'intérieur d'un espace marqué par des traits de répétition. Ce n'est pas un hasard, donc, si parmi les ouvriers, ceux de l'Entretien ont été les "privilégiés", en exerçant un pouvoir sur les lieux de production grâce à leur savoir incorporé (l).

4.5. Fabrication

Comme nous avons eu l'occasion de le souligner plus haut, la Fabrication occupe au sein de l'architecture fonctionnelle, un rôle subalterne. Point où confluent les ordres provenant des Méthodes et de l'Ordonnancement, la fabrication est également le lieu où plusieurs tensions s'accumulent. Tensions qui résultent en grande partie du décalage qui se creuse progressivement entre le fonctionnement effectif de l'atelier, scandé d'événements erratiques, et sa marche idéale, telle qu'elle ressort des plans des Méthodes. Dans notre présentation de la fonction "Méthodes", nous avons longuement insisté sur la représentation que cette dernière se fait du fonctionnement de l'atelier. Basée sur des "abstractions opérationnelles", telles que l'ouvrier moyen et les temps opératoires, cette conception normative de l'activité fait disparaître de l'horizon tout ce qui n'est pas fixe, uniforme et prévisible. Le temps abstrait et homogène règne sur le temps concret de la fabrication, temps qui se trouve de ce fait nié. Mais un temps nié n'est pas pour autant supprimé. Pannes, erreurs, individualités, absences intempestives du personnel, constituent le lot quotidien de la Fabrication qui doit faire face à une foule d'événements dont le seul défaut est d'exister sans en avoir le droit. Face à cette irruption de l'aléatoire dans la vie quotidienne, quelle est la réponse de la Fabrication ? Des analyses portant sur la vie de tous les jours dans les lieux de production ont mis en scène toutes les astuces dont les exécutants ont fait preuve dans leurs efforts pour remplir l'écart entre une réalité protéiforme et sa

Sur les rapports Fabrication-Entretien, voir les analyses classiques de Crozier,

représentation normative figée (l). Ici, nous ne retiendrons qu'une réponse quasi

"institutionnalisée" qui exprime en quelque sorte une stratégie globale de la fabrication. Les stocks (2), véritable instrument de lissage de la courbe de

production, sont devenus un des moyens à peu près universellement utilisés par les fabricants pour tenir l'impératif majeur qui leur est assigné : respecter le programme de production édicté par les Méthodes. Si nous insistons sur les stocks, c'est parce que, outre le caractère extrêmement général de cette stratégie, les stocks semblent être l'issue naturelle du fonctionnement routinier du système socio-technique régulé par les outils de gestion que nous venons de présenter. En cohérence profonde avec un contexte macro-économique marqué par la combinaison de la production de masse, de l'existence de produits indifférenciés et de la progression continue d'une demande solvable, les pratiques de gestion sous-tendues par les outils mentionnés plus haut, ont formé un mode de régulation qui a fonctionné jusqu'au début des années 70 environ en symbiose parfaite avec les stocks. Dans ce qui suit, nous nous proposons d'examiner le fonctionnement de ce mode de régulation. Une analyse des effets produits sur le système socio-technique par l'application