• Aucun résultat trouvé

Les implications managériales d'un système de contrôle de gestion temps réel appliqué à une papeterie

N/A
N/A
Protected

Academic year: 2021

Partager "Les implications managériales d'un système de contrôle de gestion temps réel appliqué à une papeterie"

Copied!
25
0
0

Texte intégral

(1)

HAL Id: hal-01713664

https://hal.archives-ouvertes.fr/hal-01713664

Submitted on 20 Feb 2018

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Les implications managériales d’un système de contrôle de gestion temps réel appliqué à une papeterie

Amaury Gayet, Sylvain Rubat Du Mérac

To cite this version:

Amaury Gayet, Sylvain Rubat Du Mérac. Les implications managériales d’un système de contrôle

de gestion temps réel appliqué à une papeterie. MAR 2016 - MANUFACTURING ACCOUNTING

RESEARCH CONFERENCE , Jun 2016, Lisbonne, Portugal. �hal-01713664�

(2)

1

Les implications managériales

d’un système de contrôle de gestion temps réel appliqué à une papeterie.

Amaury Loup Gayet, Doctorant en Sciences de Gestion, CEROS Université Paris X – Nanterre amaury.gayet@ipleanware.com

Mr. Sylvain Rubat du Mérac, Directeur Recherche & Développement, IP Leanware – Issoire sylvain.rubat@ipleanware.com

Résumé :

Actuellement, les méthodes de contrôle de gestion calculent des coûts ex-post. La mesure des écarts qui permettent des actions correctives est donc tardive. L’accélération des temps de traitement lié aux capteurs temps réel et au big data peut permettre la mesure temps réel des écarts et des actions correctives immédiates. Notre étude de cas consiste à présenter le modèle conceptuel de données appliquées. Il doit permettre de gérer ces flux informationnels par un outil de gestion adapté. Cet outil prend la forme d’un Tableau Croisé Dynamique. Nous développerons également les implications managériales liées à cet outil. Nos résultats expliqueront l’apport à la prise de décision de l’outil construit. En conclusion nous expliquerons pourquoi le temps réel paraît être une innovation comptable majeure.

Mots clés : Contrôle de gestion, knowledge management, temps réel, cas industriel.

(3)

2

1. Introduction

Pour Taylor (1895) cité par Bouquin (2001, p. 8) : « l’information comptable comparative [doit être] disponible en temps voulu » pour éviter une « comptabilité post mortem » qui indique aux responsables les conséquences d’un impact sur lequel il est déjà trop tard pour agir. La célérité de l’information est donc primordiale. Actuellement, la périodicité est souvent mensuelle. Ceci entraîne un phénomène de compensation des écarts défavorables par les écarts favorables. Ceci exclu des gisements de performance non négligeable. Une information précise est donc également importante. Toutefois, la précision est contradictoire avec la simplicité de mise en œuvre – et donc le coût –. Par exemple, pour De la Villarmois et Levant (2010) la méthode ABC sacrifie la simplicité à la précision. C’est pour cette raison que Bescos et Mendoza (1994) propose un arbitrage coût / pertinence dans la mise en œuvre d’une méthode ABC. La méthode des coefficients fait le choix inverse. Les méthodes TD- ABC et UVA optent pour un compromis entre les deux critères mais présentent des limites.

Nous venons de poser l’enjeu d’une nouvelle méthode de contrôle de gestion à l’ère du big- data. Elle doit être simple, précise, accessible rapidement et peu couteuse. Ce dernier point est relatif aux gains attendus d’une solution répondant aux trois premiers critères. Nous allons détailler les nouvelles sources de valeur générées par une telle méthode. Le phénomène de compensation des écarts favorables et défavorables empêche le contrôleur d’agir sur les écarts défavorables compensés. L’individualisation des écarts permet l’accès à ce gisement de performance. C’est l’intérêt d’une information précise. L’analyse algorithmique permet de lier les causes – les écarts favorables – aux conséquences – les paramètres techniques qui permettent de les reproduire –. Il devient alors possible de dupliquer les situations de surperformance. Ceci est réalisé avec simplicité par des objets connectés. Enfin, les actions correctives sont aussi rapides que possible. L’idéal est le temps réel. Le coût de mise en œuvre du dispositif doit être moindre que les différents gisements de performance décris.

Dans une première partie nous présenterons les principales méthodes qui inspirent la méthode temps réel. Il s’agit des méthodes ABC et TD-ABC, de la méthode du CAM-I, qui ventile les objets de coûts en fonction de la capacité allouée et du diagnostic des coûts cachés fondus dans les coûts. Dans une seconde partie nous proposerons une trame conceptuelle pour la méthode temps réel. Cette dernière est appliquée dans les industries de production de masse.

Ces dernières disposent de capteurs qui collectent en temps réel les consommations et les

paramètres techniques. Cette méthode permet une affectation temps réel des coûts. Dans une

(4)

3

troisième partie nous présenterons le modèle conceptuel de données du système temps réel. Il explique comment les flux d’informations sont gérés pour produire une information temps réel des coûts. Ils sont ensuite disponibles dans un Tableau Croisé Dynamique (TCD). Dans une quatrième partie nous développerons les implications managériales liées à l’apport à la prise de décision de la méthode temps réel. Nous procéderons, pour cela, à une comparaison des méthodes actuelles et de la méthode temps réel concernant la manière dont elles articulent les logiques de contrôle et d’autocontrôle. En perspectives nous développerons l’innovation comptable du temps réel par la théorie des grappes d’innovations.

2. Revue de la littérature

Nous allons présenter les (2.1) les méthodes ABC et TD-ABC, (2.2) celle du CAM-I et (2.3) le diagnostic des coûts cachés fondus dans les coûts et (2.4) conclurons sur l’intérêt de ces différentes méthodes.

2.1 Les méthodes ABC et TD-ABC

La méthode ABC (figure 1) est une méthode en deux étapes qui consiste (1) à associer les coûts à une ressource (activité) et (1) sélectionner une mesure d’activité appropriée (inducteur d’activité) (Johnson et Kaplan, 1987 ; Cooper et Kaplan, 1991). Cet inducteur d’activité permet d’affecter le coût à un objet de coût. La méthode TD-ABC utilise uniquement des inducteurs de temps. L’usage exclusif d’inducteurs de temps a été proposé par Kaplan et Anderson (2004) pour réduire la complexité et le coût de la méthode ABC.

Figure 1 : La méthode ABC

Pour une période les ressources consommées par une activité sont affectées à cette dernière par un inducteur d’activité qui exprime un lien de causalité. Le coût des ressources est divisé

Ressources

Inducteurs d’activité Etape 2

Etape 1 Activités

Objet de coût

(5)

4

par le nombre d’inducteurs consommés. Puis, on multiplie le coût de l’inducteur d’activité par ceux consommés par l’objet de coût. Pour Alcouffe et Mévellec (2012) l’objet de coût est théoriquement multiple, la littérature étudiée par ces auteurs en mentionne deux : le produit et le client. Ce dernier demeure assez rare. Toutefois, une autre catégorie d’objets de coûts existe : la capacité non productive. C’est la méthode du CAM-I que nous allons présenter.

2.2 La méthode du CAM-I

Par simplification nous exclurons la capacité oisive et le modèle stratégique du modèle initial.

Le modèle du CAM-I (Klammer, 1996) décompose les objets de coût en fonction de l’usage de la capacité allouée. Il distingue deux catégories : la capacité productive et non productive décomposées en plusieurs sous-catégories (tableau 1).

Modèle traditionnel Modèle d’ensemble Modèle industriel

Capacité allouée

Capacité non productive

Attente Perte

Maintenance Réglages

Capacité productive

Réservée au développement des processus

Réservée au développement des produits

Produits bons

Tableau 1 : Le modèle du CAM-I (extraits) – Klammer (1996) d’après Bouquin (2001) Ainsi, les objets de coûts se multiplient. Outre un produit fabriqué (capacité productive) il peut être une attente, une perte, une maintenance, un réglage (capacité non productive). Ceci distingue des évènements non liés à une production directe et valorise certains coûts cachés fondus dans les coûts : les surtemps (Savall et Zardet, 1991).

2.3 Diagnostic des coûts cachés fondus dans les coûts

Par simplification nous exclurons les surtemps pour lesquels nous venons de proposer une

méthode. Pour Savall et Zardet (1991), il demeure deux catégories supplémentaires : les

sursalaires et les surconsommations (figure 2).

(6)

5

Tableau 2 : Les coûts cachés fondus dans les coûts (extraits) – d’après Savall et Zardet (1991) Les sursalaires correspondent aux heures planifiées en production mais non réalisées. Les écarts de production consistent à comparer les coûts réels avec l’objectif. Les déchets et les rebuts font l’objet de traitements plus spécifiques que nous allons détailler.

« Les déchets sont des matières premières, incorporées dans le cycle de fabrication, qui ne se retrouvent pas dans le produit final (limaille, sciures, chutes de tissu, etc.). Ils ont une valeur économique faible ou nulle » (Gervais, 2005, p. 78). Pour Gervais (2005) les rebuts sont des produits qui n’ont pas les spécifications techniques et de qualité voulue ». Quatre destinations sont possibles. Nous les détaillerons avec le traitement comptable qui les valorise (tableau 3).

Destinations Traitements comptables

Vendus en l’état à un prix

moindre. Prix de vente déduit du coût de production de la période.

Refaits pour atteindre le niveau de qualité voulu.

Génèrent des coûts supplémentaires qui s’ajoutent au coût de production du produit

Réintroduits dans le processus de fabrication comme matière première.

Retrancher du coût de production de la période la valeur de la matière de ces déchets ou rebuts pour obtenir les charges à imputer au produit principal ou à la pièce bonne.

Détruits et entraînant un coût de destruction.

Génèrent des coûts supplémentaires qui s’ajoutent au coût de production de la période.

Tableau 3 : Destinations et traitements comptables des déchets – d’après Gervais, 2005 La mesure des coûts cachés fondus dans les coûts permet d’identifier la cause réelle de certaines dérives et de déclencher des actions correctives plus efficaces. Sans l’application de telles méthodes ces coûts sont intégrés dans le coût du produit.

2.4 Conclusion

La finalité du contrôle de gestion est d’aider les managers à prendre les bonnes décisions (Moralès, 2012 ; Bollecker, 2007) et obtenir l’assurance que les ressources sont utilisées de manière efficace et efficiente (Anthony, 1965, p. 17). Ces méthodes aident à la compréhension des causes des coûts pour atteindre ces objectifs par la production d’une

Coûts cachés fondus dans

les coûts

Sursalaire Ecarts planning / production réelle Surconsommation Ecarts de production

Autres dysfonctionnements (déchets, rebuts...)

(7)

6

information pertinente. Pour cela, deux rôles incombent aux contrôleurs de gestion : celui de surveillant et celui d’aide à la décision.

Le premier consiste, par des études ponctuelles, à rendre des comptes à la Direction Générale (Moralès, 2012), par exemple, pour mieux comprendre certaines dérives opérationnelles. Il s’agit d’un métier de contrôleur du chiffre et implique une indépendance sans faille à l’égard des managers opérationnels contrôlés (Lorino, 2009). Le second consiste à aider les managers dans la prise de décision. C’est le rôle idéal pour les contrôleurs (Moralès, 2012). Il s’agit d’un consultant interne qui fait du conseil au service des managers (Fornerino et Godener, 2006) et doit coopérer étroitement avec ces derniers (Lorino, 2009).

Le contrôleur de gestion est donc « un agent de renseignement » (Lambert, 2005) qui collecte et fiabilise (rôle de surveillant) les données pour produire une information utile à la prise de décision (rôle d’analyste) qu’il diffuse dans l’organisation. Il réalise donc les étapes amont d’un cycle du renseignement (Wilensky, 1967). Comprendre cette fonction d’agent de renseignement qui se subdivise en deux rôles, celui de surveillant et d’analyste, dont la finalité est d’aider les managers à prendre les bonnes décisions permet de saisir le contexte dans lequel ces méthodes sont utilisées.

3. Cadre conceptuel

Dans cette partie nous allons adapter les méthodes évoquées au temps réel. Dans notre cas il s’agit d’un processus de production de l’industrie papetière qui dispose d’un système de collecte des consommations et des paramètres techniques. Tout d’abord, nous (3.1) affecterons en temps réel les coûts directs à un objet de coût, les comparerons au standard pour mesurer les écarts et, en l’absence d’objet de coût, les affecterons au sursalaire. Il nous restera alors à proposer une méthode de valorisation temps réel des (3.2) déchets et des rebuts pour intégrer l’ensemble des catégories de coûts évoqués dans la revue de la littérature. Nous (3.3) conclurons alors sur l’apport constitué par le temps réel.

3.1 Affectation en temps réel des flux physiques à un objet de coût

Le temps réel modifie l’approche de la méthode ABC et TD-ABC. Les coûts sont toujours

affectés à une activité par un inducteur qui exprime un lien de causalité. Toutefois, le

processus de traitement de l’information évolue. Nous n’affectons plus un ensemble de

ressources à un objet de coût, nous recomposons le coût de l’objet à partir des consommations

(8)

7

mesurées en temps réel. Ceci permet d’actualiser le coût de l’objet sans avoir besoin de connaître le coût clôturé de la ressource et le nombre d’inducteurs consommés sur la période.

La méthode proposée (figure 2) affecte les coûts à la minute des consommations et de la main d’œuvre de chaque tâche en temps réel à l’objet de coût. Ils sont ensuite agrégés à l’objet de coût quand il est terminé. Ils peuvent, ensuite, être agrégés sur une période. Cette agrégation est notamment utile pour vérifier les erreurs. Les coûts réels unitaires sont ensuite comparés aux standards pour calculer l’écart. Les tâches peuvent ensuite être agrégées entre elles pour reconstituer partiellement ou totalement le coût de revient d’une unité produite. Il est ensuite possible de reconstituer partiellement ou totalement le coût de revient d’une unité produite.

Figure 2 : La méthode temps réel

Le temps réel inverse donc la méthode de traitement de l’information. Au lieu d’un processus

« top-down » qui implique de connaître le coût total des ressources et des inducteurs consommés sur une période pour les affecter à l’objet de coût, nous évoluons vers un processus « down-top » qui affecte les consommations et la main d’œuvre à l’unité en cours de fabrication en temps réel. Le principal intérêt de cette approche est d’accroître la rapidité de diffusion de l’information tout en accentuant la précision par une granularité qui explique les consommations au sein du processus de production.

L’objet de coût est multiple. Il s’agit de tous les évènements de la capacité allouée du modèle du CAM-I. Nous valorisons donc les produits bons et les surtemps. Le temps réel permet, également, d’affecter des coûts qui pouvaient être, auparavant, des charges indivis comme l’énergie (électricité, vapeur…). La comparaison des coûts obtenus avec l’objectif unitaire permet de mesurer les écarts sur consommations. Si la main d’œuvre planifiée n’est affectée à

Coûts à la minute Coût réel unitaire Coût à la période Agrégation 2

Agrégation 1 A l’objet de coût

Sur la période

(9)

8

aucun évènement de la capacité allouée c’est qu’il s’agit d’un sursalaire. Les surtemps et les sursalaires sont ensuite lissés sur le coût de revient du processus de production.

3.2 Valorisation des déchets et des rebuts

Pour les déchets nous utiliserons l’exemple d’une papeterie. Des déchets, qui correspondent à des déchets correspondant à des pertes de fibres durant les étapes de production de la pâte à papier, sont rejetés dans l’eau. L’eau doit être retraitée dans une station d’épuration avant d’être déversée dans une rivière. Une partie de ces déchets sont filtrées et réintroduites dans le processus de production. L’autre partie est traitée chimiquement dans la station d’épuration puis déversée dans la rivière. Ces dernières constituent donc des déchets réels. Le coût de ces déchets est ensuite lissé sur celui de la matière pour être réintroduite dans le coût de revient.

Nous utiliserons toujours l’exemple d’une papeterie pour les rebuts. La fabrication des rouleaux sur la machine à papier produit des rebuts. Ces rebuts peuvent être obtenus lors de casses, de la coupe en bord de laize ou si le produit fini présente des défauts qualités trop importants pour être vendu. Ces rebuts sont réutilisés dans la production de rouleaux ultérieurs. Deux raisons expliquent cela : leur qualité est inférieure à celui des matières intermédiaires utilisées et il est chargé de coûts supplétifs liés aux consommations sur la machine à papier.

Cependant, si notre destination correspond aux rebuts réintroduits dans le processus de fabrication comme matière première notre méthode de valorisation diffère cependant de celle proposée par Gervais (2005) évoquée précédemment (tableau 3). Nous avons fixés un prix incitatif correspondant à une pâte de basse qualité pour réintroduire la matière dans le processus de production. L’écart entre le coût de revient de la matière liée au rebut et le prix incitatif correspond à la perte de valeur de la matière. Il doit être joint au coût de l’arrêt si le rebut est survenu lors d’une casse. Le coût du rebut est lissé sur le coût total de la production.

3.3 Conclusion

Par simplification, nous avons traité des exemples de déchets et de rebuts issus de l’industrie

papetière. Ce choix est justifié par le fait que les cas industriels traités sont issus de ce type

d’industrie. Notre méthode temps réel mesure avec précision le coût de revient de chaque

unité produite, décompose le coût pour chaque tâche et mesure les écarts. Les sursalaires, les

surtemps, les déchets et les rebuts sont isolés pour que le décideur ait accès à ces catégories

d’analyses. Ils sont ensuite lissés sur la production pour que le coût de revient corresponde

(10)

9

aux coûts réels. Il est possible également de corréler les écarts aux causes – paramètres techniques – qui les ont provoqués ou aux responsables en poste lorsqu’ils sont survenus.

Ceci permet d’avoir accès à des écarts qui ne sont plus des moyennes périodiques mensuelles mais individualisées pour chaque tâche et chaque unité produite. Ceci permet d’identifier des situations de sous-performance qui aurait été masquées sur une période car compensées par des écarts favorables. Ces situations sont des gisements de performance jusqu’alors inexplorées. Comprendre les causes des écarts favorables pour les reproduire comme réaliser des actions correctives sur les écarts défavorables améliorent la performance globale. De plus, l’action corrective est immédiate, car l’information est disponible en temps réel, et facilitée par l’identification des causes et du responsable.

Nous avons donc appliqué en temps réel l’intégralité des méthodes évoquées dans la revue de la littérature. Cette méthode individualise les coûts en temps réel et automatise le diagnostic des coûts cachés fondus dans les coûts. Nous avons également automatisé la collecte et le traitement des données (rôle de surveillant). Les conséquences (écarts) sont également connues et reliées aux causes (paramètres techniques qui les ont provoqués). Ceci permet une gestion par exception et facilite les actions correctives. L’ensemble répond aux attentes des contrôleurs de gestion qui souhaite « réduire leur participation à la production industrialisée de chiffres pour se focaliser sur leur interprétation » (Moralès, 2012).

4. Etude de cas

Nous allons maintenant expliquer le traitement des flux d’information par le système temps réel. Pour cela, nous présenterons (3.1) la problématique, (3.2) les composantes du (3.3) Modèle Conceptuel de Données (MCD). Puis (3.4) nous conclurons.

4.1 Problématique

Nous allons expliquer la problématique liée à la mise en œuvre de la méthode temps réel

précédemment évoquée. Elle doit permettre la valorisation des coûts directs (consommations

et main d’œuvre) en les affectant aux éléments de la capacité allouée (a et b). Elle doit aussi

automatiser le diagnostic des coûts cachés fondus dans les coûts. Elle doit donc permettre de

valoriser (b) les surtemps, (c) les sursalaires, (d) les surconsommations liées aux écarts et (e)

celles liées aux déchets et rebuts.

(11)

10

Les données calculées doivent ensuite être disponible pour un utilisateur humain. Ceci implique de les présenter sous le format d’un Tableau Croisé Dynamique (TCD). Ce dernier présente la décomposition de l’information en fonction des étapes du processus de production (granularité à la tâche) et de la temporalité (granularité à l’unité produite). Ces deux dimensions (temps et espace) inscrivent les valeurs mesurées par le système temps réel. Il peut s’agir des coûts, des quantités, des écarts, des quantités ou de la durée. Ces valeurs peuvent être indexées sur la durée ou sur la quantité. La formule de calcul doit être définie (nombre, somme, moyenne, minimum, maximum, ratio ou variation).

Les données affichées sur le TCD facilitent la fouille des données et permettent de réaliser des graphiques, requêtes ou alertes. Le but est d’arriver à extraire directement l’information pertinente d’une grande densité d’information. Cette information concerne les coûts directs affectés à la capacité allouée du processus de production (a et b). Ceci permet de mesurer les écarts qui correspondent aux gaspillages de consommations (d). Enfin, des traitements spécifiques doivent être appliqués pour la valorisation des déchets et des rebuts (e). Ils seront ensuite lissés dans le total général. Un état spécifique affecte la main d’œuvre planifiée mais non allouée au processus de production aux sursalaires (c).

4.2 Les composantes

Pour répondre à cette problématique il est nécessaire d’avoir accès à quatre bases de données.

La première est générée par des capteurs temps réel qui collectent les données du processus de production à intervalle régulier (1). Ils renseignement les consommations, la capacité allouée, les déchets et les rebuts. Les trois suivantes sont saisies par le contrôle de gestion. Il s’agit (2) du fichier des coûts, (3) des objectifs de production et (4) du planning de la main d’œuvre.

Le fichier coût (2) peut être actualisé en temps réel s’il est connecté aux marchés spots ou à la Place De Marchés de l’Entreprise (PDME). Connecté au système de collecte temps réel (1) il permet d’affecter les coûts directs hors main d’œuvre aux éléments de la capacité allouée (a et b), aux déchets et aux rebuts (e) pour les valoriser. Joint aux objectifs de production (3) cet ensemble permet la mesure des écarts (d). Le planning de la main d’œuvre (4) connecté au système de collecte temps réel (1) permet d’affecter la main d’œuvre à la capacité allouée (a et b) ou aux sursalaires (c) pour la valoriser.

Cette méthode de valorisation n’est cependant pas exempte d’erreurs ou d’anomalies. La

mesure des écarts comme l’identification des sursalaires sont, également, un moyen de les

(12)

11

détecter pour les corriger. Ces erreurs ou anomalies peuvent être liées à une erreur ou une absence dans la captation, une perte informatique de données, une erreur dans le traitement de l’information ou une erreur dans le planning de production initial. L’agrégation des coûts périodiques sur une période doit ensuite être comparée au coût des ressources de la même période pour lettrer le modèle. Ce dernier doit être suffisamment faible pour que la méthode temps réel soit jugée précise.

La mission de correction des erreurs et des anomalies est à la charge des contrôleurs de gestion « surveillant ». Ce rôle est cependant plus restreint car ils ne doivent plus produire

« des tableaux de chiffres » mais seulement vérifier leur exactitude. Ceci permet de « se concentrer sur leur analyse ». C’est d’ailleurs le souhait des contrôleurs de gestion qui souhaitent voir leur métier prendre cette orientation (Moralès, 2012). Ce rôle d’analyste consiste « à faire parler les chiffres, sentir une tendance et faire passer les grands messages.

[…] L’indentification d’un écart permet donc de réaffirmer la vision du management comme capacité à agir, à anticiper et à réagir aux évènements opérationnels traduits sous la forme de nombres comptables » (Moralès, 2012).

4.3 Le Modèle Conceptuel de Données

Le MCD est le suivant (figure 3). Les bases de données sont celles évoquées précédemment

(partie 3.2). Les fichiers de sortie sont le TCD et l’état des sursalaires. Il nous reste

maintenant à décrire les interrelations entre les bases de données (qui sont numérotées).

(13)

12

Figure 3 : Le modèle conceptuel des données

Cinq liens logiques sont mentionnés. Le lien n°1 valorise les coûts directs hors main d’œuvre à la minute en temps réel. Le lien n°2 valorise les coûts de la main d’œuvre à la minute en temps réel. Ces coûts sont ensuite agrégés à l’objet de coût. Si les coûts de la main d’œuvre planifiés sont affectés à aucun objet de coût ils sont mentionnés dans un état sur sursalaire.

Les coûts affectés à un objet de coût sont ensuite comparé avec les objectifs de production (lien n°3).

Il existe trois types d’écarts : « ceux entre un standard et un réel décomposée en dérive d’achat et en dérive de main d’œuvre ; ceux entre un poste de dépense et un montant budgété et ceux qui correspondent à des erreurs ou des anomalies » (Moralès, 2012). Les erreurs et les anomalies doivent être traquées et supprimées. Les écarts entre un standard et un réel facilitent la mise en œuvre des actions correctives. Les écarts entre un poste de dépense et un montant budgété entraînent une rectification des budgets initiaux. Ils signifient que le non- respect du standard a entraîné une modification du plan initial.

Le lien n°4 valorise les pertes correspondant aux déchets au coût de la matière. Ce coût est ensuite lissé sur celui de la matière. Le lien n°5 permet de gérer la complexité des rebuts. Les

Sources temps réel

Traitement temps réel

Fichiers de sorties

Sources en entrée (planifications) (1)

(1) (2)

(4) (3)

Conso.

temps réel Coûts temps réel Pertes temps réel

Coûts de

revient Coûts

& écarts Sursalaire

Etat

n°4

n°1

TCD

Planning de la MOD

Objectifs de prod.

n°3 Agrégation

A l’objet de coût

A l’unité produite à l’état du

process.

Si MOD non affectée

Lissage

n°2

n°5

(14)

13

rebuts peuvent générer un objet de coût spécifique (l’arrêt lié à la casse) et la dévaluation de la matière liée à sa perte de qualité. Cette dernière est valorisée par la comparaison entre le coût de revient de la matière envoyée au rebut et le prix incitatif. La somme des deux (coût de l’arrêt et de la dévaluation) permet de valoriser les rebuts. Ce coût est ensuite lissé sur la machine à papier.

Les coûts de revient sont ensuite présentés dans un TCD. C’est dans cet outil que l’information est ensuite diffusée. Des graphiques, requêtes ou alertes facilitent l’exploitation de l’information du TCD. Ce système temps réel met en œuvre un processus de rationalité limitée car il collecte, traite, fiabilise, diffuse et présente les données collectées à partir des activités économiques (Gayet et al., 2014).

4.4 Conclusion

La méthode temps réel produit une information qui diffère fortement des méthodes standards.

Ces dernières calculent des coûts périodiques moyennées alors que nous évaluons les consommations à l’unité produite. Les méthodes ABC et TD-ABC offrent une granularité à l’activité. La méthode temps réel va plus loin avec une granularité à la tâche. Nous proposons donc une méthode qui offre une granularité plus précise. De plus, l’information est disponible en temps réel. Dès qu’un objet de coût est clôturé il est possible de déterminer le coût de revient. Ce gain en granularité et en célérité n’est pas sans conséquence sur la performance.

La granularité accrue permet d’identifier des situations de sous-performance et de mieux cibler les actions correctives. La célérité de l’information permet la mise en œuvre immédiate de cette action corrective.

De plus, le système temps réel ne se limite pas à la collecte des coûts. Il collecte également les

paramètres techniques et les affectent à l’objet de coût. Il est donc possible de connaître

comment un produit a été fabriqué. Ceci permet des analyses algorithmiques qui permettent

de dupliquer les conditions de surperformance. Ainsi, il est possible de fixer un standard à la

fois ambitieux (puisqu’il vise la performance la plus élevée) et atteignable (puisqu’il a déjà

été atteint par le passé). C’est l’individualisation des coûts et l’application de ce standard qui

explique la forte valeur ajoutée générée par le temps réel (figure 4).

(15)

14

Figure 4 : L’effet de l’application de la méthode temps réel

Le temps réel enrichit donc la notion de coût. Les meilleures performances passées deviennent le standard appliqué en temps réel dans l’organisation. La mesure des écarts permet de cibler les opérateurs qui n’ont pas appliqué les règles ce qui facilite la mise en œuvre des actions correctives par les contrôleurs de gestion.

5. Apports à la prise de décision

Nous allons maintenant exposer les implications managériales de la méthode temps réel. Ces implications sont mises dans le contexte de la société Br@inCube qui met en œuvre ce type de solution pour l’industrie de production de masse. Pour cela, nous expliquerons les (4.1) logiques de contrôle et d’autocontrôle pour expliquer sa mise en œuvre dans (4.2) le cas des méthodes actuelles et (4.3) de la méthode temps réel. Enfin, nous (4.4) conclurons.

5.1 La logique de contrôle et d’autocontrôle

Pour Burlaud et Simon (2003) un système de contrôle de gestion doit mettre en place un système de sanctions et de récompenses grâce à l’outil comptable sur lequel il repose. Cet outil doit également permettre la construction de métaphores idéologiques du discours (Bourguignon, 1997). Ces mécaniques sont destinées à donner du sens à l’information comptable pour qu’elle soit partagée avec les salariés pour qu’ils améliorent la rentabilité de l’organisation. De plus, l’évaluation doit apparaître « juste aux managers », condition essentielle de leur motivation ». Ceci implique « le principe de contrôlabilité » qui consiste à mesurer la performance des managers uniquement sur les leviers qu’ils contrôlent. Cependant,

Full cost

Production units in time

Application of the

Real-time method

(16)

15

compte tenue de l’instabilité de plus en plus prépondérante de l’environnement le principe évolue vers celui d’influençabilité (Giraud, 2008 ; 2002).

Ces fondements sont indispensables pour faire accepter le contrôle aux opérateurs. Pour Burlaud et Simon (2003) la logique du contrôle s’articule sur deux niveaux. Le premier est l’autocontrôle de l’opérateur « qui surveille en permanence ses indicateurs de performance (le tableau de bord) et prend les mesures nécessaires à une réduction des écarts. Il réduit ainsi spontanément sa propre liberté en se soumettant à la discipline des indicateurs et en évitant l’apparition d’écarts défavorables qui pourraient entraîner des sanctions ».

« Le second contrôle est celui de la hiérarchie qui, loin de disparaître, reste informée des écarts, analyse ceux qui sont significatifs (gestion par exceptions, c’est-à-dire des systèmes de clignotants) et demande aux différents responsables de les justifier, de se justifier. Ceux-ci peuvent être tout à fait explicables par des facteurs exogènes […]. A défaut de telles explications, la direction générale se fera une idée défavorable sur la qualité de la gestion de ce responsable et en tirera éventuellement les conséquences. Le jugement risque d’être d’autant plus sévère que le responsable du centre d’analyse a participé lui-même à la définition des objectifs. On glisse alors progressivement d’une obligation de moyen à une obligation de résultat. La direction générale est à la fois plus lointaine, puisqu’elle n’intervient pas dans la gestion quotidienne, et plus disponible, puisqu’elle se tient constamment prête à intervenir en cas de difficulté dans un secteur ».

5.2 Le cas des méthodes actuelles

Les méthodes actuelles impliquent une « production industrialisée de chiffres » pour

permettre de « sélectionner les écarts considérés comme significatif » pour « les interpréter et

les commenter ». « L’identification d’un écart permet donc de réaffirmer la vision du

management comme capacité à agir, à anticiper et à réagir aux évènements opérationnels

traduits sous la forme de nombres comptables ». Cependant, les contrôleurs « laissent les

managers les interpréter et les commenter ». En pratique, « un jeu itératif de questions-

réponses » entre le contrôleur de gestion et le responsable permet de comprendre les

dysfonctionnements et de mettre en œuvre les actions correctives. « Des contrôleurs dits

partenaires, très proche des équipes opérationnelles [et] suffisamment bien informés des

évènements peuvent expliquer l’apparition d’écarts pour produire eux-mêmes des

commentaires » (Moralès, 2012).

(17)

16

Le contrôle consiste donc à mesurer les écarts et analyser les plus significatifs pour analyser les causes avec les responsables. L’autocontrôle est induit par l’opérateur qui souhaite éviter ces défaillances pour ne pas être signalé au système de contrôle central. La temporalité du contrôle est toutefois périodique car il implique que les coûts et les inducteurs soient clôturés et les calculs réalisés.

Les actions correctives présentent donc plusieurs limites. Elles sont mises en œuvre plusieurs semaines après la survenue des causes qui les ont générés. Les pertes de performance ont donc continué sur la période précédant l’action corrective. De plus, certaines pertes de performances ont été compensées par des écarts favorables masquant des gaspillages de ressources. La compréhension des phénomènes sont par ailleurs limitées aux réponses que donnent les opérateurs où la connaissance que détient le contrôleur dit partenaires. Il s’agit donc d’un savoir tacite et individuel au sens de Nonaka et Takeuchi (1994) ce qui complexifie sa capitalisation et sa transmission. Ceci limite la capacité de l’entreprise pour déterminer les paramètres techniques qui minimisent réellement les coûts du fait de phénomènes de croyances ou qu’elles ne sont détenues que par une partie du personnel.

La logique d’autocontrôle et de contrôle s’articule donc par un processus hiérarchique descendant. Ce sont les comptables qui informent les échelons supérieurs des écarts observés et analysent périodiquement les plus significatifs avec les opérateurs des échelons inférieurs pour comprendre les causes des dysfonctionnements.

5.3 Le cas de la méthode temps réel

La méthode temps réel automatise la production industrialisée de chiffres ce qui répond au souhait formulé par les contrôleurs de gestion (Moralès (2012). Elle automatise en temps réel la sélection des écarts considérés comme significatifs par des requêtes ou des alertes. Elle individualise les écarts ce qui évite les phénomènes de compensation. L’interprétation et les commentaires sont aussi automatisés en temps réel car les causes opérationnelles sont détectées par l’analyse des paramètres techniques non appliquée car leur traçabilité est réalisée par le système temps réel. Les actions correctives peuvent donc être immédiates. Les savoirs sont explicités ce qui simplifie leur capitalisation et leur transmission au sens de Nonaka et Takeuchi (1994). Ceci résout les limites des méthodes actuelles.

En théorie, ceci implique un dialogue homme machine (Haouet, 2008) articulé par un

Système Interactif d’Aide à la Décision (SIAD). Le premier SIAD facilite la mise en œuvre

(18)

17

de la logique d’autocontrôle. Il doit proposer les actions correctives à l’opérateur. Il s’agit de préciser le « résultat obtenu par un système » et « ce que le système est capable d’accomplir » pour mettre en œuvre la performance « dans son acception ingénieriste » (Gourgand, 1984).

En pratique, il prend la forme d’une interface tactile temps réel : le Br@inTouch. Il informe les opérateurs des paramètres techniques actuels et ceux qu’il est nécessaire d’appliquer. Les paramètres techniques sont hiérarchisés du moins bien appliqué au mieux appliqué. Ils ont été déterminés par un logiciel d’analyse algorithmique Br@inCube qui identifie ceux qui reproduisent la surperformance. Dans la mesure où ces paramètres sont intégralement appliqués la performance économique est atteinte. Ceci permet la mise en œuvre en temps réel de la logique d’autocontrôle. Les commentaires sont donc instantanés et actualisés en temps réel.

Le second SIAD facilite la mise en œuvre de la logique de contrôle. Il doit détecter les principaux écarts et en informer les responsables pour qu’ils mettent en œuvre le système de sanctions et de récompenses (Burlaud et Simon, 2003).

En pratique, il prend la forme du TCD actualisé en temps réel que nous venons de décrire : Br@inControl. Il informe les responsables des écarts qui sont actualisés en temps réel dès lors que l’objet de coût en cours est terminé. Il n’est pas possible de mesurer de manière pertinente les encours (Gayet, 2014). Des graphiques, des requêtes et des alertes permettent d’exploiter avec plus d’aisance l’information disponible. Le responsable peut également expliquer les écarts en accédant aux paramètres techniques non appliqué via l’interface tactile Br@inTouch. Ceci permet la mise en œuvre avec une actualisation en temps réel, et non plus périodique, de la logique de contrôle. L’apparition des écarts est donc instantanée.

Il est alors nécessaire de motiver les opérateurs à appliquer les paramètres techniques. La

diffusion des paramètres techniques à appliquer doit donc s’accompagner de métaphores

idéologiques du discours. La première est la métaphore mécaniste (Bourguignon, 1997) qui

met l’accent sur les valeurs rationnelles du management que sont la rentabilité, la

productivité, la qualité et les délais (Lorino, 2005). Nous préconisons toutefois de renforcer ce

type de métaphore par un discours construit autour de la Responsabilité Sociale d’Entreprise

(RSE). Comme la rentabilité s’explique par la réduction des consommations et des dépenses

énergétiques il peut être préférable d’évoquer « un engagement responsable au service de

l’environnement » que de parler chiffres. La seconde est la métaphore sportive (Bourguignon,

1997). Elle invite à construire différentes valeurs que sont le progrès, l’effort et l’équité. Le

(19)

18

progrès est véhiculé par une invitation toujours partagée à se surpasser, pour que ce soit

« l’opération de mesure qui crée la valeur, qui ordonne les individus ». L’effort consiste, au niveau individuel, à amener « l’individu à progresser, grâce à des efforts patients, constants et rationnels ». L’équité consiste à construire « l’illusion réaliste où la justice est le produit de la concurrence ». Son application permet de produire « des classements objectifs, donc irrécusables, sur la base de résultats incontestables ». Ceci permet la mise en œuvre de l’autocontrôle par la méthode temps réel qui incite les opérateurs à réaliser d’eux même les actions correctives.

Si les opérateurs n’ont pas mis en œuvre les paramètres techniques ceci est signalé par un écart. Il est possible de les cumuler sur une période pour chaque poste de travail. Ceci permet de mettre en œuvre des actions correctives et de justifier, selon le principe d’équité, les sanctions et les récompenses. Ceci permet la mise en œuvre du contrôle par la méthode temps réel qui incite les opérateurs à ne pas réaliser d’écarts anormaux pour ne pas être détecté par le système central.

La logique d’autocontrôle et de contrôle s’articulent donc par un processus hiérarchique ascendant. Le système temps réel informent les échelons hiérarchiques supérieurs des écarts observés en temps réel uniquement si des défaillances à des échelons inférieurs – et pour lesquels ils ont été informés – sont constatées. Il est donc plus simple pour l’opérateur de s’autogérer. La ligne hiérarchique tend à s’aplatir et le salarié gagne en autonomie.

5.4 Conclusion

Auparavant, les états automatiques étaient peu utilisés par les contrôleurs de gestion qui préféraient « réaliser des interro-détails » car ces derniers « ne s’intègrent pas à des cycles récurrents, ce qui les rend peu visibles. En particulier, elles ne sont ni prévisibles ni homogènes : le nombre de demandes reçues dans la journée, leur durée de traitement, le contenu du tableau final, le destinataire ou la difficulté des tâches à effectuer peuvent varier fortement » (Moralès, 2012). Avec le temps réel, les états automatiques (TCD et écarts sur sursalaires) sont facilement exploitables. L’information est homogène car décomposé en fonction des évènements de la capacité allouée et des tâches du processus de production.

L’exploitation peut être manuelle (fouille des données) ou automatisée (graphiques, requêtes

ou alertes).

(20)

19

L’interface tactile informe les opérateurs des paramètres techniques à appliquer (logique d’autocontrôle) et permet une gestion par exception par l’identification des écarts significatifs et un système de clignotant par les alertes (logique de contrôle). Le dialogue homme-machine se substitue donc au jeu itératif de questions-réponses entre l’opérateur et le responsable. Ce dialogue améliore donc la rationalité de l’échange car il transforme des savoirs tacites et individuels en savoir explicite et collectif ce qui facilite leur capitalisation et leur transmission (Nonaka et Takeuchi, 1994).

Un autre élément important du temps réel est l’inversion de la polarité du flux d’information.

D’un contrôle à posteriori qui descend la ligne hiérarchique nous évoluons vers un autocontrôle en temps réel qui remonte la ligne hiérarchique pour signaler les anomalies aux responsables. Avec un tel système la ligne hiérarchique tend à s’aplatir et le salarié gagne en autonomie.

Cette inversion sonne comme une caisse de résonance aux travaux de Getz (2012) qui théorise qu’une entreprise avec une hiérarchie limitée est plus performante car plus flexible. Selon lui, nous serions « à l’aube d’une nouvelle ère du management » et de nombreuses entreprises franchissent le pas du CAC40 (Michelin…), aux grandes entreprises (Favi, Harley Davidson…) en passant par les PME (ChronoFlex…) comme le présente la une d’un article d’Aujourd’hui en France du 13 Mars 2015.

Autonomiser le salarié, aplatir la ligne hiérarchique n’appelle-t-il pas un nouveau système d’information qui facilite la circulation de l’information et permet aux opérateurs de s’autogérer ? C’est l’hypothèse que nous formulons en estimant que nous apportons une solution technique adaptée à des entreprises qui souhaite gagner en agilité organisationnelle en « libérant leur entreprise » pour reprendre l’expression de Getz (2012).

Il est également intéressant de noter que le contrôle de gestion et les ressources humaines ont

toujours eu un lien implicite puisqu’il s’agit de deux disciplines visant à s’assurer de la

cohérence des comportements avec les intérêts de la firme. Si la gestion des ressources

humaines a évolué vers plus de démocratie participative elle n’avait pas encore trouvée une

méthode de contrôle de gestion adaptée au transfert de responsabilité qu’implique

l’autonomisation des salariés.

(21)

20 6. Perspectives

Nous développerons les perspectives de notre recherche par la théorie des grappes d’innovation de Schumpeter. C’est-à-dire qu’une innovation dans un secteur d’activité introduit des innovations dans d’autres secteurs. Par exemple, les innovations qui ont accéléré les temps de traitement de l’information ont toujours modifié les méthodes de contrôle de gestion.

Ainsi, pour Abbot (1988, p. 228) le facteur déclenchant de la création de la profession comptable est, sans conteste, l’avancée technologique relative à l’invention des machines à calculer, en particulier la machine de Helmann Hollerith de 1890, le fondateur d’IBM. Le développement des ERP amène, en 1972, la formation du Consortium Aided Manufacturing ou CAM-I (Zelinshi, 2009) qui développe les méthodes présentées dans la partie 2.1 et 2.2 de la revue de la littérature. Est-ce que l’innovation que constitue la méthode temps réel permet de supputer des potentialités élevées liées à l’émergence d’une nouvelle innovation comptable ? Nous avons essayé, dans cet article, de présenter avec précision les améliorations qualitatives dans l’aide à la décision pour affirmer cette éventualité (figure 5).

Figure 5 : les grappes d’innovations liées à l’innovation comptable.

De plus, les grappes ne sont pas des phénomènes individuels mais collectifs. Une innovation dans un domaine peut appeler à d’autres innovations. Si nous avons développés l’innovation comptable sous-jacente nous avons fait qu’entrevoir les possibilités concernant les innovations en ressources humaines où l’inversion de la polarité du pouvoir laisse entrevoir

Machine à calculer Hollerith

Contrôle de gestion

ERP (SAP...)

Méthodes du CAM-I

Temps réel (et objets connecté)

Méthode temps

réel Innovation comptable

Innovation comptable

Innovation comptable 1890

1972

2008

1988

2015

(22)

21

une place centrale des objets connectés dans les rapports humains au sein de la firme.

Toutefois, nous laisserons les experts sur les questions des objets connectés et des récentes évolutions en ressources humaines apporter des réponses. Ces évolutions favorisent

« l’empowerment ». Elles impliquent des objets connectés, des méthodes comptables et des nouvelles pratiques de gestion des ressources humaines. Nous pouvons donc observer un trio d’innovation qui s’inter-influence mutuellement (figure 6).

Figure 6 : les grappes d’innovations liées au temps réel

Nous avons étudié la question des implications managériales liées à l’interrelation entre la méthode temps réel et les objets connectés (lien n°1). Demeure les thématiques de l’appropriation par le personnel des objets connectés (lien n°2) et la cohérence que doivent co-construire contrôle de gestion et ressources humaines pour réussir à motiver le personnel tout en améliorant la rentabilité (lien n°3). Une autre thématique, plus complexe, consiste à étudier comment ces évolutions construisent « une nouvelle réalité organisationnelle » et redéfinissent les logiques de pouvoir et de contrôle au sein de l’organisation (lien n°4).

Cependant, une telle réflexion impliquerait une maturité du temps réel qui n’est pas encore atteinte.

Une autre perspective, et pas des moindres, consiste à transférer la problématique du temps réel à d’autres secteurs d’activités que l’industrie de production de masse qui ne constitue qu’un segment infime de la totalité des entreprises. Toutefois, les méthodes de contrôle de gestion ont souvent été standardisées dans l’industrie lourde. En effet, les innovations liées à l’invention de la machine à calculer Hollerith ou des ERP ont d’abord été observée par les théoriciens auprès de cas industriels avant d’être transférée aux autres secteurs d’activité. Il semble donc logique que de telles problématiques ne soient abordée que dans un futur proche.

Temps réel (et objets connecté)

Méthode contrôle de

gestion

Gestion ressources

humaines 2008

2015 1 2 2012

3 4 Invention

Innovations

(23)

22 Bibliographie

Abbott A., (1988). The System of the Professions. An Essay on the Division of Expert Labor, Chicago, Chicago University Press. 435 p.

Akoka J., Lang D., (2002). « Places de marché électronique et reconfiguration des processus inter organisationnel », Actes du 7 ème colloque de l’AIM, Hammamet, Tunisie.

Alcouffe S., Mevellec P., (2012). « Analyse de la littérature sur l’ABC et proposition d’une taximonie », Comptabilité et innovation, France.

Anthony R. N., (1965). Planning and control systems, Boston, MA, USA, The Harvard Business School Press, 1 ère éd., 180 p.

Bescos P.-L., Mendoza C., (1994). Le management de la performance, Editions Comptables Malesherbes, Paris

Bollecker, M. (2007). La recherche sur les contrôleurs de gestion : état de l’art et perspectives.

Comptabilité, Contrôle, Audit 13 (1): 87-106.

Bourguignon A., (1997). « Sous les pavés la plage... ou les multiples fonctions du vocabulaire comptable : l'exemple de la performance », Comptabilité - Contrôle - Audit, 1997/1 Tome 3, p. 89-101.

Bouquin H., (2001). La comptabilité de Gestion, 2ème édition, Collection Que sais-je, Presses Universitaires de France (PUF), Paris.

Burlaud A., Simon C., (2003). Comptabilité de gestion, coûts-contrôle, Ed. Vuibert

Cooper R., Kaplan R. S (1991). The design of CMS, text, cases and readings. Englewood Cliffs: Prentice Hall.

De La Villarmois, O., Levant, Y., (2010). « Evaluation de coûts complets : des méthodes multiples pour un compromis entre précision et complexité », Revue Française de Comptabilité 433, Juin 2010.

Fornerino M., Godener A., (2006). « Etre contrôleur de gestion en France aujourd’hui :

conseiller, adapter les outils... et surveiller ». Finance Contrôle Stratégie 9 (1): 187-208.

(24)

23

Gayet A., (2014). « Perspective of real-time costing in product management: decision support system to maximize the value added ». Using cost and performance management systems to enhance competitiveness, Copenhagen : Denmark.

Gervais M., (2005). Contrôle de gestion, 8 ème Edition, Economica.

Giraud F., Langevin P., Mendoza C., (2008), "Justice as a rationale for the controllability principle: a study of managers’ opinions", Management Accounting Research, march, Vol. 19, issue 1, pp 32-44, 13 p.

Giraud F., (2002). « Responsabilité et contrôlabilité : une approche empirique », Finance Contrôle Stratégie, mars, pp 77-99, 23 p.

Getz I., (2012). Liberté & Cie, Flammarion, 421 p.

Gourgand M., (1984), Outils logiciels pour l’évaluation des performances des systèmes informatiques, Thèse d’Etat, Université Blaise Pascal.

Haouet C., (2008). « Informatique décisionnelle et management de la performance de l’entreprise ». Cahier de recherche du Laboratoire Orléanais de Gestion, num. 2008-01 Johnson T. H. et Kaplan R. S. (1987). Relevance Lost, Boston, MA: Harvard Business School Press.

Kaplan R. S., Anderson S. R., (2004). « Time-driven activity based costing », Harvard Business Review, 82, 11, nov.

Klammer T., (1996). Capacity Measurement & Improvement: A Manager’s Guide to Evaluating and Optimizing Capacity Productiviy, Irwin Professional Publishing.

Lambert C., (2005). La fonction contrôle de gestion. Contribution à l’analyse de la place des services fonctionnels dans l’organisation. Thèse de Doctorat, Paris.

Lorino P. (2009). « Le contrôle de gestion après la crise. Expertise obstinée du chiffre ou métier d’enquête complexe ? », Revue française de gestion, 2009/3 n°193, p.29-35

Lorino P., (2005). « Contrôle de gestion et mise en intrigue de l’action collective », Revue

française de gestion, 2005/6 no 159, p.189-211

(25)

24

Moralès J., (2012). « Le projet professionnel des contrôleurs de gestion : analyser des données pour aider les managers à prendre des décisions rationnelles ? ». Comptabilité, Contrôle, Audit. 19 (2) : 41-70.

Nonaka I., Takeuchi H., (1994). The Knowledge-Creating Company, Oxford University Press.

Prax J.-Y., (2012). Manuel du Knowledge Management, 3 ème édition, Dunod/Polia, 528 p.

Savall H., Zardet V., (1991). Maîtriser les coûts et les performances cachés. Le contrat d’activité périodiquement négociable, Economica, 1991, 351 p.

Tran S., (2004). Systèmes d’information inter-organisationnels et processus concurrentiels : le cas des places de marché électroniques

Tran S., (2003). Intermédiation électronique et structuration des filières industrielles : le cas des places de marché, Thèse de Sciences Economiques, Université Paris IX Dauphine, 423 p.

Wilensky H.L., (1967). Organizational Intelligence, New York: Basic Books Inc.

Zelinshi D., (2009). « Genèse et évolutions d’une innovation : la méthode ABC ». La place de

la dimension européenne dans la Comptabilité Contrôle Audit, Strasbourg : France.

Références

Documents relatifs

Le contrôle de projet face au contrôle de gestion, l’émergence d’une vision des coûts dans les systèmes de contrôle : les cas de VALEO et FARMAN... Wilfried

Or, l’évolution technique observée consiste à passer d’un appareil qui enregistre automatiquement les effets des actions à un centre qui peut connaître (par des

En résumé, le Third-party logistics (3PL) fait face à deux problèmes dont les réponses sont manquantes dans la littérature : un système de mesure de la

Selon cette méthode, non seulement les charges variables, mais également les charges fixes directes sont réparties entre les différents produits. En effet, si on considère qu’à

En outre dans le cas d’un risque de défaillance avéré de l’émetteur (risque de contrepartie) le titre doit faire l’objet d’une provision pour dépréciation qui viendra

•le plan opérationnel découle lui même du plan stratégique (dont l’horizon peut être plus long) qui est la stratégie de l’entreprise ainsi que les objectifs principaux

Dans un contrat « temporaires décès » l’assureur s’engage à verser un capital en cas de décès de l’assuré dans une période déterminée, en contrepartie du règlement

Si les données sur le graphique se présentent sous une forme ressemblant à une courbe connue (droite, parabole, exponentielle, etc.), on peut essayer de dégager une forme