• Aucun résultat trouvé

Quelles stratégies d’implantation vis-à-vis de la concurrence pour les entreprises multi-unités multi-marchés? Simulation par automate cellulaire

N/A
N/A
Protected

Academic year: 2021

Partager "Quelles stratégies d’implantation vis-à-vis de la concurrence pour les entreprises multi-unités multi-marchés? Simulation par automate cellulaire"

Copied!
26
0
0

Texte intégral

(1)AIMS 2005. Quelles stratégies d’implantation vis-à-vis de la concurrence pour les entreprises multi-unités multimarchés ? Simulation par automate cellulaire Sébastien LIARTE∗ A.T.E.R. Centre de recherche DMSP Dauphine Recherche en Management (UMR 7088) Université Paris-Dauphine Place du Maréchal de Lattre de Tassigny 75775 Paris cedex 16 Tél. : 01 44 05 44 59 Fax : 01 44 05 44 49 sebastien.liarte@dauphine.fr. Résumé :. L’objectif de cette communication est d’étudier la localisation des unités des réseaux de distribution. Le choix d’une zone d’implantation dépendant fortement de la localisation des concurrents, la localisation est ici appréhendée comme un mouvement concurrentiel. Pour chacune de leurs unités, les réseaux peuvent choisir entre une stratégie de proximité ou d’évitement de la concurrence. Les unités sont donc en totale interaction. Afin d’étudier cette dynamique complexe, nous proposons de construire un modèle de simulation informatique à travers un automate cellulaire. Notre modèle est, dans un second temps, confronté à des données empiriques afin d’en tester la robustesse et la pertinence.. Mots clés : Localisation – Concurrence – Réseau de distribution – Simulation – Automate cellulaire. ∗. L’auteur remercie vivement Olivier Brandouy et Bruno Beaufils pour leurs conseils et leurs encouragements.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 1.

(2) AIMS 2005. Le choix d’une zone d’implantation dépend d’un grand nombre de facteurs qui ont été dans leur grande majorité plus ou moins étudiés dans des travaux académiques : l’économie industrielle a très tôt tenté d’expliquer la localisation des firmes, le marketing a cherché l’emplacement idéal des commerces, la sociologie s’est penchée sur la constitution de réseaux, etc. Malgré une multitude de travaux réalisés dans un certain nombre de disciplines, la prise en compte de la concurrence, en tant que facteur explicatif de la localisation, reste encore marginale. Or, dès 1826, Von Thünen fut le premier historiquement à considérer la concurrence dans le processus d’implantation. La localisation optimale pour une entreprise, en cas de coûts de production invariants, correspond à l’emplacement le plus près du marché. Seuls les coûts de transport ayant un impact, toutes les firmes ont intérêt à s’implanter à proximité du marché. Faute de pouvoir s’installer toutes au même endroit, les entreprises vont devoir s’étaler dans l’espace. Von Thünen (1826) va alors s’intéresser au problème de la répartition de l’espace disponible entre les entreprises. Un siècle plus tard, les recherches ont fait une avancée considérable. Le marché n’est plus considéré comme concentré en un point mais dispersé sur la totalité d’un territoire. Comment les entreprises vont-elle se le répartir ? Weber (1929) propose alors la première théorie de localisation industrielle. Dans son modèle, le choix de la zone d’implantation doit minimiser les coûts de transport et les coûts de production dans un marché qui n’est plus concentré en un seul point. Les travaux se bornent, dans un premier temps, à étudier l’implantation d’une entreprise dans un environnement déjà structuré. Dans ce contexte, la localisation des autres entreprises ne peut modifier le calcul de l’entreprise et l’implantation d’une entreprise nouvelle ne peut réagir sur la situation des entreprises déjà installées. Ce n’est que tardivement que certains auteurs ont cherché à dépasser les premières limites extrêmement réductrices du début et prendre en compte les effets d’interaction entre concurrents lors des implantations. La première avancée est réalisée par Hotelling (1929) qui propose un cas simple à deux acteurs sur un marché linéaire. Ce cas est classiquement illustré à travers des vendeurs de glace, proposant des produits de qualité identique à un prix identique, sur une plage. Hotelling (1929) suppose le prix connu et la localisation inconnue. Palander (1935) va poser le problème de façon inverse : la localisation étant connue, comment vont se fixer les limites de leurs aires de marché et les prix qu’ils pratiqueront.Un autre apport sont les travaux de Lösch (1941), qui va être le premier à mener une analyse conjointe de la théorie de la localisation et de l’équilibre économique spatialisé. A travers des hypothèses abstraites et des processus d’optimisation, Lösch (1941) est en mesure de déduire la localisation optimale de diverses unités de production et de prédire le volume global de la production et la forme de la concurrence entre les entreprises. Les travaux de Lösch (1941) représentent les balbutiements de la recherche d’un équilibre général des localisations. En effet, à travers l’idée d’équilibre général, la localisation en tant que telle passe au second plan. C’est l’étude de l’impact de la localisation d’un agent sur la situation d’équilibre des autres agents qui passe au premier plan. In fine, rechercher un équilibre général équivaut à comprendre comment des actions et réactions réciproques engendrant des chaînes de déplacement débouchent sur une situation stable. De nombreuses difficultés et de limites ont cependant été mises en avant pour justifier l’impossibilité de calculer un optimum en intégrant l’espace. Un des problèmes essentiels, souligné par Beckman. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 2.

(3) AIMS 2005. (1968) et Von Boventer (1970), est le nouvel entant. En effet, pour Von Boventer (1970), toute décision individuelle, telle qu’une nouvelle localisation, créé une situation inédite qui brise l’équilibre antérieur. Tous les agents sont amenés à se déplacer s’ils veulent parvenir à un nouvel équilibre. Pour Beckman (1968), cette re-localisation nécessaire est impossible compte tenu du coût de délocalisation. Ces difficultés expliquent sans doute pourquoi les travaux s’intéressant aux stratégies concurrentielles de localisation demeurent rares en stratégie. Le nombre d’options par rapport à la concurrence apparaît pourtant limité puisque seulement deux stratégies de localisation sont envisageables : la proximité ou l’évitement. Ces deux stratégies peuvent avoir des objectifs contraires : pacifique ou agressif. Mais, si le nombre de stratégies est réduit, la situation n’en est pas simple pour autant. Les entreprises de distribution possèdent rapidement un grand nombre d’unités dans leur réseau. La situation n’est donc plus binaire (proximité ou éloignement). Des stratégies mixtes apparaissent puisqu’une proportion du réseau peut être implantée à proximité des concurrents alors qu’une autre proportion peut se retrouver isolée. Un réseau de distribution peut, par exemple, conduire une stratégie coopérative sur une zone géographique et une stratégie plus agressive dans une autre. Enfin, les différents réseaux de distribution se trouvent dans une situation d’interdépendance (Baumard, 2000) qui intensifie et accélère les relations concurrentielles (D’aveni, 1994). Les implantations des uns vont avoir une influence sur celles des autres. S’il est courant d’étudier les processus spatiaux à travers une modélisation mathématique, l’étude de phénomènes complexes reste plus rare. En effet, les modélisations mathématiques se bornent le plus souvent à la résolution de dérivées partielles ou d’équations différentielles. De manière informatique, ces équations se traduisent la plupart du temps en algorithmes itératifs discrets. Mais pour que de telles formalisations soient possibles, il est nécessaire que les variables possèdent des propriétés mathématiques particulières (en termes de continuité, mesurabilité, stabilité, etc.). Mais est-il possible de mettre en équation l’attraction ou la répulsion qu’exercent les unités des réseaux de réseaux de distributions les unes sur les autres ? Prendre en considération un grand nombre d’éléments en situation d’interactions s’avère une tâche toujours extrêmement difficile à moins de caricaturer à l’extrême cette situation. L’objectif de ce travail est donc double. Il s’agit dans un premier temps de construire un modèle de simulation simple permettant d’étudier, d’analyser et de reproduire la localisation des unités des réseaux de distribution en ne considérant que les relations concurrentielles comme facteur de localisation. Le fait d’expliquer exclusivement la localisation d’une unité par l’unique position de la concurrence (présence ou absence) en écartant totalement les questions de ressources (clients) constitue un objectif nouveau, en rupture avec les travaux classiques. Loin de proposer un équilibre général modélisé par des équations particulièrement fastidieuses à résoudre, le deuxième objectif est de fournir une explication et un outil particulièrement simples. Il s’agit ensuite de faire fonctionner le système créé dans un contexte particulier et de voir s’il est capable d’appréhender un phénomène réel afin de mieux l’analyser et de le comprendre. Afin de pouvoir faire fonctionner un modèle spatial pertinent, nous avons procédé à la construction d’un. modèle. de. simulation. permettant. au. modélisateur. d’expérimenter. virtuellement. les. conséquences de règles sur les comportements des firmes, le résultat spatial ainsi que leurs. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 3.

(4) AIMS 2005. évolutions dans le temps. La construction du modèle de simulation se fait en deux temps. Il s’agit tout d’abord de synthétiser de manière cohérente l’ensemble des connaissances pouvant expliquer le fonctionnement du système observé. Après avoir extrait un ensemble concis, représentatif et le moins contradictoire possible de phases significatives du fonctionnement, il s’agit de les exprimer sous formes de règles.. 1. Les stratégies de localisation vis-à-vis de concurrence : la recherche de proximité ou l’évitement. la. Les stratégies de localisation des réseaux de distribution vis-à-vis de la concurrence sont très peu nombreuses et très simples. Les enseignes peuvent choisir pour chacune de leurs unités entre un emplacement isolé ou proche de la concurrence (Cliquet, 1992). L’isolement traduit une volonté d’évitement alors que la recherche de proximité peut être synonyme de coopération ou d’affrontement. 1.1. L’ELOIGNEMENT GEOGRAPHIQUE COMME STRATEGIE DE LOCALISATION L’évitement de la concurrence peut permettre de construire le réseau de distribution sans devoir faire face à des réactions concurrentielles trop violentes. L’éloignement géographique permet également l’appropriation de zones géographiques encore vierges que la concurrence ne pourra conquérir aisément.. 1.1.1. L’éloignement géographique comme stratégie de défense Le premier objectif pour le réseau de distribution désirant implanter une nouvelle unité, une fois le marché cible pénétré, est de demeurer dans la compétition. Il est important de ne pas provoquer ou d’initier une attaque frontale avec les différents adversaires, car si elle intervient trop tôt, elle peut s’avérer fatale. Ce comportement a été mis en évidence dans la taxonomie animale de Fudenberg et Tirole (1984) à travers la stratégie du puppy dog qui consiste à paraître petit et faible pour sembler doux et inoffensif. Dans les faits, cela se traduit par un sous-investissement de la part du nouvel entrant pour éviter une réaction agressive de la part de son concurrent. Il s’agit d’un signal de marché fort (Porter, 1982) qui fournit une indication sur les objectifs de la firme. De plus, opter pour une localisation différente de celles de ces concurrents permet de se différentier. En effet, pour certaines caractéristiques, le choix optimal varie d’un consommateur à un autre. Il est, par exemple, impossible de déterminer la couleur optimale d’une voiture. Il s’agit ici de différentiation horizontale. Dans le cas particulier de la localisation, où chaque consommateur n’accorde pas la même préférence à un lieu géographique, il s’agit de différenciation spatiale (Tirole, 1993). Les habitants de Paris préfèrent, par exemple, généralement les biens disponibles à Paris à des bien identiques mais disponibles à New York. Le simple fait de localiser un point de vente sur une zone particulière le différencie de ceux qui sont situés sur d’autres aires géographiques. Ceci peut être tout à fait utile pour des régions proposant des biens ou des services très peu différenciables de façon intrinsèque.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 4.

(5) AIMS 2005. 1.1.2. Le renforcement des positions concurrentielles : l’exploitation de l’avantage pionnier Conquérir en premier un territoire engendre des effets positifs qu’un nouvel entrant doit exploiter s’il veut s’imposer comme un véritable acteur du secteur dans lequel il évolue. Des travaux académiques tant en théorie économique qu’en comportement du consommateur ont montrés l’existence et les conséquences positives de l’avantage pionnier. Le pionnier peut, en arrivant le premier sur un marché géographique, ériger des barrières à l’entrée à travers la maîtrise d’un leadership technologique. Ce leadership trouve son origine dans les avantages procurés par la courbe d’expérience (Smiley et Ravid, 1983) et de l’avantage pris dans la course à recherche et développement (Gilbert et Newbery, 1982). Le pionnier bénéficie également d’avantages liés au comportement des consommateurs. Le premier entrant capte l’ensemble des innovateurs et des adopteurs précoces. Ce type de consommateurs est plus réticent envers les entreprises arrivant par la suite (Peterson, 1982). Les suiveurs tendent à ne récolter qu’un marché résiduel composé de consommateurs moins motivés et moins fidèles. Le changement a un coût pour les individus, ce qui a pour conséquence de les rendre réfractaires à tout changement de point de vente (Hoch et Deighton, 1989). En présence de coûts de changement, les suiveurs doivent investir des ressources supplémentaires afin d’attirer les clients. Un autre avantage de l’évitement est de permettre d’occuper le premier les « meilleures » positions. Il peut être intéressant pour une firme de prendre un marché avant que celui-ci ne soit convoité par les concurrents. Comme le souligne Kœnig, « si une firme est à même de s’engager de manière précoce et importante avant tout autre concurrent, elle peut trouver là un moyen de s’arroger, sinon la totalité, du moins une part conséquente du marché » (Kœnig, 1996 : p. 366). En concentrant des capacités de production ou de distribution excédentaires sur un segment de population particulier, une entreprise peut dissuader la concurrence de pénétrer ce marché (Lieberman, 1987 ; MacMillan, 1983). Il s’agit là de stratégie de préemption. Dans le cas des réseaux de distribution offrant des biens ou des services substituables, deux types de ressources apparaissent comme critique (au sens de Diericks et Cool, 1989) : les consommateurs et les emplacements disponibles. En effet, les consommateurs et les emplacements représentent des ressources relativement rares (elles ne sont pas inépuisables), appropriables (il existe des effets d’habitude, de coût de changement, d’attachement qui rendent difficile pour un consommateur le passage d’un distributeur à un autre) et il existe une demande spécifique pour ces ressources (celles des distributeurs). Une stratégie de préemption permet donc de monopoliser ces actifs critiques. 1.2. LA PROXIMITE GEOGRAPHIQUE COMME STRATEGIE DE LOCALISATION Une autre option stratégique possible est d’implanter ses unités à proximité de celles de ses concurrents. Ce choix n’est bien évidemment pas neutre et va avoir des conséquences tant pour la nouvelle unité que pour celles déjà établies.. 1.2.1. Profiter des voisins à travers les effets d’agglomération Marshall (1920) a très tôt souligné l’importance de certaines économies externes engendrant des effets d’agglomération des industries. Les économies d’agglomération (Weber, 1929) naissent du. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 5.

(6) AIMS 2005. partage des infrastructures entre les firmes (transport, communication, etc.) et de la création de synergies positives par la coopération entre entreprises. Une multitude de travaux empiriques (pour une synthèse voir Best, 1990; Piore et Sabel, 1984; Porter, 1990) a montré l’existence de ces phénomènes d’agglomération à travers l’étude de nombreuses régions spécialisées dans un domaine particulier (Italie du Nord, Sillicon Valley, Sillicon Glen, Route 128, etc.). Même si les facteurs générateurs d’économies d’agglomération peuvent différer, ce qui a été vérifié pour la localisation des firmes industrielles, l’a également été pour les commerces. Le regroupement des magasins proposant des produits similaires a depuis longtemps été observé : les magasins d’habillement et de chaussures se multiplient dans les centres commerciaux, les vendeurs de voiture sont dans la plupart des cas très proches les uns des autres, etc. (Fisher et Harrington, 1996). L’agglomération géographique est réductrice d’incertitude tant pour les firmes que pour les consommateurs (Weber, 1972). Pour les entreprises, le regroupement des commerces fournit, pour les entrants les plus récents, des informations sur la faisabilité de leur projet et sur l’existence de la demande par l’observation des firmes établies. Le regroupement géographique permet également de réduire le coût de recherche d’informations pour le consommateur. Du fait du principe de l’effort minimum (Zipf, 1949), les consommateurs vont privilégier les zones où l’offre est concentrée. La recherche d’informations nécessaires à la prise de décision d’achat (caractéristiques techniques des produits, prix, etc.) est simplifiée lorsque l’ensemble de l’offre est disponible au même endroit. Les comparaisons sont ainsi facilitées. La complémentarité des commerces regroupés fait également naître, par association des unités de vente, des économies. Lorsque les consommateurs sont les mêmes pour différents magasins (ce qui est le cas pour des magasins complémentaires), les individus peuvent regrouper leur visite et se déplacer qu’une fois afin de minimiser leur coût de transport par achat (Jones et Simmons, 1993). Il existe des externalités positives inter-magasins (parfois appelées externalités de demande) qui permettent un accroissement du chiffre d’affaires (Fujita et Thisse, 2002). Le regroupement commercial génère une consommation plus importante qui se répercute sur l’ensemble des magasins. Nelson (1958) est le premier à avoir mis en évidence une relation entre le principe de l’attraction cumulative et la localisation des commerces. Nous venons d’examiner jusqu’à maintenant des raisons poussant les entreprises à implanter leurs points de vente les uns des autres. Les justifications trouvent leurs origines dans une logique d’efficacité économique, c’est-à-dire de maximisation du profit. Le courant néo-institutionnaliste apporte un nouvel éclairage sur la problématique de localisation. Ce courant suggère que l’adoption par les organisations de très nombreuses pratiques (notamment la localisation) s’explique par le souci de se conformer à une pratique qui est perçue comme légitime (Meyer et Rowan, 1977). Afin d’obtenir une certaine légitimité dans leur secteur, les firmes répondent à des pressions régulatrices et normatives similaires (Orru, Biggart et Hamilton, 1991), imitent les firmes qui connaissent le succès (Haveman, 1993) ou simplement adoptent les pratiques les plus courantes propres au secteur dans lequel elles évoluent.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 6.

(7) AIMS 2005. 1.2.2. La proximité géographique comme arme concurrentielle Lorsque les points de vente concurrents ont les mêmes ressources, c’est-à-dire les mêmes consommateurs, il est possible de prévoir l’accroissement de l’intensité concurrentielle lors d’implantation dans les mêmes zones. Les travaux en écologie des populations ont en effet très tôt souligné que l’intensité concurrentielle est fonction de la similarité des ressources nécessaires aux entreprises. Plus les ressources nécessaires à l’entreprise sont similaires, plus le potentiel de concurrence est important (Hannan et Freeman, 1977 ; 1989). Dans cette optique, des entreprises partageant des ressources identiques sont des concurrents parfaits alors que des firmes utilisant des ressources totalement différentes ne se trouvent pas en concurrence. Des points de vente situés à proximité et offrant des produits substituables se partagent les mêmes ressources et se trouvent donc en situation de concurrence parfaite. Les points de vente ne se trouvant pas sur la même zone géographique ne s’adressent pas aux mêmes clients. Dans ce cas, les points de vente ne sont pas concurrents. 1.3. SYNTHESE Il apparaît clairement que deux stratégies de localisation sont envisageables : la proximité ou l’éloignement. Ainsi, deux forces opposées régissent les relations entre unités des différents réseaux de distribution. Une force centripète conduit les unités à se regrouper alors qu’une force centrifuge les éloigne. Les entreprises doivent arbitrer afin d’aller dans le sens d’une des forces et ce pour chacune des unités composant le réseau (tableau 1). Tableau 1. Les stratégies de localisation possibles pour chaque unité. STRATEGIE 1 : L’EVITEMENT. STRATEGIE 2 : LA PROXIMITE. Améliorer la position de l’entreprise. Éviter des réactions concurrentielles importantes • Envoyer un signal de non-aggressivité • Différenciation horizontale. Bénéficier des économies d’agglomération • Réduction de coût • Réduction de l’incertitude • Apparition de synergie • Accroissement de la légitimité. Dégrader les positions des concurrents. Construction d’un avantage pionnier • Leadership sur les marchés • Exploitation des coûts de changement des consommateurs • Préemption des ressources rares. Gêner le concurrent en accaparant ses ressources. lui. L’existence de ces deux forces opposées conduit les entreprises à hésiter entre le regroupement géographique et l’éloignement. Les entreprises multi-unités n’optent que très rarement pour une stratégie pure. Il s’agit en fait de trouver le bon équilibre entre proximité et éloignement. Une proportion du réseau de distribution est située à proximité des unités adverses alors qu’une autre. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 7.

(8) AIMS 2005. partie est isolée. La position d’un réseau de distribution est déterminée par sa taille. Plus son réseau est important par rapport à la taille de celui des concurrents, plus sa position sur le marché est importante. Il est donc possible que le choix de la stratégie spatiale dépende des tailles relatives des réseaux. Le tableau 1 synthétise l’ensemble des stratégies possibles pour un réseau de distribution.. 2. Construction du modèle de simulation Afin d’étudier la dynamique produite par la localisation d’un grand nombre d’unités interdépendantes entre elles, nous avons construit et utilisé un automate cellulaire. Le recours à ce type d’outil de modélisation n’est pas totalement nouveau. Notre travail s’inscrit dans la lignée de plusieurs travaux plus ou moins anciens. Le modèle d’origine est celui du « jeu de la vie » de Conway (Gardner, 1970). Ce modèle tente de reproduire le système cellulaire biologique. La naissance, la vie et la mort des cellules ne dépendent exclusivement que de l’état des cellules voisines. Ce modèle met déjà en évidence un comportement global complexe à travers des interactions locales simples : la solitude ou l’étouffement. Les travaux de géographie s’intéressant à l’évolution des villes sont également, pour nous, source d’enrichissement. Citons par exemple le modèle de White et Engelen (1993) sur la ville de Cincinnati ou le modèle de Dubos-Paillard, Guermond et Langlois (2004) qui s’intéresse à l’évolution de l’espace rouannais entre 1950 et 1994. Le recours aux automates cellulaires n’est pas courant en sciences de gestion et plus particulièrement en management stratégique. Toutefois, Lomi et Larsen (1996) étudient à partir d’un modèle très simple, inspiré du « jeu de la vie », la localisation des entreprises. Leur modèle est très proche, du moins dans l’inspiration, de celui que nous cherchons à construire. 2.1. LA NOTION GENERALE D’AUTOMATE CELLULAIRE Les automates cellulaires sont définis comme l’interconnexion d’un ensemble d’automates à nombre fini d’états dans un espace donné (Von Neumann, 1961). Certains auteurs les considèrent aujourd’hui comme des systèmes multi-agents particuliers où les cellules-agents sont des éléments contigus et fixes (Ferber, 1997). Un automate cellulaire est un objet mathématique abstrait ayant un fonctionnement, c’est-à-dire capable de produire un processus. Ce processus est représenté par une suite finie d’états de l’automate, depuis un état initial jusqu’à l’état final. Le fonctionnement global de l’automate cellulaire consiste à « calculer » un état global à chaque instant à partir de l’état global à l’instant précédent. Il est possible d’expliquer le fonctionnement global à partir de mécanismes élémentaires à partir de son niveau local, les cellules. Un automate cellulaire est une organisation structurée de cellules interconnectées qui dépendent les unes des autres. Elles forment un système cellulaire. Ce système cellulaire peut être spatialisé ou non. Nous utiliserons ici les organisations retenues dans les travaux en géographie, c’est-à-dire des organisations spatiales bidimensionnelles des cellules à travers un maillage topologique. L’organisation des cellules est définie par les liens de voisinage entre mailles.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 8.

(9) AIMS 2005. Chaque cellule est donc une maille d’un domaine. Elle est également une machine formelle appelée automate à nombre d’états finis. Cet automate est défini par trois entités mathématiques : un ensemble de symboles, un canal d’entrée et un mécanisme de transition. L’ensemble des symboles sert à coder les différents possibles de l’automate. Le canal d’entrée lit les motifs d’entrée, c’est-à-dire les séquences structurées des symboles d’état des cellules voisines. Le motif d’entrée doit en général être interprété par une fonction d’évaluation ou être associé à une probabilité de transition. Le mécanisme de transition permet de déterminer l’état de la cellule à l’instant suivant, à partir de son instant présent et de l’évaluation de l’état de ses voisins. Ce mécanisme peut être fonctionnel. Dans ce cas, un même état initial donnera toujours la même suite d’états successifs. Mais ce mécanisme peut être également basé sur un tirage aléatoire de l’état suivant une probabilité de transition. Le fonctionnement global de l’automate cellulaire résulte de la combinaison des fonctionnements des automates à nombre d’états finis. Afin de coordonner le fonctionnement des cellules, il est nécessaire de définir un pas de temps. 2.2. DESCRIPTION DU MODELE UTILISE L’espace du modèle est bidimensionnel, initialement rectangulaire et découpé en N cellules à support carré. N est défini par l’utilisateur. L’automate utilise la topologie métrique euclidienne.. 2.2.1. Structure de l’automate L’ensemble S des états est composé de trois états possibles (n = 3). Un état est une valeur descriptive de l’espace de la cellule. Les cellules du modèle peuvent être vide, occupée par l’entreprise 1 ou occupée par l’entreprise 2. Les cellules sont regroupées en classes. Une classe C(s) est l’ensemble des cellules ayant le même état s. Il existe dans notre modèle trois classes. Chaque individu i du domaine naît, vit et meurt. Chaque individu est caractérisé par sa localisation pi et son état si qui sont constants durant toute sa vie. Il possède un âge gi = t-ni, où ni et l’instant de naissance et t le temps. La durée de vie d’une classe peut être aléatoire (la mort de certaines cellules occupées par l’entreprise 1 ou par l’entreprise 2, est définie de façon aléatoire) ou déterminée (certaines classes peuvent avoir une durée de vie infinie). Les règles de transition rk sont représentées sous formes de triplet rk = (sk, s’k, Fk) où sk est l’état initial, s’k, l’état final de la transition et Fk la fonction d’évaluation. L’ensemble des règles de base est noté B. R(s) est l’ensemble des règles de B dont l’état initial est s :. R ( s ) = {rk ∈ B | rk = ( sk , s 'k , Fk ) et sk = s}. 2.2.2. Fonctionnement de l’automate Il est nécessaire de préciser le mécanisme de transition T permettant à la cellule i à l’instant t, entouré de l’environnement ai(t), de passer de l’état si(t) à l’état si(t+1) à l’instant suivant. Ce mécanisme consiste à sélectionner dans la base de connaissance B, la liste R(si(t)) des règles applicables à l’état initial si(t).Les règles de transition nous intéressant particulièrement sont les règles permettant le passage d’une cellule vide à une cellule occupée par une entreprise. L’automate détermine une. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 9.

(10) AIMS 2005. stratégie de localisation (évitement ou proximité) selon une probabilité qui, elle-même, est fonction du rapport des tailles de réseau (figure 1). L’automate examine le nombre de cellules occupées entourant chaque cellule vide. Il comptabilise le nombre de concurrents ci se trouvant dans le voisinage de la cellule. En fonction de la stratégie choisie, la cellule vide peut devenir occupée ou rester vide. En effet, à chaque stratégie est associé un nombre minimum cimin et un nombre maximum cimax de concurrent. cimin et cimax sont définis par l’utilisateur pour chaque stratégie. Le nombre d’implantations par réseau ainsi que les morts d’unités sont prédéfinis par l’utilisateur pour chaque période t. Les implantations sont exclusivement le fruit du fonctionnement de l’automate. En revanche, les morts d’unités se font de façon aléatoire.. Figure 1. Ordinogramme de l’automate. Examen de la taille relative de chaque réseau (calcul des ratios na/ nb et nb/ na) à l’instant t-1. Association d’une probabilité p(S1) de suivre la stratégie 1 (évitement) en fonction de la taille relative de l’entreprise. La probabilité de suivre la stratégie 2 est : p(S2) = 1 - p(S1). Examen du voisinage de chaque cellule vide. Les cellules remplissent les conditions de S1 ou de S2 OUI. Choix aléatoire parmi les cellules remplissant les conditions. NON. La cellule reste vide. La cellule vide devient occupée. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 10.

(11) AIMS 2005. Le voisinage des cellules est celui de Moore, c’est-à-dire les huit cellules entourant chaque case. Il est possible à l’utilisateur de faire varier le rayon du voisinage afin d’adapter la notion de proximité en fonction de l’objet de l’étude. Le voisinage de Moore de rayon 2 comprend les 24 cellules voisines.. Figure 2. Voisinage des cellules. rayon 2 rayon 1 i. 3. Application à la localisation des restaurants McDonald’s et Quick à Paris de 1984 à 2002 Afin de tester notre modèle, nous avons mené une étude empirique s’intéressant à la localisation des restaurants McDonald’s et Quick à Paris entre 1984 et 2002. METHODOLOGIE DE L’IMPLANTATION DES RESTAURANTS MCDONALD’S ET QUICK Les implantations des restaurants McDonald’s et Quick à Paris durant la période 1984 et 2002 ont été choisies pour être confrontées à notre modèle. Nous avons décidé de nous concentrer sur un sous-segment très précis du segment de la restauration afin de considérer les produits offerts de façon substituable. Les éléments des menus de McDonald’s et de Quick peuvent être considérés comme substituables : les prix, le service et les caractéristiques du point de vente sont en effet identiques pour les deux enseignes. La différenciation ne peut se faire pour ces deux entreprises qu’au niveau de la localisation. Les entreprises d’un soussegment ne sont donc pas directement en concurrence avec les enseignes présentes dans les autres sous-segments. Dans le secteur de la restauration rapide, il est même possible de considérer qu’elles sont complémentaires (Underhill, 2004). Les entreprises McDonald’s et Quick se prêtent bien à l’étude des stratégies de localisation car les deux sont toujours propriétaires des murs lors d’une nouvelle implantation. Même si les réseaux sont mixtes (unités en propre et franchises), la prise de décision reste très centralisée au niveau de la direction des entreprises qui gère avec attention le développement du réseau et du patrimoine immobilier.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 11.

(12) AIMS 2005. L’ensemble des restaurants de hamburgers appartenant à une chaîne a été identifié année par année (de 1984 à 2002) dans les pages jaunes téléphoniques. Cette première étape nous a permis de connaître les années d’ouverture et de fermeture de chaque restaurant. Les informations ont ensuite été recoupées par les renseignements fournis par l’INSEE à travers la base de données SIRENE recensant l’ensemble des entreprises et de leurs établissements en France, que ceux-ci soient actuellement ouverts ou qu’ils aient cessé toute activité. Deux critères ont été retenu pour le choix de la zone géographique : disposer d’un nombre d’unités limité (pour permettre l’observation) mais suffisant (pour pouvoir tirer des conclusions fiables) et avoir la possibilité d’étudier une aire géographique fermée et imperméable. Le périphérique entourant la ville constitue une barrière qui représente un moyen efficace pour délimiter une zone de chalandise particulière. Notre zone d’étude est donc isolée et imperméable au pouvoir d’attraction des points de vente extérieurs à Paris qui pourraient, sans l’existence de cette barrière, venir concurrencer ceux situés intra muros. Les effets de frontières posent la plupart du temps des problèmes d’analyse. Ils sont ici positifs. De plus, du fait de certaines caractéristiques particulières (taille de la population active et étudiante, nombre important de touristes, etc.), Paris a très tôt été une zone privilégiée par les firmes évoluant sur le segment des restaurants de hamburgers, comme en témoigne le nombre d’unités (plus de 100 en 2002). D’avis d’expert, le marché parisien n’est pas arrivé à maturation et de nouvelles unités peuvent encore s’ouvrir sans que la quantité de clients potentiels soit un problème. Cette caractéristique de la zone étudiée permet donc d’évacuer le paramètre des ressources en tant que facteur explicatif des stratégies. La proximité de plusieurs enseignes est viable dans la plupart des quartiers de Paris. Ainsi, les aires où plusieurs unités concurrentes se retrouvent, ne présentent pas de caractéristiques communes pouvant laisser présager une influence de la population (zone touristique, présence de gares, etc.). Les établissements ont été placés sur une carte de Paris, année par année. Nous avons ensuite numérisé la carte de Paris sur un carroyage doté de mailles carrées de 166m de côté. Nous avons numérisé les frontières de Paris ainsi que les espaces verts et les grands ensembles urbains où il est impossible de construire un restaurant. Ces cellules font parties intégrantes de l’automate cellulaire. Elles ont une durée de vie infinie. Figure 3. Carte de Paris avant numérisation. Figure 4. Carte de Paris après numérisation. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 12.

(13) AIMS 2005. Cellule vide Échelle :. Seine. Espaces verts. 1000 m Bâtiments. Périphérique Cellule hors de Paris La carte numérisée de paris est constituée de 3475 cellules représentant des carrées de surface de 27788,89 m2. Paris est numérisé par une surface représentant 96,57 km2. La superficie réelle de Paris étant de 105 km2, il est possible d’avancer que notre numérisation est proche de la réalité. 3.2. CONSTITUTION DES CELLULES ET REGLE DE VIE Un état est une durée de vie est attribué à chaque cellule. Le périphérique, les espaces verts, les bâtiments de grandes tailles, la Seine et les cellules marquant l’extérieur de Paris ont une durée de vie infinie. Les autres états ont une durée de vie aléatoire. La naissance sur les cellules vides dépend des règles de transition alors que les règles de mort sont aléatoires. 3.3. LES REGLES DE TRANSITION La base de connaissances est constituée de onze règles de transition. Tous les changements d’état proviennent de la simulation. Le périphérique, les espaces verts, les bâtiments de grandes tailles, la Seine et les cellules marquant l’extérieur de Paris demeurent dans l’état antérieur à la période suivante. Pour les cellules vides à l’intérieur de Paris, la transition vers un état occupé dépend de la stratégie choisie en fonction de la taille relative des entreprises et donc du voisinage. Les probabilités p(S1) et p(S2) ainsi que les seuils de na/ nb et nb/ na correspondant à chaque stratégie sont attribués par l’utilisateur. Le tableau 2 récapitule les principaux paramètres introduits dans la simulation. Tableau 2. Principaux paramètres du modèle de simulation Nombre de cellules actives. 3475. Taille du voisinage. Rayon 1 (166 mètres). Type de voisinage. Voisinage de Moore. Nombre de périodes t. 19. Limite de l’espace. Espace borné. Règles d’implantation. Stratégie d’évitement. Nombre minimal de concurrents cimin. 0. Nombre maximal de concurrents cimax. 0. Stratégie de proximité. Nombre minimal de concurrents cimin. 1. Nombre maximal de concurrents cimax. 8. Règles de disparition. Aléatoires. 3.4. RESULTATS Une fois le modèle de simulation créé, nous l’avons paramétré puis nous avons effectué une série de simulation afin d’étudier de manière virtuelle les interdépendances entre unités concurrentes et leurs impacts sur la localisation géographique des réseaux de distribution. Nous ne nous intéressons pas précisément à la localisation des unités dans l’espace mais à leurs relations entre elles. Nous n’allons. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 13.

(14) AIMS 2005. donc pas procéder à une comparaison de carte géographique mais à une étude des points de contacts.. 3.4.1. Seuils et stratégies de localisation Le but de cette communication est de construire un outil permettant de reproduire les comportements de localisation des réseaux de distribution. Pour reproduire celui des restaurants McDonald’s et Quick, il a été nécessaire d’attribuer les seuils de changement na/ nb et nb/ na ainsi que les probabilités p(S1) et p(S2) associées. Pour paramétrer le modèle, deux possibilités sont envisageables : donner des valeurs en fonction des discours des acteurs ou par tâtonnement. Il s’agit ici de mettre en lumière les stratégies de localisation vis-à-vis de la concurrence. Or, l’intégration de l’autre, de l’adversaire, dans la prise de décision stratégique est quelque chose de mal accepté par les acteurs. Même si elle l’admette tacitement, aucune personne de chez McDonald’s ou de chez Quick n’a voulu officiellement parler de stratégie vis-à-vis de la concurrence. De plus, cette recherche portant sur une longue période, il est très difficile de rencontrer des acteurs présents dès le début de la période d’observation et pouvant témoigner de la stratégie suivie. Le modèle a donc été paramétré par tâtonnement jusqu’à trouver les paramètres qui assurent la meilleure convergence des résultats virtuels et des résultats réels. Le paramétrage correspond en fin de compte aux stratégies d’implantation des enseignes. Pour McDonald’s, le modèle a été paramétré de la façon suivante :. p(S1). 30 %. 72 %. 100 %. na/ nb 0. 1. 2,2. 3. En position de faiblesse (na/ nb < 1, c’est-à-dire que la taille de son réseau est inférieur à celui de Quick), McDonald’s adopte une stratégie d’évitement total. Autrement dit, McDonald’s suit la stratégie S1 (évitement) dans 100 % des cas. Il s’agit pour elle d’éviter la pression concurrentielle du leader. Il est également important pour l’entreprise nord-américaine d’accaparer les meilleurs emplacements dès le début. Lorsque l’entreprise domine, elle choisit d’éviter le concurrent dans quasiment deux tiers des cas (72 %). Avec la domination, débute alors la recherche de proximité. Même si gêner son concurrent ne devient pas une priorité, McDonald’s répond parfois à des attaques trop violentes ou réalisées dans des zones géographiques sensibles. La stratégie générale d’implantation reste toutefois la découverte de nouveaux marchés encore inexplorés par le concurrent. En période de très forte domination (na/ nb > 2,2), McDonald’s implante très fréquemment ses unités à proximité de celles de son concurrent (70% des cas). La forte domination (en nombre d’unités) encourage le géant américain à exercer une pression concurrentielle plus forte sur Quick. C’est en période de forte. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 14.

(15) AIMS 2005. domination que McDonald’s force son concurrent belge à fermer un certain nombre de points de vente en l’entourant de plusieurs unités. Cette stratégie de proximité lui permet de récupérer des emplacements particulièrement intéressants. De façon similaire, le paramétrage concernant les stratégies de Quick révèle ses choix stratégiques en ce qui concerne le choix des zones d’implantation :. p(S1). Nb/ na. 0%. 0. 100%. 0,3. 0,5. 14%. 100 % 3. 0,8. I Il est aisé de constater que Quick n’adopte pas la même stratégie de localisation que le géant américain. Les changements de stratégie sont plus nombreux. L’entreprise belge a une stratégie beaucoup plus fluctuante. Il est intéressant de noter que la période de changements répétés correspond à la période de domination de McDonald’s (nb/ na < 0,8). Quick hésite entre conquérir de nouveaux territoires en évitant la pression du leader et exploiter des effets d’agglomération. Lorsque l’entreprise belge est très fortement dominée (nb/ na < 0,3), les bénéfices de la proximité l’emportent et Quick s’implante à proximité de son concurrent dans 100 % des cas (L’évitement a une probabilité égale à 0 d’être choisi). Lorsque nb/ na est compris entre 0,3 et 0,5, la stratégie de localisation est opposée : c’est l’évitement de la concurrence dans 100 % des cas. Une deuxième phase de recherche de proximité toutefois moins intense (il y a évitement dans 14 % des cas) apparaît lorsque nb/ na est compris entre 0,5 et 0,8. Nous pouvons remarquer que Quick s’adapte de façon radicale puisque le choix entre les deux stratégies de localisation se fait de manière peu nuancée. Les stratégies ne sont quasiment pas mixtes. Lorsque Quick domine le marché ou quasiment (nb/ na < 0,8), il opte pour l’évitement total. À l’instar de McDonald’s, la domination permet de pouvoir conquérir des marchés encore vierges et enrichir son portefeuille d’emplacements recherchés.. 3.4.2. La localisation des unités dans l’espace La situation de départ en 1984 pour la simulation est conforme à la réalité. Pour les périodes suivantes, les localisations diffèrent compte tenu des probabilités associées à chaque stratégie et des emplacements libres. La figure 5 représente la situation réelle (figure 5a) et la situation simulée (figure 5b) en 1994. Neuf McDonald’s sont isolés dans la réalité contre dix après simulation. Le nombre de Quick isolé est le même, quatre, en réel et en situation simulée. La proportion d’unités isolées et placées à proximité du concurrent pour les deux enseignes est respectée par la simulation. De plus, par rapport à la réalité, l’activité se développe de manière semblable à travers la simulation dans le centre de Paris. Les premières implantations s’étant réalisées dans le centre de Paris, sur la. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 15.

(16) AIMS 2005. rive droite, cette zone est devenue la zone privilégiée d’implantation des réseaux de restauration rapide.. Figure 5a. Localisation réelle des restaurants McDonald’s et Quick en 1994. Cellule vide Bâtiments Seine Périphérique Espaces verts Cellule hors de Paris Quick McDonald’s. Échelle :. 1000 m. Figure 5b. Localisation simulée des restaurants McDonald’s et Quick en 1994. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 16.

(17) AIMS 2005. Cellule vide Bâtiments Seine Périphérique Espaces verts Cellule hors de Paris Quick. McDonald’s Échelle :. 1000 m. Figure 6a. Localisation réelle des restaurants McDonald’s et Quick en 2002 Cellule vide Bâtiments Seine Périphérique Espaces verts Cellule hors de Paris Quick McDonald’s. Échelle :. 1000 m. Figure 6b. Localisation simulée des restaurants McDonald’s et Quick en 2002. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 17.

(18) AIMS 2005. Cellule vide Bâtiments Seine Périphérique Espaces verts Cellule hors de Paris Quick McDonald’s Échelle :. 1000 m. La figure six représente la situation réelle (figure 6a) et la situation simulée (figure 6b) en 2002. Trente et un McDonald’s sont isolés dans la réalité contre trente-trois après simulation. Six Quick sont isolés dans la réalité contre sept après simulation. La proximité touche dans la réalité trente-trois McDonald’s et vingt et un Quick. Après simulation, il est possible d’observer trente et un McDonald’s et vingt Quick ayant choisi la proximité. Là encore, la proportion entre unités isolées et placées à proximité du concurrent pour les deux enseignes est respectée par la simulation. Le tableau 2 synthétise le nombre d’unités placées à proximité des concurrents ou isolées par les enseignes et par le programme créé pour les années 1994 et 2002.. Tableau 2. Nombre d’unités placées à proximité des concurrents ou isolées pour chaque enseigne pour les années 1994 et 2002 Proximité. McDonald’s. Quick. Évitement. Réel. Simulé. Réel. Simulé. 1994. 18. 17. 9. 10. 2002. 33. 31. 31. 33. 1994. 15. 15. 4. 4. 2002. 21. 20. 6. 7. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 18.

(19) AIMS 2005. Il est impossible pour 2002 de comparer les évolutions des localisations dans l’espace. Les disparitions aléatoires ont principalement touché les unités au centre de Paris, ce qui n’a pas été le cas dans la réalité. Une comparaison point par point n’est donc pas possible. De plus, il ne s’agit ici que d’une simulation. Il faudrait en reproduire une grande quantité pour dégager un comportement en tendance. Toutefois, il possible de remarquer l’implantation par petits groupes localisés qui se retrouve dans la réalité.. 3.4.3. Le nombre de contacts désirés par les firmes La comparaison cellule par cellule n’ayant pas vraiment de sens ici, il est nécessaire de construire un indicateur nous permettant des comparaisons plus fines. Il est en effet nécessaire de s’intéresser au nombre de contacts désirés par la firme (ncd) et non exclusivement au nombre d’unités ayant été implantées à proximité d’un concurrent. Tenir compte des tailles de réseaux respectifs pour obtenir un indicateur comparable entre firmes (PcdAt) est également un point qu’il important de ne pas négliger. En effet, plus une enseigne ouvre de magasins, plus le nombre de contacts avec les concurrents a des chances d’être élevé. Dans ce cas, un raisonnement en termes de fréquence permet de gommer cet effet. La figure 7 représente l’évolution du nombre de contacts désirés par les firmes en fonction de la taille de leur réseau. t. Pcd At =. ∑ ncd. At. t =1. NA. ncdAt : nombre de contacts désirées par la firme A à la période t NAt : taille du réseau de l’entreprise A à la période t. Figure 7. Évolution du nombre de contacts désirés par les firmes en fonction de la taille de leur réseau1 (PcdAt). McDonald's Quick. Les deux réseaux débutent leurs activités sans rechercher la proximité du concurrent. Cette stratégie d’éloignement est maintenue par McDonald’s jusqu’en 1990 et jusqu’en 1992 pour Quick. Les deux entreprises recherchent ensuite la proximité. Mais cette stratégie est beaucoup plus marquée pour 1. Moyenne après 100 simulations. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 19.

(20) AIMS 2005. Quick qui, en 1993, ouvre un nombre important de restaurants (huit) et les place en priorité à proximité du géant américain. McDonald’s, tout en ouvrant un grand nombre d’unités au cours de la même période, adopte une stratégie plus mixte. La décroissance du nombre de contacts désirés en fin de période n’est due qu’à l’augmentation très importante de son parc. L’évolution du nombre d’unités composant les réseaux (figure 8) doit nous aider à comprendre les évolutions de stratégies de localisation. Figure 8. Evolution du nombre d’unités composant les réseaux de McDonald’s et Quick à Paris de 1984 à 2002. 70 60 50 Nom bre 40 d'unit s 30. McDonald's Quick. 20 10 0 1984. 1987. 1990. 1993. 1996. 1999. 2002. De 1984 à 1989, Quick est leader sur le marché (en nombre d’unités) et les tailles de réseaux sont très comparables. Il s’agit de la phase de démarrage de ce secteur à Paris et les positions ne sont pas encore établies. Les deux entreprises ont donc préféré implanter leurs premières unités loin de la concurrence afin de tester le marché et de créer leurs zones d’influence. En 1991, la croissance exponentielle de McDonald’s débute. Sa domination allant de pair, Quick se voit dans l’obligation d’opter pour une stratégie particulière propre au suiveur. La firme belge cherche alors pour survivre à bénéficier des positions de son concurrent. 3.5. NOTRE SIMULATION EST-ELLE CAPABLE DE REPRODUIRE LA REALITE : SIMULATION ET VALIDATION Il est important de noter que plusieurs méthodes de validation sont envisageables pour les modèles de simulation. Chacune des méthodes présente des avantages et des inconvénients et certaines sont plus pertinentes que d’autres. La plus précise est, sans aucun doute, la mesure des écarts cellule à cellule entre les résultats du modèle en 2002 et la situation observée dans la réalité à la même date. Cette démarche n’est pas pertinente ici. En effet, les premières unités sont implantées dans notre modèle de façon aléatoire. Le positionnement géographique dépend ensuite de ce premier tirage aléatoire. De plus, compte tenu du grand nombre d’emplacements disponibles pour l’implantation d’un point de vente à Paris, il est illusoire de penser que l’on peut modéliser précisément la configuration spatiale exacte des réseaux de distribution. Ce n’est pas la position géographique des unités en elle-même qui nous intéresse mais les positions des réseaux les uns par rapports aux autres. Le nombre de contacts entre réseaux est par conséquent l’indicateur que nous souhaitons analyser et arriver à reproduire à travers les simulations.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 20.

(21) AIMS 2005. La comparaison de l’évolution de cet indicateur pour les données réelles et les données simulées doit nous permettre de valider notre modèle (figure 8). Plus le concurrent a un réseau important, plus la probabilité d’implanter une nouvelle unité à sa proximité est élevée. En effet, compte tenu de l’accroissement important du réseau McDonald’s au cours de la période étudiée, Quick a statistiquement plus de chance de rencontrer une unité concurrente que l’inverse. Pour vérifier que les contacts aient bien été volontaires, nous avons également simulé de façon aléatoire l’implantation des unités McDonald’s et Quick (en respectant le nombre et l’ordre des apparitions et des disparitions) au cours de la période étudiée. La première comparaison possible entre données réelles et données simulées vise à établir la validité apparente (Carley, 1996), c’est-à-dire la validité du modèle représentatif de manière intuitive. Ce n’est pas une condition suffisante mais cela constitue une condition nécessaire. En effet, avant d’effectuer des traitements statistiques, il convient de s’assurer que les données réelles et simulées évoluent de manière similaire. Nous procédons donc à l’analyse de l’évolution du nombre de contacts désirés par McDonald’s (figure 8a) et Quick (figure 8b) de façon réelle et simulée.. Figure 8a. Évolution du nombre de contacts désirés par McDonald’s en fonction de la taille de son réseau2 0,4 0,35 0,3 0,25. rˇel Simulˇ alˇatoire. 0,2 0,15 0,1 0,05. 02 20. 00 20. 98 19. 96 19. 94 19. 92 19. 90 19. 88 19. 86 19. 19. 84. 0. Il est possible de constater que l’évolution du nombre de contacts désirés est de façon globale semblable en simulé et en réel et ce en tendance ou lors d’une comparaison point par point. En effet, pour McDonald’s, les valeurs de l’indicateur sont semblables années par années. Seule l’année 1985 n’est pas conforme à la réalité. Ce point est très particulier car les unités ouvertes en 1985 ont été très rapidement refermées par la suite. L’évolution en fin de période diffère également puisque la. 2. Les courbes « simulées » sont réalisées à partir de la moyenne de 100 simulations. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 21.

(22) AIMS 2005. courbe « simulée » décroît alors que la courbe « réelle » croit. Il est toutefois possible que notre modèle paramétré produit des résultats bien plus satisfaisants qu’un modèle tournant de façon aléatoire. La situation est similaire pour les simulations des implantations des Quick (figure 8b). Hormis un décalage dans le temps du changement de stratégie, l’évolution et les valeurs prises des deux courbes sont très proches. Là encore, le modèle aléatoire donne des résultats tout à fait insuffisants. Figure 8b. Évolution du nombre de contacts désirés par Quick en fonction de la taille de son réseau 0,9 0,8 0,7 0,6 rˇel simulˇ alˇatoire. 0,5 0,4 0,3 0,2 0,1. 20 02. 20 00. 19 98. 19 96. 19 94. 19 92. 19 90. 19 88. 19 86. 19 84. 0. De manière apparente, les données réelles et les données simulées évoluent de manière similaire, que ce soit une comparaison en tendance ou une comparaison par points (Carley, 1996). Après avoir établi la validité apparente, il est nécessaire d’établir si les données simulées sont significativement associées (au sens statistique du terme) aux données réelles. Il peut, encore une fois, être intéressant de mesurer les écarts. Mais il est impossible à travers notre modèle d’arriver à un niveau de précision tel qu’il soit possible de conclure à travers des tests de comparaisons de moyenne. Il est donc nécessaire de réaliser un test d’association entre les deux séries statistiques (réelle et simulée). Les deux séries étant de nature quantitative, le test d’association va être effectué à partir du calcul d’un coefficient de corrélation. La distribution des variables ne respectant pas la normalité, la corrélation doit être testée à travers un coefficient de rang. Le coefficient de corrélation de Spearman est donc utilisé (tableau 3).. Tableau 3. Test de corrélation de Spearman entre le nombre réel de contacts désirés par McDonald’s et Quick et ceux obtenus par simulation McDonald’s. Quick. Coefficient de corrélation de Spearman (rho). 0,644. 0,809. Significativité (bilatérale). 0,003. 0,000. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 22.

(23) AIMS 2005. Le Rho de Spearman est égal à 0,644 pour McDonald’s et à 0,809 pour Quick. Le test est significatif (p <0.01) pour les deux enseignes. Les deux séries simulées sont donc statistiquement similaires aux deux séries réelles.. Conclusion La simulation mise en place nous permet de montrer que l’interdépendance des unités des différents réseaux de distribution dans un secteur particulier est une réalité. Les enseignes s’implantent en fonction de la localisation des concurrents. La localisation d’un point de vente donné va donc influencer celles des concurrents qui peuvent chercher à partager le même espace géographique ou, au contraire, peuvent l’éviter en choisissant une zone isolée. Cette recherche montre comment le changement de stratégie d’une enseigne vient bouleverser l’ensemble des configurations spatiales des réseaux de distribution. Ce travail vise également à expliquer le comportement d’un type organisationnel encore peu étudié : les entreprises multi-unités multi-marchés (Greve et Baum, 2001). Le développement de la franchise ou du succursalisme rend urgent l’étude de cette forme organisationnelle. Alors que la localisation en fonction de la concurrence est un phénomène relativement simple pour un commerce individuel (proximité ou évitement), il devient complexe pour des organisations possédant une multitude d’unités qui se trouvent en situation d’interdépendance. Notre travail tente aussi de montrer l’intérêt de l’utilisation de la simulation à travers une problématique particulière. Reproduire ou prédire avec exactitude l’emplacement des différentes unités n’est pas l’objectif. Il s’agit avant tout de vérifier la pertinence d’une question de recherche et la justesse du raisonnement. La validation empirique de notre modèle nous permet de nous assurer un travail sur des bases robustes. À travers une paramétrisation plus précise et un travail plus en profondeur sur les données empiriques, il peut être intéressant de compléter et enrichir notre modèle. Toutefois, cette recherche illustre le fait qu’à travers un modèle extrêmement simple et ludique, nous pouvons montrer aux managers l’impact de leurs décisions de localisation sur l’ensemble des acteurs d’une industrie. La simulation informatique permet une multitude d’applications dans le monde économique et ouvre, ainsi, de nombreuses perspectives de recherche.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 23.

(24) AIMS 2005. NOTES. (1) Moyenne après 100 simulations (2) Les courbes « simulées » sont réalisées à partir de la moyenne de 100 simulations. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 24.

(25) AIMS 2005. Références Baumard, P. (2000), Analyse stratégique : mouvements, signaux concurrentiels et interdépendance, Paris: Dunod. Beckman, M. (1968), Location Theory, New York, NY: Random House. Best, M. (1990), The new competition, Cambridge, MA: Harvard University Press. Boventer, E. von (1970), Optimal spatial structure and regional development, Kyklos, 23, 4, 903-926. Carley, K.M. (1996), Validating computational models, papier de recherche, Carnegie Mellon University, Pittsburg, PA. Cliquet, G. (1992), Management stratégique des points de vente, Paris: Sirey. D'Aveni, R. (1994), Hypercompetition : Managing the dynamics of strategic maneuvring, New York, NY: Free Press. Dierickx, I., Cool, K. (1989), Asset stock accumulation and sustainability of competitive advantage. Management Science, 35, 12, 1504-1511. Dubos-Paillard, E., Guermond, Y., Langlois, P. (2003), Analyse de l'évolution urbaine par automate cellulaire : le modèle Spacelle, L'espace géographique, 4, 357-378. Fisher, J.H., Harrington, J.E. (1996), Product variety and firm agglomeration, RAND Journal of Economics, 27, 2, 281-309. Fudenberg, D., Tirole, J. (1984), The fat cat effect, the puppy-dog ploy and the lean and hungry look. American Economic Review, 74, 2, 361-366. Fujita, M., Thisse, J.-F. (2002), Economics of agglomeration : Cities, industrial location, and regional Growth, Cambridge, MA: Cambridge University Press. Gardner, M. (1970), The fantastic combinations of John Conway's new solitaire game "life", Scientific American, 223, 120-123. Gilbert, R. J., Newberry, D. (1982), Preemptive patenting and the persistence of monopoly, American Economic Review, 72, 3, 514-526. Greve, H., Baum J.A.C. (2001), A Multiunit, A multimarket World, in Multiunit Organization and Multimarket Strategy. Advances in Strategic Management, 18, 1-28. Hannan, M.T., Freeman, J. (1986), The ecology of organizations: Structural inertia and organizational change. In S. Lindenberg, J. S. Coleman, S. Nowak (Eds.), Approaches to Social Theory, 151-172, New York, NY: Russel Sage Foundation. Hannan, M.T., Freeman, J. (1989), Organizational Ecology, Cambridge, MA: Harvard University Press. Haveman, H.A. (1993), Follow the leader: Mimetic isomorphism and entry into new markets. Administrative Science Quarterly, 38, 4, 593-627. Hoch, S., Deighton, J. (1989), Managing what consumers learn from experience, Journal of Marketing, 53, 2, 1-20. Hotelling, H. (1929), Stability in competition, Economic Journal, 39, 3, 265-291. Jones, K., Simmons, J. (1993), Location, location, location: Analysing the retail environment, Scarboroough, ON: Nelson Canada. Kœnig, G. (1996), Management stratégique : paradoxes, interactions et apprentissages, Paris: Nathan. Lieberman, M. B. (1987), Excess capacity as a barrier to entry: An empirical appraisal, Journal of Industrial Economics, 35, 4, 607-627. Lomi, A., Larsen, E. (1996), Interacting locally and evolving globally: A computational approach to the dynamics of organizational populations, Academy of Management Journal, 39, 5, 1287-1321.. XIVième Conférence Internationale de Management Stratégique, Pays de la Loire, Angers 2005 – http://www.strategie-aims.com/. 25.

Références

Documents relatifs

Note pour le lecteur : les parties « Stratégie nationale » et « Actions locales » de l’analyse de la France ont en partie été rédigées d’après l’ouvrage « Les

Dans notre cas, on adoptera l’architecture d’agent réactif dans la construction d’un Système d’Agents pour la résolution de problèmes complexes, vu la

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

Nos résultats montrent un niveau différencié de rapprochement des économies des pays du Maghreb vers l’Europe : la Tunisie et le Maroc dans une moindre mesure, sont

En Europe, on y a vu un autre avantage, celui de permettre une association plus étroite des économies françaises et allemandes qui permettrait de faire face au défi américain sur le

Seule fait exception la modalité qDrg, &#34;mise en quarantaine de tous les utilisateurs de drogue par voie intraveineuses&#34;; mesure de rigueur qui, étant très souvent demandée

One of the most important features of the ARES algorithm is its ability to jointly infer three dimensional density fields, corre- sponding cosmological power-spectra, galaxy

Il ne s'agit pas d'une métallurgie confidentielle gardée jalousement par quelque(s) potentat(s). Le métal étant très altéré, on ne peut pas espérer à partir de nos