• Aucun résultat trouvé

Article pp.13-31 du Vol.34 n°182 (2008)

N/A
N/A
Protected

Academic year: 2022

Partager "Article pp.13-31 du Vol.34 n°182 (2008)"

Copied!
20
0
0

Texte intégral

(1)

Un design dominant est défini comme le standard qui émerge d’une guerre de standards dans une activité naissante. Les clients sont présentés comme les arbitres de cette lutte. Les conditions concurrentielles qui prévalent avant et après l’émergence d’un design dominant sont examinées. Sept stratégies de construction d’un design dominant sont mises en avant. Deux manœuvres sont en direction des clients finaux, deux sont en direction des clients intermédiaires et deux autres sont en direction des concurrents. Et enfin, une dernière manœuvre tient dans le lobbying des instances publiques de normalisation. Aucune de ces stratégies ne s’impose aux autres. Elles peuvent être combinées. Elles ont chacune leurs avantages et leurs inconvénients. Le choix est fonction du secteur, de la position de l’entreprise et des valeurs de ses dirigeants.

DOMINIQUE JOLLY CERAM, Sophia Antipolis

À la recherche

du design dominant

DOI : 10.3166/RFG.182.13-31 © 2008 Lavoisier, Paris

(2)

Q

u’il y a-t-il de commun entre la compétition Netscape/Internet Explorer et la lutte entre Sony et Toshiba dans les DVD ? C’est la recherche d’un standard de fait ou design dominant dans une activité nouvelle. Dans une indus- trie naissante, la première préoccupation des acteurs en concurrence devrait être de trouver le design dominant. Cette recherche est le point-clé des secteurs émergents car c’est le facteur déclenchant de l’entrée dans la phase de croissance (Sakakibara et al., 1995). La quête du design dominant est une période de foison- nement technique qui s’achèvera par une homogénéisation des offres technologiques sous l’effet de la volonté du marché.

L’émergence d’un design dominant du flot de formats techniques offerts sur le marché va forcer la concurrence à s’aligner ou à disparaître. De fait, c’est bien la somme des microdécisions prises du côté de la demande qui va porter un design dominant, c’est-à-dire susciter ou non l’émergence d’un standard de fait.

Le concept de « design dominant » est une notion introduite par Abernathy et Utterback (1978) et reprise par Utterback (1994). Il est très utile pour comprendre ce qui motive et guide la concurrence dans la phase d’émergence d’une activité totalement nou- velle. Il a explicitement été défini comme :

“A dominant design in a product class is, by definition, the one that wins the allegiance of the marketplace, the one that competitors and innovators must adhere to if they hope to command significant market following.

The dominant design usually takes the form of a new product (or set of features) synthe- sized from individual technological innova- tions introduced independently in prior pro- duct variants.” (Utterback, 1994, p. 24).

L’objet de ce qui suit est d’une part, de faire un état des lieux sur le concept de design dominant, et, d’autre part, d’analyser les vertus et limites des stratégies de construc- tion d’un design dominant.

I. LES CONDITIONS D’APPARITION D’UN DESIGN DOMINANT

Dans les secteurs émergents, les règles du jeu sont fréquemment à construire, notam- ment au plan technique. Ce n’est que très rarement qu’une solution technique donnée s’impose immédiatement ou qu’il n’existe pas plusieurs options techniques (Suarez, 2004). Dès lors, les firmes luttent âprement pour fixer les standards. La raison d’une telle lutte est que l’avènement d’un stan- dard est une condition de l’entrée du secteur dans une seconde phase de son cycle de vie, c’est-à-dire le développement à des taux de croissance soutenus. Le marché grand public des magnétoscopes n’a ainsi vérita- blement décollé que lorsque JVC est par- venu à imposer son système VHS et à éva- cuer le système Betamax de Sony. Au-delà des standards d’ordre purement technique, la rivalité s’incarne, plus largement, dans la quête d’un design dominant.

Illustrons cette quête par un exemple connu.

C’est à partir du milieu des années 1970 que sont apparus les premiers ordinateurs personnels. Il s’agissait à l’époque d’un marché très étroit ciblant une clientèle de passionnés, d’amateurs éclairés ou de mor- dus d’électronique assez peu soucieux du prix des machines. Un des tous premiers produits mis sur le marché a été le TRS 80 de Tandy Radio Shack (une chaîne améri- caine de distribution de produits et compo- sants électroniques) ; l’engin offrait géné- reusement une dizaine de kilos-octets de

(3)

mémoire vive et le stockage des données se faisait dans les premières versions sur… un magnétophone à cassettes. Plus tard, après avoir développé son propre système d’ex- ploitation (DOS), le constructeur a offert en option un lecteur externe de disques souples 5 pouces. Le britannique Sinclair a opté pour une toute autre formule d’une machine intégrant unité centrale et clavier à connecter sur un écran de télévision (domestique). Osborne de son côté a inventé le premier micro-ordinateur (trans)portable au monde ; rapidement copié par Kaypro. Atari et Amiga ont plutôt pris le parti des jeux ; Thomson, Goupil ou Alcyane ont tous cherché à faire percer un modèle français. Ont ainsi émergé une kyrielle de constructeurs (totalement nou- veaux ou déjà établis) comme Commodore avec le fameux Commodore 64, Epson, Texas Instruments, Hewlett Packard et son HP 150 (à écran tactile), etc. sans oublier Apple et son Apple II, tous à la recherche d’une configuration de produit susceptible de séduire le marché. Chacune de ces machines avait son propre « caractère », ses propres modes d’affichage, des micro-pro- cesseurs différents, des systèmes d’exploi- tation propriétaires, des moyens de stoc- kage distincts, etc. Chaque constructeur ayant fait des choix techniques différents, cela rendait très difficile pour un utilisateur le passage d’une machine à une autre. Dans le pire des cas, l’utilisateur n’avait pas d’autre choix que de développer à nouveau totalement ses applications et saisir à nou- veau ses bases de données.

Cet exemple montre qu’à la naissance d’un secteur d’activité, les concurrents offrent une très grande variété de configurations. Il y a 425 firmes différentes qui, à un moment,

ont fabriqué des ordinateurs personnels aux États-Unis entre 1975 et 1988 ! (d’après Hatfield et al., 2001). L’arrivée de la com- pagnie IBM, pourtant entrée à reculons dans le segment de la micro-informatique au début des années 1980 (avec son ‘PC’ de type G, puis XT, AT, etc.), illustre ce qu’est l’émergence d’un design dominant. Parmi tous les choix techniques possibles, c’est celui de l’IBM PC, ou plus précisément du micro-processeur Intel couplé à un système d’exploitation Microsoft, qui a été élu par le marché. La montée en puissance s’est tra- duite par des prises de marché significatives jusqu’au leadership incontesté, largement contesté depuis notamment par Dell. L’effet réseau commençant à jouer, tous les constructeurs se sont retrouvés forcés d’adopter ce format. L’alternative consis- tant à maintenir son format propriétaire ne conduisait qu’à une marginalisation, pré- lude à une disparition du modèle. La seule exception à ce schéma fut Apple qui réussit tant bien que mal à préserver son pré carré.

Le cas est d’école car il était clair à l’époque que le fameux IBM PC était large- ment dépassé en termes techniques par cer- tains produits de la concurrence. Pourquoi dans ces conditions le marché lui a-t-il réservé cet accueil ? Deux facteurs ont joué en faveur d’IBM. En premier lieu, la com- pagnie, contrairement à la plupart des autres acteurs de la micro-informatique de l’époque, disposait du réseau de distribu- tion le plus étendu. Ceci lui a permis de rapidement inonder le marché, toucher un grand nombre de clients. Même si ce réseau n’était pas adapté à la distribution de pro- duits de micro-informatique, il avait l’avan- tage d’exister (ce dont ne pouvait disposer les nouvelles entreprises). En second lieu,

(4)

IBM a profité de sa notoriété sur les gros systèmes pour la transférer sur les ordina- teurs personnels. En comparaison avec de petits fournisseurs totalement méconnus, l’utilisateur (notamment professionnel) ne pouvait qu’être tenté de jouer la carte de la sécurité. La publicité retenue mettait d’ailleurs en avant un acheteur d’équipe- ment informatique qui se targuait du fait qu’on ne pouvait lui reprocher d’avoir fait le choix d’IBM ! Deux atouts majeurs qui ont fait la différence.

Certains designs peuvent être mondiaux, c’est le cas déjà cité de l’ordinateur person- nel d’IBM. Mais c’est aussi le cas du proto- cole http pour l’internet, de l’interface USB (Universal Serial Bus), de l’algorithme MP3 pour la musique. D’autres designs dominants peuvent être localisés – soit géo- graphiquement, soit sectoriellement. C’est le cas des suspensions à lames ou du moteur diesel pour les camions, des standards Pal, Secam, Ntsc de télévision, des prises de courant électrique (même si l’on retrouve le format en vigueur en France dans d’autres pays comme la Belgique, la Finlande, la Moldavie, l’Iran, celui-ci diffère du format anglais ou américain), des moteurs 4 cylindres et boîtes manuelles en Europe versus les moteurs 6 cylindres et boîtes automatiques en Amérique du Nord.

Cependant, un design, même s’il a été mon- dial à un moment, atteint à un moment sa fin de vie. On pense au format de film argentique 24 x 36 identique pour tous les fabricants de pellicules qu’il s’agisse de Kodak, Fuji, Ilford ou Agfa au format de disquette 3 pouces, ou encore au disque compact à lecture laser.

Ce sont les clients qui, à travers l’agréga- tion de leurs actions, choisissent le design

dominant. La situation est très différente selon que les clients font des achats répéti- tifs un achat ponctuel. Dans le premier cas, ils peuvent essayer plusieurs standards. En revanche, dans le cas d’un achat ponctuel, ils ont à faire un pari sur un produit dont ils ne savent pas s’il sera ou non un standard de fait. Ces choix faits par les consommateurs sont particulièrement critiques dans les domaines d’activité où il existe des externa- lités de réseaux (Quélin et al., 2001). Il s’agit de cas où plus le nombre de consom- mateurs qui utilisent un même produit (ou un produit compatible) est élevé, plus ce produit a de la valeur pour chaque consom- mateur. Des exemples évidents sont : les systèmes de téléphonie, les formats de fichiers informatiques, les logiciels appelés à s’interconnecter, les consoles de jeu, les cartes bancaires, etc.

Un design dominant n’est pas toujours lié à une seule et unique technologie. Il peut très bien reposer sur une combinaison de diffé- rentes technologies. Le point est illustré par l’étude de Christensen et al.(1998) de l’in- dustrie du disque dur de 1975 à 1990. Dans ce cas précis, l’industrie est caractérisée par l’entrée de nouvelles firmes jusqu’en 1983, puis par une réduction nette du nombre de concurrents à partir de cette même année.

Or, c’est précisément en 1983 que tous les éléments d’un design dominant ont été mis en place : une architecture de type Win- chester (lancée par IBM en 1973), une motorisation en prise directe sur le disque (lancée par Seagate en 1980), une motori- sation spécifique du mouvement des têtes de lecture (introduite par Shugart) et finale- ment un pilotage électronique du disque (selon un modèle développé par Quantum en 1983). Mais, c’est une autre firme tout

(5)

juste entrée dans l’industrie, Maxtor, qui a proposé le premier disque dur combinant ces quatre innovations. L’étude montre que ce sont les firmes qui adoptent ces innova- tions qui présentent les probabilités de sur- vie les plus élevées. Ainsi, l’émergence d’un design dominant de produit a marqué un tournant dans la nature concurrentielle de l’industrie.

II. AVANT ET APRÈS L’APPARITION D’UN DESIGN DOMINANT

Les conditions qui prévalent dans un sec- teur avant et après l’établissement d’un design dominant ne sont en rien compa- rables. Le point est synthétisé dans le tableau 1. Ces transformations touchent autant la structure concurrentielle que l’or- ganisation des firmes. Sur un plan concur- rentiel, la phase de prédesign est marquée par une forte fluidité. Il n’y a pas de firme significativement dominante et les parts de marché peuvent facilement varier. Des bar- rières à l’entrée dans le secteur peu élevées provoquent une sorte d’appel d’air et facili- tent l’arrivée de nouveaux concurrents (Klepper et Simons, 1997). Un nombre croissant de firmes expérimentent et rivali- sent sur de nouvelles formes de produits ou services. L’offre présente ainsi des contours imprécis. L’effort d’innovation est centré sur les caractéristiques et fonctions du produit.

La R&D doit imaginer la configuration de produit ou service qui séduira le marché.

Alors que plusieurs technologies proprié- taires sont en concurrence avant le design, ce dernier s’accompagne de la disparition de la plupart de celles-ci pour ne consacrer que l’une d’entre elles. Lorsque le marché a reconnu le produit répondant à ses attentes,

ses contours s’imposent progressivement à l’ensemble des firmes du secteur. Les inno- vations de produit ou de service à venir ne se feront plus que par incrément. L’avène- ment de ce design dominant entraîne un changement des axes de concurrence. La multiplicité des offres de produits ou de ser- vices plutôt chers est balayée et remplacée par un format établi de produit plutôt bon marché. L’axe majeur de concurrence et cri- tère de performance dans le secteur devient la lutte sur les coûts. Conséquemment, le besoin d’innovations portant sur les procé- dés de production se fait sentir. Tous les concurrents ne pouvant suivre cette trans- formation, on assiste à des faillites, rachats, absorptions et fusions. L’hétérogénéité du marché tend elle aussi à se réduire : les niches étroites d’innovateurs précoces sont progressivement supplantées par un gros segment de marché de masse. Si avant le design, la nouveauté du marché et l’absence de règles établies ont attiré un très grand nombre de concurrents, venant parfois d’horizons très divers, l’émergence d’un design dominant est de nature à provoquer un processus évolutif de sélection naturelle où des concurrents qui n’adhèrent pas au design dominant se retrouvent marginalisés et succombent tôt ou tard à cette mise à l’écart. Corrélativement, si la fluidité concurrentielle est à son plus haut niveau avant l’émergence d’un design dominant, l’avènement de ce dernier tend, si ce n’est pas à figer les positions, en tous cas à les rendre moins malléables (Abernathy et Clark, 1985).

Le nombre de concurrents va donc en dimi- nuant. Ne restent finalement dans la course qu’un nombre réduit de firmes de premier plan qui ont érigé de fortes barrières à l’en-

(6)

trée dans le secteur. Sur un plan organisa- tionnel, la structure type de la phase de pré- design est de type entrepreneuriale orga- nique : les contrôles sont lâches, la coordination entre les personnes s’opère à travers l’ajustement mutuel, la planification est informelle. Les systèmes manufactu-

riers sont généralement rudimentaires et peu soucieux des rendements. L’avènement d’un design dominant favorise l’émergence de structures mécanistes et est marqué par de significatifs investissements dans des équipements de production en grande série et de commercialisation à grande échelle.

Tableau 1 –Conditions pré et post-design

Conditions

Nombre d’entreprises

Axes de concurrence

Priorités de la R&D dans les firmes

Technologie

Contours de l’offre Fonctions-clés

Moyens de production

Coûts de production

Segments de clients

Politiques de marketing

Prédesign dominant Élevé et croissant, car les barrières à l’entrée sont inexistantes ou peu élevées (fluidité concurrentielle).

Recherche du design dominant.

Vise à trouver une configuration de produit ou service qui plaît au marché et que celui-ci va élire.

Plusieurs technologies sont en concurrence

(= incertitude technologique).

Imprécis, en recherche R&D et recherche marketing Adaptés à de petits volumes, i.e. de type plutôt artisanal ou laboratoire.

Critère de concurrence de second plan : ils peuvent varier fortement d’un producteur à un autre.

Innovateurs précoces (peu sensibles aux prix).

Attaque de segments spécifiques et ciblage des innovateurs précoces.

Post-design dominant Tend à décroître rapidement (rigidité des positions concurrentielles).

Recherche de l’efficience manufacturière.

Vise à améliorer l’efficience du processus de production/servuction afin de réduire les coûts.

Une technologie a pris le pas sur les autres.

Figés, stabilisés

Industrie et marketing de masse Adaptés à de forts volumes, i.e. de type authentiquement industriels.

Premier critère de compétitivité : les écarts entre concurrents restant en lice tendent à se réduire.

Marché de masse (sensible aux prix).

Attaque de marchés de masse et ciblage du grand public.

(7)

III. LA COURSE AU STANDARD : LES STRATÉGIES DE CONSTRUCTION

D’UN DESIGN DOMINANT La question posée est la suivante : au sein d’un domaine d’activité émergent où se concurrencent plusieurs options technolo- giques, comment faire pour transformer l’une de ces nouvelles solutions techniques en un design dominant, i.e.un standard de facto? Pour une grande entreprise aux res- sources étendues, l’acquisition d’une jeune pousse qui a su mettre sur le marché une technologie en passe de devenir un design dominant est une solution. Mais il faudra probablement y mettre le prix. Cette manœuvre est toutefois interdite aux petites ou moyennes structures qui n’auront pas les moyens de financer un tel achat. Le défi de la construction d’un design dominant est de taille pour des firmes innovatrices, mais de faible envergure, qui doivent faire face à des firmes établies disposant de fortes parts de marché, de réseaux de distribution éten- dus, d’une expérience industrielle, d’une forte image, etc. Il s’agit d’accroître le taux de pénétration de la solution technique rete- nue, et cela, dans les meilleurs délais.

S’agissant de faire naître une large popula- tion d’adeptes, les stratégies pour faire émerger un design dominant tournent essentiellement autour d’actions de prosély- tisme. Le principe de base est celui de la recherche d’économies de réseau. Aucune stratégie n’offre évidemment de garantie de succès. Il faut toutefois se rappeler que lorsque la pompe est amorcée, des résultats peuvent être obtenus très rapidement : la loi de Bob Metcalfe stipule ainsi que la valeur d’un réseau croît selon le carré du nombre de ses participants. De plus, au-delà d’une taille critique, lorsqu’un standard émerge, il

devient très difficile de le déplacer (c’est ce que les anglo-saxons appellent la notion de

« lock-in »). Un design dominant, même puissant, peut toutefois être contesté. Les outils de navigation internet (browser et mail) de Microsoft (Internet Explorer et Outlook) sont ainsi taquinés par Firefox et Thunderbird développés par le consortium Mozilla. Le Windows de Microsoft est challengé par le noyau Linux sur lequel s’appuient de nombreuses distributions (Mandriva, Fedora, Suze, Debian, etc.).

Mais, pour détrôner le leader, il faudra que ces offres puissent contourner le poids des habitudes.

Sept stratégies distinctes sont présentées ci- après. Pour chacune, leurs bénéfices, contraintes et risques sont examinés. Ces sept stratégies rentrent dans trois grandes catégories de manœuvres selon la nature des acteurs dont on va chercher à remporter l’adhésion : les clients, les concurrents, les instances de normalisation – les fournis- seurs ne jouant ici qu’un rôle de second plan puisque c’est du côté du marché que la décision va être prise. Une synthèse des développements à venir est proposée au tableau 2.

1. Les manœuvres en direction des clients finaux

Les manœuvres en direction des clients sont certainement les plus logiques puisque ce sont les clients qui, par définition, vont élire un design dominant à travers les choix de solutions vers lesquelles ils vont se diri- ger. Celles-ci peuvent être dirigées directe- ment vers le client final – c’est le cas de l’investissement pour un leadership techno- logiqueou le bottelage d’offres complémen- taires– ou bien s’appuyer sur des intermé- diaires qui vont jouer un rôle de relais –

(8)

Tableau 2–Spécification des stratégies de construction d’un design dominant Stratégies de construction d’un design dominant Challenge de base Avantage concurrentiel Indépendance/ interdépendance Effets de démultiplication en aval Vitesse du mouvement

Investissement pour un leadership technologique Être capable d’offrir la meilleure performance technique du marché Maximal du fait du monopole Indépendance maximale Très faibles Lente

Passation d’accords avec un réseau de distributeurs Disposer des arguments pour convaincre un réseau Partagé avec les distributeurs Interdépendance avec les distributeurs Élevés grâce aux distributeurs Démarrage lent

Focalisation sur un composant-clé Accepter de rester sur une niche en amont du marché servi Très élevé Interdépendance avec les clients Élevés grâce aux clients Lente

Bottelage d’offres complé- mentaires Avoir accès à un design dominant existant (soit en propre, soit via un tiers) Fort Dépendance si l’accès se fait via un tiers Faibles Rapide

Octroi unilatéral de licences à la concurrence Renoncer à l’exclusivité et convaincre les premiers licenciés potentiels Partagé avec tous les licenciés Interdépendance avec les licenciés Démultiplication maximale: effet boule de neige Démarrage lent

Lobbying des instances publiques de normalisation Disposer des arguments pour convaincre un organisme de normalisation Binaire: tout ou rien Dépendance extrême vis-à- vis du normalisateur Faibles Lente

Mise au point de standards conjoints Accepter de collaborer avec un tiers et de partager les fruits de l’action collective D’autant plus réduit qu’il y a d’alliés Très forte interdépendance entre alliés Augmentation collective du pouvoir de marché Possiblement accélérée

Manœuvres en direction des clients finauxManœuvres en direction des clients intermédiairesManœuvres en direction des concurrents

(9)

Délai de développement Investissement en R&D Investissement marketing et commercial Risques techniques Fuites de connaissances Risques financiers Risques culturels Remarques

Formule la plus longue Maximal et supporté par une seule entreprise Maximal et supporté par une seule entreprise Maximaux et supportés par une seule entreprise Risque très faible Supportés par l’entreprise seule Quasi nuls L’image de pionnier n’est pas pour autant une garantie de succès

Éloigné Important et supporté par l’entreprise seule Reporté sur les partenaires Maximaux et supportés par une seule entreprise Possibles Partagés Moyens Peut être combinée avec le leadership technologique

Standard Important et supporté par l’entreprise seule Concentré sur un nombre réduit de clients Liés à la spécialisation Faible risque Réduits Nuls Il s’agit d’un cas particulier de leadership technologique

Standard Maximal et supporté par une seule entreprise Réduit du fait du co-marketing Maximaux et supporté par une seule entreprise Risque très faible Faibles à très faibles Nuls Peut flirter avec l’abus de position dominante

Éloigné Futurs investissements seront financés par les royalties Concentré sur un nombre réduit de concurrents Maximaux et supportés par une seule entreprise Favorise l’apprentissage du licencié Partagés Moyens Ne requiert pas d’avoir la meilleure technologie

Standard Maximal et suppor par une seule entreprise Limité, mais la stratégie s’applique à une gamme étroite de technologies Maximaux et supportés par une seule entreprise Risque faible Réduits Forts Peut être combinée avec une action collective

Possiblement réduit par un partage de tâches Partagé entre alliés Partagé entre alliés, mais image diluée dans l’alliance Partagés entre alliés Risque maximal du fait de l’action collective Partagés Souvent très élevés Option qui requiert les plus forts ajustements

(10)

c’est le cas de la focalisation sur un compo- sant-clé ou encore d’accords passés avec les distributeurs.

L’investissement pour un leadership technologique

Être le premier à proposer des produits basés sur une technologie présentant les meilleures performances techniques du marché semble, au moins en première approche, la stratégie la plus naturelle.

L’hypothèse sous-jacente est que proposer la meilleure solution technique (la moins coûteuse, la plus rapide, etc.) doit permettre de séduire les clients. L’entreprise cherche à travers un investissement soutenu en R&D à développer la solution technique qui pré- sentera le meilleur niveau de performance sur les critères valorisés par les clients. Il faut à cet effet : a) identifier et hiérarchiser les critères de performance attachés à la technologie et valorisés par le client ; b) sélectionner parmi les différentes options technologiques possibles celle qui devrait permettre d’atteindre les niveaux attendus – sous la contrainte d’un budget donné ; c) investir en R&D pour atteindre avant les concurrents des niveaux de performance élevés sur la courbe en « S ». C’est par exemple la stratégie qui a été adoptée par CFM International, la filiale commune à la Snecma et à General Electric dans les moteurs d’avion à réaction, qui a réussi à séduire Boeing puis Airbus. C’est aussi la stratégie retenue par Sony avec le mini- disque, un support CD réinscriptible que l’entreprise est la seule à offrir.

Il s’agit de développer un avantage concur- rentiel à caractère technique. Celui-ci aura bien sûr des conséquences au plan de l’image de pionnier qui en résulte. Pour accroître ses chances, la firme peut chercher

à codévelopper sa technologie avec ses clients (qui trouveront ici le moyen de réduire leurs coûts de transaction). Pour amorcer le mouvement, elle visera à séduire dans un premier temps les populations les plus sensibles à l’argument de la nouveauté technique. Comme il l’a déjà été dit en introduction, le mouvement peut même être accéléré, si l’entreprise est de bonne taille, à travers le rachat d’une jeune pousse proche d’aboutir à un format avancé.

Une entreprise peut chercher à se couvrir en multipliant les investissements dans des tech- nologies concurrentes (« hedging strategy » selon Hatfield et al., 2001). L’entreprise se donne ainsi plus de chances de trouver un design dominant et cultive parallèlement une flexibilité accrue pour éventuellement bascu- ler sur un design dominant lorsqu’il émergera.

Toutefois, investir dans deux ou plusieurs technologies requiert un fort engagement de ressources. S’il existe un risque de confusion au stade de la commercialisation, l’offre de plusieurs designs est susceptible de servir plu- sieurs niches et au final d’accroître la pénétra- tion globale du marché.

L’investissement pour un leadership techno- logique promet potentiellement le meilleur rendement du fait des positions monopolis- tiques qu’il entend créer. Ce monopole pourra être protégé par un ou plusieurs bre- vets même si l’on sait bien que le brevet ne stoppe pas la concurrence mais ne fait que la retarder. L’avance prise sur les concur- rents peut en effet être un avantage signifi- catif. De plus, l’entreprise jouit d’une totale indépendance ; elle contrôle seule les opéra- tions de R&D sur la technologie en ques- tion. L’entreprise peut dans ces circons- tances profiter seule de l’exclusivité des connaissances et des savoir-faire dévelop- pés ; il n’y a pas comme dans une alliance à

(11)

protéger les gains. Une même technologie pourra par ailleurs être employée dans plu- sieurs domaines d’activité.

Mais c’est aussi la stratégie la plus coûteuse tant au plan financier (R&D et marketing de la solution retenue) qu’au plan du calen- drier (elle demande du temps). Cette straté- gie est sans doute aussi parmi les plus incertaines : du fait que les travaux de R&D engagés peuvent ne pas aboutir (ou aboutir trop tard), du fait que la différence de per- formance avec les technologies existantes peut être trop faible pour convaincre les acheteurs (comme ce fut le cas avec le CD vidéo), du fait que la demande peut se retrouver cantonnée dans des segments étroits (à l’instar du Concorde qui n’est pas devenu le design dominant qu’on avait pro- mis en matière de transport aérien), etc. Si le pari du leadership technologique est perdu, les investissements correspondants devront être recyclés ailleurs et n’auront probablement qu’un rendement limité.

La détention de l’architecture la plus per- formante n’est pas non plus un atout défini- tif au plan concurrentiel ; une technologie moins performante que ses rivales ne sera pas systématiquement exclue du jeu concurrentiel (Munir, 2003). Ainsi, cette stratégie n’est pas nécessairement une garantie de succès comme l’illustrent de nombreux exemples de victoires de solu- tions non optimales. Le clavier de type Qwerty dont la distribution des lettres avait été étudiée et optimisée pour éviter que les branches de la machine à écrire ne puissent s’entrecroiser trop fréquemment est resté sous l’effet de l’inertie culturelle (c’est encore un cas de « lock-in ») un design dominant pour les ordinateurs – alors qu’une alternative, le clavier Dvorak, n’est

pas parvenue à s’imposer. Plus récemment, la technologie de refroidissement par eau des réacteurs nucléaires a supplanté le refroidissement au gaz pourtant notoire- ment plus performante. Le standard VHS de JVC a pris le dessus sur le standard Beta- max de Sony alors que ce dernier avait été reconnu comme meilleur sur un plan tech- nique. L’IBM PC a été élu design dominant par le marché, certainement pas pour ses performances techniques (bien inférieures à certains produits concurrents du début des années 1980 comme par exemple le MacIntosh d’Apple ou encore l’Epson QX 10) mais grâce à l’étendue du réseau de dis- tribution de la compagnie et pour les assu- rances que les clients ont trouvé à s’appro- visionner auprès d’un offreur reconnu.

Plus qu’un enjeu technique, le leadership technologique tient paradoxalement peut être plus à la vitesse de diffusion de la solu- tion technologique de l’entreprise à l’échelle internationale ou mondiale. Il ne faut donc pas se tromper : attention aux visions stéréotypées d’ingénieurs ; ce n’est pas nécessairement la meilleure offre tech- nique qui sera reconnue par le marché. Il faut aussi un marketing bien adapté de la solution technique retenue. Le marketing doit bien sûr venir en appui à cette manœuvre. L’étude de marché servira à ajuster les choix techniques aux attentes du marché, à coller le plus précisément pos- sible aux besoins et préférences des clients.

Une communication publicitaire astucieuse dirigée vers le marché assortie d’une poli- tique de prix agressive des produits incor- porant la nouvelle technologie peut égale- ment accompagner le mouvement. En poussant le bouchon encore plus loin, cer- taines entreprises de logiciels ont cherché à

(12)

établir des designs dominants en proposant des architectures ouvertes ou même en dif- fusant gratuitement les premières versions de leur produit (par exemple Linux ou encore le logiciel d’échange de fichiers musicaux KaZaA) notamment auprès de populations prescriptives. De telles actions permettent une diffusion accélérée, une promotion de l’image, facilitent la correc- tion des défauts entachant les premières versions, et surtout, tendent à créer une dépendance de l’utilisateur vis-à-vis du produit ainsi promu. Il faut toutefois avoir les reins assez solides pour supporter finan- cièrement l’opération – et prendre le risque d’encourager les imitateurs.

En résumé, investir dans la construction d’un leadership technologique accroît effectivement les chances de transformer sa solution en un design dominant – mais, ce n’est pas une garantie de succès. Les opéra- tions sont sous le contrôle exclusif de l’en- treprise. Et les fruits potentiels de l’inves- tissement sont exploitables sans partage.

C’est toutefois l’option la plus coûteuse, la plus incertaine (sauf au plan des risques de fuites de connaissances) et une des plus longues à porter ses fruits. On retiendra finalement que l’offre technique doit impé- rativement être soutenue au plan marketing et commercial.

– Le bottelage d’offres complémentaires La firme attache à une offre existante, à tra- vers un comarketing, la technologie qu’elle cherche à défendre. Cela peut être le cas, par exemple, dans la vente de systèmes.

C’est l’option qui a été retenue par Micro- soft pour faire d’Internet Explorer (ou plus récemment, mais avec moins de succès, de Windows Media Player) un design domi- nant en le bottelant avec le système d’exploitation Windows. C’est ce qu’ont

cherché à faire – avec moins de succès – les promoteurs du WAP (Wireless Application Protocol) soutenu par Ericsson, Nokia et Motorola. Il s’agit donc de tirer profit de positions établies – c’est-à-dire de greffer la nouvelle technologie sur un design domi- nant existant pour évincer les concurrents.

Le design dominant en question pourra être détenu en propre par l’entreprise ou encore par une autre entreprise à la condition que celle-ci accepte de botteler une offre qui soit complémentaire à sa propre offre.

La mise en œuvre de l’opération est relati- vement aisée si on détient un design domi- nant (sinon, il faut pouvoir convaincre le porteur de design dominant). Les risques financiers sont faibles. S’il subsiste un investissement technologique à réaliser, peu d’investissement commercial ou marketing est requis. La promotion de la technologie est faite à moindre coût ; on profite de la renommée existante, on profite de l’implan- tation commerciale du produit dominant, on transfert la notoriété, l’image de marque positive d’une offre à l’autre. De plus, les cibles potentielles peuvent être atteintes avec beaucoup de précision dès lors que la technologie à défendre peut être associée à un produit destiné à la même cible. Des besoins connexes peuvent être satisfaits.

Toutefois, cette option est loin d’être ouverte à toutes les entreprises puisqu’il faut évidemment avoir accès à une puis- sance de feu préexistante, c’est-à-dire un design dominant. Il doit exister aussi une possible connexité ou compatibilité voire même complémentarité entre les deux offres ou intégration pour éveiller la demande. Il faut aussi que la nouvelle offre ne soit pas de nature à troubler le succès de la première ; il ne faudrait pas que la tech- nologie greffée sur un design dominant

(13)

existant puisse mettre celui-ci en difficulté du fait par exemple d’une mise au point insuffisante. Il ne faudrait pas non plus que les clients réagissent négativement face à un bottelage trop fort. L’entreprise peut finalement courir le risque de se voir accu- sée de concurrence déloyale, d’abus de position dominante par de plus petits concurrents et faire l’objet de sanctions.

Microsoft a ainsi été condamné à une amende de 500 millions d’euros pour avoir bottelé Windows Media Player à la plate- forme Windows en Europe.

En somme, l’opération de bottelage est peu coûteuse aux plans marketing et commer- cial et plutôt rapide. Si elle comporte des risques au plan technique, elle est peu ris- quée dans les autres compartiments de jeu.

Mais elle suppose un prérequis significatif puisqu’il faut disposer d’un design domi- nant sur lequel la nouvelle technologie pourra être greffée.

2. Les manœuvres en direction des clients intermédiaires

La focalisation sur un composant-clé La stratégie vise à devenir le fournisseur incontournable d’une technologie à forte valeur ajoutée. Contrairement au leadership technologique, il s’agit dans ce cas de pro- fiter d’une avance technologique et/ou d’un avantage de coût sur une pièce ou un com- posant-clé donné en refusant d’intégrer la fabrication du système en aval pour laisser le champ libre aux entreprises clientes.

Celles-ci ne seront pas tentées d’intégrer en amont tant que l’avance du fournisseur sera préservée. C’est une stratégie de niche. Il y a concentration de ressources sur un stade de valeur ajoutée donné. Cette option n’est pas très éloignée du principe selon lequel il

vaut mieux vendre des pioches que cher- cher de l’or ! Cette stratégie de centration sur un chaînon permet une démultiplication des efforts en aval. De plus, le rapport de force est inversé puisque ce sont les clients qui vont demander le composant en question.

Des exemples classiques de cette stratégie sont celui d’Intel dans les micro-proces- seurs pour ordinateurs personnels X86 et Pentium (« Intel Inside »), de Bluetooth avec son standard de communication sans fil sur courte distance, de Shimano avec ses dérailleurs pour vélos, de Samsung ou Toshiba dans les magnétrons, de Canon avec les moteurs d’imprimantes laser ou de Sony (et encore Canon) avec les capteurs CCD pour les appareils photographiques numériques (Munir et Phillips, 2002). C’est même le cœur de la stratégie de Microsoft : en effet, après voir réussi à faire de son sys- tème d’exploitation un design dominant (avec l’aide d’IBM), Microsoft a appliqué la même stratégie avec sa suite bureautique, puis avec Internet Explorer dans les naviga- teurs et plus récemment tente de faire la même chose dans les logiciels pour ser- veurs avec Net Serveurs. Mais la manœuvre n’est toutefois pas réservée aux grandes entreprises. Digigram, une petite entreprise grenobloise, est parvenue à s’imposer dans les outils de numérisation du son en se refu- sant à pénétrer le métier des intégrateurs et en restant focalisée sur les cartes vendues à ces intégrateurs.

L’approche est exigeante car l’investisse- ment de départ reste significatif et il faut par- venir à maintenir son avance sur le dit com- posant-clé. Une partie des bénéfices engrangés doit être redirigée vers la R&D pour continuer à améliorer l’offre. Cette stratégie ne donne qu’une faible visibilité en

(14)

aval et rend entièrement dépendant de l’évo- lution du marché en aval : il faut donc établir des relations partenariales avec les clients pour optimiser l’insertion du composant dans leur offre. Elle fait courir les risques attachés à la spécialisation (voire même le risque d’une hyper-focalisation). Elle peut aussi susciter des réactions de rejets de clients supportant mal le lien de dépendance qui en résulte. Ceci explique en partie le suc- cès remporté par AMD aux dépens d’Intel.

La passation d’accords avec des distributeurs

Dans ce cas, une entreprise (pas nécessai- rement manufacturière) cherche à instaurer une relation privilégiée avec un réseau de distributeurs (ou au moins avec quelques distributeurs de grande taille) dont la mis- sion sera de promouvoir son offre tech- nique. Le premier avantage est bien sûr d’accéder à un réseau déjà construit si l’entreprise n’en dispose pas. L’approche peut permettre de bloquer (au moins par- tiellement) voire même de sortir quelques concurrents du marché dès lors que l’ac- cord stipule l’exclusivité. Là encore, sont recherchés des effets de démultiplication de l’exposition des consommateurs ; plus le réseau d’affiliés sera étendu, plus le poids relatif sur le marché sera élevé, plus les chances seront grandes de transformer le standard retenu en un design dominant.

Ce relais de distribution pourra viser une couverture géographique et/ou une couver- ture de différents segments de clientèles.

En second lieu, la manœuvre mobilise somme toute assez peu de ressources. En effet, les coûts de commercialisation ne sont finalement supportés que par les dis- tributeurs (qui en retirent cependant les bénéfices).

Cette stratégie permet d’exercer un contrôle sur la distribution. Toutefois, l’éloignement de l’interface entre producteur et consom- mateur doit être compensé par l’établisse- ment de canaux permettant de recevoir les feedbacksde distributeurs. Il faut à cet effet pouvoir avancer des arguments et probable- ment faire quelques concessions pour séduire un distributeur. La relation privilé- giée prend forme idéalement dans un contrat d’exclusivité territoriale. Il peut s’agir d’apporter une performance dis- tinctive, ou simplement d’offrir des garan- ties ou un service après vente renforcé ou encore un accès accéléré aux nouvelles générations de produits ou services. L’en- treprise peut se trouver face à des distribu- teurs exigeants. C’est là une des limites de la formule ; il faut partager les fruits de l’action avec ceux-ci. Il faut de plus comp- ter avec la création d’une dépendance vis-à- vis des distributeurs sélectionnés. Faut-il encore que la distribution ne soit point trop atomisée.

3. Les manœuvres en direction des concurrents

Ces manœuvres visent soit à dépasser, soit à collaborer, soit peut être même à empê- cher les concurrents.

L’octroi unilatéral de licences à la concurrence

L’idée est ici de favoriser la diffusion d’une solution technique en octroyant des licences de cette solution aux entreprises du secteur.

Plus le nombre de licences octroyées est élevé, plus le format technique correspon- dant a des chances de s’imposer comme design dominant. La configuration est celle d’une firme autour de laquelle rayonnent les adeptes qui ont accepté d’adopter son

(15)

schéma parce qu’il leur permet de gagner du temps et/ou de ne pas investir sur le champ considéré. Et ce sont chacun des réseaux de distribution de tous ces adeptes qui vont œuvrer à la promotion du standard.

Un cas bien connu, déjà cité plus haut, d’entreprise ayant eu recours à cette approche est la firme JVC (Matsushita).

Avec une politique active d’octroi de licences à des fabricants de lecteur-enregis- treurs vidéos (Hitachi, Mitsubishi, Philips, Sharp, etc.), JVC est parvenue à imposer son standard VHS de cassette vidéo auprès des utilisateurs finaux par rapport à de nom- breux autres standards concurrents – et notamment le Betamax de Sony pourtant connu pour présenter un niveau de qualité supérieur (mais qui avait refusé d’ouvrir sa technologie à d’autres entreprises). Inci- demment, Sony a retenu la leçon lors du lancement en 1984 de la disquette 3,5 pouces en octroyant des licences à de nombreux fabricants de PC ce qui lui a per- mis de devenir le standard de fait que l’on connaît.

On retrouve encore Intel qui, après avoir inventé le microprocesseur en 1972, a choisi d’octroyer des licences à des concur- rents comme Mostek, Advanced Micro Devices (AMD) ou encore Nippon Electric Company (NEC) pour que son architecture émerge comme design dominant – tout en prenant soin de garder propriétaires les générations de microcode toujours plus puissantes qui ont suivi (Afuah, 1999). Un autre cas presque aussi connu est celui du verrier anglais Pilkington, inventeur du pro- cédé dit « float-glass ». C’est grâce à une politique active d’octroi de licences à ses concurrents (…) que l’entreprise est parve- nue à quasi totalement évacuer du métier les anciennes technologies de verre en

feuille et de verre en plaque (Uusitalo, 1995).

Cette approche suppose que l’entreprise qui octroie les licences a été en mesure d’inves- tir dans l’innovation technologique, de créer un écart de performance et de protéger les connaissances qu’elle va diffuser. La for- mule permet alors un contrôle total des droits de propriété intellectuelle et pour par- tie un contrôle des stratégies technolo- giques des concurrents. Elle permet à une firme de tirer profit d’actions démultipliées possiblement sur plusieurs territoires géo- graphiques. Elle est peu risquée et suscep- tible de générer des économies de réseaux qui jouent alors très vite dans le sens de l’établissement d’un design dominant (Ehrhardt, 2004). Ainsi, s’il faut dépenser beaucoup d’énergie pour convaincre les premiers licenciés potentiels d’embarquer, il en faut de moins en moins pour convaincre les suivants. L’astuce est de cibler au tout début des entreprises qui n’ont pas le souci de se positionner sur la technologie considérée. Les barrières ainsi créées sont de nature à limiter les velléités de développement d’options alternatives par la concurrence ; il y a réduction de la concurrence. Elle est bien sûr aussi une source de revenus réguliers. Les royalties versées peuvent être en partie réinvesties dans la R&D pour développer de nouvelles générations, pour maintenir une avance et créer ainsi un cercle vertueux : on s’appro- prie une partie du profit des entreprises clientes et ce sont les concurrents qui finan- cent l’avance !

Cependant, au-delà du coût du brevet, l’en- treprise qui émet ces licences doit accepter de partager ce qui aurait pu devenir un avantage concurrentiel exclusif ; elle renonce à un éventuel monopole sur sa

(16)

technologie et perd son contrôle sur l’offre finale et se retrouve dépendante des actions de ses licenciés. L’option est donc peu recevable si le nombre de licenciés potentiels est trop faible. Par ailleurs, ces derniers doivent trouver d’autres sources de différenciation que la technologie licen- ciée qui les place tous sur un même pied d’égalité. En même temps, l’accès à la connaissance contenue dans la licence peut accélérer les apprentissages des licen- ciés ; le point étant encore plus sensible si la licence est octroyée à des entreprises de pays peu respectueux des règles de pro- priété industrielle. Le transfert peut inciter ou faciliter la copie, stimuler la réflexion des concurrents, susciter de nouvelles vocations et réduire progressivement l’écart entre celui qui octroie et celui qui reçoit la licence.

L’action collective : la mise au point de standards en commun

Les cinq stratégies examinées précédem- ment reposent essentiellement sur des efforts que peut conduire une firme seule.

Cette posture autonome suppose que l’en- treprise ait du temps devant elle et ait une envergure sérieuse, en tous cas suffisante pour convaincre différentes sortes d’acteurs de se rallier à ses choix techniques. Si ce n’est pas le cas, la solution peut être de fédérer plusieurs concurrents autour d’un standard commun – ce qui fait diminuer le nombre de designs et affaiblit relativement les concurrents restés en dehors de l’al- liance. Un autre cas est celui de l’union exogamique de l’expertise d’une firme de petite taille sur un format technologique donné avec une grosse entreprise qui ne détiendrait pas le dit format, mais qui, en revanche, disposerait des capacités manu-

facturières d’un large réseau de distribution et d’une image établie.

Le coût de la recherche et du développe- ment, ainsi que les risques, sont partagés entre les alliés (incidemment, l’action col- lective peut aussi être soutenue financière- ment par la puissance publique). Ceux-ci peuvent aussi bénéficier d’économies d’échelle s’ils décident l’ouverture d’un centre commun de R&D. Ils peuvent aussi combiner des champs de compétences qua- litativement complémentaires et obtenir ainsi un accès aux savoirs de leur allié. Et surtout, le rassemblement de plusieurs acteurs derrière le même standard est bien sûr de nature à accroître le pouvoir de mar- ché du dit standard, à augmenter son impact sur le marché et donc la probabilité de le voir devenir un design dominant – et paral- lèlement de marginaliser les concurrents restés en dehors de l’alliance. La manœuvre est également susceptible d’accélérer le phénomène d’adoption par le marché et de minimiser les risques d’échec. Elle peut donner de plus un canal d’accès aux savoirs et savoir-faire du partenaire au sein de l’alliance (ce qui peut aussi tourner à la phagocytose).

Il y aura lieu toutefois de partager les béné- fices de cette manœuvre coopérative si elle aboutit à un succès. Par ailleurs, comme dans toute alliance, il faut pactiser avec un concurrent et donc composer avec le risque de fuite de compétences, de mésentente avec la perte de contrôle, la création d’in- terdépendances, la perte d’exclusivité, le risque de comportements opportunistes, voire de trahison ou même de vampirisa- tion, etc. Dans un autre registre, considérant que la technologie produite conjointement met les alliés sur un même pied d’égalité (comme dans le cas de l’octroi de licence),

(17)

il faut trouver d’autres sources de différen- ciation. Mais, plus spécifiquement, la mise au point de standards communs suppose que chacun soit prêt à dévoiler et expliquer ses choix techniques, et surtout à trouver un terrain d’accord entre alliés quant aux spé- cifications techniques de la solution à déve- lopper conjointement.

En l’absence de travaux antérieurs, il n’y a pas d’antécédents que chacun des alliés va chercher à défendre. Mais, il faut imaginer que ces firmes puissent arriver dans l’al- liance après avoir travaillé chacune de leur côté. Leurs choix techniques ont peut-être même déjà été incorporés dans des compo- sants ou des gammes de produits et services existants. Il va falloir réconcilier des tech- nologies différentes et pas nécessairement compatibles. L’entrée dans l’alliance peut ainsi requérir des discussions difficiles. Les partenaires vont alors rentrer dans un pro- cessus de négociation où chacun cherchera à tirer la couverture vers lui, ou en termes plus académiques, à défendre ce qu’il per- çoit comme les avantages de la solution technique qu’il a développé avant de rentrer dans l’alliance. La recherche de ce bary- centre va être freinée par l’ego des équipes d’ingénieurs et la difficulté qu’il y aura à concilier des choix techniques peut-être opposés. Chaque allié cherchera également à ce que ses offres commerciales continuent à « s’emboîter » avec les choix techniques à retenir conjointement. Finalement, l’adop- tion d’un standard conjoint est aussi de nature à limiter les développements futurs.

4. Le lobbying des instances publiques de normalisation

Il s’agit d’exercer, de façon autonome ou collective (par exemple via un groupe d’en- treprises ou un syndicat professionnel), des

pressions sur les instances de normalisation (nationales ou supranationales). Celles-ci sont supposées représenter les intérêts et répondre aux attentes du marché. Ce jeu de persuasion est essentiellement politique. Il est généralement peu coûteux. L’entreprise se donne un pouvoir d’influence, voire même participe aux décisions de normalisa- tion. À travers une présence active dans les comités de normalisation, par exemple au niveau de la Commission européenne, une entreprise cherchera à promouvoir les solu- tions techniques qui sont les siennes. La réglementation suit ainsi le rythme du lobby.

Si la démarche est couronnée de succès, alors les choix techniques de l’entreprise seront imposés aux concurrents qui se retrouvent hors course et dans l’obligation de s’aligner – et cela pour une durée géné- ralement longue. Il n’y pas de dissidence possible, c’est précisément toute la force de cette stratégie. Elle permet alors de partir avec une longueur d’avance sur les concur- rents. Si le choix de la puissance publique s’impose aux concurrents, il s’impose aussi au marché. Il n’est donc pas nécessaire d’engager des ressources considérables pour les séduire.

La manœuvre ne vaut toutefois que pour des produits ou services susceptibles de faire l’objet d’une normalisation – comme, par exemple, lorsqu’il existe des exigences de sécurité, de santé publique, de respect de l’environnement naturel, de respect de l’ordre ou encore d’interopérabilité. La démarche est incertaine tant les décideurs politiques n’affichent pas des critères clairs. L’entreprise court aussi le risque de devoir se dévoiler et de ternir son image si elle échoue. Elle doit également composer avec le risque de dérapage vers des actions

(18)

grises susceptibles d’être perçues comme corruptrices (surtout s’il n’y a qu’un seul décideur).

Il existe donc une gamme de stratégie de construction de design dominant comme l’alliance interentreprises ou le lobbying d’instances publiques de normalisation.

Aucune de ces stratégies ne s’impose aux autres. Elles peuvent être combinées. Elles ont chacune leurs avantages et leurs incon- vénients. Le choix est fonction du secteur, de la position de l’entreprise et des valeurs de ses dirigeants.

CONCLUSION

Les transitions sont des processus non linéaires. La théorie des processus ou des dynamiques non linéaires, plus connue sous le nom de théorie du chaos, stipule que des changements mineurs dans les conditions initiales d’un système peuvent être ampli- fiés exponentiellement. Des changements limités peuvent donc induire des change- ments majeurs et soudains : ce sont des bifurcations, c’est-à-dire des changements de nature qualitative dans le comportement du système. Une découverte scientifique venue des fins fonds d’un laboratoire inconnu peut ainsi déstabiliser et mettre à mal des pans entiers de l’activité écono- mique. Pareillement, dans la période de

chaos qu’est la recherche par une industrie d’un design dominant, il suffit de l’adhé- sion de quelques acteurs à un standard pour amorcer la pompe des économies de réseau et peut-être transformer ce standard en un design dominant.

L’émergence de nouvelles technologies est donc généralement assez peu prévisible.

D’un côté, il est clair que la veille technolo- gique ne peut pas tout pister ; elle doit faire des choix. Elle peut ainsi passer à côté de variables secondaires induisant des change- ments radicaux. Une analyse historique fine des trajectoires observées dans le passé ne garantit pas non plus la prévision des points d’inflexion. D’un autre côté, on peut admettre que le chaos ne prend forme qu’à la fin d’une croissance logistique. Ce n’est donc pas seulement au début de la troisième phase de la courbe en « S » qu’il faut redou- bler de vigilance. C’est le plus probable- ment à ce moment que de nouvelles solutions technologiques alternatives com- mencent à voir le jour.

Lors d’une rupture technologique, si les firmes du secteur doivent aborder de nou- veaux champs de compétence, ce sont vrai- semblablement celles qui ont les meilleurs capacités d’apprentissage qui seront les mieux placées. C’est dire toute l’impor- tance qu’il y a d’apprendre à apprendre.

BIBLIOGRAPHIE

Abernathy W. J., Utterback J. M., “Patterns of Industrial Innovation”, Technology Review, vol. 80, June-July 1978, p. 41-47.

Abernathy W. J., Clark K. B., “Innovation: Mapping the Winds of Creative Destruction”, Research Policy, 1985, 14, p. 3-22.

Afuah A., “Strategies to Turn Adversity into Profits”, Sloan Management Review, vol. 40, n° 2, 1999, p. 99-109.

(19)

Christensen C. M., Suárez F. F., Utterback J. M., “Strategies for Survival in Fast-Changing Industries”, Management Science, vol. 44, n° 12, 1998, p. 207-220.

Ehrhardt M., “Network Effects, Standardisation and Competitive Strategy: How Companies Influence the Emergence of Dominant Designs?”, International Journal of Technology Management, vol. 27, n° 2/3, 2004, p. 272-294.

Hatfield D. E., Tegarden L. F., Echols A. E., “Facing the Uncertain Environment from Tech- nological Discontinuities – Hedging as a Technology Strategy”, Journal of High Techno- logy Management Research, vol. 12, n° 1, 2001, p. 63-76.

Klepper S., Simons Kenneth L., “Technological Extinction of industrial Firms: An Inquiry into their Nature and Causes”, Industrial and Corporate Change, vol. 6, n° 2, March 1997, p. 379.

Munir K. A., Phillips N., “The Concept of Industry and the Case of Radical Technological Change”, Journal of High Technology Management Research, vol. 13, n° 2, 2002, p. 279-297.

Munir K. A., “Competitive Dynamics in Face of Technological Discontinuity: A Framework for Action”, Journal of High Technology Management Research, vol. 14, n° 1, 2003, p. 93-109.

Quélin B. V., Abdessemed T., Bonardi J.-P., Durand R., “Standardisation of Network Techno- logies: Market Processes or the Result of Inter-firm Co-Operation?”, Journal of Economic Surveys, vol. 15, n° 4, 2001, p. 543-569.

Sakakibara K., Lindholm C., Ainamo A., “Product Development Strategies in Emerging Markets: The Case of Personal Digital Assistants”, Business Strategy Review, vol. 6, n° 4, 1995, p. 23-38.

Suarez F. F., “Battles for Technological Dominance: An Integrative Framework”, Research Policy, vol. 33, n° 2, 2004, p. 271-285.

Utterback J. M., Mastering the Dynamics of Innovation, Harvard Business School Press1994.

Uusitalo O., A Revolutionary Dominant Design. The Float Glass Innovation in the Flat Glass Industry, Doctoral dissertation. Helsinki School of Economics, Acta Universitatis œcono- micae Helsingiensis, 1995.

(20)

Références

Documents relatifs

C ela fait maintenant six ans qu’il existe une convention de partenariat entre la Revue fran- çaise de gestion et l’Association internationale de management stratégique ayant pour

Dans tout système social, la réalité sociale des règles est une réalité vivante : « a réa- lité sociale que nous constatons, ce n’est pas la présence de règles,

Membre du Centre de recherche sur le transport et la logistique (CRET-LOG), elle consacre ses travaux de recherche aux relations entre industriels et distributeurs ainsi

Dans le cadre de la prise de décision, les deux systèmes, central et périphérique, jouent un rôle (Bachara et al., 1994, 1998, 1999 ; Berthoz, 2003). Plus exactement, ce sont

Dans les années 1950 et suite à la dissolu- tion des grands groupes d’avant-guerre, appelés zaibatsu, les grandes entreprises s’organisent en keiretsu – des

Certes, la crédibilité des agences s’impose comme une condition primordiale à la fiabi- lité de la notation publiée, mais la SEC ne peut-elle pas proposer des conditions d’ac-

Une comparaison entre les quatre « grands chaebols » historiques 8 et les vingt-six autres chaebols, confirme dans l’ensemble cette observation, en montrant que, face à l’ampleur

Le présent dossier thématique se propose d’illustrer cet état de la recherche académique consacrée aux canaux de distribution dans un contexte de tension entre consolidation