• Aucun résultat trouvé

Web2.0 mythe technologique ou réalité économique ?

N/A
N/A
Protected

Academic year: 2021

Partager "Web2.0 mythe technologique ou réalité économique ?"

Copied!
16
0
0

Texte intégral

(1)

HAL Id: hal-03110574

https://hal.parisnanterre.fr//hal-03110574

Submitted on 14 Jan 2021

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Web2.0 mythe technologique ou réalité économique ?

Bernard Quinio, Rolande Marciniak

To cite this version:

Bernard Quinio, Rolande Marciniak. Web2.0 mythe technologique ou réalité économique ? : Les car-actéristiques et le potentiel pour les organisations. ECIG 2007 : Gouvernance de l’Internet, Oct 2007, Sousse, Tunisie. �hal-03110574�

(2)

Web2.0 mythe technologique ou réalité économique ? Les caractéristiques et le potentiel pour les organisations

Résumé : Le web 2.0 est présenté comme la convergence d’un ensemble de technologie arrivé à maturité et d’une révolution des usages sociaux. L’objet de ce papier est d’étudier le contenu de ce nouveau concept, d’en préciser les caractéristiques et d’en étudier le potentiel pour les organisations.

Bernard Quinio Maître de Conférences

CEROS

Université Paris X Nanterre

bernard.quinio@gmail.com

Rolande Marciniak Professeur

CEROS

Université Paris X Nanterre

rolande.marciniak@u-paris10.fr

Introduction

Lorsqu’on saisit « web 2.0 » dans le moteur de recherche de Google, on obtient1 731 millions de pages en réponse, en revanche une recherche approfondie dans les bases de données de publications scientifiques ne permet de trouver qu’un nombre très restreint2 d’articles de recherche académique sur ce sujet. Nous sommes dans l’émergence3 d’une nouveauté qui s’est traduite par peu d’articles de recherche dans les grandes revues scientifiques mais une profusion d’analyse dans les revues d’affaires, principalement anglo-saxonnes.

Le Web2.0 regroupe des services nouveaux offerts en lignes via Internet et une multiplicité d’usages sociaux innovants s’appuyant sur des technologies présentées comme récentes (Gogon 2006). Si ce nouveau concept fait flores auprès des particuliers et des amateurs de technologies, on peut se demander quel sera son impact sur le fonctionnement des entreprises. Nous soutenons ici que la nouveauté du web2.0 n’est pas technologique mais provient de l’évolution des comportements sociaux permise par des outils arrivés à maturité. Pour les entreprises, le pari est d’accompagner, par un management performant, ces nouveaux comportements en interne et en externe pour créer de la valeur.

La suite de l’article est organisée comme suit. Une première section tentera d’analyser les caractéristiques du web2. Cette analyse constitue une tâche délicate car rien ne semble vraiment stabilisé dans ce nouveau paysage. Dans une seconde section, les conséquences du web 2.0 pour les entreprises seront examinées. Nous nous appuierons pour cela sur la littérature professionnelle et académique et sur une étude réalisée dans le cadre d’un groupe de travail de l’ANDESE (Association Nationale des Docteurs en Sciences Economiques et Sciences de Gestion) sur 2006 et 2007.

1 Le 24 mai 2007.

2 60 articles dans Business Source Premier le 25 mai 2007 dont peu venant d’une revue de rang A ou B

3 La naissance du web2.0 peut être datée des premières introductions de flux RSS dans des sites internet (1999)

(3)

1

Les caractéristiques du Web 2.0

Le Web2.0 a été popularisé par Tim O’reilly dans un article aujourd’hui célèbre sur Internet (O’reilly, 2005) présente les caractéristiques multiples des entreprises ayant adopté le Web2.0 : une logique de mise en place de services « prêts à consommer », l’intelligence collective et une valeur ajoutée des données qui s’accroît au fur et à mesure de leur utilisation, des utilisateurs co-développeurs, des outils d’accès différents du seul PC (portable notamment) et la flexibilité des interfaces utilisateurs et des modèles d’affaires.

Selon d’autres auteurs4, le Web2.0 se décline en deux facettes technique et sociale. Sur le plan technique le Web2.0 correspond aux interfaces enrichies ergonomiques, aux technologies de support de flux d’informations (RSS, Atom) et à l’ouverture des applications (API et plus généralement open source). Sur le plan social, il correspond au partage et à la diffusion d'informations (blog, folksonomie, wiki), à la participation active des utilisateurs internautes qui deviennent ainsi des acteurs du développement du Web2.0.

Les professionnels de la documentation considèrent que le Web2 a un impact fondamental sur le fonctionnement des bibliothèques (Maness, 2006). La « bibliothèque 2.0 » se caractérise par des contenus multi média, des services en évolution permanente et des échanges sociaux riches avec des utilisateurs participant à la création de contenu.

De son côté, Andrew McAfee, chercheur à Harvard, définit « l’entreprise 2.0 » comme une organisation qui utilise les technologies du web2.0 pour mettre en place une plateforme qui accumule du contenu visible et accessible par tous (McAfee, 2006). Selon lui, les nouvelles technologies du Web2.0 ont quatre5 traits : la facilité de recherche, la multiplication des liens, l’accroissement du nombre d’auteurs de contenu, le développement des critères de recherche, la possibilité de recommander des contenus voisins de ceux cherchés et la facilité de signaler les nouveaux contenus d’un site sans avoir à consulter ce dernier.

Toutes ces approches distinguent plus ou moins explicitement les aspects techniques et sociaux du Web2.0; cependant chacun de ces aspects doit être mieux précisé et structuré.

1.1. L’axe technique du Web2.0 : des technologies matures

Le Web 2.0 ne peut être résumé à une seule technologie ; c'est un ensemble d’outils arrivés à maturité6 qui suit une évolution naturelle du Web. Ce n’est pas une révolution mais une évolution technologique autorisant des assemblages pertinents qui permettent à l’utilisateur d’accéder facilement à des services personnalisés à distance. Au travers d’un simple navigateur sur son PC ou à partir de son téléphone mobile, l’utilisateur utilise des services. Un bon exemple de ce mode d’utilisation est la page de Netvibes7, une des sociétés françaises les plus médiatiques du Web2.0. Ce mode de fonctionnement est rendu possible par le développement d’infrastructures de matériels et réseaux, l’utilisation de standards ouverts et la notion d’assemblage.

4 http://le.web.2.0.googlepages.com/

5 McAfee propose l’acronyme « slates » pour Search, Links, Authoring, Tags, Extension et Signals 6 Décision informatique N°675 du 8 au 14 mai 2006 : « le point sur le Web2.0 »

7

(4)

1.1.1 Infrastructure matériels et réseaux

La concomitance de l’accumulation de puissance de calcul chez des acteurs privés et le développement du haut débit font éclore de nouvelles offres de services à distance. Ainsi plusieurs acteurs du monde d’Internet proposent aux particuliers, gratuitement mais avec de la publicité, la fourniture de services sur des serveurs distants pour le stockage de leurs données (texte, photo, son, vidéo). Des acteurs privés comme Google et Microsoft ont investi massivement dans des « data centers » et disposent d’importantes ressources de stockage et de traitement. Ils peuvent ainsi mettre à la disposition de leurs utilisateurs des services de messagerie ou des outils bureautiques (Caizergues, 2007).

Ce développement d’infrastructures matériels est lié à la loi de Moore et la réduction de coût qu’elle entraîne, au développement de « fermes de serveurs » et enfin à la capacité d’investissement des firmes ; il ne s’agit pas de révolution technologique.

De même le développement massif du haut débit et l’émergence du très haut débit reposent sur des technologies éprouvées : ADSL et fibres optiques (Schwartz & Achache, 2007) et technologie 3G pour les mobiles (Wilson, 2006).

En ce qui concerne l’accès au réseau, la logique de client universel léger, c'est-à-dire le recours à un simple navigateur sur un micro-ordinateur ordinaire pour accéder à des services distants, n’est pas non plus une révolution. Les plus anciens informaticiens se rappellent de l’époque du « time sharing », dans les années 1980, où la plupart des applications de gestion étaient accessibles à partir d’un terminal passif (ou une émulation TTY8 sur un micro-ordinateur) et via un réseau de communication. Pour les mobiles, l’actuel Wireless Application Protocol (WAP) est un protocole de communication des années 90 qui utilise aujourd’hui le format XHTML.

1.1.2 L’application de standards ouverts

Les technologies du Web2.0 se sont développées autour de standards ouverts. La loi n° 2004-575 du 21 juin 2004 pour « la confiance dans l'économie numérique » en donne la définition suivante : « On entend par standard ouvert tout protocole de communication, d'interconnexion ou d'échange et tout format de données interopérable et dont les spécifications techniques sont publiques et sans restriction d'accès ni de mise en œuvre ». L’application de standards ouverts bien connus montre que la grande nouveauté du web2.0 n’est pas technologique.

AJAX (Asynchronous Javascript and XML), un des piliers du Web2.0 est décrit par le centre de développement Mozilla9, qui est une référence pour les standards ouverts. AJAX est la combinaison de technologies Web existantes (Notess, 2006). L’utilisation de cet ensemble de technologies permet d’exécuter des applications à l’intérieur du navigateur, sur le poste client, en apportant un affichage plus rapide car l'actualisation d'une page peut se faire par morceaux sans un rechargement complet de celle-ci. Il ne s’agit donc pas d’une nouveauté mais d’un assemblage pertinent de technologies existantes sur la base de standards ouverts.

RSS (Really Simple Syndication ou Rich Site Summary) est un format de syndication utilisant la technologie XML. Son principe est simple, il s’agit de publier sur un site un petit fichier XML qui contient les descriptifs datés d’une partie du site et un lien vers ces parties.

8 TTY : TéléTYpe terminal en mode caractère 9

(5)

L’utilisateur peut lire directement ce fichier via un lecteur de flux ou « agrégateur » de flux RSS (un navigateur par exemple) ou alors insérer ce fichier dans son propre site : il créé ainsi un « fil RSS ». L’utilisateur choisit alors volontairement d’être informé des nouveautés du site émetteur du fil RSS sans avoir à se connecter sur ce dernier. Ce côté volontaire différencie notablement ce mode de contact des SPAM qui parasitent aujourd’hui la communication des organisations. Si l’usage des « fils RSS » a démultiplié la communication sur Internet, en tant que technologie, il ne s’agit pas d’une nouveauté mais d’un outil efficace pour personnaliser et faciliter l’accès à distance et volontaire de sources d’informations sélectionnées.

Le développement des standards ouverts associé à celui des infrastructures de matériels et réseaux, permet donc à l’internaute de se connecter où qu’il soit avec l’outil de son choix et d’échanger du contenu même volumineux avec d’autres internautes en profitant de l’ouverture des technologies utilisées.

1.1.3 L’assemblage des services

Supportés par cette infrastructure technique, des services sont mis à disposition des utilisateurs. Ces services accessibles à distance peuvent se présenter sous la forme d’une application composite (ou mashup) qui combine du contenu provenant de plusieurs applications plus ou moins hétérogènes (Maness, 2006). Ces assemblages sont réalisés en utilisant les Application Programming Interface (API), publiées par les créateurs d’applications. Les API définissent le mode d’échange de données. Plusieurs entreprises du monde Internet, comme Amazon, Google ou Ebay, publient leurs API et donnent l’autorisation d’utiliser leurs données (Notess, 2006). Il est ainsi possible d’agréger du contenu provenant d'autres sites afin de créer un service nouveau. On peut donner, parmi des milliers de « mashup », l’exemple de la présentation d’expositions artistiques sur une carte de Google-maps10 ou la recherche d’image dans le site Flickr11.

Cette logique de développement de service à distance possède un avantage majeur pour les utilisateurs. Le logiciel est un produit qu’il faut acheter, installer, mettre à jour pour pouvoir l’utiliser, dans la seconde logique on utilise directement un service quand on le souhaite et d’où on veut. Pour prendre un exemple simple, la consultation d’un dictionnaire peut se faire : - en achetant un CD-ROM à un éditeur, en l’installant sur son micro-ordinateur puis en le mettant à jour régulièrement ;

- en se connectant à l’adresse web d’un dictionnaire gratuit ou payant.

Pour les offreurs de services, la logique d’assemblage et l’utilisation de services à distance permet de développer rapidement et à moindre coût des applications légères (Wagner et Majchrzak, 2006).

1.2 Axe social : des services et usages innovants

Le Web2.0 a été popularisé par quelques mots à la mode qui se sont répandus sur la toile et dans les médias12 traditionnels en France et ailleurs. Comme souvent dans ces moments d’euphorie de l’aube, tout et son contraire ont été dit. Il n’en est pas moins vrai que les technologies présentées ci-dessus ont permis l’éclosion de services et usages nouveaux.

10 http://www.artscape.fr/map.php 11 http://labs.systemone.at/retrievr/

12 En septembre 2006, Courrier International (N°826 du 31 août au 6 septembre)a publié un très bon dossier

(6)

1.2.1. Les nouveaux services : Blogs et Wiki

Le développement des Blogs a été très rapide et facilité par la diffusion d’outils simples et accessible en ligne. Le Blog n’est pas seulement un site personnel présenté comme un agenda, il permet l’ajout de commentaires des visiteurs, la création de rétro-liens et le tissage de mini toiles composées de fils de communication de type RSS. L’ensemble des lecteurs d’un Blog peut partager, diffuser et connecter des informations les unes avec les autres. Des blogs de particulier ont aujourd’hui plus de lecteurs que les grands journaux traditionnels ; c’est une menace très sérieuse envers les médias classiques (Schawrtz et Achache, 2007) et globalement une révolution dans le monde de l’édition (Maness, 2006). Le développement des blogs s’est fait d’abord auprès des particuliers, puis il a gagné le monde de l’entreprise (Noy et Ruiz, 2007).

De même, le Wiki est un outil de gestion de site web qui permet aux utilisateurs de publier et modifier collectivement et facilement du contenu. Créée en 2001, l’encyclopédie libre Wikipedia est le Wiki le plus utilisé13 au monde mais de nombreuses autres utilisations voient le jour dans tous les domaines du travail collaboratif. La mise en place de Wiki ne demande que peu voir aucune programmation de la part des utilisateurs ; c’est techniquement très simple (Wagner et Majchrzak, 2006). la réussite d’un Wiki suppose un bon niveau de participation des utilisateurs : ceci demande de respecter onze principes qui permettent de définir une vision commune et une structure pour l’échange de contenus et de connaissances (Leuf et Cunningham, 2001).

Les services sont mis à disposition des utilisateurs qui créent de la valeur par l’usage qu’ils en feront : c’est ce qu’on appelle la valeur d’appropriation créée par les utilisateurs (Orlikowski, 1999). La technologie n’a pas de valeur propre, ce sont les utilisateurs qui, par leurs usages mais aussi leurs détournements et leurs bricolages, créent de la valeur ajoutée (De vaujany, 2007). L’aspect novateur du web2.0 est que ces nouveaux usages sont d’abord inventés et utilisés par des communautés de particuliers puis s’introduisent dans les entreprises qui savent les accueillir.

1.2.2. Des nouveaux usages inter individuels

Le développement du Web s’est fait, dans un premier temps, au travers des sites Internet qui diffusent de l’information vers les utilisateurs ; c’est-à-dire avec quelques rédacteurs et beaucoup de lecteurs de contenus. En ce sens Internet était un média comme un autre (Schwartz et Achache, 2007). De nos jours, le développement des Blogs et des espaces communautaires, transforme le Web en un lieu de partage de contenus. On peut voir le Web2.0 comme un ensemble de contenus fournis par les utilisateurs ; cet ensemble étant en perpétuelle transformation. On est passé de la diffusion verticale de quelques auteurs vers de nombreux lecteurs à une diffusion maillée entre un nombre toujours croissants d’auteurs (MacManus et Porter, 2006). Cette évolution majeure n’a pu s’opérer que grâce à l’amélioration de l’infrastructure technique et de communication présentée ci-dessus, notamment par l’augmentation des débits pour les flux montants des particuliers vers les opérateurs.

La communication au travers du Web2.0 est la conséquence de la nouvelle vision des données dans cet environnement. Selon Tim O’reilly, nous sommes passé de l’ère du « hardware lock in », à celle du « software lock in » pour arriver au Web 2.0 et au « data lock in ». En d’autres termes, dans le domaine des technologies de l’information, le point central a été le hard (IBM

13

(7)

années 70) puis le soft (Microsoft années 90) et c’est maintenant la donnée (Google années 2005). L’utilisateur reste propriétaire de ses données qu’il peut échanger, donner ou connecter à d’autres. Plus la communauté grandit, plus la masse de données disponibles prendra de la valeur pour le groupe.

Le Social Networking (réseau social en français) définit des communautés d’utilisateurs qui se sont regroupés en fonction de centres d’intérêts communs comme la musique, le sport ou la recherche d’emploi. Les sites Web utilisés par ces réseaux sociaux proposent des échanges de contenus et des interactions entre des membres inscrits. MySpace, FlickR ou Viadeo demeurent des sites emblématiques du Social Networking.

Un site un peu particulier prend actuellement un essor remarquable, il s’agit de Second-life. Ce site de communauté virtuelle a d’abord attiré des individus14 dont certains gagnent des vrais dollars en réalisant un travail virtuel payé en monnaie locale (le linden $ qui a un cours de change). Plusieurs pays, dont l’Angleterre et la Chine, imaginent même taxer ces revenus qui échappent pour l’instant à l’impôt. Plus récemment, de grandes entreprises s’implantent dans ce monde virtuel. Ainsi, par exemple15 :

- Sony fait de la publicité pour ces produits

- Apple a ouvert un magasin virtuel

- BN Amro propose des services de conseils financiers

- Lacoste organise des castings et des défilés de mode

- Accenture recrute des spécialistes techniques

- l’INSEAD se lance dans le E-learning pour ses stagiaires de MBA

Sous l’appellation de « tags » se cache la possibilité pour les utilisateurs, et non plus seulement pour les créateurs de contenus, de définir des mots clefs qui permettront à tout le monde de retrouver des photos, des sites Internet ou des articles de presse (MacManu et Porter, 2005 ; Maness, 2006). Les tags les plus populaires sont représentés au milieu des autres en gras et dans une police de caractère plus grande, l’ensemble prenant la forme d’un nuage : c’est le « tags cloud ». On parle ici de « folksonomy » soit un classement par les gens plus que de « taxonomy » ou classement d’expert (McAfee, 2006).

L’idée force réside ici dans « l’intelligence collective16 » qui serait égale ou supérieur à l’intelligence des experts. Cette intelligence provient de l’accumulation de contenus mais surtout du tissage de liens de plus en plus denses entre ces contenus (McAfee, 2006). A titre d’illustration, la plateforme Innocentive17 expose des questions de recherche de centres de R&D professionnels qui peuvent être résolues par des particuliers moyennant rétribution. Ainsi plusieurs solutions techniques, dans le domaine de la chimie, ont été trouvées par des individus ayant une formation scientifique mais n’étant pas chercheur (Howe, 2006). On parle alors de « crowdsourcing » ou faculté de faire faire le travail par la foule des Internautes. En associant le Social Networking et la folksonomy, on comprend mieux l’effet d’externalité de réseaux. Un bien ou un service présente des externalités de réseau, lorsque l’utilité d’un consommateur augmente avec le nombre de consommateur (Leibowitz et Margolis, 1998). Cette augmentation de valeur s'effectue en 3 temps :

14

4 millions sans le monde selon la société créatrice de l’univers Linden Lab dont 150 mille français.

15 Source le Figaro du 16 avril et du 26 mai 2007, le courrier cadre de l’APEC du 18 avril 2007

16 Il faudrait confronter ce concept avec celui défini par pierre Levy dès 1995 dans un article du Monde

Diplomatique

17

(8)

- premier temps : le volume de données augmente avec l’accroissement du nombre de personne de la communauté

- deuxième temps : le volume de liens, tags, fils RSS qui permettent de retrouver ces données augmente lui aussi, ce qui démultiplie l'accessibilité et donc la valeur pour la communauté

- troisième temps : via des Mashup, des avis ou autres combinaisons, les internautes créent de nouveau contenus à partir de ceux existants. La valeur augmente encore.

La co-production de contenu touche également la mise en commun de puissances de calcul des ordinateurs personnels. Des projets comme Seti@home18 représente des enjeux importants (Huet et al., 2007). SETI@home est une expérience scientifique en radioastronomie exploitant la puissance inutilisée de millions d'ordinateurs connectés via Internet dans un projet de Recherche d'une Intelligence Terrestre (Search for Extra-Terrestrial Intelligence, alias SETI). Selon le même principe des projets sont en cours pour la recherche génétique ou des calculs financiers.

1.2.3. La finalité des usages

Que recherchent les Internautes qui partagent leurs contenus sur les plates formes du Web2.0 ? Une piste pour la réponse à cette question pourrait passer par l’étude du capital social (Penard et Suire, 2006) et l’analyse des nouveaux comportements.

Le capital social est un ensemble de ressources liées à l’appartenance à des réseaux sociaux ou basées sur des relations de confiance (Penard et Suire, 2006). Ces ressources permettent à leur propriétaire d’obtenir des avantages financiers ou non dans les interactions sociales futures qui, à rebours, enrichissent son capital social. Dans cette vision, les apporteurs de contenus augmentent leur capital social et donc leurs avantages en fonction de leur niveau de contribution. La question centrale est de savoir si ce besoin d’augmenter son capital social dans la sphère privée peut trouver son pendant dans la vie des entreprises.

Dans toute relation de confiance se pose la question du « passager clandestin ». Par exemple, l’efficacité des systèmes d’évaluation sur les sites communautaires comme Ebay est essentielle pour assurer le bon fonctionnement des échanges. Cette efficacité repose principalement sur une participation élevée des utilisateurs. Or, certains peuvent être tentés de laisser aux autres le soin de fournir des évaluations, pour minimiser leurs efforts.

En termes de nouveaux comportements, l’utilisateur du Web2.0 aurait la manie de s’informer et attacherait beaucoup d’importance à la collaboration entre internautes et à l’intégrité morale (Tapscott et Williams, 2006). Ces caractéristiques le pousseraient à échanger ses propres informations avec sa communauté et à traquer les défauts dans les produits ou services qu’il utilise. La confiance de l’Internaute du Web2.0 irait d’abord vers ses semblables avant d’aller vers des experts ou des entreprises privées. Ainsi sur le site Allociné les avis des spectateurs sont plus consultés que les critiques de cinéma professionnels.

La recherche de notoriété sur la toile serait aussi une obsession pour de nombreux Internautes qui scruteraient leur côte de popularité sur les nombreux sites de classement.

18

(9)

Peut-on trouver les mêmes leviers qui font participer des millions d’internautes dans des plateformes communautaires dans le contexte d’entreprises privées ? Notamment, comment instaurer un climat de confiance entre l’entreprise et ses partenaires ce qui semble un préalable à la participation active de ces derniers ?

2 Le

Web2.0

dans

les

organisations :

un

pari

organisationnel

La diffusion des technologies du Web2.0 s’effectue chez les offreurs de services dans les entreprises utilisatrices. Nous exposons ici les raisons de cette diffusion et les obstacles à surmonter. Les cas et entreprises présentés ici ont été étudiés par un des auteurs dans le cadre d’un groupe de travail de l’ANDESE étudiant le développement du Web2.0. Ce travail a débouché sur un colloque19 à la Sorbonne le 4 avril 2007.

2.1 Les offreurs de services du Web2.0

Pour les offreurs de services du Web2.0, il faut d’abord s’interroger sur les modèles économiques et examiner la possibilité d’une deuxième bulle Internet. Depuis l’explosion de la bulle Internet, de nombreux observateurs scrutent les modèles économiques des sociétés oeuvrant dans le monde Web2.0.

2.1.1. Les e-modèles classiques

Pour certains observateurs, il ne peut y en avoir que deux : le gratuit financé par la publicité ou le payant (Schwartz et Achache, 2007).

Pour Olivier Bomsel le gratuit est un outil concurrentiel très violent (Bomsel, 2007) qui s’obtient de trois façons : quelqu’un paye pour vous, on vous fait payer autre chose ou vous paierez plus tard.

Amit et Zott (2001) distinguent les modèles de création de valeur et les modèles de création de revenus. Selon ces auteurs, il existe quatre principales sources de création de valeur dans le commerce électronique : l’efficience, les complémentarités d’actifs, l’effet de lock in et l’innovation. Si la création de valeur est bien définie, l’article est plus discret sur la création de revenu.

2.1.2. Le modèle web2.0 : la longue traîne

L’évolution majeure du Web2.0 provient de l’évolution des modèles Customer To Customer (C2C), comme Ebay, où il s’agit de valoriser des nombreux petits échanges entre des individus (Huet et al., 2007). C’est le concept de « longue traîne » qui permet de comprendre cette évolution. La longue traîne a été largement médiatisée dans le monde Internet. L’expression a été utilisée par Chris Anderson en 2004 dans un article de Wired qui se référait aux blogs20. De manière empirique, Anderson avance que les produits qui n’ont qu’un faible volume de vente, peuvent collectivement représenter une part de marché égale ou supérieure à celle des best-sellers, si les canaux de distribution permettent de connecter l’offre et la demande.

Plusieurs exemples de « longue traîne » peuvent être présentés. Ainsi le site Amazon revendique de vendre aujourd’hui plus de livres qu’il n’a pas vendus hier que de livres qu’il a vendus hier. De même, les morceaux de musiques téléchargés sur les grands sites de musiques sont en très grande majorité téléchargés très peu de fois. Une des ressources clefs de l’entreprise Google est la vente de mots clefs pour positionner des références de site, là aussi les très nombreux mots peu utilisés de la langue sont globalement la source des revenus les

19 Voir le Wiki créé à cette occasion : http://www.acadys.com/andese/ 20

(10)

plus importants. On peut enfin citer Ebay ou Priceminister qui ont créé leur réussite en facilitant des petites transactions entre de très nombreux acteurs.

Comme ces exemples l’illustrent, la longue traîne est un marché potentiel réduit en volume et éclaté géographiquement qui est rendu accessible par Internet. La masse des petits clients sur du long terme peut être supérieur au volume des gros clients sur un temps court. La valeur ajoutée créée augmente proportionnellement avec le nombre d’utilisateurs. C’est un principe fort du Web2.0 et non un modèle économique, et notons qu’une validation scientifique de ce principe n’a pas encore, à notre connaissance, été apportée.

En tenant compte de ces apports, on peut identifier un continuum de modèles économiques partant du gratuit (souvent pour un temps seulement et pour attirer des masses de clients potentiels), passant par le classique modèle publicitaire, puis par le partiellement payant (souvent pour des services premium) et enfin le modèle purement payant. Ce continuum de modèles économiques peut ensuite être croisé avec les clients concernés. Par exemple, pour le site E-bay, les acheteurs ne payent pas mais les vendeurs eux payent. De même, le site de rencontre Meetic a fait son succès en accordant la gratuité aux filles pour attirer des garçons. Maintenant que la masse critique est atteinte, le site fait aussi payer les filles. On parle ici de subventions croisées très bien décrites par Olivier Bomsel (2007). Il n’y a donc pas un seul modèle économique du Web2.0 mais un panachage de modèles variant selon la cible visée et l’évolution du marché, voir tableau1.

Tableau 1 : Panachage de modèles économiques, exemple de Meetic

Initiation Croissance Maturité

Catégorie client : filles Gratuit Services premium payants

Payant Catégorie client : garçons Payant Payant et services

premium en plus

Payant

Toutes catégories Revenus publicitaires Revenus publicitaires Revenus publicitaires Quant au risque de deuxième bulle financière, les avis sont partagés. Cependant il semblerait que la situation soit différente en 2007, notamment :

- des entreprises ayant un Chiffre d’Affaires réel même s’il est faible21,

- des hybridations entre entreprises classiques et entreprises purement Web (Dan Nguyen et Mevel, 2006).

2.2 Utilisation du Web2.0 dans les organisations

Les nouveaux services du Web2.0 sont essentiellement tournés vers les particuliers qui sont, nous l’avons dit, les moteurs de l’innovation. Mais de récentes propositions de services ainsi que le développement de solutions plus anciennes montrent que le Web2.0 entre dans les entreprises. Trois domaines sont actuellement couverts : les applications génériques (bureautique et messagerie), les progiciels fonctionnels (CRM notamment) et la veille ou la gestion des connaissances.

2.2.1. Les services génériques

Selon une enquête de 2004 de la société Microcost22, qui a examiné un million de postes informatiques dans sept pays européens, les logiciels les plus utilisés sont à 68% des outils

21 Dossier du Courrier International précédemment cité

22 « L'usage des PC au crible du benchmarking » Boris Mathieux, 01 Informatique, le 17/09/2004 :

(11)

génériques (messagerie, bureautique). L’utilisation de ces logiciels génériques demande une infrastructure importante en termes de machines, de réseaux et d’outils de surveillance. Google a lancé en février 2007 une offre de services pour ces logiciels génériques, sans publicité, qui se nomme Google Apps23 et qui propose pour 40€ par utilisateur (50 $) :

- une messagerie électronique, avec 10 Go de mémoire par personne

- un Agenda électronique partageable.

- la possibilité de « chat » et messagerie instantanée.

- un support en ligne

- une page d’accueil personnalisée avec nom de domaine professionnel, acceptant les flux RSS

- un logiciel collaboratif d’écriture

- un tableur collaboratif et un outil de présentation

- la fourniture d'API (interfaces de programmation) permettant d'intégrer ces services aux annuaires d'entreprise ainsi qu'à d'autres applications

Ce service fonctionne en mode hébergé en s’appuyant sur les infrastructures existantes de Google : environ 500 000 serveurs, dans plus de 25 Data Centers.

A titre de comparaison, une étude récente de KLC évaluait le coût d’une boîte aux lettres, soit un utilisateur de messagerie, entre 60 et 100 € par an (étude KLC 2006).

Il existe à ce jour une solution peu coûteuse pour externaliser et rendre transparent presque 70% de l’utilisation des postes de travail.

2.2.2. Les services d’applications fonctionnelles

Pour les applications fonctionnelles, le développement d’offres à la demande proches du principe de l’Application Service Provider (ASP) peut accélérer l’externalisation des outils informatiques. Par exemple, la société Salesforce24 a proposé initialement des solutions de CRM à la demande. La logique suivie est celle du Web2.0. En effet, d’un point de vue technique, il s’agit d’utiliser un service à la demande et d’un point de vue fonctionnel de partager des informations sur les clients : on retrouve l’aspect coopération de contenus. Récemment, cette entreprise a ouvert sa plateforme de manière à accueillir d’autres éditeurs de progiciel via la diffusion de ses API. Il s’agit, directement, de concurrencer les grands éditeurs de progiciels classiques sans avoir l’obligation d’installer, paramétrer et maintenir un logiciel en interne. On désigne globalement ce type de service comme un Soft as a Service ou Saas (Lassila, 2006).

Le modèle du Saas permet, à la fois, de profiter des effets d’échelle de la production de logiciel et d’atteindre la satisfaction des besoins utilisateurs par la production de services (Sääksjärvi, M. et al., 2005). En effet, les technologies actuelles25 permettent de faire utiliser un même logiciel à distance par plusieurs utilisateurs en séparant strictement les données et en offrant une souplesse de paramétrage. Les premières offres en ASP n’étaient capables de proposer que du standard à tout le monde soit du « good enough » (Hervier 2006). Pour les utilisateurs les gains sont évidents en termes de coûts et de gestion des compétences et cela en n’importe quels lieux et à n’importe quelle heure. Pour les éditeurs, on note une extension géographique du marché, des flux financier plus prévisibles (équivalent à la location) et des cycles financiers raccourcis (Wash, 2003). La faiblesse de l’offre Saas, outre la localisation des données de l’entreprise chez un prestataire, réside dans le lien entre les différents prestataires. Par exemple, si une entreprise utilise un système CRM en Saas chez un

23 http://www.google.com/a/help/intl/fr/admins/premier.html 24 http://www.salesforce.com/fr/

25

(12)

prestataire et un system ERP chez un autre, comment fera-t-elle le lien entre ces deux systèmes externalisés ?

Le principe de développement des « mashup » fait aussi son entrée dans l’entreprise. Une entreprise comme Activegrid propose des services d’agrégation entre Google et Yahoo mais aussi entre des webservices et des bases de données comme Oracle ou MYSQL. (Edouard-Baraud et al., 2007).

2.2.3. Les services de veille et de gestion des connaissances

Avec plus ou moins ce succès26, les entreprises utilisent les nouveaux outils du Web2.0 pour tisser des relations plus étroites avec leurs clients et tenter de s’immiscer dans les communautés des internautes. Dans le domaine de la veille stratégique, une veille intelligente sur les blogs phares d’un secteur donné permet d’avoir des informations qu’une coûteuse étude ne donnerait pas. De plus, l’utilisation des fils RSS permet aux utilisateurs finaux de construire eux même des outils de veille, auparavant créés par des entreprises spécialisées dans les SIAD (Noy et Ruiz, 2007). On note aussi la proposition de nouveaux outils d’aide à la décision s’appuyant sur le Web2.0 (Colomb et al, 2006).

L’utilisation de Wiki permet de mettre en place des actions pour développer une politique centrée sur les clients ou « customer centricity » (Wagnet et Majchrzal, 2006). Pour les entreprises, les Wiki offrent une nouvelle opportunité de co-construire des connaissances avec leurs clients, cette ouverture accroissant de manière concomitante la vulnérabilité des organisations. La mise en place de Wiki, dans un objectif d’amélioration de la relation client, est techniquement simple mais demande de repenser profondément le management de projet et le fonctionnement de l’organisation.

C’est dans le domaine de la gestion des connaissances que les possibilités offertes par les technologies du Web2.0 sont les plus porteuses d’avenir. Les solutions techniques actuelles (Intranet et base de données) peinent à capter les connaissances des acteurs de l’entreprise (McAfee 2006). L’utilisation de plateformes de contenus ouvertes peut permettre non de sauvegarder des connaissances structurées mais des faits et des liens qui permettront ensuite de reconstruire du sens. Cette utilisation ne se développera qu’appuyer par un management efficace alliant incitation et souplesse.

Si on présente l’architecture fonctionnelle d’une entreprise en trois grandes couches : applications génériques, progiciels et logiciels spécifiques, seule la dernière semble ancrée à l’intérieur de l’entreprise. Peut se développer ainsi une logique de service pour les SII proche de celle des services classiques d’énergie ou de communication. Nous sommes ici dans un schéma qui peut sembler proche de celui décrit par Nicholas Carr (2003) où les TI sont vues en tant que commodité, comme l'électricité, et donc ne sont plus constitutive d'avantage concurrentiel pour les entreprises. La conséquence de cette vision peut être alors de limiter les investissements informatiques.

2.2.4. Les obstacles au développement du web2.0 dans les entreprises

Le premier des obstacles au développement du Web2.0 réside dans la possibilité de passer du monde des particuliers à celui des entreprises. Force est de constater que les réalisations

26 Voir la première version, très fortement critiquée d’un blog, de la société Vichy

(13)

concrètes présentées ci-dessus touchent aujourd’hui majoritairement les individus et non les organisations. Si la qualité des offres techniques pour les entreprises est un élément facilitateur, la diffusion des ces nouvelles technologies passe surtout par un management adapté (McAfee 2006). Les individus partagent leurs photos ou leurs vidéos parce qu’ils le veulent bien et non parce qu’une autorité leur demande de le faire. En ce qui concerne les connaissances et les expériences, le web2.0 ne peut en aucune manière échapper aux problèmes rencontrés dans les projets de KM. De même le développement de climat de confiance entre des acteurs privés semble plus délicat à créer qu’entre des particuliers qui partagent la même passion.

Le deuxième obstacle concerne les applications métiers spécifiques des entreprises. Si on imagine une messagerie externalisée, il est plus difficile de concevoir une application métier spécifique externalisée selon le modèle web2.0 comme par exemple, pour une banque, une chaîne de compensation bancaire, faite de millions de lignes Cobol, être répartie sur les serveurs d’un prestataire externe. Plus généralement, la spécificité des actifs informationnels est ici un point essentiel ainsi que la part des applications métier dans l’utilisation des systèmes d’information.

La troisième difficulté provient des exigences de sécurité et de confidentialité des organisations. Monsieur Dupont peut mettre en ligne, sans angoisse particulière, les photographies de son chien sur le site Flickr, même s’il ne sait pas où seront stockées ces photos ni qui y aura accès avec la possibilité de les modifier. En revanche, un cabinet comptable ne confiera pas à n’importe quel fournisseur, ni sans garantie, un relevé d’audit d’un de ses clients. De plus, la présence d’acteurs privés étrangers ultra dominants dans le stockage des données et la recherche d’informations pose des problèmes importants de respect de la concurrence. Toute évolution mettant en cause la « net neutrality », soit l’égalité dans l’accès au réseau, poserait de graves problèmes27. Le cryptage des données, avant leur sauvegarde à distance, peut être une parade technique. Mais cette technique ne peut à elle seule lever l’obstacle psychologique venant de la culture de nombreuses entreprises pour qui le capital doit se voir et être dans l’organisation28 pour rassurer les clients et les investisseurs. Le capital immatériel n’est pas visible comme l’est une usine, si, de plus, il se trouve disséminé sur plusieurs serveurs aux USA, cela devient pour certains très inquiétant.

Outre la sécurité se pose la question de la fiabilité des données. Le magazine scientifique Nature29 a publié un article sur la fiabilité de 42 articles du domaine scientifique issus de Wikipedia (version anglaise), et les 42 mêmes issus de l'Encyclopædia Britannica. Ces articles ont été soumis à des experts pour y révéler des erreurs. Les articles de l'Encyclopædia Britannica comportent 123 erreurs ; ceux de Wikipédia comportent 162 erreurs. L'écart est donc faible mais il pose la question de la fiabilité des sites collaboratifs. De même, la fiabilité des informations retrouvées via une recherche sur le moteur Google est critiquée (Barr-Ilan, 2006). Plus généralement, certains contestent le concept même d’intelligence collective et parlent de « royaume30 des idiots ». En effet, la mise en commun et le partage d’information ne peuvent se faire rapidement qu’en l’absence de filtrage formalisé ou d’autorité de

27 Voir à ce sujet le très virulent débat qui a lieu aux Etats-Unis

http://www.agoravox.fr/article.php3?id_article=23084

28

A titre d’illustration, lors d’une présentation de Saas, un dirigeant de PME parlant de ces données déclarait « ce qui est à moi et chez moi ! »

29 Nature, Special Report from Nature, Published online: 14 December 2005; Internet encyclopaedias go head to

head, Jim Giles

30

(14)

surveillance ; c’est le groupe qui autogére le contrôle des données. Ce point explique à la fois le succès de ces outils et la diffusion de bruits plus ou moins fondés à l’échelle planétaire en l’espace de quelques minutes.

Toujours à propos de la fiabilité, une journaliste américaine a montré qu’on pouvait acheter des votes pour obtenir une bonne notoriété de son Blog sur le site Digg qui est le site le plus célèbre de recommandations en ligne (Newitz, 2007). En achetant les premiers votes pour 20 dollars, elle a atteint un premier palier de notoriété. Puis les Internautes sont librement venus sur son Blog et ont voté pour lui car chaque Internaute gagne en réputation s’il vote pour un site populaire. C’est l’effet pervers de ce système de recommandation qui amplifie très rapidement la diffusion de certaines informations.

Notons également que les Directeurs des Systèmes d’Information (DSI) voient souvent d’un mauvais œil la mise en pace de services à distance pour un coût modique et sans un lourd développement d’infrastructures techniques. La possible diminution du budget du SI qui en découle étant associée à une diminution proportionnelle du pouvoir de ces DSI.

Enfin, la réglementation tarde à se mettre en phase avec ces nouveaux usages. On peut citer les difficultés de mise en place de la DADVSI et de la licence globale. De plus le web 2.0 soulève de nouvelles questions : par exemple, dans un service réalisé à partir d’un mashup sur des données de Flickr : qui est propriétaire de quoi ?

Conclusion

Le Web2.0 est une réalité pour les particuliers : le succès planétaire de certains sites communautaires, le développement de nouveaux comportements sociaux et l’émergence de nouveaux acteurs en sont la preuve.

Pour les entreprises, la nouveauté n’est pas à rechercher dans ces technologies arrivées à maturité mais dans les nouveaux comportements sociaux pouvant se développer à l’intérieur de l’entreprise avec ses salariés et à l’extérieur avec ses clients et fournisseurs. Comme nous l’a montré l’évolution des SI dans les organisations, le déterminisme technologique est à rejeter et l’effort doit porter sur un management performant de ces nouveaux outils.

Cette évolution du management des SI se situe à deux niveaux : le projet et la gestion des applications. Pour le management de projet, il convient d’adapter la composition et le mode de fonctionnement des équipes projet, qui doivent désormais comprendre l’évolution des comportements sociaux et être capable de les introduire rapidement dans l’organisation au travers d’outils technologiques récents. Ce point est essentiel pour toutes les entreprises qui souhaitent embaucher des jeunes qui baignent dans l’univers du Web2.0 et disposent chez eux d’outils techniques plus performants que ceux utilisés dans le cadre professionnel. Ce « nouveau management de projet » doit être le fait d’équipes réduites et culturellement en phase avec l’évolution des comportements. Pour la gestion des applications, il faut accepter de reconsidérer l’organisation à mettre en place et de mobiliser des modèles économiques évolutifs.

Nous étudions actuellement plusieurs cas réussis d’introduction du Web2.0 dans les entreprises dont la mise en place de ventes réelles dans l’univers virtuel de Second Life. Dans ces cas, nous avons constaté l’évolution du management des SI à ces deux niveaux. Ces études de cas en profondeur constituent le deuxième volet de notre recherche.

(15)

Le web2.0 est bien un mythe si on le limite à sa composante technique ; c’est une nouvelle opportunité pour les entreprises à condition qu’elles soient capable de repenser le management des SI et une formidable source d’études pour les chercheurs en SI.

3 Bibliographie

Amit R. Zott C. (2001), “Value Creation in E-business”, Strategic Management Journal, Vol. 22, No. 6/7, pp. 493-520.

Bar-Ilan J. (2006) « Web links and search engine ranking : the case of Google and the query jew » ; Journal of the American Society for Information Science & Technology”; vol 57 issue 12; pp1581-1589

Bomsel O. (2007), Gratuit ! Du déploiement de l’économie numérique, Folio actuel, Paris Caizergues M (2007) « Surenchère chez Google et Microsoft autour des data centers », Le monde informatique du 22 janvier 2007: http://www.lemondeinformatique.fr/actualites/lire-surenchere-chez-google-et-microsoft-autour-des-data-centers-21889.html

Carr N. (2003) "IT Doesn't Matter," Harvard Business Review, Vol. 81, No. 5, May 2003. Colomb JP., Mouchel JM. Et Guesdon F. (2006) “Quand visuel rime avec décisionnel” ; Technologies Internationales; N°126, juillet août 2006pp37-40

De vaujany F-X (2007) « Évaluer la « valeur à l’usage » de l’informatique, Une architecture de tableau de bord » Revue Française de Gestion, n° 173 –2007/4, pp 31-46

Dan Nguyen G. et Mevel C. (2006) « Nouvelle et ancienne économie vers une integration réussie ? », Cahir de recherche M@rsouin, N° 9 2006, pp1-26

Edouard-Baraud R., Biseul X. Et Delsol e. (2007) « Entreprise 2.0 : des agitateurs à suivre », 01 informatique, 11 janvier 2007

Gogon I. (2006) “Intéressons-nous au Web2.0”, 20 novembre 2006, université de Limoges :

http://tic.unilim.fr/article.php3?id_article=213

Hervier G. (2006) « L’irrésistible ascension du SaaS », ITRGames, publié le 2 octobre 2006 :

http://www.itrmanager.com/57130-irresistible,ascension,saas.html

Howe J. (2006) “The rise of crowdsourcing”, Wired 14.06, June 2006

Huet J.M., Denervaud I. et L’Hostis A.F. (2007) “Après la bulle Internet, de nouveaux modèles d’affaires s’imposent”, La Tribune 12 mars 2007

Lassila A. (2006), « Taking a service-oriented perspective on software business: How to move from product business to online service business » ; IADIS International Journal, Vol4 N°1, pp70-82

Leuf B. Et Cunningham W. (2001), The Wiki-Way : collaboration and sharing on the Internet, Boston Addison wesley 2001

MacManus R. et Porter J. (2005) « Web 2.0 for designers », Digital Web Magazine, May 4 2005 : http://www.digital-web.com/articles/web_2_for_designers/

Maness J. (2006) « Library 2.0 Theory: Web 2.0 and its implications for libraries », Webology Vol3 N°2, June 2006

McAfee A (2006) « Entreprise 2.0 : the dawn of Emergent collaboration » ; Sloan Management Review ; Spring 2006, pp21-28

Newitz A. (2007) « I bought votes on Digg”, Wired, 1 mars 2007

Notess G. (2006) “The terrible twos: Web2.0, Library 2.0, and more”; Onlline Juin 2006, pp40-42

Noy C. et Ruiz J. (2007) « Vers une conception globalisée des systèmes d’information intégrant tous leurs usages », La revue des sciences de gestion, Direction et Gestion N°223, janvier – février 2007, pp87-97

O’Reilly T. (2005), « what is Web2.0 »

(16)

Orlikowski W. (1999) « L’utilisation donne sa valeur à la technologie », l’art du management de l’information, N°8, Cahier spécial des Echos, 1999

Penard T. et Suire R. (2006) « Le rôle des Interactions Sociales dans les modèles

économiques de l’Internet » Cahier de recherche Màrsoin, N°11, novembre 2006, pp1-19 Sääksjärvi, M. et al., (2005), “Evaluating the Software as a Service Business Model: From CPU Time-Sharing to Online Innovation Sharing”, Proceedings of the IADIS International Conference e-Society 2005, Qawra, Malta, pp. 177-186.

Schwartz M. et Achache G. (2007); “Internet de deuxième generation : “Web2.0”ou “Bulle financière 2.0” ?” ; Sociétal, N°55, 1er trimestre 2007, pp41-48

Tapscott D. & Williams A. (2006), Wikinomics: How Mass Collaboration Changes Everything, Portfolio, December 2006

Walsh K. (2003) “Analyzing the Application ASP Concept: Technologies, Economies, and Strategies”, Communications of the ACM, Vol. 46, No. 8, pp. 103-107.

Wilson J. (2006) “3G to Web2.0? Can mobile telephony become an architecture of

participation?”; Convergence: the International Journal of Research into Media Technologies ; vol12(2); pp229-242

Wagner C. et Majchrzak A. (2006) “Enabling Customer-he Centricity using Wikis and the Wiki Way”, Journal of management information system, Winter 2006 vol 23 N°3, pp 17-43

Figure

Tableau 1 : Panachage de modèles économiques, exemple de Meetic

Références

Documents relatifs

Pression douloureuse appliqu é é e au niveau du pouce gauche e au niveau du pouce gauche chez patients. chez patients fibromyalgiques fibromyalgiques et

Pour cela, il s’articule en quatre temps : s’intéressant d’abord à la période allant du Plan de Stabilisation de 1959 jusques aux Pactes de la Moncloa, afin de rappeler

[r]

Dans ma préface, j'imagine que Marianne s'adresse à moi, mais pas à moi en tant que Henri Pena-Ruiz, mais à tous les citoyens, à toutes les citoyennes qu'elle unit, non

le soumissionnaire est en état de faillite, de liquidation, de cessation d’activités, de réorganisation judiciaire, ou a fait l’aveu de sa faillite, ou fait

Contrairement aux contraintes climatiques, qui concer­ nent toute la Vallée avec quelques petites variations ré­ gionales, les contraintes hydrologiques sont très varia­ bles

Les décisions collectives ne renvoient qu’indirectement à ces objectifs ; ce niveau de décision est bien sûr con- traignant, il nécessite un consensus qui se

Voir le handicap comme l’expression d’une autre culture avec son organisation sociale particulière (travail, loisirs, sociabilité), c’est rejoindre l’idée de