• Aucun résultat trouvé

Démocratie 2.0. Une histoire politique d’Internet

N/A
N/A
Protected

Academic year: 2021

Partager "Démocratie 2.0. Une histoire politique d’Internet"

Copied!
96
0
0

Texte intégral

(1)

Démocratie 2.0

Christophe Lejeune

Les technologies de l’information et de la communication interviennent de plus en plus souvent dans notre vie. Depuis sa conception, tant dans l’euphorie que dans les crises, les confi gurations socio-techniques successives du réseau Internet ont encouragé la participation et l’autonomie de ses usagers. Depuis 20 ans (déjà), la toile accompagne également la maturation de « communautés virtuelles » ainsi que de mobilisations sociales, comme le mouvement dit « du logiciel libre » qui, se confrontant aux monopoles en tous genres, interpelle nos démocraties sur leurs liens avec la technologie.

Cet ouvrage propose une réfl exion nuancée sur les infl uences réciproques du socio-politique et de la technique. Plus qu’à un réquisitoire ou à une mise en garde, il invite à un recours actif, réfl échi et responsable à la technique dans les différentes facettes du vivre ensemble en démocratie.

Docteur en sociologie, Christophe Lejeune dispense une introduction aux nouvelles technologies à l’attention des étudiants en sciences de l’information et de la communication à l’Université Libre de Bruxelles.

Ses recherches portent sur les interactions sociales médiatisées par la technologie et sur l’analyse informatisée des données qualitatives en sciences humaines.

Démocratie 2.0

Une histoire politique

d’Internet

Christophe Lejeune

Lejeune

Démocratie 2.0

J’écris ton nom

Liberté

MJ

J

C

C

C

C

C

C

C

C

F

F

S

S

S

S

S

S

U

U

U

U

U

U

U

U

n

n

n

n

n

n

T

T

T

T

T

T

MJCFSUnT

É D I T I O N S D U C E N T R E D ' A C T I O N L A Ï Q U E

FTQBBBBDDFEDFEDFEDF EDFEDF EFFFFF

FTQBDFEF

Prix : 10 euros

ISBN 978-2-930001-97-5

(2)
(3)

Espace de Libertés Éditions du Centre d’Action Laïque

Campus de la Plaine ULB, CP 236 Avenue Arnaud Fraiteur

1050 Bruxelles E-mail : espace@cal.ulb.ac.be

Site internet : www.laicite.be © Espace de Libertés 2009 ISBN : 978-2-930001-97-5

D/2009/2731/13 Imprimé en Belgique

Toute reproduction d’un extrait quelconque de ce livre par quelque procédé que ce soit est interdite sans autorisation de l’éditeur.

Liberté j’écris ton nom

La laïcité, fruit du libre examen, n’est pas un état : c’est un combat sans fi n, une insurrection de l’esprit contre les certitudes

inculquées , les préjugés complices, la pensée ensommeillée. En se réclamant du poète Paul Éluard, Liberté j’écris ton nom se veut déclaration d’amour à la résistance. À toutes les résistances.

(4)

Christophe Lejeune

Démocratie 2.0

Une histoire politique

d’Internet

MJCFSUnT

MJCFSUnT

É D I T I O N S D U C E N T R E D ' A C T I O N L A Ï Q U E FTQBDFEF FTQBDFEF Directeur de collection : Jérôme Jamin

(5)
(6)

L’auteur tient à remercier chaleureusement Aurélien Bénel, Laetitia Godfroid, William Godfroid,

Jérôme Jamin, Maurice Lorenzi, Nicolas Mazziotta et Serge Munhoven pour leur précieuse aide dans la préparation de cet ouvrage.

(7)
(8)

Introduction

« La modernité suppose qu’il exista une révolution qui changea tel état de choses pour laisser la place à une ère nouvelle, n’est-ce pas ? Or cette idée ou ce geste se répétèrent si souvent dans notre histoire qu’on peut se demander si la pensée occidentale n’a cessé de le recommencer, comme un réfl exe automatique, depuis son origine. […] Est-on moderne quand on répète un geste ? Conservateur ? Archaïque ? »

Michel SERRES

Sur Internet, le médecin glane des informations avant d’établir son diagnostic ; le recruteur collecte des éléments biographiques avant les entretiens d’embauche ; l’étudiant trouve les informations nécessaires à son travail personnel ; le passionné dialogue avec d’autres passionnés distants de milliers de kilomètres. Ce dispositif rend service... mais soulève également des interrogations qui nous concernent tous, en particulier en matière de protection de la vie privée et de respect de la liberté de chacun.

Ces enjeux se sont cristallisés au cours du développe-ment d’Internet. Comme beaucoup d’inventions humaines, Internet résulte de l’action combinée de différents acteurs. Tout au long de son élaboration, différents corps profes-sionnels ont participé à en faire le réseau que nous connais-sons aujourd’hui. Ces contributions multiples n’ont pas toujours été concertées ; elles se sont même parfois

(9)

affrontées. Le développement d’Internet est donc marqué par différentes cultures ou orientations, parmi lesquelles des choix ou des compromis ont dû être passés. Il en résulte des tensions qui traversent un dispositif technologique, aujourd’hui apparemment stabilisé1.

L’histoire des hésitations, des discussions et fi nalement des décisions prises par ses « inventeurs » permet de rendre explicites les enjeux politiques d’Internet. Le réseau que nous connaissons aujourd’hui résulte ainsi de la rencontre d’au moins trois inventions développées séparément et de manière non linéaire. Brossant ces trois histoires, trois chapitres ponctueront le fi l de notre raisonnement. Les enjeux actuels seront exposés dans le quatrième et dernier chapitre.

Tout d’abord, Internet, proprement dit, constitue en quelque sorte la « tuyauterie » du réseau. Cette infrastruc-ture a été inventée afi n d’assurer la coordination logistique de la recherche américaine. Elle résulte donc à la fois de stratégies politiques (dans le climat politique de la guerre froide) et de préoccupations scientifi ques de mutualisation de matériels coûteux entre universités. Initiée aux États-Unis dans les années 60, elle est stabilisée dans les années 80 sous la forme de différentes réseaux interconnectés entre eux.

Mais Internet ne se limite pas à un entrelacs de câbles et de machines. Une de ses caractéristiques fondamentales repose dans l’existence de liens entre des pages contenant du texte et des images. Ce sont sur ces liens que l’on « cli-que » avec la souris ; ils rendent donc possible la navigation sur Internet (le « surf »). L’invention de ces liens s’inscrit dans une tradition de confrontation des sources propre aux sciences des textes. Bien antérieure à l’invention du réseau informatique, elle participe également d’une utopie pacifi ste prolongeant les valeurs des Lumières. Ces liens entre des textes – que l’on qualifi e d’hypertextes – se développent

1 Alain Desrosières, La politique des grands nombres. Histoire de la raison statistique, Paris, La Découverte, 1993.

(10)

parallèlement à la « tuyauterie ». Après un détour par la mécanographie, une invention se concrétise en Suisse à la fi n des années 80 ; celle-ci porte le nom de World Wide Web (la toile).

La communication et l’interaction constituent ensuite la visée des principaux usages du réseau. Initié dès les années 80, l’usage de ces techniques à des fi ns de communication privée se développe à l’aube du xxie siècle. Depuis quelques

années, leur appropriation par les utilisateurs débouche sur un renouvellement du système de publication en réseau. Centré sur la participation de tous, le mouvement initié par ce que l’on appelle le Web 2.0 soulève de nouvelles questions qui méritent qu’on s’y attarde.

Aujourd’hui, en effet, tout n’est pas joué. Au terme de plusieurs décennies de développement, la participation des utilisateurs d’Internet est plus généralisée qu’elle ne l’a jamais été. Cette situation amène cependant un constat en demi-teintes, entre émancipation et aliénation. La participation de chacun à la régulation de la société nous met sur la voie de la démocratie. Mais, paradoxalement, la distribution de la régulation d’Internet amène également à des confi gura-tions qui limitent la liberté démocratique. Aussi, les enjeux actuels méritent une attention et une implication actives de chacun d’entre nous. Cet ouvrage invite précisément à s’emparer des technologies qui nous entourent, de manière responsable, citoyenne, sans parti pris ni dogmatisme, afi n de vivre ensemble en démocratie.

(11)
(12)

1

Infrastructure

« Ici, la table de travail n’est plus chargée d’aucun livre. À leur place se dresse un écran et à portée un téléphone. Là-bas, au loin, dans un édifi ce immense, sont tous les livres et tous les renseignements. De là, on fait apparaître sur l’écran la page à lire pour connaître la question posée par téléphone. »

Paul OTLET2

Vision d’anticipation

Les critiques aiment stigmatiser le réseau Internet, en rappelant qu’il a été conçu par l’armée américaine. La conception décentralisée de cet outil de communication lui permet en effet de continuer à fonctionner même après qu’une partie en soit détruite, comme lors d’un bombar-dement en cas de guerre. Cette conception d’une origine unique est réductrice, elle ne permet pas de saisir la conver-gence à la fois intellectuelle et politique qui a présidé à l’élaboration du réseau « dont tout le monde parle ».

2 Ces lignes ont été publiées en 1934. Paul Otlet, Traité de documentation.

Le livre sur le livre. Théorie et pratique, Mundaneum, Bruxelles, 1934,

(13)

Bien avant la création d’Internet, de nombreux intel-lectuels rêvent de rendre accessible à chacun l’ensemble des connaissances humaines. Au début du xxe siècle,

Henri La Fontaine et Paul Otlet imaginent ainsi un dis-positif tirant parti du réseau téléphonique permettant de consulter les écrits conservés dans toutes les bibliothèques du monde3. Ce dispositif préfi gure le réseau que nous

connaissons aujourd’hui.

Prolongeant l’esprit des Lumières, les deux Belges enten-dent recenser les connaissances de l’humanité. Ce projet vise à faciliter l’accès de tous aux savoirs ainsi rassemblés. Il poursuit un idéal de société universelle et pacifi que. Car les deux hommes manifestent une forte implication dans la vie politique de leur temps. En 1892, Henri La Fontaine participe à la fondation de la première organisation fémi-niste belge (la Ligue belge du droit des femmes). Sénateur socialiste, il épouse les causes de la laïcité et milite pour la paix (ce qui lui vaut un prix Nobel). Dans l’entre-deux-guerres, il s’investit dans la Société des Nations naissante (préfi gurant l’Organisation des Nations unies). Partageant les mêmes valeurs, Paul Otlet consacre sa vie au recense-ment de la connaissance humaine : il compile des milliers de fi ches cartonnées qui résument et répertorient tous les documents produits par l’humanité (la notion de docu-ment ne se limitant pas aux seuls livres). Ces fi ches entrent dans un projet de très large ampleur. Elles intègrent une bibliothèque universelle (le Mundaneum) dont subsiste encore aujourd’hui, à Mons, un centre de documentation de la Communauté française. Les deux Belges imaginent comment organiser et classer l’ensemble des documents de cette bibliothèque : ils inventent à cette fi n la « classifi cation décimale universelle », toujours utilisée aujourd’hui dans un grand nombre de bibliothèques publiques. Paul Otlet

3 Christine Bay, Marguerite Boitte, Bettina Cerisier, Christelle Demoustiez, Jean-François Füeg, Suzanne Lecocq, Daniel Lefebvre, Stéphanie Manfroid et Tony Mascolo, Un internet de papier, Mundaneum, Mons, 1998,

(14)

élabore également le projet d’une ville intégralement orga-nisée autour de la connaissance humaine. La réalisation de cette « cité mondiale » ne dépasse cependant pas les plans tracés par l’architecte suisse Charles-Édouard Jeanneret-Gris (plus connu sous le pseudonyme de Le Corbusier). Il propose enfi n un dispositif permettant – via un écran – de feuilleter à distance les documents conservés dans toutes les bibliothèques du monde. Lorsqu’elle est écrite, au début des années 30, cette proposition apparaît aussi utopique que la cité mondiale. Elle préfi gure néanmoins le réseau Internet, dans une optique qui s’oppose précisément à des fi ns « guerrières » ou stratégiques que ses détracteurs assi-gnent au réseau des réseaux.

Durant la Deuxième Guerre mondiale, les alliés demandent à des universitaires de les aider à décrypter les communications de leurs adversaires. Ils s’adressent notamment au logicien anglais Alan Turing, qui avait non seulement défi ni ce qui deviendrait l’ordinateur, mais éga-lement ce que recouvrerait une « intelligence machinique ». Dès 1936, Alan Turing avait en effet imaginé un dispositif capable de calculer tout ce qui est calculable. Doté d’une tête de lecture se déplaçant le long d’une bande magnétique, le dispositif en question n’était pas tant voué à être produit qu’à démontrer qu’une machine pouvait résoudre tous les problèmes dotés d’une solution logique. En effet, si cette « machine de Turing » est peu performante, elle préfi gure néanmoins les ordinateurs d’aujourd’hui.

Au moment où il est contacté par l’armée, Turing vient d’inventer deux autres dispositifs expérimentaux4. Dans le

premier, on demande à un sujet d’expérience d’interagir, par écrit, sans contact (ni auditif ni visuel) avec deux personnes de sexe opposé. L’objectif du sujet est de déterminer s’il a affaire à un homme ou à une femme. Le second dispositif repose sur les mêmes règles, à ceci près que le sujet doit reconnaître un humain d’une machine. Plus une machine

(15)

est en mesure de rendre diffi cile la décision du sujet, plus elle sera dite « intelligente ». On dit qu’elle passe le « test de Turing ».

Anticipant les études sur le genre (gender studies), la première épreuve tend à montrer que, lorsque l’apparence n’intervient pas, les hommes et les femmes raisonnent et argumentent de manière indifférenciable. Avec la seconde expérience, c’est la propension à simuler un comportement social humain (plus que la performance à résoudre des problèmes) qui défi nit l’intelligence de la machine. Tout d’abord, cette conception du primat du sens social sur la logique devance les recherches psychologiques sur le fameux quotient intellectuel (QI). Par ailleurs, avant même que démarrent les nombreuses (et coûteuses) recherches dans le paradigme dit de l’intelligence artifi cielle, ces enseigne-ments en prédisaient déjà les limites5. Les forces alliées ne

contactent cependant pas Turing pour son humanisme et sa clairvoyance sur les rapports de genre, mais afi n de résoudre un problème de cryptographie, tâche dont il s’acquitte avec succès.

La personnalité du logicien britannique s’accorde cepen-dant mal avec la façon dont l’armée conçoit un héros de guerre. Intellectuel raffi né et homosexuel, Alan Turing subit de lourdes pressions afi n de « se soigner ». Après plusieurs années de traitement, il se suicide en 1954. La petite histoire dit qu’il aurait croqué une pomme empoisonnée. En hom-mage à ce précurseur de l’informatique, un constructeur de matériel informatique se donnera comme nom « Apple » et, comme logo, la pomme croquée arborant les couleurs arc-en-ciel du drapeau homosexuel.

Suite au succès russe du lancement de Spoutnik 1, l’armée américaine, piquée au vif, décide de créer, en 1958, une agence dont la mission porte précisément sur la coordination des efforts de recherches scientifi ques

5 Hubert Dreyfus, Intelligence artifi cielle. Mythes et limites, Flammarion, Paris,

(16)

et techniques (tant civils que militaires). La mission de l’« agence américaine des projets de recherche avancée » (ARPA) comporte presque explicitement la mention de l’infrastructure d’un réseau de télécommunication mais, comme nous le verrons, celle-ci ne se concrétisera qu’avec une série d’autres initiatives.

À la même époque, indépendamment du développement d’une telle infrastructure, se développent des recherches sur la représentation des textes. Celles-ci s’appuient à la fois sur une invention technologique et sur une tradition scienti-fi que. L’invention d’un écran d’ordinateur permettant de représenter des textes constitue la fondation matérielle de ces recherches. Mais, plus fondamentalement, c’est du domaine des sciences humaines que provient alors une proposition sur une façon originale d’organiser les écrits. Sensibilisé aux problèmes que soulève le travail d’analyse de textes par ses études en philosophie et en sociologie, Theodor Nelson imagine des « machines littéraires ». Xanadu, le prototype imaginé en 1960, permet de représenter deux textes, côte à côte, et de mettre en rapport des passages des deux sources. Un tel dispositif permet notamment de citer une source par incorporation d’un de ses fragments, ouvrant ainsi une fenêtre sur le document original. Baptisé « transclusion », ce procédé prolonge en quelque sorte le projet de Paul Otlet et préfi gure également les liens hypertextes, ces liens transversaux qui caractérisent aujourd’hui le parcours (ou « surf ») sur Internet.

Toutefois, Xanadu ne sera jamais totalement fonction-nel. Pour autant, le début des années 60 n’est pas en reste de réalisations concrètes. Avec son dispositif de mécano-graphie, un chercheur de l’Université de Stanford, Douglas Engelbart, introduit une série de principes sur les liaisons intertextuelles qui sont toujours actuellement en vigueur aujourd’hui. Le prototype présenté en 1962 permet d’arti-culer des informations entre elles. Cette invention ne tire parti ni de l’infrastructure de réseau en cours d’élaboration, ni des ordinateurs, ni des nouveaux écrans, mais s’inscrit

(17)

dans la mécanographie. Des fi ches cartonnées constituent le support de l’information. Celles-ci sont perforées en leur dessus. Ces perforations constituent en quelque sorte le numéro d’inventaire de chaque fi che. Elles permettent, au moyen de longues aiguilles, d’effectuer des sélections ou des tris. Pour lier une fi che à une autre, Engelbart perfore le bas de la fi che source de manière à reproduire exactement la perforation de la fi che destination. Les aiguilles des tri-coteuses font le reste : il devient aisé de retrouver les fi ches « liées » à une fi che déterminée. Ce sont là les premiers liens hypertextes fonctionnels.

Premier réseau

L’initiative de l’agence de recherche de la défense américaine (ARPA) débouche, en 1964, sur une première connexion (expérimentale) entre deux ordinateurs uni-versitaires6. Le « Network Working Group », un groupe

interuniversitaire de travail sur les réseaux d’ordinateurs, est créé en 1968 et dès l’année suivante, établit un réseau entre quatre universités (Douglas Engelbart se voit confi er la responsabilité du « nœud » de Stanford). Se réunissant régulièrement, le groupe de travail donne explicitement une perspective collaborative à ses travaux en intitulant ses mémorandums les « appels à commentaires » (Request for comments).

Même si on ne parle pas encore d’Internet, les principes de l’infrastructure technique sont présents dès ce stade. L’infrastructure (alors appelée Arpanet), c’est, en quelque sorte, la « tuyauterie » informatique. Les fondations sont posées. Cependant, entre les connexions expérimentales de cette époque et les services en ligne auxquels recourent

6 Jean-Pierre Cahier, « Une brève histoire de l’informatique », in Le Monde

(18)

aujourd’hui des millions d’utilisateurs d’Internet, il reste encore, d’une part, à parfaire l’infrastructure et, d’autre part, à s’accorder sur ce que celle-ci permettra d’échanger (et comment le faire).

De nombreux chercheurs en sciences appliquées et en physique contribuent parallèlement à défi nir les différents standards informatiques. Cette coordination ne passe pas par un organisme de certifi cation standardisée, elle passe toujours par les procès-verbaux de réunion du groupe de travail original. Tout en participant à perfectionner l’infras-tructure, les « appels à commentaires » soutiennent l’esprit de collaboration original.

Reliant initialement des centres informatiques univer-sitaires par voie téléphonique, le réseau initial (Arpanet) est connecté au réseau radio (Alohanet) et au réseau de télécommunication satellite en 1973. C’est pour cette raison que l’on parle aujourd’hui de « réseau de réseaux » : Internet résulte de l’interconnexion de plusieurs réseaux techniques hétérogènes.

Deuxième réseau

Mais n’anticipons pas trop. En 1969, au moment de la mise sur pied d’Arpanet (le prédécesseur d’Internet), au sein du laboratoire de recherche (Bell Labs) de l’opéra-teur de télégraphie et téléphonie américain (AT&T), Ken Thompson travaille, quant à lui, à concevoir un système informatique léger, souple et portable, dont les éléments les plus fondamentaux ne devraient pas être modifi és, comme c’était le cas à l’époque, à chaque changement de matériel. Il est rejoint par Dennis Ritchie qui conçoit à cet effet un langage de programmation de haut niveau (« C »). D’abord informel, le projet qui les rassemble relève plutôt du défi personnel et ne provient pas du cahier des charges

(19)

de leur employeur7. On raconte même que leur

motiva-tion initiale était de faire foncmotiva-tionner un jeu vidéo sur une machine délaissée par leur employeur8.

Le système résultant, baptisé Unix, remporte une adhé-sion forte au sein du laboratoire, puis va équiper les centrales téléphoniques d’AT&T. En 1974, ses deux concepteurs publient un article scientifi que qui fait connaître le sys-tème. Un grand nombre d’universités et d’entreprises étaient alors équipées d’ordinateurs commercialisés par Digital Equipement Corporation (DEC), du même type que celui pour lequel avait été développé Unix. L’opérateur public de téléphonie reçoit alors des commandes pour Unix. En tant que monopole d’état, les activités commerciales autour de productions informatiques ne lui sont pas autorisées ; le code source d’Unix est donc distribué gratuitement aux universités (qui ne doivent s’acquitter que des frais d’expédition)9.

Pour l’utilisateur d’aujourd’hui, cette distribution gra-tuite ressemble à une aubaine. Toutefois, nous le verrons par la suite, la gratuité n’a pas que ses avantages. Dans l’immédiat, elle signifi e surtout que le distributeur n’assure ni service après vente, ni support technique. Or, même confi ée à des ingénieurs, l’installation d’un tel système sou-lève alors des problèmes compliqués. Chacun de son côté, ceux-ci ont œuvré à adapter, corriger ou améliorer le système dont ils disposaient (ce que la disponibilité du code source rend possible). Afi n de collectiviser cet effort, les systèmes Unix étaient capables d’échanger entre eux des fi chiers informatiques, ce qui permettait de propager des mises à jour (ce mode de fonctionnement est similaire à ce que l’on appelle aujourd’hui les réseaux pairs à pairs – peer to

7 Andrew Tanenbaum, Systèmes d’exploitation, Pearson Education, Paris,

2003, p. 712.

8 Linus Torvalds et David Diamond, Il était une fois Linux. L’extraordinaire

histoire d’une révolution accidentelle, Eyrolles, Paris, 2001, p. 84.

9 Pierre Mounier, Les maîtres du réseau. Les enjeux politiques d’Internet, La

découverte, Paris, 2002, p. 42 ; Linus Torvalds et David Diamond, op. cit., p. 84 ; Andrew Tanenbaum, op. cit., p. 713.

(20)

peer). Empruntant les lignes téléphoniques, ces connexions entre machines sont distinctes du réseau Arpanet. Dans un premier temps, elles se limitent à l’échange de morceaux de programmes informatiques.

En 1979, Jim Ellis et Tom Truscott détournent ce sys-tème pour créer un nouveau réseau. Ces deux étudiants de l’Université de Duke connaissent l’existence, sur Arpanet, de listes de discussions par courrier électronique. Afi n de permettre aux usagers de Unix de bénéfi cier de quelque chose de similaire, ils créent un programme utilisant le procédé de copie de fi chiers Unix pour échanger, cette fois, des messages.

Ce réseau (Usenet) d’échange de messages entre uti-lisateurs d’Unix est le berceau d’une culture d’échange de bonnes pratiques et d’entraide, valorisant le collectif, réfractaire à l’appropriation, teintée de pragmatisme, contestataire et distribuée. Cette culture égalitaire basée sur la solidarité correspond effectivement à la raison d’être d’Usenet (et, par conséquent, à la motivation d’une grande partie des interactions que soutient ce réseau). Au niveau de la communication, les différents échanges témoignent d’une position commune, humble, empreinte de solidarité et farouchement opposée à toute inégalité. Comme la plupart des identités humaines, cette culture se défi nit par opposi-tion au groupe social le plus proche. Et l’alter ego de Usenet, c’est le réseau Arpanet. Vingt ans après son lancement, le réseau Arpanet reste encore diffi cilement accessible à celui qui n’appartient pas à une institution impliquée dans le projet initial. Les utilisateurs d’Usenet vivent ces diffi cultés comme une injuste exclusion. Le développement d’une culture égalitaire et solidaire remplit dès lors deux fonctions. D’une part, elle catalyse la fédération de tous les « oubliés » d’Arpanet. En outre, elle constitue également une revendi-cation politique à l’encontre du réseau d’origine militaire : les utilisateurs de Usenet réclament le droit de participer à la mise en place et à l’utilisation du réseau mondial. Cette volonté d’élargissement, certains d’entre eux la qualifi ent

(21)

explicitement d’enjeu démocratique déterminant dans le développement du réseau informatique.

Avec le temps, cependant, la frustration de ne pas accé-der à Arpanet se double également d’une certaine fi erté à se doter de forums de discussion comparables, accessibles d’une manière qu’ils considèrent moins élitiste. Autrement dit, la revendication de participation adressée par Usenet à Arpanet se double de la réalisation effective d’un deuxième réseau, effectivement vécu comme participatif et solidaire par ses protagonistes.

Militaire ou hippie ?

L’histoire de l’émergence de la culture Usenet permet de comprendre comment est apparue une des critiques actuel-les d’Internet. L’argument selon lequel le réseau Arpanet est développé à l’initiative de l’armée et souffre, par conséquent, d’un contrôle trop strict du département américain de la défense naît en effet dans ce contexte10. Usenet se défi nit, par

contraste, comme un réseau public, sans contrôle. Éléments notables : il s’agit là des mêmes valeurs que celles mises en avant par le groupe ayant initialement élaboré Arpanet. Les « appels à commentaires » (Request for comments) entendaient précisément encourager un développement participatif du réseau. En outre, les initiateurs d’Arpanet et de Usenet occupent des positions sociales comparables : dans les deux cas, les protagonistes appartiennent au corps scientifi que et occupent des positions qui sont également loin d’être dominantes.

C’est donc au moment de l’élaboration de la culture Usenet qu’apparaissent les arguments (catastrophistes ou iré-niques) que mobilisent, depuis lors, les réquisitoires contre Internet. De manière étonnante, les critiques les plus acerbes

(22)

et les visions les plus enjouées partagent le même schéma. Toutes deux puisent dans l’argumentaire que la culture Usenet avait initialement développé à l’encontre d’Arpanet. Et elles insistent également toutes deux sur l’origine du réseau, supposant de ce fait une origine unique.

Les critiques insistent évidemment sur des origines sup-posées exclusivement militaires. Cette base sert à justifi er la suspicion d’un contrôle américain du réseau, voire se limite à une telle dénonciation. Le dévoilement de l’origine mili-taire suffi t à disqualifi er totalement toute initiative passant par le réseau – dès lors corrompue11.

Les arguments enthousiastes accordent également plus d’importance à l’origine des protagonistes qu’à leurs actes. La sociabilité en réseau procéderait ainsi d’une utopie anar-chique initiée par la culture revendicatrice et utopiste des campus américains de la fi n des années 60 (fl ower power, beatnik, baba-cool). Ce déterminisme culturel quelque peu enjoué ne souscrit pas moins à une partie de la culture Usenet : celle qui s’attribue des vertus démocratiques et non élitistes.

La dimension politique de la culture Usenet revêt enfi n une dimension originale. Les arguments qui y sont développés reposent sur une justifi cation qui se veut avant tout technique, bien avant d’être idéologique ou politi-que. Incidemment, il existe en effet une homologie entre la plateforme technologique et la culture de ce milieu12.

Au niveau technique, le réseau Usenet permet de partager des améliorations de programmes informatiques, sans qu’il y ait planifi cation, centralisation ni même coordination des différents développements techniques assurés par cha-cun. Sans déterminisme technique, cette confi guration est homologue avec la forme égalitaire prônée par la culture Usenet. Réfractaires à toute autorité, les utilisateurs de

11 Marc Jacquemain et Jérôme Jamin, L’histoire que nous faisons. Contre les

théories de la manipulation, Espace de Libertés, Bruxelles, 2008, p. 12.

(23)

Usenet considèrent que leurs revendications découlent avant tout de motivations pragmatiques. S’ils développent, en actes, des pratiques solidaires, la régulation participative du réseau poursuit d’abord, selon eux, des objectifs techniques d’effi cacité. Vu le faible niveau de politisation (au sens tradi-tionnel) du milieu informatique de l’époque, cet évitement systématique de la qualifi cation « politique » a sans doute contribué au succès du mouvement. Elle témoigne en outre d’un respect avancé de la liberté de chacun de ses membres, qui sera repris ultérieurement pas le mouvement du logiciel libre. Enfi n, ce refus de toute étiquette politique dément l’assimilation aux mouvements explicitement politiques de la fi n des années 60.

Critiques ou enthousiastes, les arguments démembrent donc la position développée dès la fi n des années 70 et, par ailleurs, oublie le contexte particulier dans lequel elle a été développée. L’origine du réseau n’est vraisemblablement ni hippie, ni complètement militaire. Comme nous allons le voir, la position développée au sein de Usenet se modifi e très vite pour ne plus du tout exister aujourd’hui. Avec la culture Usenet, elle aura cependant ancré une solide habi-tude d’entraide et de solidarité chez les usagers du réseau.

Naissance d’Internet

Entre 1980 et 1983, plusieurs chercheurs de l’Université de Berkeley travaillent à connecter les deux réseaux hété-rogènes Arpanet et Usenet. Ils développent des solutions techniques permettant aux utilisateurs du réseau Usenet d’abord de lire les messages échangés sur Arpanet, puis également d’intervenir dans les discussions en question.

(24)

Par ailleurs, le protocole13 informatique utilisé jusque-là

par Arpanet (le NCP) est délaissé au profi t d’un protocole plus fi able, le TCP-IP, toujours utilisé aujourd’hui. Telle que nous la connaissons (et l’utilisons) aujourd’hui, l’infrastruc-ture d’Internet est sur pied depuis cette date, en 1983 !

Cette infrastructure n’est d’ailleurs pas qu’un réseau, c’est un réseau de réseaux (un inter-net) qui rassemble des ordinateurs (ceux d’Arpanet mais aussi de Usenet), des téléphones et des satellites... qui seront plus tard rejoints (notamment) par des consoles de jeux, des téléviseurs et des agendas électroniques.

Une propriété publique

La même année, un ingénieur informaticien de l’Institut de technologie du Massachusetts (MIT) lance un nouveau système informatique. Il fait connaître son initiative en publiant sur Usenet un appel à participation14. Comparable

aux « appels à commentaires » du groupe ayant élaboré l’infrastructure du réseau, une telle invitation à contribuer s’inscrit bien dans la philosophie imprimée dès les prémices d’Internet (vers la fi n des années 60) et prolongée au sein de Usenet. Cependant, cette initiative n’entend plus ici élaborer une infrastructure de réseau : elle se propose de tirer parti de ses possibilités de communication et de coordination, afi n de mettre en commun les savoir-faire des chercheurs en sciences et en techniques fréquentant le réseau.

Le projet proposé porte sur un système informatique que son initiateur, Richard Stallman, propose de baptiser GNU (pour Gnu is Not Unix). Ce système fait donc référence à

13 Un protocole désigne un langage permettant aux ordinateurs de communiquer

entre eux.

14 Richard Stallman, 1983, « Free Unix ! » in Olivier Blondeau et Florent Latrive, Libres enfants du savoir numérique. Une anthologie du “libre”, Éclat, Paris, 2000, pp. 337-340.

(25)

Unix, que les lecteurs de Usenet connaissent bien. À cette époque, il équipe la plupart des machines qui ont servi de base à l’élaboration du réseau, en particulier les machines des centres de calcul des universités. Cependant, la distribution gratuite du code source et l’absence de support technique a encouragé les utilisateurs à en modifi er certaines parties. Les copies et échanges de morceaux de programmes infor-matiques constituent donc une norme de fait, permettant la correction ou l’amélioration des éléments posant problème. Si bien que, avec les années, différentes variantes du système sont apparues et, surtout, le statut juridique des différents éléments était peu clair15.

La proposition de Richard Stallman porte donc sur un système compatible avec Unix, mais qui serait libéré de tout droit de propriété privée16. Autrement dit, il propose

d’assortir ce système d’un statut juridique inédit jusque-là. Vu qu’elle est produite collectivement, une œuvre dite « libre » appartient à la collectivité. Pour autant, le droit de paternité des auteurs n’est pas affecté : leur qualité d’auteurs est non seulement reconnue mais garantie par un tel statut juridique. Cela diffère du régime traditionnel du droit d’auteur. Ce dernier englobe paternité et propriété : les droits du public sont restreints au profi t de ceux de l’auteur (ou, plus souvent, de son employeur). Dans le cas d’une œuvre libre, les droits sont partagés : l’auteur conserve la paternité alors que la propriété revient au public17. Pour marquer

sa différence, un tel régime est qualifi é de copyleft (« gauche d’auteur »).

15 Entre-temps, en 1984, l’opérateur de télécommunication AT&T a été démembré, de sorte que le décret gouvernemental ne s’oppose plus à ce qu’il investisse le marché informatique (et vende Unix).

16 Richard Stallman, « Le système d’exploitation du projet GNU et le mouvement du logiciel libre » in Chris Dibona, Tribune libre. Ténors de

l’informatique libre, In Libro Veritas, Cergy-Pontoise, 2006, pp. 101-135.

17 Selon les juristes, loger ainsi une prérogative du droit privé dans le droit public constitue une innovation juridique. Voir Mélanie Clément-Fontaine, « Bref propos relatif à la valeur juridique de la GNU GPL », in Multitudes, n° 5, 2001, pp. 78-81.

(26)

Afi n d’éviter que son employeur ne puisse réclamer un droit de propriété sur le système GNU, Richard Stallman quitte le MIT en 1984. Il dote ensuite son projet des leviers juridiques nécessaires. En 1985, il crée la Fondation pour le logiciel libre puis publie, en 1989, un document qui incorpore les principes juridiques de la gauche d’auteur : la licence publique générale (GPL).

Le charisme et la détermination de Richard Stallman attirent un grand nombre de volontaires. Compte tenu du faible niveau de politisation du milieu informatique, il est probable que sa réputation ait également joué une rôle non négligeable : celui-ci s’est fait connaître, quelques années auparavant, en inventant un éditeur de texte (appelé Emacs) très prisé des programmeurs. Le mouvement du logiciel libre est en tout cas indissociable de cette fi gure dominante. En 1990, le projet GNU regroupe les principaux program-mes informatiques (des logiciels) nécessaires à un système complet. Il lui manque cependant un programme central (appelé noyau) permettant à tous les autres programmes informatiques d’interagir entre eux ainsi qu’avec les éléments matériels d’un ordinateur (écran, clavier, disque dur...). Vu son rôle déterminant, le noyau est très complexe à réaliser, mais il constitue aussi l’élément le plus fondamental d’un système. Le projet GNU ne peut donc s’en passer.

Celui-ci vint de Finlande. À cette époque, en effet, Linus Torvalds étudie l’informatique à l’Université d’Helsinki et se passionne alors pour Unix. On l’a dit, ce système dote un ordinateur du centre de calcul de l’université. Cet étudiant fi nlandais décide alors d’écrire un programme informatique (dit d’émulation de terminal) permettant d’y accéder de chez lui, via la ligne téléphonique18. Souhaitant

comprendre au mieux le fonctionnement de son ordinateur personnel, il écrit un programme indépendant de tout autre système. Ce défi l’amène précisément à créer la structure la plus fondamentale d’un système d’exploitation (le noyau).

(27)

Une première version de ce noyau (baptisé Linux) est publiée en 1991. Dès l’année suivante, il est assorti d’une licence de logiciel libre, la licence publique générale19.

Une innovation sociale

Le projet GNU et le noyau Linux prolongent, en les radicalisant, les tendances initiées dès le début d’Internet. En effet, dans les deux cas, un grand nombre de personnes se sont alliées à l’initiative d’une personne. Autrement dit, des particuliers ont participé à l’élaboration d’un système informatique, de manière spontanée, bénévole et volontaire, indépendamment de leur affi liation institutionnelle ou de leur employeur. Pour cette raison, les initiateurs de ces réali-sations aiment souligner que l’innovation la plus importante est avant tout sociale. Cette affi rmation souligne la façon originale dont est distribué l’effort collectif de développe-ment des logiciels libres. Ceux-ci profi tent de contributions multiples allant de l’utilisateur (adressant une question sur un fonctionnement inattendu) au programmeur chevronné (améliorant la manière dont fonctionne un programme). La régulation de l’ensemble de ces contributions s’est organisée progressivement. Les initiateurs des projets ont reçu les premières d’entre elles par courrier électronique. Puis, avec le succès grandissant de ces projets, il leur a fallu déléguer certaines tâches et s’en réserver d’autres.

C’est bien sur ce mode pragmatique que s’est struc-turée la coordination du mouvement du logiciel libre et non sur une fi ction égalitariste de la démocratie directe. Cette nécessaire précision se justifi e par l’apparition, à la même période, de la notion de « communauté virtuelle ». L’essayiste Howard Rheingold l’introduit dans son livre éponyme (en 1993). Cet ouvrage relate son expérience d’un

(28)

système développé dès les années 80, les Bulletin Boards (BBS), que les Québécois traduisent par « babillard élec-tronique ». De manière comparable au Minitel français, ce système emprunte exclusivement la ligne téléphonique. Dès lors, il ne fait pas, à proprement parler, partie d’Internet. Les interactions sociales que décrit Howard Rheingold sont toutefois médiatisées par les ordinateurs, ce qui suffi t au rapprochement. La défi nition des communautés virtuelles est en effet large20. Elle inclut pratiquement toutes les

inte-ractions médiatisées par ordinateur, des sites de rencontre aux jeux vidéo en passant bien entendu par le mouvement du logiciel libre. Ce manque de précision a interpellé les chercheurs qui, depuis lors, proposent des notions alterna-tives. La notion de « communauté virtuelle » a cependant intégré le vocabulaire courant et, lorsqu’elle est proposée, certains lecteurs de Howard Rheingold y voient un eldorado politique, concrétisant un exercice plein d’une démocratie autogérée débarrassée des contingences représentatives des démocraties contemporaines.

L’organisation des collectifs de programmeurs de logi-ciels libres répond cependant à des préoccupations bien plus pragmatiques. La participation y est bien entendu volon-taire. Autrement dit, il n’existe aucune discrimination à l’entrée. Sous cet aspect, l’organisation est effectivement éga-litaire. Afi n d’éviter qu’une contribution enraye par mégarde l’ensemble du système, il existe cependant des paliers dans les prérogatives confi ées aux participants. L’ensemble du mouvement est subdivisé en équipes ayant la charge d’une portion de la réalisation globale. Chaque équipe a son responsable. Différents statuts assortissent la possibilité de modifi er un programme, la coordination d’une équipe

20 Serge Proulx, Louise Poissant et Michel Sénécal, Communautés virtuelles.

Penser et agir en réseau, Presses de l’Université Laval, Québec, 2006 ;

Christophe Lejeune, « From virtual communities to mediated collectives » in Pascal Francq, Collaborative Search and Communities of Interest. Trends in

(29)

et la coordination des équipes entre elles21. L’attribution

de ces statuts est méritocratique : elle est à la mesure de l’investissement personnel du contributeur (et de son éva-luation par les autres participants). Enfi n, le responsable du projet (dans bien des cas, son initiateur) se réserve parfois, en dernier recours, le droit de décider de l’inclusion d’une modifi cation. Le mouvement du logiciel libre est donc assez loin d’une anarchie autogérée !

La nature politique du mouvement n’est d’ailleurs ni évidente, ni monolithique. Un Richard Stallman témoigne, pour sa part, un engagement libertaire (voire un commu-nisme assumé) pour la plupart des causes altermondialistes et environnementales. Par contre, un Linus Torvalds cultive un goût pour les défi s techniques, plus que pour le militan-tisme. Le mouvement du logiciel libre réunit précisément les deux types de motivations dans un équilibre original. Exagérer un des deux registres revient à caricaturer cette alliance subtile.

Le premier registre est idéologique. Les vertus philanth-ropiques du mouvement explique alors la mobilisation de ses membres. Une telle interprétation (très européenne22)

soutient un plaidoyer politique.

Le second registre est utilitariste. La participation au mouvement du logiciel libre répond à des motivations individuelles. L’implication répond alors à la recherche de reconnaissance sociale (réputation) ou à la volonté de dépassement de soi (défi ). Elle peut également s’inscrire dans la stratégie de recherche d’un emploi ou constitue le « supplément d’âme » de techniciens en mal de références morales.

21 Voir Christophe Lazaro, La liberté logicielle. Une ethnographie des pratiques

d’échange et de coopération au sein de la communauté Debian, Academia

Bruylant, Louvain-la-Neuve, 2008 ; Serge Proulx, Françoise Massit-Folléa et Bernard Conein (dir.), Internet, une utopie limitée. Nouvelles régulations,

nouvelles solidarités, Québec, Presses de l’Université Laval, 2005.

(30)

Toutes deux déterministes, ces interprétations sou-tiennent respectivement un plaidoyer et un réquisitoire. Chacune recouvre une part de réalité ; en privilégier une revient soit à idéaliser le mouvement du logiciel libre, soit à le stigmatiser. Bien que ce ne soit pas le cas de tout le mouvement, un grand nombre de ses participants ne reconnaissent pas la portée politique de leur action (peut-être, aussi, à cause de la connotation péjorative du terme politique). Tous valorisent cependant le pragmatisme et la liberté.

Les ténors du logiciel libre envisagent la question de la liberté sous l’angle de l’autonomie et du libre choix. Il leur est insupportable que d’autres décident à leur place. Autrement dit, la question du bien commun remplit éga-lement une fonction très individualiste : celle qui consiste à éviter que votre employeur vous interdise de faire ce que bon vous semble avec votre création. Cette convergence entre des motivations individuelles et des causes collectives n’affaiblit pas les argumentaires du mouvement pour le logiciel libre. Bien au contraire, elle en constitue l’originalité et la force.

(31)
(32)

2

Tisser des liens

« Vous nous reprochez de vouloir abolir une forme de propriété qui a pour condition nécessaire que l’immense majorité de la société soit frustrée de toute propriété. » Karl MARX

Naissance de la toile

En 1990, en Suisse, au Conseil européen pour la recherche nucléaire (CERN), le belge Robert Cailliau et l’anglais Tim Berners-Lee mettent au point un système permettant d’organiser les documentations techniques avec lesquelles ils travaillent quotidiennement. Prolongeant la philo sophie de la machine littéraire imaginée par Ted Nelson un quart de siècle plus tôt, cette invention permet de tisser des liens entre les différents documents textuels. On parle d’hypertexte pour qualifi er la nature intertextuelle originale que confèrent les liens en question. La nouveauté réside dans la mobilisation d’hyperliens pour relier des documents dispersés tout autour de la planète (ou plus exactement : partout sur Internet). Cette fois, c’est le World Wide Web (ou la toile, comme disent les Québécois) qui est né. Le couplage entre une infrastructure (Internet) et

(33)

un mode d ’organisation de son contenu (le Web) ouvrent désormais la porte à une utilisation de ces techniques aux non- spécialistes : il devient possible de naviguer (ou de « surfer ») d’une page à l’autre.

Pour autant, le dispositif n’était pas encore utilisé par le plus grand nombre. Il existe plusieurs raisons. Tout d’abord, l’accès à Internet requiert en effet un ordinateur et une connexion. Or, la micro-informatique se généralise préci-sément en même temps que se développe le réseau.

En outre, comme nous l’avons vu, l’infrastructure de base relie avant tout des administrations publiques (comme les universités et les centres de communication militaire) et les départements « recherche et développement » d’opé-rateurs de communication. Autrement dit, même les particuliers dotés d’un ordinateur ne peuvent, à ce stade, accéder au réseau que via une de ces organisations (c’est le cas des étudiants universitaires, par exemple). Enfi n, et surtout, les particuliers n’éprouvent aucun besoin de ce type. À cette époque, en effet, Internet est surtout utilisé par des spécialistes et la plupart des particuliers en ignore jusqu’à l’existence. Dès lors, contrairement à aujourd’hui, le réseau ne propose pas de ressources susceptibles d’attirer le « grand public ». Vu que très peu de particuliers y accèdent, il n’existe pas non plus d’effet d’entraînement ni de pression à « faire comme les autres ».

Arrivée des nouveaux

Les choses vont cependant peu à peu changer. En septembre 1993, une entreprise spécialisée dans l’offre (par voie téléphonique) de logiciels pour console de jeux vidéo (America Online) offre à ses abonnés un accès vers le système de Usenet. Cette opération marque le début de l’accès à Internet par le grand public ; un début qui est aussi marqué par un choc des cultures.

(34)

Les abonnés d’America Online (AOL) ne regroupent pas, à proprement parler, Monsieur et Madame tout le monde. Il s’agit avant tout d’usagers de consoles de jeux vidéo prêts à payer un abonnement mensuel pour avoir accès à un grand nombre de jeux. Autrement dit, les abonnés en question constituent un public intéressé par les innovations technologiques et plutôt curieux. Si l’accès à Usenet apparaît comme un service parmi d’autres, il éveille chez eux une certaine curiosité. Et, si la passerelle vers Usenet n’est pas totalement fi able, cela suscite, chez certains d’entre eux, un défi comparable à ceux que proposent les jeux vidéo.

De leur côté, les utilisateurs de Usenet (qui se recrutent encore majoritairement dans les universités) prolongent les habitudes et la culture qui est la leur depuis une quinzaine d’années. Aussi, au début de chaque année académique, ils accueillent les nouveaux étudiants qui, arrivant à l’uni-versité, commencent à se familiariser à Usenet. Ceux-ci apprennent relativement vite les règles en vigueur (qui sont évidemment proches de la culture universitaire) : la réfl exion et la modération sont de rigueur, l’entraide est encouragée, la régulation du réseau repose sur le bon vouloir de chacun des participants.

L’arrivée des abonnés d’America Online débute préci-sément en septembre. Comme à leur habitude, les usagers d’Usenet les accueillent sur le mode de l’écolage. Ils tentent de transmettre leur attachement à une certaine éthique communicationnelle (valorisant une certaine orthographe et évitant les messages inutiles). De leur côté, les abonnés d’America Online souhaitent avant tout poster des messa-ges, par défi , indépendamment de leur contenu. Très vite, un écart se marque entre les deux groupes.

En outre, lors de leurs tentatives de communication, certains nouveaux venus assimilent Usenet à un service fourni par une société privée (AOL) ou encore à Arpanet. Ces confusions ont pu générer un certain agacement chez les plus anciens usagers (qui transparaît dans les messages échangés alors). Cette exaspération fait ressentir

(35)

aux nouveaux usagers une violence symbolique, voire une humiliation, qui n’est pas sans rappeler celle que les usagers d’Usenet ont vécue lorsque les messageries d’Arpanet leur étaient inaccessibles.

Contrairement aux rentrées académiques précédentes, les nouveaux usagers ne cessent d’arriver. Cette déferlante a fait dire que « le mois de septembre 1993 ne s’est jamais terminé ». Car, à l’instar d’America Online, des opérateurs privés de télécommunication proposent des abonnements pour accéder à Internet. Progressivement, de plus en plus de particuliers accèdent à Internet et visitent, en curieux, l’un ou l’autre site. C’est, pour la plupart, un apprentissage sur le tas, qui n’est pas sans causer de déception. Du point de vue des primo-arrivants, lorsque, hier, nous faisions nos premiers pas sur Internet, nous avons sans doute contribué à prolonger le mois de septembre 1993 (et peut-être la consternation de ceux qui étaient là avant nous).

Dimensions sociologiques

Cette tension entre les habitués et les nouveaux n’est pas propre à Internet. Au contraire, ce phénomène se rencontre – sous des formes diverses – dans la plupart des groupes sociaux. Sa manifestation sur Internet frappe donc plus par son ordinarité que par sa nouveauté. Un tel phénomène est séquentiel : on est toujours le nouveau de quelqu’un. L’agence de coordination de la défense américaine (ARPA) a précisément été mise en place parce que, avec le succès de Spoutnik 1, la Russie avait démontré être là où les États-Unis ne l’attendaient pas. Cette agence a donc nommé un groupe de travail (le Network Working Group). Le choix de ses membres (de jeunes chercheurs en début de carrière, sans renommée particulière) témoigne d’un niveau de considération modérée quant à l’importance de la tâche à accomplir. Les preneurs de décision se sont en quelque

(36)

sorte dotés d’exécutants. Ces « petites mains » devaient, en contrepartie, faire montre d’une certaine indifférence envers les « huiles » de la défense. S’il est fort probable que, quelques années plus tard, les membres de ce groupe de travail aient accueilli les initiateurs de Usenet comme des pairs, ces derniers ont vraisemblablement assez mal vécu les diffi cultés d’interconnexions avec Arpanet. Le dévelop-pement de leur culture « démocratique » s’érige en critique de la culture « élitiste » des membres d’un projet initié par le gouvernement. À leur tour, lorsque les membres de Usenet ont constaté que les nouveaux arrivants ne respectaient pas leurs manières de faire, ils ont stigmatisé le peu d’éducation des « nouveaux », les abonnés d’AOL23. Ceux-ci ont vécu

leurs remarques comme émanant de prétentieux donneurs de leçons. À notre tour, lorsque nous sommes arrivés, nous nous sommes adressés à ces défricheurs... mais il n’est pas sûr que nos questions nous aient fait grimper dans leur estime.

Du point de vue de la consécution, cette alternance de rôles entre novices et experts ne recèle donc guère d’origi-nalité. Par contre, le développement d’Internet est marqué par le statut sociologique des différents protagonistes. Qu’il s’agisse du premier groupe de travail, des utilisateurs de Usenet ou des abonnés d’AOL, les principaux acteurs relè-vent d’un groupe social minoritaire, dominé, marqué par une valorisation de la débrouille, de l’anticonformisme et de la solidarité. Ces valeurs se cristallisent particulièrement dans le mouvement pour le logiciel libre qui, plus que les autres groupes, a opéré un travail d’explicitation de ses ressorts idéologiques.

23 Dans le jargon Usenet, AOL est devenu synonyme d’inadéquation communicationnelle.

(37)

S’orienter sur la toile

Si les communications de milliers de spécialistes transi-tent déjà par le courrier électronique et par les groupes de discussion (Usenet), le particulier, lui, est cantonné dans un rôle plutôt passif, tel le voyageur découvrant que la contrée, réputée riche d’autochtones et dénuée de tou-risme, s’avère totalement déserte24. Fureter sur Internet est

pourtant déjà une activité qui peut receler des surprises : empruntant les liens, le visiteur peut passer d’un site à l’autre parcourant ainsi des sujets aussi divers que variés, sa curiosité s’abandonnant ainsi à une certaine chance. Les spécialistes parlent de « sérendipité »25 pour caractériser

cette attitude de découverte laissée au hasard du furetage. Le projet des concepteurs des liens intertextuels se retrouve ici : le contenu des pages de la toile n’est ni formalisé ni centralisé (comme avec le prototype de Douglas Engelbart), seuls des liens permettent de passer d’une page à l’autre. L’enthousiasme des utilisateurs de la première heure n’en fut pas moins déçu. Car l’ouverture, la non-formalisation et la décentralisation compliquent considérablement la prise en main d’une telle source grandissant plus chaque jour.

Très vite, dès lors, des initiatives apparaissent afi n de permettre de s’orienter dans ce que Paul Otlet aurait sans doute vu comme une concrétisation de sa vision : l’ensemble des savoirs de l’humanité disponibles en tout point de la planète. Ainsi, Jerry Yang et David Filo, deux étudiants américains de l’Université de Stanford décident de mettre en commun leurs efforts de recensement des adresses de sites intéressants : fi n 1994, ils fondent l’annuaire Yahoo! qui présente ce recensement par catégories thématiques hié-rarchisées. Un tel outil centralise précisément l ’information

24 Francis Rousseau, Classer ou collectionner ? Réconcilier scientifi ques et

collectionneurs, Academia-Bruylant, Louvain-la-Neuve, p. 50.

25 Le terme fait référence à une ancienne fable perse. Dans celle-ci, des traces dans le sable servent d’indices à trois princes du Sri Lanka (appelé Serendip en vieux persan).

(38)

distribuée dans toutes les pages existantes, en un point (le site Internet de Yahoo) à partir duquel le visiteur peut se rendre à tous les autres. Il s’agit là de la même fonction que remplissent les outils de recherche d’un ouvrage en bibliothèque (comme l’armoire à fi ches cartonnées ou le thésaurus).

Ce n’est que dans un second temps qu’apparaissent les moteurs de recherches (auxquels la plupart des utilisateurs contemporains recourent). Leurs principes avaient même été imaginés avant le World Wide Web. Cependant, ces moteurs se bornaient à recenser les pages existantes, voire à les associer à leur titre. Face à ces fonctionnalités spartiates, l’utilité de Yahoo est alors indiscutable. Cependant, les pages disponibles se multiplient rapidement26 et les

équi-pes (salariées) de la fi rme américaine risquent de se voir rapidement dépassées. Ce constat, Louis Monnier, décide d’en tirer avantage27.

Ce chercheur français travaille pour Digital Equipement Corporation (DEC), la fi rme ayant conçu les équipements informatiques sur lesquels Unix a été initialement développé. Son dernier produit est un processeur, la pièce centrale d’un ordinateur, qui opère tous les calculs. DEC cherche alors à démontrer la performance de ce nouveau processeur – baptisé Alpha – afi n de rivaliser avec des concurrents, comme Sun Microsystems, sur le marché des serveurs pour l’entreprise. La société DEC vend du matériel, mais il lui manque une base de données de taille importante pour pouvoir démontrer que ses produits l’exploitent mieux que ceux des concurrents. Louis Monnier réalise alors le programme qui exécuterait une telle démonstration : un moteur de recherche capable non seulement d’indexer intégralement les 16 millions de documents accessibles sur Internet (comportant des milliards de mots) mais également

26 De 1993 à 1996, on passe de 130 sites Internet à 600.000 !

27 John Battelle, La révolution Google. Comment les moteurs de recherche ont

(39)

de permettre à tous les visiteurs du réseau d’exploiter cette base de données. Ce programme, appelé Altavista, est testé en interne et rendu public le 15 décembre 1995. Le succès est immédiat.

Dans un tout autre contexte, deux autres étudiants de Stanford, Larry Page et Sergey Brin, réfl échissent aux fondations de l’hypertexte. Comme nous l’avons vu avec le prototype de mécanographie de Douglas Engelbart, le lien vers un document s’est historiquement matérialisé par une série de perforations dans le bas d’une carte. Autrement dit, le document vers lequel pointe ce lien ne comporte aucune trace du lien en question. Il est donc impossible, en consultant une carte, de connaître le nombre ou la nature des liens susceptibles d’y conduire. Il en est strictement de même avec les pages Internet : rien ne permet de déter-miner combien de liens conduisent à une page (et d’où proviennent ces liens).

Les deux étudiants de Stanford baignent dans une culture proche de celle qui a motivé la création de la toile, par Tim Berners-Lee et Robert Caillau. En tant que jeune chercheur, Larry Page a appris que, précisément, l’évaluation d’un article scientifi que passe par le nombre de citations de celui-ci28. Prolongeant l’analogie entre la citation

scien-tifi que et l’hyperlien, il s’engage, avec Sergey Brin, dans la confection d’une base de données permettant de « remon-ter ces liens »29. Une telle base de données permet, par

conséquent, d’identifi er pour chaque page, non seulement combien de liens y conduisent mais également d’où ils proviennent. Les deux étudiants conçoivent un algorithme (un mode de calcul) qui pondère le poids de chaque lien, en fonction du nombre de liens dont est gratifi ée la page d’où il est tiré. Baptisé « PageRank » (en référence au nom de famille d’un des deux étudiants), cet algorithme permet

28 La discipline qui étudie, de manière statistique, les citations scientifi ques s’appelle la scientométrie. Voir Michel Callon, Jean-Pierre Courtial et Hervé Penan, La scientométrie, PUF, Paris, 1993.

(40)

donc de trier les (nombreux) résultats d’une requête dans la base de données, en fonction de leur adéquation avec la requête de l’usager et du nombre de liens qui y conduisent (dont on peut considérer qu’il comporte une indication de la popularité). Réalisant que leurs résultats s’affi nent au fur et à mesure que leur base de données grandit en taille, ils décident de donner à leur moteur de recherche un nom inspiré de gogol, un nombre à 100 chiffres. Google est publié sur la page de l’Université de Stanford en août 1996. Là où Altavista tirait sa force d’une indexation effi cace de l’ensemble des textes du réseau, l’originalité de Google fut d’abord de tirer parti de l’information donnée par les liens entre ces pages.

Un annuaire autogéré

Avec le moteur de recherche Altavista, Louis Monnier réussit à faire converger l’intérêt de son employeur (qui recherchait un coup de pub) et celui des usagers d’Internet (qui souhaitent s’y orienter)30. Ce succès tient également

au défi personnel que constitue, pour lui, la réalisation de ce moteur de recherche ainsi que sa réfl exion sur les diffi cultés que risque de rencontrer un annuaire alimenté exclusivement par des indexeurs passant en revue les pages disponibles sur la toile. Face à la croissance exponentielle du Web, une telle entreprise rappelle le tonneau des danaïdes. Elle nécessite d’engager de nombreux employés, y compris des experts sur des sujets pointus et locuteurs de nombreuses langues différentes. Un tel défi n’est cependant pas neuf :

30 Ce faisant, il accomplit ce que les sociologues des techniques appellent un intéressement. Michel Callon, « Éléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques et des marins-pêcheurs dans la baie de Saint-Brieuc », in L’Année sociologique, vol. 36, 1986, p. 189.

(41)

il rappelle l’immense projet de recensement entrepris par Paul Otlet au début du siècle.

La réponse qu’apporte Louis Monnier à cette course contre la montre repose sur une automatisation du pro-cessus. Le recensement des pages disponibles, ainsi que leur indexation est confi ée à des programmes informatiques (c’est là le fondement même d’un moteur de recherche).

Partant du même constat, des ingénieurs de Sun Microsystems (Richard Skrenta, Bob Truel et Bryn Dole) réfl échissent à un moyen alternatif de réaliser un annuaire organisant de manière thématique les adresses de sites Internet. En particulier, l’expérience du mouvement du logiciel libre leur a montré qu’un projet d’envergure peut être mené à bien par des bénévoles et que les résultats sont même susceptibles de surpasser les produits de l’industrie. Le 5 juin 1998, ils lancent un projet d’annuaire alimenté exclusivement par des volontaires.

Souhaitant inscrire cet annuaire dans la lignée du projet GNU de Richard Stallman, ils le baptisent GnuHoo. Les partisans du mouvement pour le logiciel libre accueillent cependant assez froidement le projet. Leurs arguments portent précisément sur des questions de droits d’auteur et de licence. Tout d’abord, pour relever de la mouvance du projet GNU, le site Internet de l’annuaire doit reposer exclusivement sur des logiciels libres. Ensuite, le produit rédactionnel des contributeurs doit également être publié sous une licence de contenu libre. Or, GnuHoo ne ren-contre aucune de ces deux exigences. La fondation pour le logiciel libre demande alors aux initiateurs du projet de retirer toute référence au projet GNU. L’annuaire devient alors le NewHoo. Yahoo, son concurrent direct, objecte également et demande à son tour une modifi cation du nom du projet. Au même moment, la société Netscape

(42)

décide de rendre publique une grande partie du code source de son navigateur31. Cette société inaugure alors

une division open source dont le nom de code est Mozilla. Le projet d’annuaire attire son attention et elle se propose de le soutenir. Elle fournit alors les serveurs ainsi qu’un nouveau nom et une nouvelle adresse. L’annuaire s’appelle désormais l’Open Directory Project et est hébergé sous un nom de domaine dédié (directory.mozilla.org, contracté en dmoz.org).

Dès cette époque, l’annuaire se revendique explicitement « des sciences du document et des lettres ». En effet, lors-que ses contributeurs se proposent d’y créer une nouvelle rubrique, le système fait mention à l’alter ego américain de Paul Otlet et Henri La Fontaine, le documentaliste Melvil Dewey (dont une classifi cation des ouvrages en bibliothèque porte toujours le nom aujourd’hui). Par ailleurs, le projet s’est donné comme devise « la république du Web », en référence à la « république des lettres », évoquant l’idéal selon lequel la culture transcende les frontières.

Vu que la participation au projet ne requiert aucune habileté technique particulière (il suffi t d’être en mesure de visiter un site Internet et de déterminer sur quoi porte son contenu), l’Open Directory Project attire un grand nombre de participants non informaticiens. C’est le premier collectif du genre à rassembler autant de volontaires œuvrant à une réalisation collective (l’annuaire). Comparé au mouvement du logiciel libre (qui réunit surtout des ingénieurs et des scientifi ques), les contributeurs proviennent d’une grande variété de milieux. Cette variété suit les contours des usagers d’Internet. Autrement dit, par rapport à la structure sociale de nos sociétés, elle souffre d’une nette sous-représentation des classes moins favorisées (du moins du point de vue de la formation). Par contre, contrairement aux initiatives

31 Tom Paquin, « Libérons les sources. L’histoire de Mozilla » in Chris Dibona,

Tribune libre. Ténors de l’informatique libre, In Libro Veritas,

(43)

du mouvement du logiciel libre, l’annuaire rassemble des femmes, des non-anglophones, des adolescents, des retraités, des ouvriers...

En déplaçant l’organisation sociale du mouvement pour le logiciel libre vers une activité non technique, l’Open Directory Project contribue donc à ce que chacun, indépendamment de sa formation, puisse participer à la régulation du réseau. Cet élargissement de la participation marque une étape décisive dans l’avancée vers une régulation démocratique du réseau. Initié par le groupe de travail ini-tial, ce processus a été porté par Usenet, puis par le mouve-ment du logiciel libre. Usenet a œuvré à affranchir le réseau de ses institutions d’origine. Le mouvement du logiciel libre a, quant à lui, introduit la possibilité d’une propriété publique. S’inscrivant dans ce processus, l’Open Directory Project propose au « grand public » d’intervenir dans la gestion et l’élaboration d’un outil de recensement et de recherche. Avec cet annuaire, le réseau n’est plus seulement aux mains des institutions publiques, des entreprises et des techniciens ; chacun d’entre nous peut y intervenir, sans compétence technique préalable !

L’extension de l’économie traditionnelle

Parallèlement au développement de l’Open Directory Project, les fondateurs de son concurrent direct (Yahoo) réfl é-chissent à un modèle de rentabilité économique pour leur entreprise. Le moteur de recherche d’Altavista procède d’une campagne de publicité pour du matériel informatique. Les initiatives de Yahoo et de Google sont, quant à elles, le fait d’étudiants universitaires. Si Louis Monnier reste l’employé de Digital, les deux étudiants à l’origine de Yahoo doivent trouver comment tirer un revenu de leur invention. Vu que les outils de recherche entendent précisément suppléer au manque d’organisation et de centralisation de la toile,

(44)

ils prétendent à se constituer en points de passage obligé pour les usagers d’Internet (ce que la fréquentation – élevée – des sites de Yahoo et d’Altavista tend d’ailleurs à confi rmer). Les perspectives de rentabilité ne manquent donc pas.

Finalement, Jerry Yang et David Filo optent également, faute de mieux, pour la vente d’espaces publicitaires sur leur répertoire. La sphère économique investit progressivement cet espace vierge. En exagérant à peine, on pourrait dire que le capitalisme n’a réalisé l’existence d’Internet qu’en 1996. À l’instar de nos deux étudiants américains, des centaines d’entrepreneurs se lancent dans la création de petites entre-prises, fi nancées par des mécènes se rappelant que, quelques années auparavant, de jeunes enthousiastes avaient établi de manière comparable les fondations des empires de la micro-informatique que sont devenus Microsoft et Apple. Les initiatives se multiplient.

Les outils de recherche, comme Yahoo et AltaVista, tentent de se constituer en points de passage obligé pour les utilisateurs. Afi n de fi déliser leurs visiteurs, certains sites multiplient les services ajoutés. Une telle combinaison de services – comme un annuaire de sites Internet, un moteur de recherche, la météo, les cours de la fi nance, une boîte de courrier électronique – constitue un « portail ». Vu que la plupart d’entre eux tirent leurs revenus des annonceurs publicitaires, la rivalité pour attirer (et fi déliser) les utili-sateurs d’Internet est féroce. La constitution d’un portail ne s’improvise donc pas ; le plus souvent, elle implique des partenariats, voire des acquisitions d’entreprises.

C’est dans ce contexte combinant une multiplication de la concurrence et l’apparition des portails, que les inventeurs de Google (Larry Page et Sergey Brin) cherchent, comme l’ont fait avant eux les fondateurs de Yahoo, une façon de valoriser leur idée. Ils se proposent alors de céder une licence à l’un de ces portails. Bien que certains de ceux-ci marquent leur intérêt, aucune de leurs entrevues ne débouche sur la signature d’un contrat. C’est que les moteurs de recherche sont perçus comme des services qui encouragent les visiteurs

Références

Documents relatifs

 Un lecteur peut lire le rôle ou la fonction d'une protéine ou d'un gène particulier dans l'article et accéder facilement via un lien vers les données supplémentaires

Les examens nationaux volontaires sont le mécanisme de notification utilisé par les 193 États membres des Nations Unies pour rapporter les progrès accomplis dans la mise en œuvre du

Tous droits réservés.... Tous

Rasmussen (éd.), Universalism vs.. Quel argument peut-on en effet faire valoir contre un traitement équitable du bien-être de chaque homme, l’égale valeur de chacun

Méthodologies Agile : Une méthode agile est une méthode de développements permettant de qui permet une grande réactivité à ses demandes. Les méthodes agiles se veulent plus

Nous reviendrons sur cette question, mais soulignons dès à présent que les habitants des quartiers les plus défavorisés sont ceux qui à la fois s’abstiennent le plus

► est correspond au verbe être conjugué à la troisième personne du singulier du présent de l'indicatif.. Il peut être remplacé par était (verbe être à l'imparfait) Exemple :

Notre conviction est qu’il s’agit l` a d’une tr` es bonne fa¸ con d’aborder l’enseignement du g´ enie logiciel : le fait de reprendre, modifier/adapter ` a chaque phase ce qui