• Aucun résultat trouvé

Chapitre II : des spécificités de l'informatique

2. Qu’est-ce que l’informatique ?

“En premier lieu, et bien que cette question puisse paraître superflue, ou simplement académique, de quoi parle-t-on ? Qu’est-ce que l’informatique ? La réponse n’est pas simple : c’est une technologie certes, et très singulière, l’amplification instrumentale de certaines classes d’opérations intellectuelles, mais c’est aussi une science qui entretient avec sa projection technologique des rapports ambigus... ” (Borillo, 1984, p. 165)

Dans leur livre de 1996, G.L. Baron et E. Bruillard, devant le problème qui est également le nôtre de spécifier l’informatique par rapport aux technologies précédemment introduites dans l’éducation, évoquent d’abord “ la flexibilité et la polyvalence des dispositifs qui en sont issus ” avant de préciser qu’elle “ est bien plus qu’une technologie et ne se confond pas avec les équipements qui la représentent dans le monde quotidien ”. Cette dernière assertion est étayée par l’argument qu’il “ s’est constitué un corpus de savoir savant autour d’elle (initié en particulier par J. Arsac) ” et qu’elle “ est devenue progressivement une science socialement reconnue, enseignée à l’université depuis la fin des années 1960 ” (Baron et Bruillard, 1996, p. 10)

Cette approche évoque trois dimensions de l’informatique liées et cependant distinctes (et c’est bien là toute la complexité du problème !) : “ les dispositifs qui en sont issus ”, “ les équipements qui la représentent ”, le fait qu’il s’agit d’une science socialement reconnue.

L’intrication de ces différents aspects, “ les rapports ambigus ” qu’ils entretiennent entre eux font qu’à l’évidence il ne peut y avoir de réponse simple à la question “qu’est-ce que l’informatique ? ”. Cette complexité intrinsèque explique en grande partie le fait que le terme informatique, constamment employé, loin d’être univoque, peut désigner selon les circonstances (et parfois au cours d’une même phrase) des “objets” différents et en

particulier : une science et/ou ses méthodes, différents dispositifs, des matériels27.

Nous allons examiner brièvement chacun de ceux-ci, en commençant par les ordinateurs, car comme le rappelle notamment J. Arsac :

“ C’est bien comme technique qu’est née l’informatique. En appliquant la science de l’électronique et les mathématiques, on a fabriqué des ordinateurs, puis on s’est servi de ces machines pour les grands calculs scientifiques, la gestion des affaires ou

27

On a pu parler également “ d’informatique gelée ” (cf. ADI, 1986) pour désigner des programmes définitivement intégrés dans des microprocesseurs spécialisés. Nous n’entrerons pas dans le débat

concernant la frontière entre électronique et informatique. Cependant, la banalisation des produits intégrant microélectronique ou informatique gelée n’est pas sans conséquence sur une prise de conscience de “ l’informatisation de la société ”.

des administrations, l’assistance à la conception ou à la fabrication de nouveaux produits, la réservation de place d’avions, etc. ” (Arsac, 1987, p. 20)

Si science informatique il y a, ce qui n’est guère contesté aujourd’hui, cette science n’a vu le jour qu’après la création de machines nouvelles, offrant des possibilités de traitement de l’information, si ce n’est inimaginables du moins chimériques jusqu’alors.

2.1 L’ordinateur

“ Quelle que soit l’énergie utilisée, ou la forme de la machine (boulier, calculateur mécanique ou électromécanique, calculateur électronique), l’homme transmet ses ordres et conduit les calculs. La grande innovation de l’ordinateur sera son véritable automatisme puisque la machine, à qui l’on donne les données et les instructions, réalise elle-même les travaux qui lui sont demandés ” (Breton, 1990, p. 87)

2.1.1 Une nouvelle lignée technologique

Contrairement à ce que laisse entendre sa dénomination anglaise (“ computer”), un ordinateur n’est pas un calculateur. P. Breton, retraçant “Une histoire de l’informatique”

(Breton, op. cité), relate bien comment, la construction des premiers ordinateurs28, rendue

possible grâce aux progrès techniques réalisée en vue de la mise au point de grands

calculateurs modernes29, marqua cependant la fin d’une lignée technique initiée au

XVIIe siècle (avec la machine de Schickard puis celle de Pascal).

Ce sont, en effet, les principes de base du fonctionnement des deux types de machines qui diffèrent. Alors que les calculateurs avaient besoin de l’intervention d’un opérateur lors des différentes étapes du calcul, les ordinateurs sont des machines “ entièrement automatiques, disposant d’une mémoire étendue et d’une unité de commande interne, qui effectuent des opérations logiques de calcul et de traitement de l’information grâce à des algorithmes enregistrés ” (ibid. p. 83).

Ces principes de base (dits parfois l’architecture de Von Neuman), restés pratiquement inchangés depuis les premiers prototypes des années 1940, ne doivent pas être confondus, comme le souligne Breton, (p. 86), avec les “perfectionnements technologiques ultérieurs que cette machine va subir” (perfectionnements qui, conjugués

28

Le mot ordinateur n’était pas encore créé, il le sera en 1955 par J. Perret “ à la demande d’IBM France ” (Baron, 1989, p. 39).

29

aux progrès de l’informatique, seront à l’origine, d’une banalisation de ses usages parfaitement impensables lors de sa création).

Dans la figure suivante, P. Demarne et M. Rouquerol (1982, p. 6, 1e éd. 1960)

schématisent les différentes composantes d’un ordinateur.

Schéma général des ordinateurs (Demarne et Rouquerol, 1982, p. 6)

La principale nouveauté de l’ordinateur est l’unité de contrôle, organe interne qui gère (à la place d’un opérateur humain) la suite des instructions nécessaires au déroulement du traitement de l’information (le programme ou, pour reprendre les termes de Breton, “l’algorithme” enregistré).

La nécessité pour la machine de disposer de cette suite d’instructions uniquement en code binaire (le courant passe ou ne passe pas) et la difficulté pour l’homme de s’exprimer dans un langage ne comportant que des 0 et des 1 firent que rapidement l’ordinateur fut doté de programmes intermédiaires de traduction. D’abord, “programmes d’assemblage”, permettant la conversion en code binaire d’une suite d’instructions codées en symboles alphanumériques, puis “compilateur”, lorsque des langages de programmation plus évolués (plus proche des langages naturels) furent créés.

De façon certes un peu rapide, on peut sans doute dire que la nécessité de pourvoir en instructions la nouvelle machine automatique, c’est-à-dire de créer des programmes, a été à l’origine de l’informatique. Avant d’envisager plus spécifiquement cette dernière, nous emprunterons principalement à la thèse de G.L. Baron (Baron, 1987, p. 50-61)

Mémoire principale Unité arithmétique et logique Contrôle Entrée Sortie

quelques “ repères ” sur la notion d’algorithme, puis à l’ouvrage de A. Bonnet quelques indications sur l’Intelligence artificielle, autre perspective ayant permis un autre type de programmation (Bonnet, 1984).

2.1.2 Vers l’informatique

Algorithme et algorithmique

G. L. Baron rappelle d’abord l’origine mathématique de la notion d’algorithme et le fait que, dans ce domaine, elle désigne “ toute suite d’opérations que l’on effectue systématiquement pour résoudre une classe de problèmes ”. Il évoque ensuite, comme source de son renouvellement, les travaux du mathématicien A. Turing et sa définition de la machine abstraite (portant son nom), machine à laquelle “ les ordinateurs sont, en un sens, isomorphes ”. En effet, rappelle-t-il, “tout algorithme dépend évidemment des possibilités du type de dispositif qui pourra l’exécuter” (Baron, 1987, p. 52).

Ce renouvellement de la notion d’algorithme va être notamment à l’origine d’un nouveau concept “l’algorithmique”, issu des travaux visant à définir un langage de programmation permettant de coder les algorithmes (ALGOL60). Ce concept “va prendre de l’extension au fil des années et intervenir dans le développement de l’informatique théorique” (ibid., p. 52). Ainsi, bien que “dans la pratique, cependant, cette notion [d’algorithme] est longtemps restée floue et sujette à différentes appréciations”30, verra-t-on quelques années plus tard des enseignants-chercheurs introduirent, dans le cadre de formations à l’informatique, des cours d’algorithmique.

Cependant, une autre perspective de recherche, celle sur l’Intelligence artificielle a parallèlement “ joué un rôle moteur dans la constitution de l’informatique ” (ibid, p. 59) :

“ Au début des années 1950, les premiers programmes de calcul formel apparaissent. Ils permettent par exemple de trouver la fonction dérivée d’une fonction donnée. Les informaticiens réalisent ainsi, et c’est fondamental que “ leurs machines à calculer ” peuvent faire bien autre chose que des calculs : elles peuvent manipuler des symboles. ” (Pitrat, 1985, cité par Baron, p. 59).

Intelligence artificielle

A. Bonnet introduit l’ouvrage qu’il a consacré aux “ promesses et réalités ” de l’intelligence artificielle (Bonnet, 1984) par la définition suivante : “ l’intelligence artificielle est la discipline visant à comprendre la nature de l’intelligence en construisant

30

nous avons vu plus haut que Breton semble assimiler algorithme et programme enregistré, Baron donne d’autres exemples de confusion des deux termes ou de distinctions peu précises

des programmes d’ordinateur imitant l’intelligence humaine ” (ibid., p. 17). Dans cette perspective, l’ordinateur n’est plus seulement une machine qui peut se passer d’un opérateur humain pour réaliser l’ensemble des traitements de l’information demandés, il supplée l’homme également dans le processus de résolution du problème posé. Comme le résume J. Arsac : les recherches en Intelligence artificielle “visent à résoudre sur ordinateur des problèmes dont on ne connaît pas de méthode explicite de résolution (algorithme) ” (Arsac, 1987, p. 161).

“ S’attaquant [donc] à des problèmes dont on ne connaît pas un algorithme ”, les

programmes d’intelligence artificielle, “ manipulent principalement des symboles autres que numériques ”, “ possèdent une représentation des connaissances ”, sont capables de fournir une solution même si des données sont “ plus ou moins contradictoires entre elles ” ou que certaines ne sont pas disponibles, de plus, ils sont susceptibles d’évoluer en fonctions des “ expériences ” antérieures et peuvent donc être considérés comme dotés “ de capacités d’apprentissage ” (Bonnet, 1984, p. 19-25).

Algorithmique et intelligence artificielle ont contribué à constituer l’informatique comme science.

2.2 L’informatique

“J’ai défini l’informatique en soi, sans référence à cette machine [l’ordinateur]. Je la considère comme une science existant en dehors de cet outil. ” (Arsac, 1971, p. 72)

2.2.1 Une science pratique ?

L’ordinateur précède donc l’informatique. Ce constat n’empêche pas de considérer cette dernière comme une véritable science (dont les concepts et les méthodes inspirés d’autres sciences sont néanmoins spécifiques), mais cette relation inhabituelle avec la technique, lui donne un statut particulier.

Le rapport Nivat de 1983, qui s’intéressait aux problèmes de la formation des spécialistes mais aussi des utilisateurs de base, définit l’informatique comme une “science pratique” entretenant des rapports privilégiés avec les mathématiques et l’électronique, mais s’en distinguant néanmoins de façon décisive ; M. Linard, se référant à Habermas, parle, elle, de “techno-science” (Linard, 1986, p. 5) ; G.L. Baron cite un texte du CNRS, de 1974, présentant l’informatique comme “une science pour l’ingénieur” (Baron, 1989, p. 42) et il n’est pas rare de voir l’informatique qualifiée de science appliquée (ce que M. Nivat a sans doute voulu éviter en utilisant le terme de “ science pratique ”).

Les anglo-américains nommèrent la nouvelle science “computer science31”, ce que l’on peut traduire par “science de l’ordinateur”. Cette dénomination, critiquée parce qu’il ne peut exister de science d’un instrument (cf. Arsac, 1987), a cependant l’avantage d’évoquer explicitement la science et son inséparable liaison avec la technique. De plus, elle suggère bien l’antériorité de la machine.

Pour ce qui est de sa dénomination française, l’Académie française prit assez rapidement en compte le néologisme créé par P. Dreyfus en 1962 ; la définition qu’elle officialisa faisait, sans conteste, de “l’informatique” une science :

“ L’informatique est la science du traitement rationnel, notamment par des moyens automatiques, de l’information considérée comme le support des connaissances humaines et des communications dans le domaine technique, économique et social” Académie française, 1966.

Notons qu’en anglais, une expression comme “computation science”, aurait été plus proche de cette définition française, qui ne fait qu’allusivement référence à la technique (“ une science du traitement rationnel, notamment par des moyens techniques,... ”), “ computation” étant “un calcul mathématique, particulièrement quand il est fait à l’aide d’une machine” (cf. Collins Cobuild English language dictionnary, 1987).

Cependant, si le terme français “informatique” n’évoque pas d’emblée, comme “computer science”, la liaison science-technique, il met par contre l’accent sur un aspect essentiel : la nouvelle science a pour caractéristique fondamentale de traiter exclusivement de l’information, au sens de la forme des données et non les connaissances qu’elles représentent (“ le support des connaissances” comme le précise la définition de l’Académie française).

31

Mais, il existe en anglais une expression pour évoquer le traitement technique des données (“ data processing ”) et, dans certains cas, notamment, lorsqu’il s’agit d’usages pédagogiques, c’est l’expression “ technologie de l’information ” (“ information technology ”) qui est utilisée.

2.2.2 Une science traitant de l’information

“Tout système informatique, quelles que soient les apparences (interfaces’ intelligentes’) ne traite (‘ne connaît’) que des représentations symboliques, des entités abstraites qui sont, ou voudraient être les descriptions objectives finalisées des faits, des phénomènes empiriques de toutes sortes qu’il s’agit d’étudier, de gérer… descriptions obtenues par des démarches, des méthodes dont on peut dire qu’elles sont proches de celles qui ont été conçues pour les sciences de la nature et que l’on retrouve d’ailleurs dans la linguistique et la sémiologie contemporaine.” (Borillo, 1984, p. 169).

Breton, dans le premier chapitre de son ouvrage déjà cité, fait une large part aux origines de la notion d’information, au “sens moderne”, c’est-à-dire celle qui désigne non le sens d’un message mais sa forme, “ codée en un symbole numérique binaire ”. En effet, le traitement automatique de l’information, ainsi entendue, va être “l’objet principal autour duquel s’organisera dès l’après-guerre le monde des ordinateurs et des informaticiens.” (Breton, 1990, p. 41).

J. C. Simon définit l’information “ en informatique ”, comme “ le couple formé par une représentation et son interprétation par la machine informatique ” (Simon, 1980, p. 80), “ représentation ” étant ici entendue comme codage d’un objet en un mot (écrit en alphabet binaire) et “ interprétation ” le procédé inverse.

Descendant des calculateurs, l’ordinateur a été mis d’abord au service du traitement des nombres, mais très rapidement ce sont des connaissances de toutes sortes qui, une fois codées, modélisées, se sont avérés être objets possibles de traitements informatiques. M. Nivat, comparant l’informatique aux mathématiques, à qui elle a emprunté démarches et méthodes, la définit comme “ science du faisable – du calculable ”, par rapport aux mathématiques “ science du possible ” (Nivat, 1983, p. 33) ; nous avons déjà plusieurs fois cité la formule de M. Linard décrivant l’informatique comme “ instrument universel de traitement rationnel du réel ”.

Progrès scientifiques (programmes de plus en plus évolués, nouveaux concepts) et progrès techniques (en matière notamment de puissance et de rapidité) aidant, aucun domaine ne semble aujourd’hui pouvoir échapper au traitement rationnel du réel formalisé (et, avec la numérisation des sons et des images permettant la création et la manipulation de réalité virtuelle, la limite du réel a été même en quelque sorte débordée).

Envahissant tous les secteurs de la société, l’informatique n’est pas restée aux mains des seuls informaticiens. À travers des dispositifs de plus en plus accessibles (en matière d’encombrement, de coût, de facilité d’usage), elle a été mise à la disposition d’usagers de plus en plus nombreux.

2.3 Des dispositifs informatiques

L’approche sommaire de “ l’informatique ” présentée ici visant principalement à donner des éléments permettant d’éclairer quelques problèmes spécifiques liés à son insertion dans le système éducatif, nous ne retiendrons que des aspects très généraux, en particulier, la multiplicité et la variété des dispositifs logiciels et le type d’activité

(d’interactivité) qu’ils exigent de leurs utilisateurs.

2.3.1 “ L’outil informatique n’existe pas ”

“ What colour is your elephant ? ”. On connaît l'apologue des aveugles rencontrant pour la première fois un éléphant : celui qui rencontre la trompe n'a pas la même "vision" de l'animal que celui qui a touché son oreille, son flanc ou l'une de ses pattes. T. Snyder & J. Palmer (1986, p. 36), qui s’adressent à un large public, font avec cette interrogation plaisamment remarquer que l'ordinateur est vu de multiples façons par ses utilisateurs selon la ou les applications qu’ils ont eu l’occasion d’employer.

De façon moins imagée, mais dans le même sens, C. Duchâteau déclarait dans une conférence de 1994 “ l’ordinateur n’existe pas, l’outil informatique non plus ”. On ne peut que le suivre lorsqu’il précise, d’une part, que le seul objet existant (auquel l’utilisateur a à

faire) “ est toujours un couple ordinateur-logiciel 32” et, d’autre part, que “ l’outil

informatique, au singulier, n’existe pas : ce sont des centaines d’outils différents, avec leurs règles de fonctionnement propre et diverses, avec leurs champs d’application particuliers et leurs modes d’emploi singuliers qui existent ” (Duchâteau, 1994, p. 3).

Il est sans doute inutile d’insister sur cette multiplicité et cette diversité des dispositifs logiciels, dont chacun maintenant a fait l’expérience ou du moins entendu parler, puisqu’elles ont permis à “ l’informatique ” d’investir concrètement la plupart des secteurs de la société.

Nous ne nous appesantirons pas non plus sur un aspect très important mais également bien connu : l’évolution constante des matériels et logiciels, qui fait qu’un équipement informatique est en très peu d’années considéré comme ancien voire totalement dépassé (capacités de mémoire, puissance insuffisante pour supporter les nouveaux logiciels, impossibilité d’intégrer les nouveautés techniques tels par exemple le multimédia, le raccordement à Internet, ...).

32

« l’ordinateur n’existe donc pas plus que “ l’appareil électroménager ” si on ne précise pas si celui-ci est destiné à faire la lessive ou à aspirer la poussière ! »

Nous prolongerons plutôt le rapide examen de ces dispositifs en évoquant des aspects moins communément admis (voire totalement niés) : leur complexité et la non- immédiateté de leur appropriation par les utilisateurs.

2.3.2 Des instruments complexes

C. Duchâteau, dans l’intervention précédemment citée, poursuit sa réflexion en contestant le choix même du terme “ d’outil ” pour désigner les “ assemblages ordinateur- logiciel ”. Pour lui, en effet,

“ les modalités d’utilisation des progiciels sont complexes et conduisent à des représentations de ce qu’est un système informatique qui doivent forcément être sophistiquées et dépassent de fort loin les caractéristiques de ce que nous appelons habituellement des outils. ” (ibid. p. 4).

Ainsi, précise-t-il, les systèmes informatisés sont des univers artificiels :

“ l’utilisation des ‘outils’ informatiques nous plonge dans un (des !) univers où tout est symbole, représentation, icône, métaphore ” ; des univers sans règles stables, où “ la même action ne produit pas toujours les mêmes effets ” et où “ le lien action-réaction est complexe ”. Toutes ces caractéristiques ne sont pas sans conséquence sur les modes d’appropriation des utilisateurs et donc, et c’est d’ailleurs le propos même de C. Duchâteau, la formation qui leur est nécessaire.

Un autre spécialiste de l’informatique dans l’enseignement, E. Bruillard, s’insurge également contre l’emploi général du terme “ outil informatique ”. Ses arguments rejoignent en partie ceux de C. Duchâteau :

“ En résumé, parler d’outil à propos des dispositifs logiciels revient à enlever une part de technicité ou de complexité, à ne pas tenir compte de l’aspect perception, à minimiser le processus d’interprétation du sujet, voire à nier une forme de création ou de recréation (qui peut être au moins partiellement de nature artistique) de l’usager dans les activités assistées par l’ordinateur ” (Bruillard, 1997, p. 108).

Entre autres causes de la banalisation de la dénomination d’outil (notamment, mais pas seulement, en éducation), E. Bruillard évoque la visée affichée d’une informatique pour tous (donc à la portée de tous), volonté politique accompagnée d’un discours marchand, lui-même renforcé par la diffusion d’interfaces réduisant la nécessité de connaissances techniques.

Dès l’origine (la naissance de l’ordinateur), faciliter l’interaction de l’homme avec les nouvelles machines a été un souci constant. Mais, depuis qu’un accès généralisé à celles-ci est devenu envisageable (avec l’apparition des micro-ordinateurs), la création d’interfaces dites “ transparentes ”, “ conviviales ” est devenue un enjeu particulièrement important.

Or, comme le souligne, E. Bruillard, si ces interfaces “ facilitent la prise en main des logiciels ”, elles ne confèrent cependant pas à l’utilisateur “ les compétences pour mener des tâches complexes ” :

“ La transparence que les interfaces sont censées fournir dépend de la proximité de ce qu’elles proposent avec les représentations initiales du sujet. Or ce qui importe, ce n’est pas tant l’évidence perceptive que la pertinence pour l’action du sujet. ” (ibid. p. 111)

Pour ces deux auteurs, les dispositifs informatiques sont des “ instruments ” complexes, plongeant leurs utilisateurs dans un monde “ artificiel ” et exigeant donc des néophytes une rupture avec des représentations élaborées antérieurement. En suivant l’approche cognitive des tâches instrumentées proposée par P. Rabardel (auteur d’ailleurs cité par E. Bruillard), on pourrait évoquer la nécessité d’une complète transformation des “ schèmes d’usage disponibles ” (et non d’une assimilation ou d’une simple réorganisation de ceux-ci) (cf. Rabardel, 1995).

On est bien loin d’un langage promotionnel qui s’acharne à prouver que “ l’usage d’un ordinateur est un jeu d’enfant ”. Si l’on excepte justement les logiciels de jeux, pour lesquels une simple “ console ” peut suffire, il est maintenant bien connu que le moindre traitement de texte, même muni d’une interface très “ conviviale ”, peut poser à un utilisateur novice quantité de problèmes imprévus et est, dans la plupart des cas, largement sous-utilisé (cf. notamment F. Lévy, 1993, 1995).

Ces différents réflexions ne conduisent pas seulement à mettre l’accent sur les compétences nouvelles nécessaires, mais à s’interroger sur les conséquences plus générales de la diffusion de ces dispositifs.

2.3.3 Nouveaux modes de faire, nouveaux modes de pensée