• Aucun résultat trouvé

Mémoire Centrale

N/A
N/A
Protected

Academic year: 2022

Partager "Mémoire Centrale"

Copied!
18
0
0

Texte intégral

(1)

C A H I E R

02 Histoire des technologies de l'informatique

Aujourd'hui, l'ordinateur a conquis une place irremplaçable dans les domaines techniques, scientifiques, et dans les secteurs du commerce et de l’industrie.

Il s'est installé dans notre existence quotidienne, au bureau comme à la maison.

L'ordinateur nous permet de communiquer par fax et courrier électronique avec des interlocuteurs travaillant à des centaines, voire des milliers de kilomètres.

Depuis sa naissance, ses performances n'ont cessé d'augmenter de façon impressionnante.

Vitesse de traitement, capacité de mémoire ont été multipliées des millions de fois, pendant que les dimensions physiques, la consommation énergétique et le prix baissaient considérablement.

Ce progrès spectaculaire qui devrait continuer encore pendant de longues années avant que les limites physiques des technologies employées actuellement soient atteintes, est le fruit de l'évolution rapide des connaissances et les techniques dans les domaines de l'électronique et l'informatique.

Ces dernières sont parmi les disciplines modernes celles qui ont évolué le plus rapidement.

L'ordinateur, en tant que produit industriel, n'a que quelques dizaines d'année.

Mais sa naissance est l’aboutissement d'une longue évolution des besoins de l'homme en matière, dans un premier temps, de calcul avant de recouvrir, dans un second, ceux en matière de traitement automatisé de l'information.

Car l'histoire de l'ordinateur est avant tout celle de la mécanisation du calcul. D'ailleurs, le terme anglais de "computer" signifiait au départ "calculateur numérique électronique".

Mais ces progrès technologiques ont été précédés des indispensables avancées conceptuelles dans le domaine des mathématiques.

LES PROGRES CONCEPTUELS

De tout temps, l'homme a toujours eu besoin de compter.

L'homme préhistorique savait déjà calculer à l'aide de cailloux (latin: calculi) ou de ses mains.

On trouve les traces des premiers systèmes de numération (symboles et de chiffres) quelques millénaires avant notre ère dans les civilisations chinoise, égyptienne, sumérienne, babylonienne, grecque ou romaine.

(2)

Ces systèmes de numération s'inspiraient naturellement du nombre de doigts des mains et des pieds, le nombre 20 était parfois choisi comme base de numération. Dans certaines régions asiatiques, on comptait en se servant des articulations des doigts ou des phalanges, d'où des numérations en base 12, 14, 15, 24, 30, 60, etc.

La plus naturelle et la plus répandue des numérations était celle qui comptait en base 10 et elle nous est parvenue à travers les siècles avec ses symboles introduits par les Indiens, modifiés et complétés par les Arabes. Notre système décimal actuel est le résultat de cette évolution et des moyens mis en œuvre pour lui donner des formes adaptées à l'expression écrite et orale et aux méthodes de calcul.

Si l'utilisation du système décimal (dont les symboles d'origine arabe ont été adoptés en Europe au cours du XIe siècle) s'est généralisée dans nos civilisations modernes, d'autres sont toujours utilisés, tel le système sexagésimal (base 60) pour exprimer les mesures du temps, tout comme celles des arcs et des angles.

Le XVIIe siècle est à l’origine de la conceptualisation des bases de la science moderne, racines de ce grand développement d'idées qui conduira à l'ordinateur.

Des savants tels Galilée, Newton et Leibniz commencèrent à s'intéresser aux systèmes d'aide au calcul et sont à l'origine d'une véritable révolution intellectuelle.

En 1614, le mathématicien écossais Neper présenta sa théorie des logarithmes. Les tables de Neper transformaient des multiplications compliquées en de simples additions.

Neper inventa également un système non logarithmique pour simplifier les multiplications.

Le savant allemand Leibniz, qui avec Newton est à l'origine du calcul différentiel et intégral, inventa aussi le système binaire sous sa forme moderne (des numérations base 2 existaient déjà en Chine dans l'Antiquité) avec ses deux chiffres 0 et 1. Il mit ainsi en évidence la puissance et la simplicité de l'arithmétique binaire qui sera adoptée par la plupart des ordinateurs contemporains.

En 1854, un mathématicien anglais Georges Boole, publie un essai intitulé "Une étude des lois de la pensée", où il expose ses idées sur la formulation mathématique des propositions logiques.

Reprenant les spéculations de Leibniz, Boole conçoit un système de logique symbolique, appelé algèbre booléenne qui révolutionnera la science de la logique. Un siècle plus tard, ses formules appliquées à la conception des circuits électroniques rendront possible la réalisation de l'ordinateur.

LES DEBUTS DE LA MECANISATION DU CALCUL

L’évolution des civilisations conduit à des besoins croissant en matière de calcul.

On assiste au développement d'outils, de systèmes, de machines pour simplifier et accélérer les calculs nécessaires dans des domaines aussi divers que, par exemple, la comptabilité (Trésor

(3)

royaux, commerçants, paysans), les transactions commerciales ou l'astrologie (calcul des cycles astraux).

Les débuts de la mécanisation du calcul furent lents et difficiles.

Il y a 2000 ans déjà les civilisations méditerranéennes utilisaient l'abaque pour leurs calculs.

Bien avant l'ère chrétienne, les Chinois comptaient à l'aide de bouliers (encore couramment utilisées de nos jour dans le commerce, les banques de certains pays tels que la Russie, la Chine, le Japon, etc.).

Figure 1 Boulier

Mais il fallut attendre le XVIIe siècle pour voir apparaître des systèmes de calcul plus rapides et plus automatiques.

Les tables logarithmiques de Neper donnèrent naissance en 1620 à la règle à calcul, un outil pratique et efficace basé sur le simple déplacement de tiges ("Bâtons" ou "Os de Neper").

Figure 2 la machine de Schickard

En 1642 à Paris, Pascal présente une machine ("la Pascaline") qui peut additionner et même soustraire des nombres de six chiffres. Son système est basé sur une série de roues dentées figurant les colonnes décimales. Cette machine pouvait exécuter des opérations plus complexes, telle la multiplication, par des méthodes compliquées d'additions répétitives.

(4)

Figure 3 la Pascaline

Il faudra attendre 1673 pour voir apparaître, avec le savant allemand Leibniz, une calculatrice capable d'exécuter automatiquement les quatre opérations arithmétiques.

Il ajoutera aux mécanismes de la Pascaline un chariot mobile et une manivelle permettant d'accélérer et automatiser l'exécution des additions et des soustractions répétitives exigées par les multiplications et les divisions.

Figure 4 la machine de Leibniz

Les principes des machines de Pascal et de Leibniz, seront adoptés dans la conception des machines à calculer pendant près de trois siècles.

LES PROGRES DU XIXEME SIECLE

En 1728 le mécanicien français Falcon construit une commande pour métier à tisser à l'aide d'une planchette en bois munie de trous. Son invention constitue la première machine capable d'exécuter un programme externe.

(5)

En 1805, Jacquard perfectionne le système de Falcon en remplaçant les planches en bois par des cartons troués articulés (les premières cartes perforées), qu'on peut encore voir de nos jours dans certains orgues de barbarie. Le système à bande de programmation de Jacquard permet de produire les dessins les plus compliqués en grande quantité et de qualité toujours égale.

Il s'agit du premier pas de la révolution industrielle, mais aussi d'une étape très importante vers l'exécution automatique des calculs les plus complexes.

Figure 5 Le métier à tisser de Jacquard

Au milieu du XIXe siècle, on s'approche de manière conceptuelle et matérielle de l'ordinateur grâce aux idées d'un mathématicien anglais: Charles Babbage.

Il est considéré comme le père de l'ordinateur pour avoir fait le rapprochement entre les machines à calculer et les systèmes de commande automatique de Jacquard.

De 1822 à 1832 Babbage conçoit une machine capable de calculer et d'imprimer des tables de tir selon la méthode des différences. Il construit un prototype, basé sur des roues dentées glissant sur des arbres actionnés par une manivelle. Mais il se heurte alors à des problèmes techniques et son projet est finalement abandonné.

En 1833, Babbage se lance dans la réalisation d'une machine encore plus ambitieuse, la Machine Analytique. Elle était conçue pour faire des séquences d'opérations arithmétiques en fonction d'instructions données par l'utilisateur. On trouve dans sa Machine Analytique des idées très avancées pour l'époque, qui seront adoptées ou réinventées par les constructeurs d'ordinateurs une

(6)

centaine d'années plus tard; comme la notion de processeur, celle de mémoire, celle de programme ou de techniques comme les entrées/sorties par cartes perforées, etc.

Mais cette machine était irréalisable avec les techniques et les outils de son temps. Elle devait fonctionner comme une locomotive à vapeur et était beaucoup trop complexe et ambitieuse. Elle ne sera jamais terminée.

Par contre, le concept de sa machine à différences, repris par un inventeur suédois P.G. Scheutz sera réalisée, avec l'aide de Babbage, et présentée à Londres en 1854.

Figure 6 Machine à différences reconstituée en 1991 à partir des plans de Babbage

Avant la fin du XIXe siècle, l'Américain Hermann Hollerith construisit un calculateur de statistiques fonctionnant avec des cartes perforées pour accélérer le traitement des données du recensement américain de 1890.

(7)

Figure 7 Calculateur de statistiques d’Hermann Hollerith

Inspiré par les travaux de Babbage et par les applications des cartons troués dans la commande des métiers à tisser, il inventa la carte perforée et un système de codage des informations qui porte son nom. La carte de Hollerith comprenait douze rangées de vingt positions à perforer pour figurer les données du recensement de la population des Etats-Unis.

(8)

Figure 8 Principe de la carte preforée

Une fois perforées, les cartes étaient placées dans des lecteurs qui détectaient les trous. Des aiguilles, traversant les trous, établissaient un circuit électrique en trempant dans des petits pots de mercure placé de l'autre côté de la carte. Le système de Hollerith était si rapide qu'un premier décompte fut établi en quelques semaines et une analyse statistique complète en deux ans et demi. Le traitement du recensement de 1890 avait été effectué en trois fois moins de temps qu'en 1880.

Hollerith fonda la Tabulating Machines Company pour produire ses systèmes à cartes perforées.

Sa compagnie rencontra un succès de longue durée. En 1924, cinq ans avant la mort de son fondateur, elle devint l'International Business Machines Corporation, ou IBM.

LES PROGRES DU XXEME SIECLE

Pendant la première moitié du siècle, les machines à cartes perforées continuent à se développer sous l'avènement d'une véritable industrie: la mécanographie.

Basées sur le traitement de la carte perforée, des machines comme l'interclasseuse, la trieuse, la tabulatrice, etc ... voient le jour.

(9)

Pour les besoins des calculs scientifiques, la période 1930-1945 voit l'éclosion de machines analogiques basées sur la nouvelle technologie de l'électromécanique où les fonctions mathématiques sont représentées par des signaux électriques.

Ces machines recevaient les instructions à l'aide de cartes, bandes ou films perforés et pouvaient faire des opérations arithmétiques en quelques secondes. Les calculs complexes étaient exécutés dix fois plus vite qu'avec une tabulatrice.

Elles réalisaient les idées de Babbage un siècle après ses efforts.

Les années 30 sont riches en développements et il faut souligner les contributions fondamentales de Claude Shannon et Alan Turing. Dans sa thèse publiée au MIT en 1938, Shannon, reprenant les idées de Leibniz et de Boole, fit le rapprochement entre les nombres binaires, l'algèbre booléenne et les circuits électriques. Dix ans tard, il publiera une théorie mathématique de la communication, qui expose ce que l'on appelle aujourd'hui la théorie de l'information. Shannon prouva que les chiffres binaires conviennent également pour les relations logiques et que tous les calculs logiques et arithmétiques peuvent être réalisés à l'aide des trois opérations logiques de base: "ET", "OU" et "NON". Ses conceptions influencèrent le développement des télécommunications ainsi que celui des ordinateurs.

Vers la fin des années trente, d'autres chercheurs parvinrent à la conclusion que la logique booléenne pouvait être employée efficacement dans la conception des calculateurs. L'adoption du système binaire au lieu du décimal était aussi dans l'esprit de certains pionniers. Konrad Zuse à Berlin, John Atanasoff à l'université de l'Etat de Iowa et George Stibitz aux Laboratoires Bell, travaillant indépendamment, construisirent des prototypes de machines binaires.

Dès 1936 Zuse fabrique avec des moyens très modestes des machines électromécaniques qu'il appelle Z1, Z2, Z3 et Z4 fonctionnant selon le système binaire pour résoudre des problèmes de conception aéronautique et de missiles.

Les programmes étaient introduits au moyen d'un film perforé. Une multiplication durait environ 5 secondes.

Parmi les derniers précurseurs de l'ordinateur il faut citer le Mark1, une énorme machine électromécanique construite entre 1939 et 1944 par IBM et l'Université de Harvard, sous la direction de Howard Aiken. Ce calculateur, capable de multiplier deux nombres de 23 chiffres décimaux en 6 secondes et d'effectuer des additions ou soustractions en trois dixièmes de seconde était conçu sur la base du système décimal. Avec ses milliers de roulements à billes et ses 760 000 pièces électromécaniques, le Mark 1 était une sorte de Machine Analytique du XXe siècle;

en fait, il se révéla obsolète avant même d'être terminé.

LA NAISSANCE DE L'ORDINATEUR

Une nouvelle technologie apparaît "l'électronique" qui va autoriser la réalisation effective de l'ordinateur à l'aide de tubes électroniques et annonce la fin des machines calculatrices électromécaniques dépassées par une technologie mille fois plus rapide.

(10)

C'est en 1945 qu'Eckert et Mauchly terminent à l'université de Pennsylvanie la construction de l'ENIAC (Electronic Numerical Integrator And Calculator), premier calculateur électronique programmable, numérique, basée sur le système décimal, et entièrement électronique. Avec ses 18.000 tubes et ses 30 tonnes, l'ENIAC pouvait multiplier deux nombres de 10 chiffres en 3 millisecondes.

Figure 9 l’ENIAC

L'ENIAC traitait des millions de cartes perforées mais l'inconvénient résidait dans la difficulté de modifier ses programmes. La mémoire interne étant très petite, les programmes étaient

"externes", câblés sur des fiches interchangeables. Pour passer d'un calcul à l'autre, il fallait brancher et débrancher des centaines de câbles. Pour cette raison l'ENIAC n'est pas considéré comme le premier ordinateur.

Avant la fin de 1945, John von Neumann, un mathématicien d'origine hongroise, associé comme consultant au projet ENIAC, franchit le dernier obstacle et proposa la construction de l'EDVAC, machine modèle de l'ordinateur tel qu'on le conçoit à présent. Il accomplit une abstraction du système de commande de la machine en proposant d'enregistrer le programme en mémoire. La machine gagne ainsi en souplesse et en vitesse. Instructions et données sont stockées dans la mémoire même de la machine. Le programme peut décider quels calculs exécuter, quel chemin choisir pour la suite des opérations, sur la base des résultats intermédiaires.

Le déroulement du programme peut être commandé par des décisions logiques, ce qui permet des sauts et des branchements conditionnels dans le programme.

On peut ainsi résumer les caractéristiques de l'ordinateur à "programme interne" ou "programme enregistré" qui allait être désormais appelé l'architecture "Von Neumann" :

(11)

• machine universelle contrôlée par programme ;

• les instructions du programme sont codées sous forme numérique (binaire) et enregistrées en mémoire ;

• le programme peut modifier l'ordre d'exécution de ses instructions qui sont normalement traitées en séquence ;

• des instructions existent permettant les ruptures de séquence.

Von Neumann décrit les cinq composants essentiels de cette architecture :

• l'unité arithmétique et logique (UAL) ;

• l'unité de commande ;

• la mémoire centrale ;

• l'unité d'entrée ;

• l'unité de sortie.

Von Neumann fit remarquer qu'un tel système, pour être vraiment efficace et performant, devait fonctionner électroniquement et selon la numération binaire.

Les principes de Von Neumann inspirent toujours la conception des ordinateurs actuels.

Unité Centrale

Mémoire Centrale

Unité de Traitement

U.A.L

Organe de Commande

U N I T E D' E C H A N G E

U N I T E D ' E C H A N G E

(12)

Figure 10 Schéma du principe de Von Neumann

LA NAISSANCE DE L'INDUSTRIE INFORMATIQUE : LA PREMIERE GENERATION D'ORDINATEUR

De 1945 à 1950 des prototypes sont construits partout aux Etats-Unis comme en Europe. Tous ces ordinateurs de la première génération sont basés sur la technologie des tubes à vide.

Paradoxalement ce ne sera pas von Neumann qui réalisera, le premier, une machine selon ses principes. L'EDVAC prend du retard à cause de querelles (de brevets et de paternité de l'invention) entre les protagonistes de cette grande réalisation.

Ce sera un scientifique britannique, Maurice Wilkes, qui, à Cambridge en 1949, achèvera le premier ordinateur obéissant aux principes énoncés par Von Neumann, l'EDSAC, avec deux ans d'avance sur l'EDVAC. L'EDSAC est donc le premier ordinateur électronique à haute performance, stockant programmes et données dans sa mémoire centrale.

Eckert et Mauchly quittent l'université de Pennsylvanie vers la fin des années quarante et travaillent à la création d'un ordinateur universel à usage commercial, l'UNIVAC (UNIVersal Automatic Computer), une machine électronique à programme enregistré, recevant des données via une bande magnétique à haute vitesse plutôt que par des cartes perforées. L'UNIVAC fut achevé en 1951 et construit en petite série.

Mais le grand problème de la technologie des tubes à vide (ou tubes électroniques) était celui de la fiabilité.

Figure 11 Le Tube électronique - "Lampe à vide"

Les pannes sont fréquentes et les causes difficiles établir. Des équipes de techniciens, spécialisées dans le diagnostic des erreurs et dans la réparation des organes fautifs, devaient être affectées au service de la machine. Il fallait parfois des jours ou des semaines pour déceler des pannes intermittentes et la confiance des utilisateurs étaient souvent mise à rude épreuve.

(13)

De plus ces ordinateurs nécessitaient une écriture des programmes en langage binaire ce qui ne facilitait pas la réalisation de traitements complexes.

LA DEUXIEME GENERATION D'ORDINATEUR

La découverte du transistor, par Bardeen, Brattain et Shockley aux laboratoires Bell, en 1948, donne naissance vers les années 1960 à une nouvelle génération d'ordinateurs.

Vitesse et fiabilité augmentent considérablement et le coût des composants baisse sensiblement.

Les ordinateurs deviennent plus performants et relativement bon marché.

Ils ouvrent la voie à de nouvelles applications notamment dans le domaine de la gestion.

Des nouvelles firmes se lancent sur le marché comme, par exemple, Digital Equipment, Hewlett- Packard, Data General, etc.

C'est le commencement d'une course effrénée vers des systèmes toujours plus performants offerts à des prix toujours plus compétitifs.

Figure 12 Le Transistor

Avec les ordinateurs de la deuxième génération les techniques de stockage de l'information se développent.

Les cartes perforées sont progressivement remplacées par les bandes magnétiques.

Les unités à tambour magnétique permettent un accès direct à l'information.

Le développement des techniques d'impression offre une meilleure qualité et rapidité de restitution de l'information.

(14)

Les technologies du "logiciel" se développent.

Le concept de "système d'exploitation" fait sont apparition. Véritable interface entre l'homme et la machine, il facilite l'utilisation de l'ordinateur tout en autorisant une gestion optimisée de ses ressources.

Alors que les ordinateurs de première génération ne géraient qu'un seul programme en mémoire centrale (mode de fonctionnement en "mono-programmation"), les systèmes d'exploitation permettent un fonctionnement de l'ordinateur en "multi-programmation" où plusieurs programmes peuvent être gérés en mémoire.

La conception des programmes est facilité par l'introduction des langages:

- les langages dits "symboliques" utilisant des instructions mnémotechniques proche de la machine (l'Assembleur, l'Autocodeur, ...),

- puis plus tard, les langages "évolués" plus proches de la syntaxe du langage humain (Cobol, Fortran, PL1, ...).

De nouvelles modalités d'exploitation de l'ordinateur voient le jour comme le télétraitement qui permet son utilisation à distance grâce à l'utilisation des techniques de télécommunication.

Figure 13 Le Circuit Imprimé

(15)

LA TROISIEME GENERATION D'ORDINATEUR

Apres la technologie du transistor apparaît celle des circuits intégrés.

Figure 14 Les circuits intégrés

Dés 1970 on parle d'une troisième génération d'ordinateurs. Les prix tombent encore plus rapidement et les microprocesseurs font leur apparition. Les micro plaquettes, ou puces (chips) contiennent de plus en plus de circuits. On passe en peu d'années de quelques composants à plusieurs milliers de transistors intégrés sur une puce de quelques centimètres carrés.

Cette miniaturisation des composants favorise l'éclosion du micro-ordinateur.

Avec les systèmes de la troisième génération, des unités périphériques de grande capacité font leur apparition.

La carte perforée est confinée à une utilisation marginale.

Progressivement, les unités de disques magnétiques remplacent les tambours magnétiques (dont la technologie est abandonnée) et relèguent la bande magnétique à une utilisation de sauvegarde des données.

Le télétraitement se développe. Les ordinateurs sont connectés entre eux par des réseaux de télécommunication. Les données sont transmises par ligne téléphonique d'un ordinateur à l'autre.

Le concept de base de donnée est développé qui permet une nouvelle gestion des données. Les bases de données s'accompagnent de l'apparition des langages dit de quatrième génération ("L4G") dont l'ambition est de rendre accessible au non informaticien, par un langage humain (d'où le nom également de "langage naturel"), l'utilisation de l'ordinateur.

LA QUATRIEME GENERATION D'ORDINATEUR

Au début des années 80, la technologie des circuits intégrés fait des pas de géant et les organes de l'ordinateur deviennent de plus en plus compacts et fiables.

(16)

Sous l'effet des progrès continus de la miniaturisation des composants électroniques, les capacités de traitements et de stockage des ordinateurs ne cessent de progresser et s'accompagnent d'une réduction de leur coût de fabrication.

Les "puces de silicium" sont fabriquées et intègrent des centaines de milliers de transistors et au début des années 90 leur contenance dépasse largement le million.

Des matériels et des logiciels toujours plus performants apparaissent continuellement, la demande ne cesse d'augmenter. En conséquence les modèles d'ordinateurs se succèdent rapidement.

Ces avancées technologiques couvrent un intervalle énorme de performances allant des mainframes aux ordinateurs personnels.

Avec les systèmes de la quatrième génération, les unités de disques magnétiques voient leurs capacités techniques s'améliorer considérablement (stockage, temps d'accès). De nouveaux périphériques de stockage de grande capacité font leur apparition, notamment les disques optiques, les cassettes et les cartouches magnétiques.

Les techniques d'impression progressent avec l'introduction des imprimantes de haute qualité à jet d'encre et à laser.

La quatrième génération fait le rapprochement entre traitement, stockage et transmission des informations. Les ordinateurs sont de plus en plus connectés à des réseaux de télécommunication;

les données sont transmises à grande vitesse par câble, fibre optique, ligne téléphonique ou satellite, d'un ordinateur à l'autre à travers frontières et continents. Au niveau de l'entreprise on réalise des systèmes informatiques distribués où ces communications jouent un rôle fondamental.

Figure 15 Evolution de l’électronique

(17)

VERS UNE CINQUIEME GENERATION D'ORDINATEUR

Que sera la cinquième génération ?

Les Japonais ont lancé un grand projet visant à introduire des idées provenant des recherches en intelligence artificielle dans les systèmes de demain, mais les résultats n'ont pas été à la hauteur de leurs ambitions.

Le défi a été relevé par les américains et les Européens.

Pour faire face à l'obstacle physique de la vitesse de propagation de la lumière et des signaux électriques des systèmes modérément ou massivement parallèles sont développés qui s'éloignent des principes de von Neumann, ce qui entraîne une véritable révolution dans les techniques de programmation, les algorithmes et les logiciels de base, ainsi qu'un nouveau départ vers des applications adaptées aux nouvelles architectures.

La densité des circuits intégrés et des informations stockées sur support magnétique ou optique augmente. De grands volumes de données sont transmis plus rapidement en développant la technologie des fibres optiques et en réalisant des protocoles efficaces et normalisés.

Les logiciels développés permettent de tirer profit du progrès continu réalisé par les architectures et les technologies.

Les principaux développements, qui poussent les performances et la diffusion des systèmes actuels, concernent d'un coté la technologie des composants matériels, tels les microprocesseurs, les mémoires, les entrées/sorties et les communications, et de l'autre côté les applications techniques, scientifiques, commerciales et industrielles.

L'impact des technologies numériques sur les télécommunications a bouleversé les réseaux téléphoniques, télégraphiques et le Télex. La technologie de la fibre optique est en train de recabler notre planète afin de transporter à grande vitesse et sur la même ligne des données multimédias telles la voix, le son, l'image, le texte, les données et les fichiers des systèmes informatiques.

La tendance est aux moyens d'élaboration et d'interaction personnels (stations de travail) intégrés dans des réseaux locaux d'ordinateur partageant données, programmes et services. Si la capacité de calcul n'est plus nécessairement centralisée, l'organisation, le développement et l'exploitation globale des ressources d'un réseau restent une activité centrale.

Cependant, la diffusion de l'outil informatique a conduit à des structures complexes de réseaux interconnectés et interopérants où les ressources sont gérées et planifiées à différents niveaux de localité et de fonctionnalité.

Une tendance actuelle bien évidente va dans la direction des systèmes ouverts, c'est-à-dire composés éléments normalisés provenants de différents constructeurs. Si la dépendance vis-à-vis de ces constructeurs est moindre, l'utilisateur en découvre de nouvelles vis-à-vis des fournisseurs de produits logiciels.

(18)

Tous ces changements se succédant très rapidement ont pour effet de mettre en difficulté les constructeurs et de rendre le marché instable et volatile.

Bien que bénéficiant de la concurrence et du progrès technologique, l'utilisateur est confronté à un choix très large et divers de produits offerts et à la difficulté qu'il rencontre dans l'intégration et l'évolution des éléments de son système. La durée de vie relativement courte des éléments matériels et logiciel n'est pas toujours conciliable avec les impératifs de continuité, fiabilité et stabilité de tout système informatique.

Références

Documents relatifs

un million dix millions

[r]

Les propriétés de la fonction logarithme décimal se déduisent immédiatement de celles de la fonction ln.. Par exemple, pour tout entier relatif

C’est très vraisemblablement cette immensité qui fut sa faiblesse. Si al-Baydhaq dit vrai en évaluant à environ sept cents le nombre de ses défenseurs lors du siège — cinq

Avec l’aide d’un tableau complète les égalités suivantes... Avec l’aide d’un tableau complète les égalités

 Mémoire de masse (disque, disquette, bande, CD-Rom,…) : mémoires magnétiques ou optiques pour lesquelles le temps d'accès est beaucoup plus long que pour la

Bâti pour sa partie ancienne entre la fin du Xe siècle et le début du XIe siècle, l’ensemble de Varagavan  (fig. 5) , l’un des plus importants du Vasp o urakan, aujourd’hui

De même qu’en français, un mot sert à exprimer et des lettres servent à représenter un mot, en math, des nombres (entiers) servent à compter et des chiffres servent à