• Aucun résultat trouvé

L'article de Moore en 1965

Dans le document Documents Michel Volle. 5 décembre 2020 (Page 69-73)

En 1965, Gordon E. Moore était directeur de la recherche et du développement à Fairchild Semiconductor (il est main-tenant président d'Intel).

Préparant un graphique pour un exposé sur l'évolution des performances des mémoires, il constata une tendance frappante : la capacité des puces avait doublé à peu près chaque année de 1959 à 1965. Il en déduisit une hypothèse : la puissance des ordinateurs croîtrait de façon exponentielle (et très rapide). Elle était hardie, puisqu'il ne disposait pour l'étayer que de cinq observations.

Moore publia cette découverte dans un article20 devenu célèbre. Cet article a encouragé les chercheurs à anticiper la croissance des performances et à concevoir des systèmes utilisant une puissance supérieure à celle disponible lors de leurs recherches. Il a ainsi suscité une forte accélération de l'innovation.

Voici la phrase essentielle de cet article21. :

20. Gordon E. Moore, Cramming more components into integrated circuits, Electronics, 19 avril 1965.

21. The complexity for minimum components costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase. Over the long term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10

La complexité permettant de minimiser le coût des composants a été multipliée chaque année à peu près par un facteur deux. On peut prévoir qu'à court terme ce taux de croissance se maintiendra, ou même que la croissance sera plus rapide encore. À long terme, le taux de croissance est un peu plus incertain, mais il n'y a aucune raison de croire qu'il ne se maintiendra pas pendant au moins dix ans. Cela signi-e qu'signi-en 1975 lsigni-e nombrsigni-e dsigni-e composants par circuit intégré permettant de minimiser le coût sera de 65 000.

Le raisonnement de Moore est subtil. Il examine l'évolu-tion de la foncl'évolu-tion de coût des circuits intégrés et considère la relation entre coût moyen de production par composant et complexité du circuit. Cette fonction est d'abord décrois-sante, puis croissante : il existe donc un niveau de complexité pour lequel le coût moyen d'un composant intégré sur le cir-cuit est minimal. C'est ce niveau que des producteurs ration-nels choisiront, car c'est celui qui permet le meilleur rapport ecacité/coût. Ensuite, Moore constate que ce niveau opti-mal de complexité est multiplié chaque année par deux.

Il ne dit pas que le prix de vente des circuits intégrés restera stable dans le temps. Il ne traite pas ce problème, qui est diérent puisque s'agissant d'une production à coût xe le prix auquel on peut vendre un composant résulte de la division du coût xe par le nombre de composants vendus, qui n'est pas un argument de la fonction de coût.

En 1975, Moore réévalua le rythme de croissance : dé-sormais, disait-il, elle procéderait par doublement tous les 18 mois et non tous les ans ; néanmoins elle restait exponen-tielle. Elle se transcrit, en notantctle nombre de composants sur une puce l'année t :

years. That means by 1975, the number of components per integrated

ct=c19752(t−1975)/1,5

L'accroissement de la densité des composants permet d'aug-menter les performances parce que la vitesse de traitement s'accroît lorsque la distance entre transistors se réduit, et aussi parce que cela permet d'introduire davantage de fonc-tionnalités sur la puce : on peut y introduire des fonctions au-paravant remplies par d'autres équipements comme la carte graphique, le modem ou le contrôle de la mémoire.

Illustration de la loi de Moore (source : Intel)

En 1995, Moore véria que la progression prévue avait bien été respectée. Cependant, lors du forum des dévelop-peurs d'Intel en septembre 1997, il a déclaré que l'accroisse-ment de la densité des microprocesseur pourrait atteindre en 2017 une limite physique : celle de la taille des atomes (voir sa déclaration).

On peut assimiler cette croissance des performances à un phénomène naturel : il s'agit de mettre en exploitation,

de façon progressive, les possibilités que recèle le silicium.

Lorsqu'elle s'arrêtera en 2017, nous devrions disposer de pro-cesseurs et de mémoires 216/1,5 = 1 500 fois plus puissants qu'aujourd'hui. L'informatique et les systèmes d'information seront donc qualitativement diérents.

Aurons-nous répondu aux questions que pose la bonne utilisation de ces ressources ? Sans doute que non car comme elles relèvent de l'organisation elles concernent tout le monde et ne peuvent se régler aussi vite que les questions techniques que traitent des ingénieurs pointus .

L'utilisation de la ressource naturelle apportée par le silicium, matière peu coûteuse, nous occupera pendant le xxie siècle et sans doute encore après. Observons que les pierres taillées de nos lointains ancêtres étaient, elles aussi, en silicium (le silex ; cf.Bertrand Gille). Les propriétés élec-troniques exceptionnelles du silicium permettaient de tailler des pierres aux arêtes nes et précises ; elles permettent au-jourd'hui de produire les circuits intégrés.

Dans la diversité des minéraux, végétaux et espèces ani-males, d'autres ressources attendent notre attention. Elles révéleront leurs potentialités à ceux qui ont l'esprit assez disponible pour regarder la nature avec curiosité et respect.

Lisez le Zhong Yong (p. 73) !

Dans le document Documents Michel Volle. 5 décembre 2020 (Page 69-73)