La loi de Moore
Il y a une loi à propos de la loi de Moore : le nombre de gens qui prédisent la mort de la loi de Moore double tous les deux ans.
En 1975, Gordon Moore, cofondateur d’Intel (en juillet 1968), estimait que la complexité des circuits intégrés doublerait tous les ans jusqu’en 1980 puis, doublerait tous les deux ans jusqu'à qu’à une date qu’il s’est bien gardé de prédire. C’est ce que nous connaissons sous le nom de « loi de Moore »1.
Évidemment, ça n’a rien d’une loi intangible de l’univers : c’est simplement un des meilleurs experts du domaine qui observe des tendances et qui, fort de sa connaissance du métier, des besoins comme de ce qu’il est possible de faire, les extrapole pour les quelques années à venir. Par ailleurs, il faut très clairement prendre ça comme un ordre de grandeur : un doublement tous les deux ans, c’est un taux de croissance annuel d’environ 41.4% mais du 43.6% (tous les 23 mois) ou du 39.5% (tous les 25 mois) restent globalement conformes à la prédiction de Moore.
Commençons par quelques définitions basiques. Depuis 1971 et la commercialisation du Intel 4004, on peut considérer la notion de circuit intégré en informatique comme un synonyme de microprocesseur (a.k.a. puce, chip). Par complexité, vous devez entendre le nombre de transistors — des petites bestioles électriques qui font des 1 (le courant passe) et des 0 (ça ne passe pas) — qu’on est capables de monter sur un même microprocesseur. Le Intel 4004 de 1971, par exemple, alignait 2'300 (2'250 selon d’autres sources) de ces petites choses sur 12 mm² ; soit une densité de 192 (resp. 188) transistors au millimètre carré. À l’époque, les transistors étaient encore dans le spectre visible.
Ce que prédisait Moore en 1975, donc, c’est que le nombre de transistors gravés sur nos microprocesseurs augmenterait à un rythme de l’ordre de 41% à partir de 1980. Une façon de mesurer ça, c’est de prendre les champions du marché. La superstar de 1980, c’est le Motorola 68000 (pour les moins jeunes d’entre nous, c’est celui des Macintosh 128K, des Amiga et des Atari ST) : il alignait 68'000 transistors (deux fois plus que le Intel 8088 sorti la même année). Pour autant que je sache (Intel ayant cessé de publier ses chiffres), le microprocesseur qui aligne le plus de transistors sur un même processeur en ce moment, c’est le Apple M3 Max : il y en a pour 92 milliards2. Ce qui nous donne donc une croissance annuelle de 38.9%, soit un doublement tous les 2 ans et 41 jours.
Le plus intéressant c’est de comprendre pourquoi, comme le disait Peter Lee (de Microsoft) « Il y a une loi à propos de la loi de Moore : le nombre de gens qui prédisent la mort de la loi de Moore double tous les deux ans. » Schématiquement, la puissance d’un processeur dépend de la fréquence de son horloge et de la quantité de travail qu’il est capable d’effectuer à chaque cycle : plus de données, plus d’instructions, des instructions plus complexes. Or, depuis plus de 50 ans maintenant, traiter plus de données simultanément ou disposer d’un jeu d’instruction plus large et plus complexe, ça implique de multiplier les transistors au sein d’une architecture plus complexe.
Et ça, à l’évidence, ça implique de miniaturiser : pour graver les 92 milliards de transistors du M3 Max (2023) avec la technologie du Intel 4004 (1971), il vous faudrait une puce carrée de 480 mètres de côté. C’est là que l’industrie va considérer deux propriétés étonnantes des transistors :
Plus ils sont petits et proches les uns des autres, plus ils travaillent vite et ce, sans accroissement de la consommation électrique du microprocesseur — ce qui permet, au passage, d’augmenter la vitesse de l’horloge.
Plus les transistors sont petits, plus leur prix unitaire baisse : en miniaturisant, on peut créer des processeurs de plus en plus performants pour un coût global qui croît moins vite que la puissance.
Évidemment, ça demande des investissements considérables mais l’intérêt de la manœuvre est évident : c’est comme ça que la loi de Moore est devenue la feuille de route de toute l’industrie à l’échelle mondiale. C’est-à-dire que cette loi est avant tout une prophétie autoréalisatrice : doubler le nombre de transistors par processeur tous les deux ans est devenu un objectif que tout le monde s’est efforcé d’atteindre. C’est comme ça que nous en sommes arrivés à une précision de gravures de l’ordre du demi-nanomètre sachant que le diamètre d’un atome de silicium, c’est environ un quart de nanomètre.
Sauf que, vers 2005 (à plus ou moins 5 ans près), l’extraordinaire densité atteinte par nos microprocesseurs a commencé à poser des difficultés techniques de plus en plus compliquées (et coûteuses) à surmonter. Déjà, on a des fuites électriques qui font augmenter la consommation des processeurs, menacent de les faire chauffer et même carrément d’empêcher les transistors de communiquer entre eux. Grosso modo, au-delà d’une fréquence d’horloge de l’ordre de 3.4 GHz, ça commence à devenir compliqué et à ça s’ajoutent carrément des phénomènes quantiques (que je suis parfaitement incapable de vous expliquer).
Ensuite, le coût unitaire du transistor a cessé de baisser avec sa taille — laquelle, par ailleurs, n’est plus très loin de la limite de ce qu’il est théoriquement possible de faire (du moins avec du silicium). Évidemment, les fabricants ne cessent de développer des parades (les processeurs multicœurs, une meilleure isolation des canaux des transistors…) mais ça coûte des fortunes en R&D et les progrès sont plus lents.
Le résultat c’est que, vers 2015, il est apparu à tout le monde que la loi de Moore ne pouvait plus être l’alpha et l’oméga de l’industrie : l’inflation des transistors n’est sans doute pas finie mais on cherche désormais des alternatives. Une solution, par exemple, c’est de spécialiser les processeurs : une IA et un gamer ont tous les deux besoins de puissance mais leurs priorités en termes de jeux d’instructions ne sont clairement pas les mêmes.
Par ailleurs, ce que la situation actuelle a de très intéressant c’est qu’elle est typique des environnements dans lesquels les grandes ruptures technologiques voient le jour. On a des besoins de puissance de plus en plus importants et une technologie « traditionnelle » (les transistors binaires en silicium) qui commence à montrer ses limites : l’incitation à la rupture est plus forte que jamais.
Un peu partout dans le monde (sauf, malheureusement, en Europe), les acteurs du secteur (mais aussi quelques nouveaux venus qui aimeraient bien nous refaire le coup d’Intel en 1971) investissent massivement. Si l’un d’entre eux, par exemple, parvenait à faire fonctionner le fameux ordinateur quantique, la loi de Moore deviendrait instantanément caduque : multiplier les transistors sur un processeur n’aurait tout simplement plus aucun sens.
Dix ans plus tôt, Moore avait déjà prédit qu’on observerait un doublement annuel de 1965 à 1975 — l’expérience lui a donné raison mais la « loi de Moore », c’est ×2 tous les 2 ans.
Le Apple M2 Ultra en compte 134 milliards mais ce sont en réalité deux M2 Max connectées l’une à l’autre.



La loi de Moore est probablement une clé pour comprendre le progrès et ses obstacles.
Je n'ai pas de réponse, mais j'ai des connexions à proposer.
Tout d'abord la loi de moore ressemble furieusement à la courbe d'expérience du Boston Consulting Group (Wright law) que cite XJ Fontanet dans BFM Stratégie... Cette loi empirique propose que le cout d'un produit est réduit de 20-30% (selon l'industrie) par doublement de la production totale passée...
Des économistes ont observé qu'elle ne s'applique pas parfois, notamment dans la construction.
Un facteur que j'ai vu passer est l'avantage de produire dans une unité d'espace et d'humanité, l'usine.
Mais il y a aussi la guerre permanente contre le voisinage, qui bloque et complexifie les projets de construction. Avec le nucléaire on voi tout cela, le problème de la perte d'expérience entre chantiers, mais une expérience visible malgré tout, mais cette expérience est consommée par des durcissement de réglementation entre paliers réglementaires. Le Plan Messmer a permis d'observer la prise d'expérience mais aussi finalement la vistoire de la suringénierie avec comme sacre, l'EPR, dont la fabrication par paire a pourtant montré que l'expérience existait, tant qu'on ne changeait pas les normes et les acteurs à chaque fois.
Un autre angle d'analyse de la loi de Moore est de trouver des lois similaires, avec les disques dures, les DRAM, les réseaux de communication. Et là j'ai appris que malgré tous ces gains, les choses pouvaient ne pas être aussi simple à accélérer. Ainsi la réduction de taille des transistors, mais aussi des connexions, faisait que la vitesse de transmission ne montait pas aussi vite que celle de calcul, et posait de terrifiants problèmes d'architecture, qui suivent une loi d'anti-Moore infernale. La solution pour cet exemple est la multiplication des étages de cache, et d'efficacité des prédicteurs.
Tout cela mériterait des analyses sérieuses, et pas juste mes vieux souvenirs.
Pourquoi la construction ne semble pas prendre d'expérience aussi vite, et comment corriger ce problème ? La préfabrication, la construction modulaire, la synthèse additive, des évolutions juridiques , peuvent-elles aider ?
désolé, je n'ai aucune réponse, juste des questions.