Article rédigé en coopération avec mon “complice” : Fred Cavazza (lien vers son article).
Le marché informatique tout entier est actuellement dans une situation “particulière”… En effet, les modes techniques actuelles n’ont pas permis pas de relancer la croissance pour diverses raisons : le Metaverse ou les ordinateurs quantiques sont trop distants dans le temps (cela commencera à être vraiment des réalités concrètes dans dix/quinze ans… bien trop loin pour réellement influer sur la situation présente !) et le Web3 voit son aura se dégonfler au fur et mesure que l’on constate que ses promesses ne sont pas tenues (aucune !).
La dernière version de la courbe d’adoption technologique du Gartner reflète ainsi parfaitement la situation : une saturation de technologies émergentes et une absence de technologies matures.
Habituellement, je ne suis pas un grand fan du Gartner (qui se contente d’indiquer d’où vient le vent mais ne nous dit rien sur sa nature ni sur sa force…) mais là, je trouve très significatif que le célèbre cabinet soit en manque d’inspiration pour ce qui va arriver, lui si prompt à donner écho à n’importe quelle mode technique (n’importe quoi du moment que ça mousse !). Il semble donc que l’avenir s’ouvre sur un grand vide, ce qui est tout à fait inédit dans notre secteur.
La raison principale de cette retombée de soufflé, c’est que la croissance (technique et économique, la seconde dépendant de la première) est en panne. Voyons ensemble pourquoi la croissance est en berne et que pourrait-être la “next big thing” qui relancerait enfin la machine (si elle existe à court terme !) ?
Une phase dite de plateau
Le marché est donc actuellement dans une phase de “plateau” et cela ne peut s’éterniser sans dégénérer en une crise majeure. Car cela fait cinquante ans que le marché informatique s’est habitué à une croissance de 10 à 15% par an et c’est le genre d’habitude qu’on ne quitte pas volontiers !
Un tabouret à 3 pieds !
La formidable étendue de cette croissance spectaculaire reposait sur 3 pieds comme un modeste tabouret en bois (comparable à celui qu’utilisait votre voisin fermier pour traire ses vaches…) !
Ces 3 pieds (ou piliers) étaient les suivants : progrès techniques (s’exprimant principalement par la fameuse “loi de Moore”, nous y reviendrons), volumes (les volumes de ventes, rien en dessous du million n’est pris en compte ici !) et croissance (chaque année est mieux que la précédente et on va ainsi de record en record).
Voilà ce qui symbolise le mieux le marché informatique moderne : un tabouret à trois pieds !
Des volumes impressionnants
“Volume is everything” disait Scott McNealy (un des 4 fondateurs de Sun Microsystem). C’est par les volumes que Sun a battu ses concurrents sur le marché des stations de travail mais ce sont les volumes de ventes des PC (haut de gamme, capable de concurrencer une station de travail sur le plan technique mais pour bien moins cher) qui, finalement, eurent raison de la santé florissante de Sun à la fin des années 90.
Dès 1981, les ventes du BBC Micro (fabriqué par Acorn) dépassent le million d’unités. Apparu un an plus tard, le Commodore 64 va lui inonder le marché avec 17 millions d’unités (au total et au niveau mondial). En 2001, 125 millions d’ordinateurs personnels ont été vendus en comparaison des 48 000 en 1977. Plus de 500 millions d’ordinateurs étaient utilisés en 2002 et plus d’un milliard d’ordinateurs personnels ont été vendus dans le monde depuis le milieu des années 1970 (depuis, ces chiffres ont encore progressé, évidemment). Ce sont là des chiffres impressionnants mais ce n’est rien à côté de ce qu’on a eu avec la seconde vague, celles des smartphones…
En effet, dès 2011, les ventes annuelles de téléphones mobiles atteignent 1,6 milliard d’unités !
Voilà de quoi on parle quand on évoque la notion de volumes dans le marché informatique… En conséquence, avec des locomotives pareilles, le marché informatique dans son ensemble est devenu un super géant qui pèse de tout son poids (considérable désormais) sur l’économie mondiale. En 2017, le marché mondial global des technologies et services mobiles représentait 4,5 % du PIB mondial soit 3 600 milliard de dollars.
Bien entendu, il y a des variations selon les années : certaines sont meilleures que d’autres mais, d’une façon générale, la croissance dont a bénéficié le marché informatique pendant toutes ces décennies ferait envie à n’importe quel secteur industriel (même et y compris pendants les années de “recul”…) !
Exemple : après son recul de 1,1% en 2020, le marché mondial des services IT a retrouvé son dynamisme. IDC estime qu’il a dépassé 1,1 billion de dollars en 2021, en hausse de 3,4% à taux de change constant. Le cabinet d’étude se montre optimiste sur les perspectives. Il prévoit que le marché continuera de se développer en 2023 et 2024 avec une croissance annuelle comprise entre 3,8% et 4,0%.
Les progrès de l’électronique, locomotive cachée de tout le reste !
En vérité, cette croissance continue et formidable (deux caractéristiques importantes) venait surtout des progrès de l’électronique qui ont toujours été le moteur principal de cette dynamique. En effet, la régularité “miraculeuse” des progrès techniques garantissait que l’année suivante allait permettre de faire et de commercialiser des produits encore jamais vu jusque-là. Il faut se remémorer que la loi de Moore exprime les progrès en densification des circuits électroniques de base (et pas autre chose…). Cela se traduisait par des circuits plus petits, prenant moins de place et consommant moins d’énergie années après années. Même sans gain de performance associé, cette miniaturisation était déjà source de progrès fabuleux. Mais il s’est avéré que réduire la taille avait des conséquences à tous les étages : moins de distance entre les composants, ça veut dire des trajets plus courts pour les électrons et donc des échanges plus rapides. La course à la réduction des dimensions s’est ainsi poursuivie pendant des décennies principalement parce qu’elle induisait des bénéfices en cascades.
Des réalisations de plus en plus époustouflantes ont été atteintes et dépassées, l’écart entre les pistes se chiffrait en dizaines de nanomètres (ce qui était déjà fou rien que d’y penser !) et cela ne s’est pas arrêté là : on a fini par franchir le seuil de 10 nm et de descendre encore. A ce niveau, l’écart entre les pistes à fondre est tellement étroit qu’il faut avoir recours à des techniques de gravure qui dépassent la lumière ordinaire (photolithographie) : les machines permettant de dessiner les pistes des circuits ont fini par s’appuyer sur des faisceaux d’électron pour outrepasser les limites d’épaisseurs de la lumière blanche.
Mais là, quand même, la barrière s’est révélée de plus en plus ardue à dépasser et les avancées techniques de plus en plus difficiles à atteindre. Dans la zone des moins de dix nm, les progrès se sont sérieusement ralentis. Même Intel qui menait la charge jusque-là a commencé à caler. TSMC a réussi à faire un peu mieux mais sans pour autant pouvoir reprendre le rythme précédent : de ralentissement en ralentissement, la fameuse “loi de Moore” a fini par connaître un sérieux coup d’arrêt dernièrement.
Un graphique qui illustre le ralentissement de la tendance décrite par la loi de Moore. © John Hennessy / David Patterson
Un plateau dans plusieurs domaines : CPU, GPU, mémoire, écrans, telco… La consommation électrique est ici le facteur limitant : il va falloir apprendre à faire mieux avec moins (optimiser les performances tout en réduisant la conso). D’où la « mode » des SoC personnalisés par Apple (A et M), Google (dans les Pixel) ou Microsoft (dans ses Surface). Même Google s’y met à son tour pour YouTube.
Le fait de dire “la loi de Moore ne se vérifie plus” se heurte toujours à un scepticisme forcené tellement les gens se sont habitués à sa permanence. Il faut dire que la fin de la loi de Moore a été annoncée de nombreuses fois et toujours contredite… à force, on a fini par croire qu’elle était immuable !
Même les témoignages des plus grands experts tombent à plat face à ceux qui ne veulent pas entendre que oui, cette fois, il est justifié de remettre en cause la loi de Moore. Et pourtant, des témoignages convaincants, on en a des tas : début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s’agissait plus d’un déclin progressif que d’une mort subite.
De plus, il faut souligner que le respect de la loi de Moore était de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971.
Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock qui stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.
Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût moyen d’une usine augmente d’au moins 13 % par an et atteint désormais 16 milliards de dollars. Ici, on touche du doigt les effets de la loi des retours décroissants.
Quelles vont être les conséquences de la fin de la loi de Moore ?
Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore.
L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)
Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).
Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.
Le plateau s’exprime partout
Le phénomène de plateau ne se résume pas à un coup d’arrêt “théorique” de la loi de Moore (mais rien que cela est déjà un tremblement de terre de grande ampleur !) : cela se fait déjà sentir au niveau des smartphones qui ne jouent plus leur rôle de locomotive du marché. Ils présentent des progrès techniques moindres, des différences fonctionnelles qui s’amenuisent (le Nothing Phone 1 était censé révolutionner le marché des smartphones, mais au final ressemble terriblement aux autres smartphones) et cet « atterrissage » se traduit par des ventes encore solides (marché de renouvellement) mais qui ne croissent plus. De l’autre côté du spectre, les modes techniques récentes ont fait long feu : le web3 est, au mieux, une bouffée d’optimisme délirante ou, au pire, un empilement de mensonges grossiers pour vendre plus de crypto. Le metaverse est une tendance bien plus sérieuse (que le web3) mais elle est distante : s’il faudra attendre dix ans pour avoir un début de concrétisation (les progrès en AR, VR et MR sont réels, mais lents), le marché ne va pas patienter autant, il veut une rupture pour l’année prochaine.
Le mode plateau est déjà une réalité
On peut se rendre compte que nous sommes en mode plateau depuis déjà quelques années grâce à des indices variés mais convergents. Un exemple : la crise du logiciel qui touche les secteurs industriels traditionnels.
Le logiciel est au cœur de cette crise parce que sa généralisation (y compris et surtout auprès de nouveaux acteurs qui ne sont pas habitués, culturellement, à le manipuler…) démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !
Voici un court florilège d’articles attestant de cette nouvelle situation :
- https://www.lenetexpert.fr/les-voitures-promises-aussi-a-des-bugs-logiciels-et-des-mises-a-jour-le-net-expert-informatique/
- https://www.automobile-propre.com/embourbee-dans-les-problemes-logiciels-la-volkswagen-id-3-pourrait-decaler-sa-sortie/
- https://www.numerama.com/tech/604412-boeing-737-max-un-nouveau-probleme-logiciel-a-ete-repere-dans-lavion.html
Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…) mais que ce soit désormais le cas de “nouveaux acteurs” est tout à fait significatif.
Le mode plateau traduit simplement un bout de cycle : les techniques sur lesquelles nous nous appuyons sont matures (y compris dans l’expression de leurs défauts avec leurs conséquences comme on le voit dans la “crise du logiciel” évoquée) et ne permettent plus de faire un “grand bond en avant”. Nous sommes d’accord, le mode plateau s’est installé et produit ses effets. La question du moment (pour sortir de cette situation) est donc : quelle sera la prochaine rupture technologique (rupture majeure comme le smartphone, ou rupture mineure comme les wearables) qui permettra de “relancer la machine” ?
Les candidats pressentis sont à côté de la plaque !
Les candidats ne manquent pas au titre envié de “next big thing” mais ils ont tous du mal à correspondre aux critères. En particulier au critère “big”… Les précédents succès de l’informatique se sont traduits par des raz-de-marée de volumes, d’argent et de nouveaux utilisateurs : PC, smartphone, cloud…
Si on considère la réalité augmentée, la réalité virtuelle, les jumeaux numériques ou même les ordinateurs quantiques (qui eux, tout comme le métaverse, ne sont pas encore pour demain…), on peut être enthousiaste sur leur potentiel respectif mais il est difficile de croire qu’il s’agit là effectivement de “marchés de masse” (comme lorsqu’on annonçait l’avènement de l’IoT il y a 5 ans) !
Or, c’est justement ce dont a besoin le marché informatique dans son ensemble : une nouvelle planche de salut qui apporterait volumes, argent et utilisateurs (sans oublier les nouveaux usages), pas de quelques niches, certes hi-tech et excitante si vous êtes intéressé, mais qui ne va concerner qu’une part réduite du marché mondial.
Une crise profonde (et durable ?)
Preuve s’il en était besoin que la crise est profonde, les politiques s’invitent dans le débat et interviennent comme ils ont l’habitude de le faire : via des subventions. Les états-unis, en premier lieu, sont particulièrement inquiets du déclin relatif d’Intel et de la montée en puissance de TSMC. D’où cette initiative du “Chips Act” pour relocaliser la fabrication des puces sur le sol américain. Ceci dit, ce n’est pas une subvention, aussi énorme soit-elle, qui va sauver la situation et relancer la machine : les entreprises américaines ont rangé bien vite les coupes de champagne après la très attendue ratification du Chips and Science Act, un coup de pouce de 52 milliards de dollars à la production de semi-conducteurs aux États-Unis.
Micron, champion des puces mémoires, avait proclamé investir 40 milliards de dollars dans le pays d’ici 2030 le jour de la signature, le 10 août. Le lendemain, la société a admis qu’elle réduirait ses investissements significativement en 2023 à cause de la récession qui guette. Le jour de l’adoption du texte par le Congrès, c’est Intel qui a déclaré réduire de 4 milliards de dollars ses investissements en 2022.
Le retour au monde d’avant : une chimère ?
Peut-être que ce retour à la croissance éternelle n’est qu’une chimère. Peut-être que l’équipement et les usages numériques sont arrivés à maturité. Dans ce cas, la véritable rupture se situe plus au niveau de la dynamique du marché : renouvellement et non plus conquête. Ceci implique une approche radicalement différente, car pour gagner 1% de part de marché (ou 1M € de CA), il va falloir le prendre à quelqu’un d’autre.
Les autres secteurs économiques sont habitués à cette situation, l’informatique, moins. Le changement de situation qui s’annonce va être vécu par beaucoup comme un véritable séisme !
Bien sûr, beaucoup vont se dire “pourquoi croire des oiseaux de mauvaise augure qui annoncent des lendemains qui déchantent (c’est à la mode, même le président s’y met !) ?”. C’est naturel, après avoir vécu une période dorée qui semblait devoir durer toujours, on ne croit pas facilement que ça va s’arrêter tout simplement parce qu’on ne veut pas que ça s’arrête !
Depuis deux ans, j’écris sur ce sujet et j’avertis sur le mode plateau et, tout ce que j’ai récolté, ce sont quelques moqueries à propos de la fin de la loi de Moore… Aujourd’hui, c’est plus difficile à nier et le reste en découle.
Pour en savoir plus sur les conséquences de cette nouvelle ère, je vous invite à lire l’article de Fred Cavazza : La « Next Big Thing » se heurte à l’impératif d’un numérique plus responsable.
Une nouvelle ère
Il y a et il y aura de nombreuses « next things » (VR, wearables, etc.), mais pas de « next big thing » avant au moins quelques années. Changer d’époque est toujours quelque chose de spécial mais là, c’est clair que ça va se sentir !
Dans les années soixante-dix, quand il y a eu le premier choc pétrolier qui a sonné la fin des “trente glorieuses”, il était alors difficile d’anticiper l’ampleur des changements qui s’annonçaient et que nous vivons encore actuellement. Eh bien, c’est notre tour, le marché de l’informatique est en train de vivre la fin de sa période “quarante glorieuses” (on en a profité plutôt quarante ans que trente, d’où la modification de l’appellation…). L’arrêt de la loi de Moore est plus ou moins l’équivalent du premier choc pétrolier et il va avoir au moins autant de conséquences. Nous devons donc raisonner et agir autrement dorénavant.
La croissance régulière et les progrès techniques automatiques, tout cela, c’est en partie terminé. Acceptons-le et agissons en fonction en allant vers une informatique plus raisonnée.