L’arnaque de l’IA générative, encore un (excellent) article de Ed Zitron

Je vais de nouveau reproduire un article de Ed Zitron sur ce blog car il me semble qu’il résume parfaitement la situation : nous sommes face à un escroquerie de proportion inédite. Pour tout dire, c’est encore pire que pendant la vague crypto (que, pourtant, je vomissais déjà activement !). Reproduction partielle car les articles de Zitron sont souvent très longs et je n’ai gardé que les extraits les plus significatifs, selon moi. Et j’ai aussi appliqué une traduction (approximative) en français sur ces extraits afin de les rendre plus accessibles. Si vous voulez la version originale, il suffit de suivre ce lien => https://www.wheresyoured.at/longcon/

Une situation anormale ne peut perdurer que par des moyens extrêmes

Ce que nous vivons actuellement avec cette nouvelle mode débile de la tech est totalement anormale et ne se maintient que grâce à des moyens extraordinaires. Si vous permettez un parallèle, c’est un peu comme la guerre en Ukraine. Cette guerre n’a pu durer que parce que les USA ont appuyé les Ukrainiens (prêts à se battre jusqu’au dernier Ukrainien même !) avec le soutien larvaire d’une partie de l’Europe (contre ses propres intérêts mais c’est une autre histoire). Quand les USA décident de se retirer du jeu, la situation s’effondre comme on est en train de le vivre en ce moment…

Comme le souligne fort justement Ed Zitron ci-dessous, la « ferveur » en faveur de l’IA ne se maintient que parce que TOUS les médias en parlent favorablement. Or, cette couverture n’est ni objective ni désintéressée. Comme toujours, nous finirons par sortir de cette sidération absurde et, alors, nous dirons « tout ça pour ça ? » (tout comme nous l’avons déjà dit pour la vague crypto) comme nous nous apprêtons à le faire en ce qui concerne l’Ukraine…

Ed Zitron et moi ne sommes pas les seuls à vouloir combattre cette absurdité et je m’en fais l’écho sur ce blog comme ici => http://www.alain-lefebvre.com/je-vais-te-tuer-si-tu-parles-encore-dia-une-contribution-percutante-mais-juste/

Bon, mon préambule s’arrête là. Dans les extraits de l’article de Zitron, j’ajouterais ça et là quelques commentaires que je vais mettre en rouge et entre parenthèses afin de les distinguer…

==== début des extrait de l’article de Ed Zitron ====

Cela fait un peu plus de deux ans et deux mois que ChatGPT a été lancé, et pendant ce temps, nous avons vu les grands modèles de langage (LLM) passer d’un concept nouveau à l’une des escroqueries les plus lâches du 21e siècle – une bulle cynique gonflée par le PDG d’OpenAI, Sam Altman, construite pour se vendre dans une économie dirigée par des gens qui n’ont aucune notion du travail autre que leur désespoir de l’exploiter ou de le remplacer. (Zitron a des formulation bizarres souvent et la traduction n’aide pas non plus à les rendre plus claires !)

Je me rends compte que les modèles de langage volumineux comme GPT-4o — le modèle qui alimente ChatGPT et un tas d’autres applications — ont des cas d’utilisation , et j’en ai vraiment marre de devoir écrire cette phrase. Il y a des gens qui aiment vraiment utiliser les modèles de langage volumineux pour coder ( même si le code n’est pas bon ou rend les systèmes moins sûrs et stables ) ou tirer quelque chose de la recherche basée sur la génération augmentée de récupération (RAG), ou qui aiment utiliser l’un des divers compagnons d’IA ou applications de journal. 

Je comprends. Je comprends qu’il y ait des gens qui utilisent des logiciels basés sur le LLM, et je dois être clair : les exemples anecdotiques de certaines personnes utilisant des logiciels qu’elles apprécient ne prouvent pas que l’IA générative est une industrie durable ou réelle à l’échelle d’un billion de dollars comme beaucoup le prétendent.

Lorsque des centaines de journalistes différents racontent constamment des histoires sur l’importance de quelque chose, et que cette chose est disponible gratuitement sur un site Web , elle va attirer un tas de gens. C’est principalement le fait des médias !

Ce n’est pas encore le début de la crise. Le document Attention Is All You Need qui a lancé tout le mouvement d’architecture basé sur les transformateurs a été publié en juin 2017. Cela fait plus de deux ans, les hyperscalers (hyperscalers est un terme utilisé par Zitron et d’autres pour désigner les géants du cloud comme Amazon, Microsoft et Google) ont investi plus de 200 milliards de dollars en dépenses d’investissement dans l’IA générative , les startups d’IA ont absorbé un tiers de tous les investissements en capital-risque en 2024 , et presque tous les experts talentueux en intelligence artificielle se concentrent sur les modèles de langage volumineux. Et même dans ce cas, nous n’avons toujours pas d’application phare ! Il n’y a pas de produit que tout le monde aime , et il n’y a pas de moment iPhone !

Eh bien Ed, je pense que ChatGPT est le moment iPhone pour l’IA générative, c’est le plus grand lancement de logiciel de tous les temps-

  1. N’avons-nous pas déjà évoqué ce sujet ? Très bien. Soyons précis. L’iPhone a fondamentalement redéfini ce que pouvaient être un téléphone portable et un ordinateur portable, tout comme l’iPad, créant presque immédiatement de nouveaux cas d’utilisation pour les particuliers et les entreprises. Le cloud computing nous a permis d’exécuter des applications distinctes dans le cloud, ce qui a totalement redéfini la manière dont les logiciels étaient développés et déployés, créant à la fois de nouveaux cas d’utilisation pour les logiciels (les besoins en calcul étant passés du client au fournisseur) et une toute nouvelle industrie du cloud computing qui génère des centaines de milliards de dollars par an .
  2. Alors, qu’est-ce que l’IA générative a réellement apporté ? Où sont les produits ? Non, vraiment, où sont-ils ? Quel est le produit que vous utilisez tous les jours, ou toutes les semaines, qui utilise l’IA générative et qui change vraiment votre vie ? Si l’IA générative disparaissait demain (en supposant que vous ne soyez pas quelqu’un qui construit activement en l’utilisant), votre vie changerait-elle matériellement ?
  3. La réponse est « pas tant que ça ». En laissant de côté le battage médiatique, les fanfaronnades et les sommes d’argent exorbitantes, je ne trouve aucune preuve que l’une de ces applications rapporte réellement de l’argent à qui que ce soit.

Aucune de ces entreprises (OpenAI, Anthropic et les autres) n’est rentable, et malgré les affirmations répétées selon lesquelles « le coût de l’inférence est en baisse » (ce qui se produit lorsque vous demandez au modèle de faire quelque chose), cela ne semble pas les aider. Dans les semaines qui ont suivi la sortie des modèles ultra-efficaces DeepSeek, je m’attendais à ce qu’ils commencent à parler d’efficacité. Ils n’ont jamais abordé le sujet, à part OpenAI, qui a déclaré que DeepSeek lui permettrait de conserver une avance moindre . Excellent travail !

Bien que l’on puisse dire que « les coûts vont baisser », et c’est apparemment ce que prétend The Information, suggérant qu’Anthropic a déclaré qu’il réduirait son taux de consommation de « près de moitié » en 2025, les détails réels sont rares et il n’y a aucune preuve de la faisabilité d’une telle mesure sans changer radicalement ses modèles. Hein ? Comment ? La consommation d’Anthropic a augmenté chaque année ! Tout comme celle d’OpenAI !

Dario Amodei (ce Dario est le boss d’Anthropic, un clone -hélas- de Sam Altman)— tout comme Sam Altman — est un menteur, un escroc, un bonimenteur et un charlatan, et les choses qu’il promet sont à la fois ridicules et offensantes. The Information (qui doit faire un meilleur travail pour critiquer ces gens) a justifié les objectifs de revenus obscènes et fantaisistes d’Amodei et d’Anthropic en citant le blog d’Amodei , qui n’explique à aucun moment ce que signifie réellement un « pays de génies dans un centre de données », ni ce que pourrait être le produit, ni ce qu’il compte faire pour augmenter ses revenus de plus de trente milliards de dollars par an d’ici 2027.

Ce que font réellement ces idiots

Si l’on met de côté le battage médiatique et les anecdotes, l’IA générative stagne au même endroit, même selon mes estimations les plus favorables, depuis plusieurs mois, alors que cela fait en réalité des années. La seule « grande chose » qu’ils ont pu faire est d’utiliser le « raisonnement » pour faire « penser » les grands modèles de langage (ils n’ont pas de conscience, ils ne « pensent » pas, cela signifie simplement utiliser plus de jetons pour répondre à une question particulière et faire vérifier le travail par plusieurs modèles), ce qui leur permet généralement d’être un peu plus précis lors de la génération d’une réponse, mais au détriment de la vitesse et du coût.

Je suis désolé, je sais que j’ai l’air d’un hater, et c’est peut-être le cas, mais cette merde ne m’impressionne pas du tout. Wow, vous avez créé un projet de recherche superficiellement impressionnant qui est vraiment long et qui cite un tas de conneries trouvées en ligne qu’il n’a pas fait beaucoup d’efforts pour vérifier ? Et ce rapport a pris du temps à générer, ne peut être produit que si vous payez OpenAI 200 $ par mois, et cela a coûté beaucoup d’argent en calcul pour le faire ?

Deep Research a le même problème que tout autre produit d’IA générative. Ces modèles ne savent rien, et donc tout ce qu’ils font — même « lire » et « parcourir » le Web — est limité par leurs données d’entraînement et leurs modèles probabilistes qui peuvent dire « ceci est un article sur un sujet » et en poser la pertinence , mais sans vraiment comprendre son contenu. Deep Research, citant à plusieurs reprises l’appât du référencement comme source principale, prouve que ces modèles, même lorsqu’ils travaillent aussi dur que possible, sont extrêmement médiocres, profondément peu fiables et finalement inutiles.

(c’est pas évident à lire et à comprendre mais ce qu’affirme ici Zitron est que l’IA générative stagne en dépit du battage médiatique qui proclame le contraire…)

Permettez-moi de le dire en termes très directs : nous sommes depuis plus de deux ans dans le boom de l’IA générative et les produits les plus importants et les plus sexy d’OpenAI sont Deep Research – un produit qui ose demander « et si vous pouviez dépenser beaucoup de calcul pour obtenir un article de recherche mal cité », et Operator, une application gourmande en calcul qui accomplit rarement une tâche en quelques minutes qui vous aurait autrement pris quelques secondes .

Par ailleurs, SoftBank, l’éternel perdant d’argent qui a soutenu WeWork et WireCard et a perdu plus de 30 milliards de dollars au cours des dernières années , tente d’investir jusqu’à 25 milliards de dollars dans OpenAI .

(WeWork et WireCard comptent parmi les plus grands échecs et les plus grands scandales de la tech de ces dernières années, surtout Wirecard !) 

J’ai l’impression de devenir fou

Partout où vous regardez, les médias vous disent qu’OpenAI et leurs semblables sont l’avenir, qu’ils construisent une « intelligence artificielle avancée » capable d’entreprendre des « actions de type humain », mais lorsque vous regardez toute cette merde pendant plus de deux secondes, il est parfaitement clair que ce n’est absolument pas le cas et que ce n’est absolument pas possible.

Malgré le battage médiatique, le marketing, les dizaines de milliers d’articles dans les médias, les milliers de milliards de dollars de capitalisation boursière, rien de tout cela ne semble réel, ou du moins suffisamment réel pour entretenir cette misérable et spécieuse bulle. Des gens comme Marc Benioff qui prétendent que « les PDG d’aujourd’hui sont les derniers à gérer des effectifs entièrement humains » le font pour gonfler leurs actions plutôt que pour construire quelque chose qui se rapproche d’un vrai produit. Ces hommes mentent constamment pour entretenir le battage médiatique, sans jamais vraiment parler des produits qu’ils vendront en 2025 , car ils devraient alors dire « et si un chatbot, un truc que vous avez déjà, était plus cher ? »

L’industrie technologique — et une partie de notre économie — s’enfonce à toute vitesse dans un mur de briques, sous l’impulsion de gens comme Sam Altman, Dario Amodei, Marc Benioff et Larry Ellison, tous des hommes qui sont incités à vous faire évaluer leurs entreprises en fonction d’ autre chose que de ce que leurs entreprises vendent réellement.

Nous sommes au milieu d’une illusion collective — une conséquence d’une économie dirigée par des gens qui ne participent à aucun travail, en dehors de l’envoi et de la réception de courriers électroniques et de déjeuners qui durent plusieurs heures — où les gens qui ont de l’argent ne comprennent pas ou ne se soucient pas des êtres humains.

Leur récit est construit sur un mélange d’hystérie, de battage médiatique et d’espoir profondément cynique dans le cœur des hommes qui rêvent d’automatiser des tâches qu’ils ne feraient jamais eux-mêmes. Altman utilise son baba yaga numérique comme un moyen d’attiser le cœur des narcissiques faibles et faibles de cœur qui préféreraient tuer un homme plutôt que de perdre un dollar, même si cela signifie rendre leur produit encore pire. Les PDG ont les emplois les plus faciles au monde, et aucun travail n’est plus facile que celui de Satya Nadella qui fait signe au personnel de Microsoft 365 et dit « faites-leur mettre de l’IA dedans, pronto » et dit à la directrice financière de Microsoft, Amy Hood, que « nous devons nous assurer que Bing dispose d’une IA générative » avant de s’envoler pour Davos pour crier qu’il a l’intention de brûler plus d’argent que jamais sur les GPU .

Sam Altman vous croit stupide. Il vous croit idiot et vous avale tout ce qu’il vous donne. Deep Research et Operator sont tous deux des demi-produits qui effleurent à peine le but recherché, et pourtant les médias l’acclament et l’applaudissent comme s’il était un enfant surdoué qui vient de réussir à nouer ses lacets.

Je sais, je sais, je suis un haineux, je suis un pessimiste, un cynique, mais j’ai besoin que vous m’écoutiez : tout ce que je décris est incroyablement dangereux, même si vous mettez de côté les coûts environnementaux et financiers .

Laissez-moi vous poser une question : qu’est-ce qui est le plus probable ?

Qu’OpenAI, une entreprise qui n’a jamais fait que brûler de l’argent, qui semble complètement incapable de créer un produit vraiment utilisable et significatif, parvient d’une manière ou d’une autre à rendre ses produits rentables, et crée ensuite d’une manière ou d’une autre une intelligence artificielle véritablement autonome ?

Ou qu’OpenAI, une entreprise qui a constamment brûlé des milliards de dollars, qui n’a jamais montré aucun signe de profit, qui a sorti en deux ans une sélection de produits de plus en plus douteux et obtus, se retrouve en fait à court d’argent ?

Comment cette industrie va-t-elle réellement perdurer ? OpenAI et Anthropic vont-ils continuer à lever des dizaines de milliards de dollars tous les six mois jusqu’à ce qu’ils trouvent une solution ? Les hyperscalers vont-ils continuer à dépenser des centaines de milliards de dollars en dépenses d’investissement pour un rendement mesurable minime ?

Et fondamentalement, quand tout le monde commencera-t-il à accepter que les choses que disent les entreprises d’IA n’ont absolument rien à voir avec la réalité ? Quand les médias arrêteront-ils de considérer chaque nouveau produit coûteux, stupide, ennuyeux et quasi inutile comme de la magie, et commenceront-ils à demander à ces gens de nous montrer le putain de futur ?

L’intelligence artificielle générative est une bombe à retardement financière, écologique et sociale. Je crois qu’elle nuit fondamentalement à la relation entre l’industrie technologique et la société, tout en mettant en lumière de manière flagrante et aveuglante la déconnexion entre les puissants et les gens ordinaires. Le fait que Sam Altman puisse proposer un logiciel aussi médiocre et obtenir plus de couverture et d’attention que toutes les avancées scientifiques significatives des cinq dernières années combinées est un signe que notre société est malade, que nos médias sont en panne et que l’industrie technologique pense que nous sommes tous des idiots.

Cette bulle a été gonflée par le battage médiatique et par les mensonges éhontés de gens comme Sam Altman et Dario Amodei, leurs mensonges perpétués par des médias technologiques incapables d’écrire ce qui se passe sous leurs yeux. Altman et Amodei lèvent des milliards et brûlent notre planète en s’appuyant sur l’idée que leurs médiocres logiciels cloud vont d’une manière ou d’une autre réveiller et automatiser nos vies entières.

La vérité, c’est que l’IA générative est aussi médiocre que destructrice, et ceux qui la présentent comme « l’avenir » qui « va tout changer » montrent à quel point ils méprisent le citoyen moyen. Ils croient qu’ils peuvent nous mettre de la merde dans la bouche et nous dire que c’est du bœuf, que ces produits à moitié faits vont changer le monde et qu’en conséquence, ils ont besoin de milliards de dollars et de détruire notre réseau électrique .

Je sais que cette newsletter a été pleine de coups de gueule, mais j’en ai marre de m’entendre dire que je dois être excité par ces conneries réchauffées. J’en ai marre de lire des histoires sur Sam Altman qui répète sans cesse que nous sommes à un an de « tout changer », et qui n’existent que pour perpétuer le mythe selon lequel la Silicon Valley se soucie de résoudre les problèmes de chacun, à part trouver de nouveaux marchés de croissance pour l’industrie technologique . 

Je refuse de rester assis ici et de prétendre que tout cela importe. OpenAI et Anthropic ne sont pas des innovateurs et sont contraires à l’esprit de la Silicon Valley. Ce sont des consultants en management déguisés en fondateurs, des escrocs cyniques qui collectent des fonds pour des produits qui n’existeront jamais tout en vendant des logiciels qui détruisent notre planète et détournent l’attention et les capitaux de choses qui pourraient résoudre de vrais problèmes.

J’en ai assez de ces illusions. J’en ai assez d’être obligé de prendre ces hommes au sérieux. J’en ai assez que les médias et les investisseurs me disent que ces hommes construisent l’avenir alors que les seules choses qu’ils construisent sont médiocres et coûteuses. Il n’y a pas de joie ici, pas de mystère, pas de magie, pas de problèmes résolus, pas de vies sauvées, et très peu de vies changées, à part celles de nouvelles personnes ajoutées à la liste Midas de Forbes.

Rien de tout cela n’est puissant ou impressionnant, si ce n’est l’ampleur de l’arnaque que cela représente. Regardez les produits et les résultats réels et dites-moi : est-ce que tout cela ressemble vraiment à l’avenir ? N’est-il pas un peu étrange que les grandes et effrayantes menaces qu’ils ont proférées sur la façon dont l’IA va prendre nos emplois ne semblent jamais se traduire par un produit réel ? N’est-il pas étrange que malgré tout leur argent et leur pouvoir, ils n’aient encore rien créé de vraiment utile ?

Mon cœur s’assombrit, ne serait-ce que brièvement, quand je pense à quel point tout cela est cynique. Des entreprises qui fabriquent des produits qui ne font pas grand-chose et qui se font vendre l’idée qu’un jour elles le feront, avec l’aide de journalistes qui veulent croire leurs récits – et dans certains cas les soutiennent activement. Les dégâts se traduiront par des dizaines de milliers de licenciements, un chaos environnemental et infrastructurel à long terme et une profonde dépression dans la Silicon Valley qui, selon moi, éclipsera l’éclatement de la bulle Internet.

Et lorsque tout cela s’effondrera – et je crois que ce sera le cas – l’industrie technologique devra rendre des comptes publiquement.

==== fin des extraits de l’article de Ed Zitron ====

C’est long (et encore, vous n’avez là que quelques extraits !), c’est cru (Zitron est grossier de temps en temps mais c’est vrai que cette situation est complètement folle) mais c’est sincère et il était temps que quelqu’un l’exprime. Comme toujours, cette situation anormale va finir par s’effondrer. Et, quand ça sera le cas, tous ces journalistes complices vont nier leur implications. Ils ne vont même pas s’en donner la peine : ils seront déjà passer à autre chose, en train de vous vendre une autre chimère qui fera encore plus de dégâts (si c’est c’est possible !).

Ce contenu a été publié dans Anecdotes IT, La terrible vérité, Références IT. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire