Selon la légende (car il n’y a jamais rien de certain en matière de citations historiques…), Lénine aurait utilisé ce terme (idiots utiles) pour désigner des sympathisants occidentaux qui, sans être communistes convaincus, soutenaient malgré tout la cause soviétique par naïveté ou idéalisme, servant ainsi les intérêts du régime sans en comprendre les véritables enjeux. Eh bien, je ne sais s’il faut s’en réjouir ou s’en désoler mais nous avons, nous aussi, un bon troupeau d’idiots utiles face à l’IA générative !
Certains promoteurs, influenceurs ou médias applaudissent les avancées de l’IA générative sans en comprendre les limites, les biais ou les risques (ce qui est ironique car eux n’arrêtent pas de dire que les sceptiques “n’ont rien compris”). Leur enthousiasme inconditionnel et béas va servir les intérêts de quelques-uns (le désastreux Sam “scam” Altman par exemple), qui profitent de cette technologie pour renforcer leur pouvoir ou leur profit, au détriment de la société toute entière.
Comme les « idiots utiles » du XXe siècle, ces promoteurs deviennent des relais involontaires d’un discours standardisé où le solutionnisme le dispute à la foi (il faut “croire” à l’IA sinon, vous êtes dépassé). Ce discours standardisé est facile à repérer car il contient souvent les éléments suivants :
- Minimiser les risques (« L’IA va résoudre tous nos problèmes ! ») sans questionner les externalités négatives.
- Reprendre des promesses marketing (« Cette IA est neutre et infaillible ! ») sans vérifier les faits.
- Ignorer les enjeux éthiques (propriété intellectuelle) par excès d’optimisme (la foi en l’IA !).
- Les « tech bro » : Certains entrepreneurs ou investisseurs vantent l’IA comme une révolution sans aborder ses coûts et inconvénients multiples (on en découvre toujours de nouveaux).
- Les médias grand public : des articles ou reportages présentent l’IA comme une solution miracle sans interroger ses failles (hallucinations des LLMs, biais algorithmiques).
- Les utilisateurs lambda : des millions de personnes partagent des contenus générés par IA sans vérifier leur authenticité, parfois avec des effets comiques.
Leur soutien non critique (la foi, il faut croire !) contribue à normaliser (voire à encourager) l’adoption massive de techniques parfois dangereuses, tout en détournant l’attention des débats nécessaires (pollution par le slop, péril financier lié à la bulle, etc.). Les plus irritants sont sur Linkedin avec leurs posts “définitifs” sur l’intérêt de tel ou tel outil ou sur les conséquences sociétales de la tendance.
Ah, LinkedIn… le terrain de jeu favori des « idiots utiles » de l’IA générative !
La plateforme est devenue un amplificateur de discours naïfs, de buzzwords creux et de promotions acritiques de l’IA. Des phrases comme « L’IA va révolutionner l’humanité ! », « Le futur est déjà là ! » ou « Disruptons tout avec le prompt engineering ! » sont répétées en boucle, sans analyse concrète des impacts réels. Ces posts ressemblent souvent à des copier-coller de slogans marketing des géants de la tech.
Des profils se déclarent « experts en IA » après avoir suivi un tutoriel de 2 heures sur MidJourney ou ChatGPT. Ils partagent des « conseils » simplistes ou erronés, sans maîtrise des enjeux techniques ou éthiques. Critiquer l’IA ou en souligner les risques (biais, désinformation, empreinte carbone) devient presque un blasphème (la foi, encore une fois !). Ceux qui le font sont taxés de « réactionnaires » ou de « peureux », comme si l’enthousiasme devait primer sur la réflexion.
Des posts racontent comment « l’IA a sauvé mon business en 24h » ou « j’ai automatisé 100% de mon travail grâce à un prompt magique ». Souvent, ces récits sont exagérés, non vérifiables, ou caricaturalement optimistes. Plus un discours est répété (même s’il est creux), plus il devient « vrai » aux yeux du public (le niveau de discernement s’est effondré, hélas). Cela crée une “bulle médiatique” où les voix critiques sont étouffées, et où l’IA est présentée comme une solution universelle (alors qu’elle est souvent un outil parmi d’autres, avec ses limites).
Encore une fois, je ne suis pas le seul à le dire. Voici un extrait d’un article rédigé par Jérémy Robiolle (https://www.xerficanal.com/strategie-management/emission/Jeremy-Robiolle-Alerte-Le-triomphe-du-plausible-sur-le-vrai_3754501.html) :
Nous avons basculé dans un nouveau régime de vérité sans même nous en apercevoir : celui où la preuve a cédé la place à l’apparence. Ce qui compte désormais, ce n’est plus ce qui est vrai, mais ce qui semble plausible. Le like a remplacé la démonstration, et l’opinion s’est travestie en savoir. Sur les écrans comme sur les réseaux, triomphent les influenceurs et les toutologues, qui confondent visibilité et légitimité. Avec l’intelligence artificielle, cette dérive s’accélère encore : la vitesse supplante la vérification, et le vraisemblable s’impose comme nouvelle norme cognitive.
L’IA, amplificateur du faux crédible
Dans cet univers saturé de signaux, l’IA agit comme un amplificateur du faux vraisemblable. Elle ne produit pas du sens, elle fabrique de la cohérence apparente. Elle ne cherche pas la vérité, elle en mime les formes. Plus ses modèles se perfectionnent, plus elle rend la falsification indétectable. Le vrai cède la place au crédible. Et nous nous habituons à un monde où tout semble juste, simplement parce que tout sonne juste.
Pour tous ces “experts” de l’IA qui s’expriment sur Linkedin, j’aimerais pouvoir utiliser la réplique culte suivante « le meilleur moyen pour que tu arrêtes de dire des conneries, Eh ben c’est de fermer ta gueule ! ». J’adore cette réplique qui me fait toujours beaucoup rire. Elle est prononcée par Albert Dupontel dans le film « 2 jours à tuer » (2008), lors d’une scène avec Bérangère (jouée par Marie-Josée Croze).
Oui, on voudrait vraiment que ces imbéciles et ces tartuffes (les deux vont souvent ensemble) se taisent sur ce sujet car de comique, leur soutien inconditionnel va devenir tragique quand il faudra payer l’addition. Car, un jour, quand la catastrophe sera arrivée (et elle arrivera, on ne sait pas quand et on ne sait ce qui la déclenchera mais elle arrivera), tous ces abrutis pétris de certitude vont enfin se taire. Oh, pas longtemps, juste pendant la période de sidération qui va suivre. Ensuite, ils vont se reprendre et affirmer qu’ils avaient toujours prévu que ça se terminerait comme cela (mais bien sûr !).
Mais le nettoyage de l’après catastrophe sera dur, long et amer. Les dommages financiers seront énormes (comme en 2008/2009) mais les conséquences techniques seront encore pires. On va se retrouver avec des kilomètres de codes qu’on ne pourra pas maintenir, qu’on ne pourra pas corriger, qu’on aura toutes les peines du monde à isoler.
Les dommages causés par l’IA générative sont déjà immenses (pollution de l’Internet, slop, consommation de ressources, attaques sur la propriété intellectuelle, etc.) et on en découvre tous les jours (comme Korben qui a mis le doigt sur cette tendance qui est en train de faire crever les projets open source). Et ce n’est pas fini !
Plus on va avancer et plus on va se rendre compte que l’IA générative est néfaste comme le sont les “pistoles du diable” de la légende (L’expression « les pistoles du diable » est une expression française qui remonte au XVIIe siècle. Elle fait référence à des richesses ou des gains obtenus de manière malhonnête, illégale ou immorale, souvent au détriment d’autrui. L’idée est que ces gains sont comme « maudits » ou porteurs de malheur, comme s’ils venaient du diable lui-même). Et on va ainsi aller de découvertes sidérantes en constatations désolées sur les effets et conséquences réelles de l’IA générative. Ce chemin misérable se terminera par la grande catastrophe, hélas.
Pour celles et ceux qui pensent que j’exagère, que ce n’est pas vraiment une bulle et que tout va continuer gentiment, je voudrais rappeler simplement ceci : Sam Altman (oui, encore lui !) s’est engagé à ce qu’OpenAI dépense 1 400 milliards de dollars dans des infrastructures d’IA d’ici 2033. Ce chiffre n’est pas une erreur. Jim Reid, analyste à la Deutsche Bank, estime qu’OpenAI perdra 140 milliards de dollars entre 2024 et 2029. Il écrit : « Aucune start-up dans l’histoire n’a jamais fonctionné avec des pertes prévues d’une telle ampleur. Nous sommes clairement en terrain inconnu. » L’expert financier Sebastian Mallaby prédit qu’OpenAI pourrait se retrouver à court d’argent d’ici 18 mois.
Pour situer le “burn rate” d’OpenAI, la société dépense actuellement 15 millions de dollars par jour rien que pour faire fonctionner son modèle vidéo Sora. De quoi largement justifier les propos d’un investisseur en capital-risque qui a déclaré : « C’est l’histoire de WeWork qui recommence, mais en pire cette fois ».
Avec le recul, on se rendra compte que tout cela était absurde et ne pouvait pas tenir. Cependant, j’insiste pour dire que s’opposer systématiquement à toute forme d’IA générative est vain. Malgré ses nombreux usages néfastes, elle présente aussi des avantages (et moi aussi, il m’arrive d’en tirer parti), mais si ceux-ci sont largement surestimés.
En effet, les applications productives (il y en a même si, actuellement, on assiste plutôt à une avalanche d’utilisation frivole, le terrible “AI-Slop” qui est une véritable pollution numérique) ne justifient toujours pas les coûts. De plus, il faut savoir que tous les fournisseurs de services (tous !) subventionnent encore ces coûts pour attirer des utilisateurs (get big fast, encore une fois…). Il n’y a pas de profit réel, aucun. À un moment donné, ils devront faire payer (Microsoft tente de monnayer son produit Copilot et avec des résultats lamentables), et la plupart des gens ne sont pas prêts à débourser des centaines d’euros par mois simplement pour publier des mèmes douteux sur les réseaux sociaux toute la journée.
En conclusion, il est raisonnable de penser (et de dire !) que l’IA générative finira dans une bulle pire que celle de 2008, un scandale financier pire qu’Enron et une pollution (de l’Internet) pire que l’amiante… Et que nos idiots utiles seront alors des complices désignés qui devront se taire une bonne fois pour toutes. On aura au moins gagné cela.



































