Les idiots utiles de l’IA génératives

Selon la légende (car il n’y a jamais rien de certain en matière de citations historiques…), Lénine aurait utilisé ce terme (idiots utiles) pour désigner des sympathisants occidentaux qui, sans être communistes convaincus, soutenaient malgré tout la cause soviétique par naïveté ou idéalisme, servant ainsi les intérêts du régime sans en comprendre les véritables enjeux. Eh bien, je ne sais s’il faut s’en réjouir ou s’en désoler mais nous avons, nous aussi, un bon troupeau d’idiots utiles face à l’IA générative !

Certains promoteurs, influenceurs ou médias applaudissent les avancées de l’IA générative sans en comprendre les limites, les biais ou les risques (ce qui est ironique car eux n’arrêtent pas de dire que les sceptiques “n’ont rien compris”). Leur enthousiasme inconditionnel et béas va servir les intérêts de quelques-uns (le désastreux Sam “scam” Altman par exemple), qui profitent de cette technologie pour renforcer leur pouvoir ou leur profit, au détriment de la société toute entière.

Comme les « idiots utiles » du XXe siècle, ces promoteurs deviennent des relais involontaires d’un discours standardisé où le solutionnisme le dispute à la foi (il faut “croire” à l’IA sinon, vous êtes dépassé). Ce discours standardisé est facile à repérer car il contient souvent les éléments suivants :

  • Minimiser les risques (« L’IA va résoudre tous nos problèmes ! ») sans questionner les externalités négatives.
  • Reprendre des promesses marketing (« Cette IA est neutre et infaillible ! ») sans vérifier les faits.
  • Ignorer les enjeux éthiques (propriété intellectuelle) par excès d’optimisme (la foi en l’IA !).
  • Les « tech bro » : Certains entrepreneurs ou investisseurs vantent l’IA comme une révolution sans aborder ses coûts et inconvénients multiples (on en découvre toujours de nouveaux).
  • Les médias grand public : des articles ou reportages présentent l’IA comme une solution miracle sans interroger ses failles (hallucinations des LLMs, biais algorithmiques).
  • Les utilisateurs lambda : des millions de personnes partagent des contenus générés par IA sans vérifier leur authenticité, parfois avec des effets comiques.

Leur soutien non critique (la foi, il faut croire !) contribue à normaliser (voire à encourager) l’adoption massive de techniques parfois dangereuses, tout en détournant l’attention des débats nécessaires (pollution par le slop, péril financier lié à la bulle, etc.). Les plus irritants sont sur Linkedin avec leurs posts “définitifs” sur l’intérêt de tel ou tel outil ou sur les conséquences sociétales de la tendance.

Ah, LinkedIn… le terrain de jeu favori des « idiots utiles » de l’IA générative ! 

La plateforme est devenue un amplificateur de discours naïfs, de buzzwords creux et de promotions acritiques de l’IA. Des phrases comme « L’IA va révolutionner l’humanité ! », « Le futur est déjà là ! » ou « Disruptons tout avec le prompt engineering ! » sont répétées en boucle, sans analyse concrète des impacts réels. Ces posts ressemblent souvent à des copier-coller de slogans marketing des géants de la tech. 

Des profils se déclarent « experts en IA » après avoir suivi un tutoriel de 2 heures sur MidJourney ou ChatGPT. Ils partagent des « conseils » simplistes ou erronés, sans maîtrise des enjeux techniques ou éthiques. Critiquer l’IA ou en souligner les risques (biais, désinformation, empreinte carbone) devient presque un blasphème (la foi, encore une fois !). Ceux qui le font sont taxés de « réactionnaires » ou de « peureux », comme si l’enthousiasme devait primer sur la réflexion.

Des posts racontent comment « l’IA a sauvé mon business en 24h » ou « j’ai automatisé 100% de mon travail grâce à un prompt magique ». Souvent, ces récits sont exagérés, non vérifiables, ou caricaturalement optimistes. Plus un discours est répété (même s’il est creux), plus il devient « vrai » aux yeux du public (le niveau de discernement s’est effondré, hélas). Cela crée une “bulle médiatique” où les voix critiques sont étouffées, et où l’IA est présentée comme une solution universelle (alors qu’elle est souvent un outil parmi d’autres, avec ses limites).

Encore une fois, je ne suis pas le seul à le dire. Voici un extrait d’un article rédigé par Jérémy Robiolle (https://www.xerficanal.com/strategie-management/emission/Jeremy-Robiolle-Alerte-Le-triomphe-du-plausible-sur-le-vrai_3754501.html) : 

Nous avons basculé dans un nouveau régime de vérité sans même nous en apercevoir : celui où la preuve a cédé la place à l’apparence. Ce qui compte désormais, ce n’est plus ce qui est vrai, mais ce qui semble plausible. Le like a remplacé la démonstration, et l’opinion s’est travestie en savoir. Sur les écrans comme sur les réseaux, triomphent les influenceurs et les toutologues, qui confondent visibilité et légitimité. Avec l’intelligence artificielle, cette dérive s’accélère encore : la vitesse supplante la vérification, et le vraisemblable s’impose comme nouvelle norme cognitive.

L’IA, amplificateur du faux crédible

Dans cet univers saturé de signaux, l’IA agit comme un amplificateur du faux vraisemblable. Elle ne produit pas du sens, elle fabrique de la cohérence apparente. Elle ne cherche pas la vérité, elle en mime les formes. Plus ses modèles se perfectionnent, plus elle rend la falsification indétectable. Le vrai cède la place au crédible. Et nous nous habituons à un monde où tout semble juste, simplement parce que tout sonne juste.

Pour tous ces “experts” de l’IA qui s’expriment sur Linkedin, j’aimerais pouvoir utiliser la réplique culte suivante « le meilleur moyen pour que tu arrêtes de dire des conneries, Eh ben c’est de fermer ta gueule ! ». J’adore cette réplique qui me fait toujours beaucoup rire. Elle est prononcée par Albert Dupontel dans le film « 2 jours à tuer » (2008), lors d’une scène avec Bérangère (jouée par Marie-Josée Croze).

Oui, on voudrait vraiment que ces imbéciles et ces tartuffes (les deux vont souvent ensemble) se taisent sur ce sujet car de comique, leur soutien inconditionnel va devenir tragique quand il faudra payer l’addition. Car, un jour, quand la catastrophe sera arrivée (et elle arrivera, on ne sait pas quand et on ne sait ce qui la déclenchera mais elle arrivera), tous ces abrutis pétris de certitude vont enfin se taire. Oh, pas longtemps, juste pendant la période de sidération qui va suivre. Ensuite, ils vont se reprendre et affirmer qu’ils avaient toujours prévu que ça se terminerait comme cela (mais bien sûr !).

Mais le nettoyage de l’après catastrophe sera dur, long et amer. Les dommages financiers seront énormes (comme en 2008/2009) mais les conséquences techniques seront encore pires. On va se retrouver avec des kilomètres de codes qu’on ne pourra pas maintenir, qu’on ne pourra pas corriger, qu’on aura toutes les peines du monde à isoler.

Les dommages causés par l’IA générative sont déjà immenses (pollution de l’Internet, slop, consommation de ressources, attaques sur la propriété intellectuelle, etc.) et on en découvre tous les jours (comme Korben qui a mis le doigt sur cette tendance qui est en train de faire crever les projets open source). Et ce n’est pas fini !

Plus on va avancer et plus on va se rendre compte que l’IA générative est néfaste comme le sont les “pistoles du diable” de la légende (L’expression « les pistoles du diable » est une expression française qui remonte au XVIIe siècle. Elle fait référence à des richesses ou des gains obtenus de manière malhonnête, illégale ou immorale, souvent au détriment d’autrui. L’idée est que ces gains sont comme « maudits » ou porteurs de malheur, comme s’ils venaient du diable lui-même). Et on va ainsi aller de découvertes sidérantes en constatations désolées sur les effets et conséquences réelles de l’IA générative. Ce chemin misérable se terminera par la grande catastrophe, hélas.

Pour celles et ceux qui pensent que j’exagère, que ce n’est pas vraiment une bulle et que tout va continuer gentiment, je voudrais rappeler simplement ceci : Sam Altman (oui, encore lui !) s’est engagé à ce qu’OpenAI dépense 1 400 milliards de dollars dans des infrastructures d’IA d’ici 2033. Ce chiffre n’est pas une erreur. Jim Reid, analyste à la Deutsche Bank, estime qu’OpenAI perdra 140 milliards de dollars entre 2024 et 2029. Il écrit : « Aucune start-up dans l’histoire n’a jamais fonctionné avec des pertes prévues d’une telle ampleur. Nous sommes clairement en terrain inconnu. » L’expert financier Sebastian Mallaby prédit qu’OpenAI pourrait se retrouver à court d’argent d’ici 18 mois. 

Pour situer le “burn rate” d’OpenAI, la société dépense actuellement 15 millions de dollars par jour rien que pour faire fonctionner son modèle vidéo Sora. De quoi largement justifier les propos d’un investisseur en capital-risque qui a déclaré : « C’est l’histoire de WeWork qui recommence, mais en pire cette fois ».

Avec le recul, on se rendra compte que tout cela était absurde et ne pouvait pas tenir. Cependant, j’insiste pour dire que s’opposer systématiquement à toute forme d’IA générative est vain. Malgré ses nombreux usages néfastes, elle présente aussi des avantages (et moi aussi, il m’arrive d’en tirer parti), mais si ceux-ci sont largement surestimés.

En effet, les applications productives (il y en a même si, actuellement, on assiste plutôt à une avalanche d’utilisation frivole, le terrible “AI-Slop” qui est une véritable pollution numérique) ne justifient toujours pas les coûts. De plus, il faut savoir que tous les fournisseurs de services (tous !) subventionnent encore ces coûts pour attirer des utilisateurs (get big fast, encore une fois…). Il n’y a pas de profit réel, aucun. À un moment donné, ils devront faire payer (Microsoft tente de monnayer son produit Copilot et avec des résultats lamentables), et la plupart des gens ne sont pas prêts à débourser des centaines d’euros par mois simplement pour publier des mèmes douteux sur les réseaux sociaux toute la journée.

En conclusion, il est raisonnable de penser (et de dire !) que l’IA générative finira dans une bulle pire que celle de 2008, un scandale financier pire qu’Enron et une pollution (de l’Internet) pire que l’amiante… Et que nos idiots utiles seront alors des complices désignés qui devront se taire une bonne fois pour toutes. On aura au moins gagné cela.

Publié dans Anecdotes IT, Informatique, La terrible vérité | Un commentaire

Une nouvelle formule intéressante : Legend Grand Prix

J’ai découvert ce nouveau championnat de monoplace monomarque grâce à cette excellente vidéo :

Je vous invite à la regarder, c’est très clair et précis. Cette vidéo permet de comprendre pourquoi cette nouvelle formule (il y en a déjà des tas !) est intéressante et, selon moi, va faire sa place.

Si j’avais vingt ans de moins, je suis presque sûr que je signerais pour ce championnat (le concept de cette monoplace me semble assez proche de ce que j’ai connu avec l’Arcobaleno en 2001…).

Complétons cette découverte avec deux sites : celui de Gotothegrid et le site de LegendGP lui-même…

Cerise sur le gâteau, il semble qu’il y ait également une déclinaison « Simracing » de cette voiture… J’espère arriver à mettre la main dessus afin de vous dire ce que j’en pense.

Publié dans Sport-auto, sports mécaniques | Laisser un commentaire

Un champion du monde la bêtise ? Non, de l’ignorance et de l’inculture !

De temps en temps, on tombe sur une pépite, une preuve de ce qu’on avance. Je prétend (depuis des années !) que le niveau intellectuel de nos contemporains s’effondre. J’en ai une un nouvelle démonstration récente avec cette preuve :

Commentaire relevé par Régis Chaperon sur le site de Franceculture.fr

Dans un premier temps, je me suis dit « mais comment peut-on être aussi con ? ».
Attention, entendez-moi bien, la connerie de « Fredo », ce n’est pas d’ignorer « 1984 » de George Orwell, c’est plutôt de le proclamer à tous !

C’est le problème N°1 de l’Internet de nos jours (selon moi) : avant, on avait des « idiots du village » un peu partout mais ils ne faisaient rire que localement. Avec l’avénement du village globale, on a les « idiots du village global » qui ne font plus rire mais qui ne font plus rire mais qui sont devenus une nuisance.

On dit souvent « faut pas prendre les gens pour des cons » (ce à quoi les publicistes -de parfaits exemples d’ennemis de l’humanité- ajoutent « mais ne jamais oublier qu’ils le sont »), mais l’inverse est vrai aussi : faut pas prendre les cons pour des gens…

Publié dans à travers mes découvertes, La terrible vérité | Un commentaire

BaseRow, enfin une (bonne) alternative Open Source à Airtable !

Je suis utilisateur d’Airtable depuis presque cinq ans et je dois dire que, jusqu’à récemment, j’étais un utilisateur très satisfait de ce service de base de données de type « no code« . J’ai toujours été un observateur attentif des tendances en matière de développement logiciel et la tendance « low code/no code » est une vague importante qui apportait un vrai progrès.

Airtable (première version en 2012) apportait quelque chose de vraiment neuf :

Airtable est une solution hybride entre une feuille de calcul et une base de données, intégrant des fonctionnalités d’une base de données appliquée à une feuille de calcul. Les champs d’un tableau Airtable sont similaires aux cellules d’une feuille de calcul, mais ont des types tels que « case à cocher », « numéro de téléphone » et « liste déroulante », et peuvent faire référence à des pièces jointes telles que des images.

Si Airtable est si bien que cela, pourquoi mets-tu une alternative en avant ?
J’y viens !

Tout d’abord, Airtable revient vite cher. C’est pas trop couteux si vous avez juste un compte perso mais l’addition monte vite si vous voulez partager vos bases avec plusieurs utilisateurs. De plus, Airtable n’est accessible qu’en mode « cloud » ce qui finira par devenir gênant tôt ou tard. Il y a un an, j’avais déjà essayé de migrer vers une alternative à Airtable en testant NocoDB. Mais le résultat m’avait un peu déçu : les images présentes dans mes bases Airtable n’étaient pas « aspirées » avec le reste… Ach !

Et puis, tout dernièrement, j’ai découvert BaseRow (ah, tu y viens enfin… un peu long ton prologue !). BaseRow est une initiative plus récente (2019) qu’Airtable et BaseRow (BR) est Open Source, ça fait toute la différence. Avec BR, vous pouvez télécharger et installer le programme complet (sans aucune restriction) sur votre serveur et ainsi le rendre accessible à votre réseau local. Encore mieux : la fonction de migration (l’aspirateur !) de bases Airtable fonctionne vraiment bien cette fois, hourra !

Ma bases « motos » sur Airtable (ici, la vue « casques »).

La même chose mais cette fois sur BaseRow…

Bon, je n’ai pas encore beaucoup de recul sur BaseRow mais je suis suffisamment impressionné pour avoir envie de vous en parler et de mettre en avant cette solution soignée, tout à la fois performance et gratuite (il y a aussi des « plans » payants pour la solution hébergée sur le cloud…) !

Publié dans à travers mes découvertes, Informatique | Laisser un commentaire

Traxion.gg propose une liste des dix meilleures simulations sur PC

Dernièrement, quelqu’un m’a dit « tu met trop de trucs en anglais sur ton blog ! »… Et c’est un peu vrai !

Est-ce par paresse ?
Sûrement…

Alors, cette fois, je vais faire un effort : j’ai fais une traduction de l’article que je veux mettre en avant aujourd’hui (source https://traxion.gg/best-pc-sim-racing-games/).

Je ne suis pas forcément d’accord avec tout ce qui est dit dans cet article (j’aurais mis AMS2 un peu plus haut et Beam NG Drive n’est pas dans mon top 10…) mais je pense qu’il représente assez bien l’état actuel du marché.

===

The 10 best PC sim racing games in 2025

Quelles sont les meilleures plateformes de simulation de course sur PC actuellement disponibles ? C’est une question difficile, mais nous allons tenter d’y répondre aussi objectivement que possible ci-dessous.

Bien sûr, tout article de ce type reflète une part de préférence personnelle. Si votre simulation préférée n’est pas aussi bien classée que vous l’auriez souhaité, ne le prenez pas mal, c’est juste pour le plaisir !

Cependant, en essayant de classer les simulations, j’ai été frappé de constater que la plupart des titres de cette liste ont plus de 10 ans. C’est un constat inquiétant pour l’avenir de la simulation de course, d’autant plus que les grosses nouveautés de 2025, Project Motor Racing et Rennsport, se sont révélées être de véritables déceptions.

10. Assetto Corsa Evo

Assetto Corsa EVO 2025 Ferrari F1 car

Malgré des débuts difficiles en accès anticipé, Assetto Corsa Evo commence enfin à tenir les promesses que nous avions faites il y a plus d’un an.

La suite de Kunos Simulazioni à Assetto Corsa a progressé de manière constante mais discrète tout au long de l’année 2025, avant de la terminer en beauté avec l’ajout de la Ferrari SF-25 de Formule 1 (la première simulation au monde à proposer une F1 moderne), ainsi que d’une multitude de voitures et de circuits.

Son mode monde ouvert tant attendu se fait toujours attendre, ce qui pourrait pourtant s’avérer déterminant pour sa popularité (qui n’a jamais rêvé de s’éclater sur le Nürburgring Nordschleife dans un lobby en ligne ?!). Des corrections de bugs et une optimisation supplémentaires sont également indispensables pour exploiter pleinement le mode Daily Racing Portal, récemment ajouté.

9. BeamNG.drive

BeamNG.drive, v0.35 update, Rally mode, Hirochi Sunburst

BeamNG.drive, jeu de simulation de course et de destruction à outrance, est resté un certain temps en accès anticipé, mais il demeure une énigme dans le monde de la simulation. Est-ce un jeu de drift, de franchissement d’obstacles ou de rallye ? En réalité, c’est un peu de tout, et une parfaite illustration de l’expression : « touche-à-tout, maître de rien ».

La physique des véhicules est plaisante à piloter, mais manque de réalisme par rapport à la plupart des simulations de cette liste. Cependant, la grande variété d’activités et de scénarios intéressants à accomplir en fait un pur plaisir de jeu.

Le fait que tout repose sur le modèle de dégâts le plus détaillé du jeu vidéo enrichit encore davantage l’expérience. Ainsi, même en cas d’erreur, voir son véhicule écrasé, détruit et réduit en miettes dans le carnage qui s’ensuit procure une satisfaction certaine.

Bien qu’il soit peu probable qu’il atteigne un jour la version 1.0, étant donné son niveau de plaisir, est-ce vraiment important ?

8. Assetto Corsa Competizione

Assetto Corsa Competizione update reworks BoP and BMW M4 GT3 gear ratios 

Sorti de l’accès anticipé de Steam en 2018, Assetto Corsa Competizione a connu un véritable essor pendant la pandémie de COVID-19, lorsque de nombreux anciens joueurs de simulation de course et de nouveaux adeptes du genre se sont retrouvés soudainement avec beaucoup de temps libre.

Le jeu était largement à la hauteur de sa position de simulateur GT3 de référence, grâce à des graphismes et un son incroyablement immersifs qui ont impressionné de nombreux pilotes GT3 professionnels.

Un mode solo plutôt moyen a été compensé par l’attrait du mode en ligne, qui est devenu la plateforme de choix de SRO Esports, et sa popularité auprès de streamers renommés comme Jardier et James Baldwin a encore renforcé son attrait.

Aujourd’hui, l’avantage d’ACC en GT3 s’est quelque peu estompé face à la présence croissante des voitures LMGT3 de Le Mans Ultimate, et Assetto Corsa EVO est désormais la priorité du développeur Kunos Simulazioni. Le jeu ne recevra plus de mises à jour, ce qui signifie que son heure de gloire approche.

7. rFactor 2

rFactor 2, BTCC, Ford Focus ST, Ash Sutton, Donington Park GP

Contenu BTCC dans rFactor 2

Bien que la simulation de sport automobile de Studio 397 ait été quelque peu éclipsée par l’arrivée de Le Mans Ultimate, rFactor 2 reste l’une des simulations de course les plus immersives du marché.

Développé initialement par Image Space Incorporated, rFactor 2 offre un excellent retour de force pour les utilisateurs de volant, ainsi qu’un large éventail de disciplines automobiles, incluant la Formule E, le BTCC, l’IndyCar et le GT3 sous licence officielle.

Les mods contribuent également largement au succès de rFactor 2, grâce à l’intégration du Steam Workshop qui permet aux joueurs d’obtenir le contenu souhaité le plus facilement possible.

Malgré quelques quelques ralentissements, l’expérience de conduite reste excellente. Cependant, l’attention étant principalement portée sur LMU, le développement de rF 2 est quasiment à l’arrêt, malgré des contrats en vigueur pour la production de contenu BTCC jusqu’à fin 2026.

Des projets soutenus par la communauté, comme Zolder et le dernier DLC de KartSim, prouvent que le jeu a encore de beaux jours devant lui, mais pour combien de temps ? Nul ne le sait.

6. Assetto Corsa

The 10 best PC sim racing games in 2025

Cette image est un exemple de contenu modifié et n’est ni sous licence ni incluse dans le jeu de base Assetto Corsa.

Assetto Corsa est une simulation qui commence à accuser son âge, mais le titre de Kunos Simulazioni attire toujours les foules, surpassant aisément le nombre de joueurs de ses homologues plus récents, Assetto Corsa Competizione et Assetto Corsa EVO, réunis.

Bien que le jeu de base soit de bonne facture, ce qui distingue véritablement Assetto Corsa de la plupart de ses concurrents, c’est sa scène de modding florissante. Assetto Corsa s’est révélé être la plateforme idéale pour de nombreux sous-genres de conduite, notamment le drift et le mode libre, avec d’innombrables mods pour les circuits et les voitures qui enrichissent considérablement l’offre de courses en ligne.

La compatibilité avec des plateformes comme Low Fuel Motorsport contribue également à l’augmentation du nombre de joueurs, les moddeurs intégrant des graphismes photoréalistes, un cycle jour/nuit et une météo dynamique.

Certes, son retour de force n’égale pas la précision de rFactor 2, mais vu la richesse du contenu, est-ce vraiment important ?

Étonnamment, sans mods, des jeux comme Assetto Corsa et Richard Burns Rally ne figureraient pas aussi haut dans notre classement (ce qui ouvre un tout autre débat), mais cela démontre l’impact qu’une communauté active peut avoir sur une simulation.

5. Automobilista 2

A step change for Automobilista 2: Hands-on with the v1.6 update

Reiza Studios a pris le pari audacieux d’utiliser le moteur Madness, développé par Slightly Mad Studios, pour propulser Automobilista 2. Ce pari s’est avéré partiellement payant pour le studio brésilien.

Bien que le jeu souffre des mêmes particularités de maniabilité que la série Project CARS de SMS, Reiza a considérablement amélioré sa physique depuis sa sortie en 2020, et ses performances en réalité virtuelle sont quasiment inégalées dans le domaine de la simulation de course.

Un contenu varié, couvrant les courses sur terre, sur circuit ovale et sur route, est au cœur d’AMS 2, tandis que ses partenariats commerciaux avec IMSA et Low Fuel Motorsport laissent présager un avenir prometteur. L’ajout récent de contenu de type NASCAR diversifie encore davantage le catalogue du jeu, et un système multijoueur classé plus complet ainsi qu’un mode carrière solo figurent toujours sur notre liste de souhaits.

Si les fans de la première heure de Reiza regrettent la pureté de conduite du premier Automobilista, AMS 2 a beaucoup à offrir, notamment grâce à son excellente fluidité sur les PC de jeu de milieu de gamme.

4. RaceRoom Racing Experience

RaceRoom, Super Tourers, Ring Knutstorp, BMW e36

Avec la version de Richard Burns Rally proposée par Rallysimfans, RaceRoom Racing Experience est la seule véritable simulation free-to-play de cette liste.

Bien que le contenu gratuit soit en grande partie non officiel et assez limité, RaceRoom propose une grande variété de voitures et de circuits de haut niveau, notamment pour les amateurs de voitures de tourisme, avec du contenu DTM et BTCC classique pour un véritable bain de nostalgie.

RaceRoom reste également la simulation officielle du championnat DTM actuel, avec l’ajout de contenu 2025, d’hypercars modernes et d’améliorations graphiques (malheureusement toujours pas de météo dynamique).

Un système multijoueur classé a également été ajouté, augmentant le nombre de joueurs, qui attendent avec impatience du contenu supplémentaire pour les courses d’endurance historiques et contemporaines en 2026.

RaceRoom offre une excellente conception audio et son propre système d’IA adaptative pour les adversaires, et figure souvent parmi les meilleures simulations compatibles VR.

3. Richard Burns Rally

Seven new stages added to Richard Burns Rally’s Rallysimfans mod

Le vénérable simulateur de Warthog de 2004 a beau avoir connu un sort tragique peu après sa sortie, Richard Burns Rally conserve toute sa pertinence grâce à une communauté de modding frénétique.

Mieux encore, il reste la référence en matière de simulation de rallye pour ceux qui recherchent une expérience plus réaliste. Avec ses centaines d’étapes créées de toutes pièces, ses voitures modernes et ses nombreux outils, le jeu se rapproche des standards actuels.

Sa popularité persistante s’explique en partie par le travail des bénévoles de Rallysimfans, qui ont conçu un pack tout-en-un – avec l’aide de WorkerBee, expert en modding pour RBR – permettant de profiter plus facilement que jamais de ce titre classique. Et c’est gratuit !

Compatible avec la VR, prenant en charge plusieurs manettes et offrant une multitude de rallyes et de communautés en ligne, RSF et RBR promettent de satisfaire les passionnés de rallye pour de nombreuses années.

2. iRacing

iRacing Gen3 Supercars Camaro

Certes, iRacing ne plaît pas à tout le monde, mais il offre une quantité impressionnante de contenu pour les amateurs de simulation de course et un système de matchmaking en ligne quasiment infaillible.

Le principal frein à l’adoption d’iRacing pour la plupart des joueurs réside dans son prix élevé par rapport à ses concurrents. Un abonnement mensuel est requis, en plus des achats ponctuels de circuits et de voitures.

Il existe cependant une offre de contenu gratuit conséquente, avec de nombreuses courses à découvrir. iRacing propose également sans doute le meilleur modèle de conditions météorologiques humides parmi les simulations modernes et est incontestablement le choix numéro un des fans de courses sur ovale, grâce à ses licences NASCAR, IndyCar et World of Outlaws.

Malgré des graphismes vieillissants et une physique de circuit routier perfectible, iRacing reste apprécié par des milliers de joueurs réguliers. L’équipe de développement prévoit d’ailleurs d’intégrer des améliorations graphiques et de maniabilité dans les mois et les années à venir.

Sans oublier son mode hors ligne avec IA adaptative ni son excellent modèle de dégâts.

1. Le Mans Ultimate

A new era: Hands-on with Le Mans Ultimate’s LMGT3 cars

Le Mans Ultimate, la suite de rFactor 2 développée par Studio 397, s’est rapidement imposé, après des débuts difficiles, comme l’une des meilleures simulations de course disponibles.

Lancé début 2024 avec de nombreux bugs et un contenu limité, le jeu a su redresser la barre grâce à Studio 397 et son éditeur Motorsport Games. La simulation proposée représente fidèlement les éditions 2023-2025 du Championnat du Monde d’Endurance FIA.

La physique du jeu est son point fort, mais les graphismes et l’audio ne sont pas en reste. Les systèmes hybrides complexes des Hypercars du WEC sont modélisés avec précision, tout comme une sélection de circuits scannés au laser.

Le choix controversé de MSG de publier des DLC et un système d’abonnement alors que le jeu était encore en accès anticipé a suscité la controverse. Cependant, la communauté a largement adhéré au projet, séduite par le potentiel indéniable du titre. Un système multijoueur classé solide a d’ailleurs attiré un nombre record de joueurs.

Le DLC European Le Mans Series a enrichi le jeu avec de nouveaux circuits et voitures, laissant entrevoir les perspectives d’avenir de LMU, les fans espérant une collaboration avec l’IMSA.

Cependant, LMU manque toujours de contenu solo et de mode carrière, qui devraient être ajoutés en 2026. L’optimisation et la correction des bugs restent également des priorités.

===

Voilà, cette liste a le mérite d’exister.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Blog migré correctement, all is good !

La migration a eu lieu ce matin et a pris environ trois heures…

Comment Migrer un Site WordPress : Guide complet

Je suis content que ça soit derrière moi !

Publié dans Ce blog, Informatique | Laisser un commentaire

Découverte inattendue de PCARS-3 !

S’il y a bien un titre qui a une mauvaise réputation, c’est bien celui-là !

Project Cars version 3 a été très mal reçu par la communauté, encore plus que Project Motor Racing, c’est dire !

Pourtant, si je vous en parle aujourd’hui, c’est pour deux raisons : tout d’abord, le temps a passé et PCARS-3 est désormais un peu oublié, on s’en rappelle comme d’un mauvais souvenir qu’on souhaite évacuer et c’est tout. L’animosité est bien retombée.
Ensuite, parce que j’ai enfin pu l’essayer ces derniers jours et, à ma grande surprise, j’ai plutôt apprécié l’expérience !

Comment expliquer cela ?
Comment puis-je dire du bien d’un titre qui a été quasiment unanimement rejeté et qui est devenu l’un des symboles de ce qu’il ne fallait pas faire ?

En fait, l’explication est simple et réside entièrement dans le nom… En effet, Codemaster (qui venait, en 2019, de racheter Slightly Mad Studios, le développeur à l’origine de PCARS 1 & 2) a eu la très mauvaise idée de nommer Projetc Cars 3 un jeu (sorti en août 2020) qui, objectivement, n’avais vraiment pas grand chose à voir avec les PCARS qui avaient précédés.

undefined

En conséquence, se basant sur le nom du nouveau titre, la communauté fut -légitimement- très déçu et le fit savoir… Vous connaissez la suite de l’histoire, pas besoin de revenir là-dessus.

Revenons à mes impressions lors de ma découverte -tardive !- de ce titre. Si vous arrivez à oublier le nom et à le prendre tel quel (c’est-à-dire pour un jeu, pas une simulation… nuance !), alors ça fonctionne plutôt bien. En fait, ce jeu m’a évoqué terriblement « Need for speed: shift » plutôt que PCARS. Et je dois même dire que j’ai pris un certain plaisir à progresser dans la carrière jusqu’à un certain point : les graphismes sont bons, le comportement des voitures est correct (on peut même dire que les voitures pardonnent beaucoup moins que dans d’autres jeux), les courses sont courtes et animées… Bref, pour s’amuser un peu avec un « jeu de bagnoles », c’est good.

Donc, j’en déduis que le principal problème de ce titre, c’est son positionnement. Si, au lieu de le présenter comme PCARS-3, Codemasters aurait eu la bonne idée (et l’honnêteté…) de l’appeler « Need for speed: resurrection » (je viens de l’inventer !), ça aurait fonctionné et il n’y aurait pas eu le drama de l’époque.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Migration de serveur, mon blog va être indisponible pendant quelques heures…

Je suis contraint de migrer ce blog sur un nouveau serveur tout neuf… J’ai procédé à de nombreux tests ces  dernières semaines pour m’assurer que tout va bien se passer (espérons-le !).

En revanche, ce que je ne peux éviter, c’est une période de quelques heures (si tout va bien) à quelques jours (si ça se passe mal…) où ce blog sera hélas indisponible…

Je prévois cette migration le samedi matin du 23/01/2026… Voilà, vous êtes prévenus !

Comment Migrer un Site WordPress : Guide complet

Publié dans Ce blog, Informatique | Laisser un commentaire

Je travaille à une refonte de mon livre sur le SimRacing !

Mon livre sur le SimRacing a déjà connu plusieurs vies !

SimRacing

D’abord publié chez Pearson en 2008, j’ai ensuite repris la suite en 2012 pour le publier via Amazon. Lors de cette période, je le mettais à jour quasiment tous les ans et j’ai finis par abandonner fin 2020 et, depuis, j’ai laissé ce livre dans l’état où il était à ce moment-là…

Mais ça, c’est terminé !
Je reprend le travail quasiment à zéro : la 5ème édition sera vraiment neuve, pas seulement réactualisée. Je vais supprimer certaines sections trop datée et en ajouter d’autres. Bref, j’ai un gros travail devant moi que je commence seulement en ce début d’année… Soyez patient, je crois que le résultat vaudra le coup d’attendre !

Publié dans Ce blog | Laisser un commentaire

Un test (rapide) de la nouvelle version de Project Motor Racing 1.5.0.5

Depuis sa sortie calamiteuse, Project Motor Racing (PMR) multiplie les mises à jour mais sans réussir à vraiment remonter la pente. Il faut dire qu’il y a beaucoup à faire tant la déception a été à la hauteur des attentes… Est-ce à dire qu’il s’agit d’une cause perdue ?

Pas forcément. Rappelez-vous de « No Man’s Sky« … La sortie en 2016 avait été très mauvaise mais, au fil des années, le titre a su se corriger et devenir très apprécié. PMR peut-il suivre le même chemin ?

Eh bien, très clairement, il reste encore beaucoup-beaucoup d’efforts à faire et la route va être longue, très longue. Hier, l’éditeur de PMR a proposé la version 1.5.05 avec une liste de modifications et de correction longue comme le bras… Et, bien sûr, j’ai testé cela.

Direction Daytona avec une Jaguar Group C. Et j’ai pas eu besoin de beaucoup de temps pour me rendre compte qu’on était encore loin d’une version « agréable ». Certes, il y a quelques progrès (le contraire serait vraiment inquiétant) comme le triple-écrans désormais supporté mais la liste de ce qui ne va pas est toujours bien trop longue.
Tiens, justement, commençons par le triple-écrans : le rétro virtuel n’est pas réglable. Donc, s’il est situé sur votre écran de droite (c’est le cas pour moi), tant pis pour vous !

Le bip n’est toujours pas géré (le bip, c’est le coup de gaz entre chaque rapport au rétrogradage). Les puristes vont me dire « t’as qu’à faire le talon-pointe, feignasse ! ». Merci pour le « feignasse » au passage mais il est clair que pour une simulation « grand-public », obliger à ce genre de manipulation est pour le moins bizarre. Mais il y a pire !
En effet, lorsqu’on accélère, le bruit du moteur semble bridé, comme s’il ne pouvait pas délivrer sa puissance, surtout dans les derniers rapports. J’ai noté que le traction-control (TC) se déclenchait presque tout le temps (ce qui est pour le moins bizarre à Daytona en 4ème ou en 5ème !!). Peut-être que le TC est trop intrusif,  supprimons-le… Aucun effet, toujours ce bruit bridé.

J’ai voulu tester une autre voiture : la Porsche 992 Cup à Donnington : le moteur semble mieux se comporter mais là, c’est le FFB qui déconne grave. Surprise, je n’arrive plus à trouver le réglage du FFB !!

C’est un des trucs gênants de PMR : les menus ne sont pas consistants et des détails de ce goût-là change d’une mise à jour à l’autre… Je vais vous la faire court : pas de miracle à attendre de cette 1.5.0.5. Le pilotage n’est pas agréable, les FPS sont limitées, l’impression générale est médiocre (au mieux). Bref, ça donne pas envie !

Il va falloir attendre encore et sans doute beaucoup à mon humble avis.

Les drapeaux jaunes sur AMS2, enfin !

Le contraste avec la toute dernière version d’AMS2 est criant !

Bonne nouvelle, le fonctionnement des drapeaux (et en particulier du drapeau jaune) semble enfin en net progrès. Bien sûr, cela demande encore pas mal de tests avant de pouvoir affirmer que cette lacune « historique » d’AMS2 est enfin comblée mais, franchement, ça semble en bonne voie.

Reste plus qu’a proposer l’enregistrement de sessions et le mode carrière et ça sera (presque) parfait…

Publié dans Sports mécaniques virtuels | Un commentaire

La baisse du niveau est devenue une évidence…

Cela fait des années que j’en parle : le niveau intellectuel général s’effondre (dire qu’il baisse est trop modéré !).

Quand je disais cela il y a dix, quinze ans, je ne rencontrais que scepticisme (oh, Lefebvre, il exagère !). Désormais, hélas, c’est devenu une évidence.

Baisse du niveau, une preuve de plus…

J’ai plein d’autres articles sur le même sujet sur ce blog mais, aujourd’hui, je voudrais vous soumettre un texte rédigé en 2009 par un ami. Dans ce texte, cet ami avec « le cerveau en marche« ,

===

Qui n’a jamais entendu quelque chose du genre « Ah de mon temps c’était autre chose… » ou « Dans le temps ça ne se passait pas comme ça » etc. Depuis des siècles, peut être même depuis toujours les hommes regrettent d’une certaine façon le passé. Et de tous temps, ils pensaient que c’était « mieux avant ». Poussé à l’extrême on traite alors les gens de « réactionnaires » ! On les désigne comme des nuisibles à tout changement et donc comme des gens néfastes. Le progrès technique mais aussi « moral » et législatif est défini de nos jours comme indiscutable pour amener l’homme vers la plénitude et l’harmonie.

Mais qui peut dire de nos jours que nous sommes sur le bon chemin ? Qui peut dire que nos « progrès » actuels et notre société actuelle vont dans le bon sens ? Très franchement je crois que personne de censée ne peut penser que nous sommes sur la bonne voie.

                Nous constatons aujourd’hui cet état de fait : le niveau général est en baisse, voire en chute libre… Là où auparavant on notait des discordances entre générations éloignées, entendons par là quinze vingt ans d’écarts, on a maintenant un écart significatif entre des générations très proches, de l’ordre de cinq ans d’écart !

Là est la grande nouveauté, la terrible nouveauté dans la baisse générale de niveau. On peut comparer cela à un immense tourbillon, et là on entre au cœur du tourbillon, là où tout s’accélère. La question est de savoir si nous avons encore la force de se sortir de la spirale.

                Quand on pense baisse de niveau, on a immédiatement en tête le plus visible, ce qui saute aux yeux en premier lieu : l’éducation. En effet, comment peut on encore affirmer que l’éducation nationale, en France et à l’étranger, est efficiente ?

Chaque année les diplômes sont de plus en plus bradés, les taux de réussite battent des records, laissant imaginer que les élèves actuels (incapables d’écrire trois mots sans faute) sont meilleurs que leurs ainés ? C’est un secret de polichinelle que de dire que le baccalauréat ne sanctionne de nos jours que les élèves les plus en difficulté, on tire tout l’enseignement vers le bas. Au nom de pseudo études psychologiques sur l’enfant, avec en point d’orgue de ne surtout pas traumatiser les gosses : ne plus les noter ! Seulement les évaluer, sans sanction de résultats, pour ne pas les éduquer dans l’échec… Mais comment ces enfants feront plus tard pour évoluer dans la vie sans avoir été plus jeunes confrontés à la réalité, à savoir : parfois on est bons et on mérite une bonne note, parfois on passe à côté et c’est l’échec.

En France, les gouvernements successifs ont voulu réformer l’éducation, avec comme objectif de faire baisser le taux de chômage des jeunes. On a d’abord inventé des filières secondaires, techniques, professionnelles, en y envoyant les plus mauvais élèves. On sortait alors des bacheliers « techniques » ou « pros » mais ces filières étaient clairement des voies réservées au mauvais. Très peu d’élèves se retrouvaient dans ces filières par conviction ou envie. On a donc créer au fil du temps des sous bac, même si c’est bien évidemment interdit de raisonner comme cela par les biens pensants, qui ont amené des tas de jeunes à des niveaux scolaires faibles, pour occuper des emplois « bas de gamme ». Toute cette masse de bacheliers « seconde zone » ont entrainé une baisse irrémédiable des bacs généraux. Mon exemple personnel est simple : arrivé en seconde, les bacheliers scientifiques étaient à 65% de réussite. Trois ans plus tard, ma génération était à 85% de réussite (et croyez moi nous n’étions pas du tout meilleurs ! seulement on était parfois notés sur 24 au lieu de 20…). Quelques années plus tard, le bac était à des taux quasi « parfaits » : + de 90% de réussite…

                Comment penser que cette évolution des taux est le reflet d’une amélioration du niveau plutôt que d’une baisse de la qualité intrinsèque des diplômes ?

La baisse de niveau ne se limite pas aux grandes classes, dès les petites sections c’est un fait établi. Pour preuve, une étude menée par les services de l’éducation nationale entre 1987 et 2007 (http://media.education.gouv.fr/file/2008/23/9/NI0838_41239.pdf), montre que le niveau d’orthographe et de calcul en CM2 (sortie de primaire) a baissé, et le plus fortement entre 97 et 2007. En fait, le fait marquant est qu’en 2007, 21% des élèves sont au niveau des 10% les plus faibles de 1987. Voilà une illustration du nivellement par le bas du niveau des petits écoliers en France.

                Pour certaines personnes cette baisse de niveau n’a rien de dramatique, elle est le résultat normal de la « massification » des bacheliers, des lycéens etc… Et pour eux il est préférable de casser les élites en laissant le niveau baisser pour finalement sur un plan global, avoir plus de « diplômés ». Cette vision peut être défendue et avoir ses vertus, mais à condition de ne surtout pas sombrer à un niveau de compétences si faible qu’il annule l’intérêt même du diplôme. Dans la même optique, certains n’ont rien contre la perte d’un français convenable dans la bouche de nos jeunes, pour faire émerger un français « parlé » un peu à l’image de l’anglais américain. Pour ma part je ne suis pas du tout de cet avis. J’estime qu’il est nécessaire de garder comme base de notre culture une langue cohérente, avec des règles et des structures précises.

                La baisse de niveau ne se limite pas à la seule scolarité. En élargissant juste un peu le spectre de l’éducation nationale, on arrive à l’éducation parentale. Et là on arrive sur des notions de politesse élémentaire, et de respect. Là encore, que de chemin parcouru dans le mauvais sens !

Qui prend les transports en commun sait à quel point les valeurs basiques de politesse et de respect sont aujourd’hui réduites à néant. Passons sur le cas des jeunes (de 10 à 20 ans) qui multiplient tellement les actes à la limite de l’incivisme qu’il parait complètement illusoire de pouvoir aujourd’hui inverser la tendance pour s’attarder aux gens plus âgés, plus « mûrs » aurait on envie de dire… Là on trouve des comportements absolument incroyables. Un exemple très simple est le fait de laisser sortir quelqu’un (d’un ascenseur, d’un autobus etc) avant de rentrer soi-même. Cela paraît normal pour quiconque a reçu une éducation minimum et pourtant ce simple geste de politesse est quasiment inexistant de nos jours. Les gens se foncent les uns dans les autres dans une sorte de compétition …

D’où peut venir cette forme d’irrespect ? En fait il s’agit tout simplement des conséquences normales de l’exemple lamentable qui est aujourd’hui donné via les médias. Y a-t-il encore de la place pour le respect et la politesse au niveau télévisuel, sportif et même politique ? On peut vraiment se poser la question… L’exemple donné aux jeunes générations est affligeant. Du fameux coup de tête de Zidane (mille fois excusé), aux lamentables gesticulations politico-médiatique de nos soit disant dirigeants (voir le débat sur la chaîne publique France2 le 4 juin 2009…), en passant par la presse « people » qui encense de pseudos vedettes issues d’usines marketing grand public ou encore des rappeurs au langage très courtois…, on a face à nous un ensemble de comportements diffusés à grande échelle qui est inacceptable et dérangeant.

Et que dire du citoyen numéro actuel et qui représente la France… Souvenez-vous du salon de l’agriculture…

                Les « élites » de part un comportement proche des citoyens lambda (qu’ils revendiquent en plus) entraîne de façon évidente toute la population à multiplier et à rendre normal des comportements autrefois fustigés. Encore une fois, sans vouloir être réactionnaire, vieux jeu ou je ne sais quoi, n’est il pas nécessaire dans une communauté, dans une société qui rassemble des millions d’individus, d’avoir une souche de règles et de « reflexes » garantissant un respect mutuel ?

                Une élite loin du peuple agace, mais une élite qui se met au niveau du peuple casse de nombreux codes nécessaires malheureusement.

Baisse du niveau scolaire, éducatif et moral.

Que manque-t-il pour compléter le tableau ?

Tout simplement une baisse dans tous les domaines. Pèle mêle : architecture, industriel, alimentaire.

Architecture ? Oui, qui n’a pas vu fleurir dans sa ville des bâtiments affreux, inadéquate, voire dangereux ?

Poussés par des contraintes de coûts, des contraintes structurelles (appels d’offres ciblés par exemple), des querelles politiques, les administrations en arrivent bien souvent à privilégier tel ou tel plan d’architecte pour d’obscures raisons et qui ensuite se heurtent à l’incompréhension générale au vue du travail fini. Je prends l’exemple de travaux concernant l’hôpital. Un bâtiment en arc de cercle, idéal pour l’aménagement… Des structures « décoratives » en métal habillent la plupart des façades (le coût ?). A une époque il me semble qu’on allait plutôt à l’essentiel, des bâtiments simples, pratiques, solides et discrets. 

===

Ce texte est un inachevé, mon ami le reconnait d’ailleurs mais je pense qu’il est digne de vous être communiqué. Rappelons que ce texte date de 2009… Depuis, peut-on vraiment dire que les éléments que mon ami détaille ont vraiment évolué vers le mieux ?

Je pense qu’on est tous d’accord pour dire que non, les choses ne se sont pas améliorées. Tout au contraire, cela a empiré et souvent gravement. Il va falloir encore descendre avant de pouvoir enfin remonter.
Courage les amis, « c’est la nuit qu’il est beau de croire à la lumière » (Edmond Rostand, Cyrano de Bergerac – 1897).

Publié dans Ce blog | Laisser un commentaire

Automobilista 2 version 1.6.9.2 ou la politique des petits pas

Reiza vient de sortir sa version 1.6.9.2 de son titre Automobilista 2 (AMS2). Il s’agit là d’un ensemble de corrections plus ou moins mineures et de quelques contenus qui complètent ceux qu’on avait déjà.

Si c’est peu de choses, pourquoi en parler ?

Parce que, justement, c’est la bonne démarche pour améliorer, peaufiner un logiciel, que ce soit un jeu vidéo ou autre chose, peu importe : il faut du temps et un travail patient, acharné et rigoureux afin d’aboutir à un programme mature et performant.

Et c’est tout le contraire d’une approche « big bang » où on annonce des merveilles mais on sort vite fait/mal fait un titre pas terminé, bâclé, instable et tant pis pour les gogos qui y ont crus… Oui, je fais référence à PMR mais il y a d’autres (mauvais) exemples, hélas.

Donc, je suis particulièrement content de voir que Reiza ne cède pas à la facilité et prend son temps pour sortir une 1.7 qui fera la différence et finira d’établir AMS2 comme l’une des meilleures simulations du moment.

En attendant, les équipes de Reiza travaillent et pas à pas (la fameuse « politique des petits pas » !) améliore AMS2 dans tous les compartiments. Par exemple, l’affichage graphique est déjà bon et, en plus, il consomme peu de ressources (pas besoin d’avoir le dernier PC de la mort qui tue !). Mais ils ne se contente pas de cela et propose désormais une option appelée TAA. L’option graphique TAA (Temporal Anti-Aliasing) est une technique utilisée dans les jeux vidéo et les applications 3D pour améliorer la qualité visuelle en réduisant les effets d’aliasing (les contours crénelés ou « escalier » qui apparaissent sur les bords des objets). Comparé à d’autres techniques comme le MSAA (Multi-Sample Anti-Aliasing), le TAA est moins exigeant pour le GPU.

Sur ces deux images, ont peu distinguer ce qu’apporte le TAA : rien de renversant mais du mieux quand même (surtout sur la végétation).

L’attitude « je suis patient et je progresse pas à pas » doit aussi être valable pour nous tous !

Un exemple : cette semaine, j’ai fini par régler un problème que j’avais depuis longtemps et qui m’irritait constamment… Quand je lâchais le volant de mon simulateur (un Fanatec CSL) pour ne le tenir que d’une main, j’avais alors des oscillations rapides et très gênantes. J’avais tout essayé pour supprimer ou même simplement réduire ces vibrations handicapantes mais sans résultat. Et puis, j’ai essayé le fichier de personnalisation du FFB proposé par Danielkarts et là, miracle, plus rien !

Non seulement le FFB est meilleur (un peu meilleur mais on prend !) et, en plus, les oscillations ont disparues, même si je lâche le volant des deux mains (en ligne droite bien sûr !), un vrai progrès !

Sur mon simulateur, j’essaye d’appliquer cette méthode : patience ET détermination. Les problèmes finissent toujours par se régler si on accepte d’y passer un peu de temps et si on accepte d’attendre (le lâcher prise !) que la solution vienne d’elle-même. Pareil pour les évolutions : privilégiez le pas à pas ^lutôt que de vouloir tout changer d’un coup (c’est pour cela que je garde mon « vieux » Fanatec CSL car il me donne satisfaction… Pourquoi changer, uniquement pour se conformer à la mode actuelle du « direct drive » ?

Non, il faut savoir raison garder et prendre les choses une à une.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Enfin un nouveau livre : la déception informatique !

Je n’avais pas publié de nouveau livre depuis novembre 2023 (oui, le dernier en date est Dr Miracle – saison 1972…) !

Bon, je n’étais pas resté inactif en 2024 et 2025 puisque j’avais publié mon « Histoire de l’informatique moderne en vidéo » (33 épisodes quand même…).

Mais là, cette période est enfin terminée car voici un nouvel ouvrage : La déception informatique… De quoi s’agit-il ?

Justement, j’ai préparé une petit vidéo de présentation pour vous éclairer à ce propos :

Ce livre est déjà disponible sur Amazon, que ce soit en version Kindle ou papier. Mais ce n’est pas tout !

En effet, vous pouvez aussi l’avoir gratuitement et le télécharger en version Epub ou en version PDF… C’est y pas beautiful ?

Publié dans Informatique, Mes livres | 2 commentaires

Hydrogène : la grande désillusion ?

Il y a trois/quatre ans, je dois avouer que la mode en faveur de l’hydrogène (l’hydrogène pour ceci, hydrogène pour cela, l’hydrogène nous sauvera tous !) m’énervait prodigieusement !

Il semble que, désormais, cette mode (absurde) soit enfin derrière nous.

https://france3-regions.franceinfo.fr/centre-val-de-loire/hydrogene-la-grande-desillusion-en-l-espace-de-quelques-mois-les-abandons-de-projets-se-multiplient-3124186.html

https://www.bienpublic.com/economie/2025/12/19/on-abandonne-l-hydrogene-francois-rebsamen-acte-la-fin-d-un-projet-pharaonique

https://www.caradisiac.com/stellantis-abandonne-brutalement-l-hydrogene-216844.htm

Je ne suis pas surpris puisque voilà ce que j’en disais dans mon livre « le fait technique » :

====

La folie de “l’hydrogène vert” !

En ce moment, c’est la folie en faveur de l’hydrogène « vert » : la propagande technique, jamais avare d’une nouvelle mode, aussi absurde soit-elle s’est trouvé un nouvel idéal et c’est l’hydrogène. Oui, l’hydrogène est la solution, l’hydrogène va nous sauver, l’hydrogène est le nouvel horizon vers lequel tout converge, alléluia !

Cela ne vous aura pas échappé : l’hydrogène est devenu une priorité absolue dans toute politique de transition énergétique. Les grands industriels multiplient les communiqués de presse à ce propos : l’hydrogène est désigné comme un nouvel eldorado.

Pourquoi un tel enthousiasme ? Tout simplement parce que les gouvernements ont donné le signal de la ruée vers l’hydrogène en ouvrant largement la bourse aux subventions en tous genres. Les montants annoncés au second semestre 2020, pour la décennie entière, sont de taille : l’Allemagne et les Pays-Bas ont calibré leur plan à 9 milliards d’euros, l’Espagne à 8 milliards, le petit Portugal à 7 milliards, et la France à 7,2 milliards.

Mardi 25 mai 2021, le géant chinois Sinopec prenait la relève en dévoilant un projet de centrale d’hydrogène vert basée à Ordos en Mongolie.

Un exemple parmi cent pour illustrer cette “ruée vers l’or” (un or issu des fonds publics surtout…)  : McPhy Energy a révélé récemment que sa “gigafactory” d’une capacité de 1 gigawatt se situerait à Belfort. Cette usine vouée à fabriquer des électrolyseurs de grande taille, permettant de produire de l’hydrogène d’origine renouvelable par électrolyse de l’eau, coûtera entre 30 et 40 millions d’euros, partiellement financés par des fonds publics (le communiqué de McPhy Energy comporte d’ailleurs les commentaires de deux ministres de Bercy : Bruno Le Maire pour l’Économie et Agnès Pannier-Runacher pour l’Industrie), dans le cadre d’un mécanisme européen visant à déplafonner les aides d’État (source : Les Échos).

En théorie, c’est merveilleux

Cet enthousiasme est-il vraiment appuyé sur des données scientifiques sûres ?

En théorie, oui. Avec 92% de la masse des atomes connus, c’est tout simplement l’élément (H) le plus abondant de l’univers. Aujourd’hui, il est utilisé principalement dans la production d’ammoniac ou le raffinage de produits pétroliers et de carburants (demandez à la société Air Liquide qui en est un des principaux producteurs). La production actuelle culmine à 74 millions de tonnes, qui ne pèsent pas lourd face aux promesses futures. La combustion de la forme moléculaire de l’hydrogène H2 produit 3 fois plus d’énergie que l’essence à poids égal. Plus important encore : cette combustion ne produit que de l’eau… Une énergie abondante et non polluante, c’est le rêve !

En pratique, un peu moins…

Comme d’habitude, la propagande met en avant des éléments très exagérés pour ne pas dire honteusement déformés. Mais comme le grand public n’a aucune culture technique (alors que nous vivons dans une société où la technique domine tout !), ça passe. Car, en face des espoirs d’un hydrogène solution miracle à tous nos problèmes énergétiques, les freins sont tout aussi importants. L’hydrogène est difficile à stocker et à transporter. De plus, seulement 5% de l’hydrogène produit est réellement décarboné, la production s’appuyant encore aujourd’hui à 95% sur l’utilisation de ressources fossiles polluantes. On voit qu’on est encore loin, très loin d’un hydrogène “vert” comme on nous le promet…

L’hydrogène, pour quoi faire ?

Pour comprendre pourquoi l’usage de l’hydrogène comme énergie relève de l’utopie, voyons d’abord quels sont les principaux usages mis en avant par la propagande technique actuelle.

En premier lieu, il y a les transports. En effet, difficile d’imaginer qu’un avion de ligne puisse être propulsé par des moteurs électriques, mais en y brûlant de l’hydrogène, pourquoi pas… Seulement, quand on pense “transports”, on pense tout de suite à notre chère automobile, forcément !

Là, l’hydrogène est positionné en sauveur : il permettra de conserver la mobilité individuelle tout en réduisant drastiquement la pollution. Génial non ?

Les avantages sont nombreux et séduisants : aucune pollution à l’usage, un plein en moins de cinq minutes et pas les prises de tête de l’électrique à batterie pour trouver une borne fonctionnelle, avant de patienter 20 minutes pour récupérer de quoi faire Lyon-Valence (exemples vécus !).

L’hydrogène pourrait aussi servir de carburant “vert” pour les locomotives, les bateaux et les camions. Ensuite, l’autre grand usage proposé réside dans le stockage d’énergie. En effet, les énergies alternatives présentent un gros défaut : elles sont intermittentes. En clair, le vent ne souffle pas forcément pile au moment où l’on a besoin de produire de l’électricité avec une éolienne. Pas besoin de l’expliquer pour le solaire, c’est encore plus évident (surtout la nuit !). Le raisonnement est donc le suivant : puisqu’on produit de l’énergie avec l’éolien et le solaire, mais pas forcément au bon moment, stockons-là pour en disposer quand on en aura besoin… ça paraît tout simple. Le hic c’est que, justement, ce n’est pas un problème simple à traiter.

Comment stocker l’énergie ?

On a d’abord pensé à stocker l’électricité produite dans des batteries. Mais il en faut beaucoup, elles sont coûteuses, elles sont difficiles à recycler et elles ont une durée de vie limitée. De plus, l’électricité stockée ne reste pas dans les batteries indéfiniment… Même sans tirer dessus, la batterie se vide, petit à petit, inexorablement. Bref, même si les batteries progressent de plus en plus depuis quelques années, ce n’est pas un moyen durable de stocker l’énergie intermittente. Il faut trouver autre chose et de nombreuses start-up proposent des solutions techniques diverses. Cela va des volants inertiels aux stations de transfert d’énergie par pompage (STEP) qui utilisent la gravité de l’eau sans oublier les tours qui empilent des blocs de béton. Cela ressemble au catalogue des inventions du concours Lépine, mais c’est très sérieux en fait (enfin, pas toutes les solutions proposées tout de même !). En revanche, ne vous attendez pas à des rendements très élevés…

Le problème du rendement énergétique

Je ne vais pas vous assommer avec les lois de la thermodynamique et du principe de Carnot… Il suffit d’admettre que, lors d’une transformation ou conversion, toute l’énergie entrante n’est pas transformée en énergie souhaitée à la sortie, il y a des pertes et le rendement est toujours inférieur à 100%. En gros, quand on utilise de l’électricité pour réaliser l’électrolyse de l’eau (par exemple), 100% de l’énergie utilisée ne va pas pouvoir produire 100% d’équivalent en hydrogène à l’issue de ce processus. On sait que le rendement énergétique de l’électrolyse de l’eau peut varier de manière importante. La gamme de rendements varie de 50 à 70%. Donc, si vous utilisez 100 KW d’électricité pour pomper l’eau d’une rivière et la faire monter dans un bassin en hauteur, faire le contraire (laisser tomber cette eau sur une turbine afin de générer de l’électricité) ne va PAS vous restituer 100 KW, mais seulement 70 (certains dispositifs promettent mieux que cela, mais restons sur une base de 30% de perte à chaque transformation, ça sera plus raisonnable), dans le meilleur des cas.

Pour en revenir à l’utilisation de l’hydrogène pour les transports (et l’automobile en premier lieu), quand bien même l’opérateur se servirait d’énergie renouvelable (hydroélectrique, éolien, photovoltaïque), il y a cette équation simple : pour produire de l’hydrogène, on se sert de l’électricité du réseau. Une fois l’hydrogène produit, il est injecté dans une pile à combustible pour produire à nouveau… de l’électricité. Le problème, c’est que toutes ces opérations ruinent le rendement de la chaîne (rappel : il y a des pertes à chaque étape). N’aurait-il pas été plus judicieux de se servir directement de l’électricité du réseau au départ pour « l’injecter » directement dans un véhicule électrique à batterie, ou bien dans d’autres secteurs ?

En termes de rendement global de la chaîne, il y a clairement mieux que l’hydrogène…

Un scénario catastrophe pour l’hydrogène

Certains promettent que l’hydrogène va être “tout pour tous”, mais généraliser cet usage au transport automobile (par exemple) va se révéler plus difficile qu’annoncé. Voici un scénario imaginé par le site Leonard (source https://leonard.vinci.com/la-ruee-vers-lhydrogene/) :

Elon Musk, qui déclarait dès 2014 que les piles à combustible sont “stupides”, peut jubiler. Les grands constructeurs automobiles ont finalement favorisé la batterie classique – dont les rendements ont progressé bien plus rapidement – à la pile à combustible. Les 280 milliards de dollars qu’il aurait fallu mobiliser pour faire passer l’hydrogène à l’échelle dans la mobilité  (estimation de l’Hydrogen Council en 2017) sont loin d’être atteints. Les coûts faramineux d’installation des pompes à hydrogène ont découragé les collectivités.

Il faut compter autour de 500 millions de yens (3,9 millions d’euros) par unité, soit quatre fois plus que pour la construction d’un distributeur à gaz. Même si les autorités vont largement subventionner les travaux (jusqu’à 80% à Tokyo !), les industriels risquent de réfléchir à deux fois avant de se lancer dans la construction d’un nouveau réseau parallèle aux stations classiques, qui quadrillent déjà bien le territoire. Une station d’hydrogène requiert des lieux de stockage, des machines pour compresser, refroidir et liquéfier le gaz à -40°C pour faire le plein.

Le prix des véhicules (une Toyota Mirai coûte 80 000€ en 2019) a refroidi les ardeurs des consommateurs. Dans l’opinion publique, les technologies liées à l’hydrogène restent confidentielles ou dangereuses. L’explosion d’une pompe en Norvège en 2019 a freiné pour un temps les livraisons de véhicules équipés. L’hydrogène pourrait ajouter son nom à la longue liste des succès technologiques soldés en échecs commerciaux.

On le voit, le site Leonard se situe plutôt à contre-courant de l’euphorie ambiante sur l’hydrogène. Mais, en creusant bien, on trouve de plus en plus de ces “voix discordantes” qui tempèrent les espoirs en un “hydrogène-solution-universelle” : “Les carburants à base d’hydrogène en tant que solution climatique universelle pourraient être un peu des fausses promesses. Bien qu’ils soient merveilleusement polyvalents, il ne faut pas s’attendre à ce qu’ils remplacent largement les combustibles fossiles. Les carburants à base d’hydrogène seront probablement rares et non compétitifs pendant au moins une autre décennie” déclare Falko Ueckerdt, l’auteur principal d’une étude sur les usages de l’hydrogène réalisée par le Potsdam Institute for Climate Impact Research.

Source https://www.pik-potsdam.de/en/news/latest-news/hydrogen-instead-of-electrification-potentials-and-risks-for-climate-targets

Quelques voix commencent à s’élever…

Dans le concert de louanges vis-à-vis de l’hydrogène, il y a tout de même quelques “avis autorisés” comme celui d’Elon Musk qu’on vient d’évoquer (encore que, le PDG de Tesla peut être soupçonné de ne pas être objectif lui qui joue à fond le pari de la voiture électrique alimentée par des batteries…) ou d’Herbert Diess, PDG de Volkswagen qui sont plus que sceptiques. Dans un billet de blog en 2019 (sources https://www.volkswagenag.com/en/news/stories/2019/08/hydrogen-or-battery–that-is-the-question.html#), Volkswagen détaillait déjà sa position par rapport à la voiture à hydrogène : avec les voitures électriques alimentées par batterie, seuls 8% de l’énergie sont perdus pendant le transport avant que l’électricité ne soit stockée dans les batteries des véhicules. Lorsque l’énergie électrique utilisée pour entraîner le moteur électrique est convertie, 18% supplémentaires sont perdus. Cela confère à la voiture électrique à batterie un niveau d’efficacité compris entre 70 et 80%, selon le modèle.

Avec la voiture électrique à hydrogène, les pertes sont nettement plus importantes : 45% de l’énergie est déjà perdue lors de la production d’hydrogène par électrolyse. Sur ces 55% restants de l’énergie d’origine, 25% supplémentaires sont perdus lorsque l’hydrogène est converti en électricité dans le véhicule. Cela signifie que la voiture électrique fonctionnant à l’hydrogène n’atteint qu’un rendement compris entre 25 et 35%, selon le modèle.

Citant une étude du cabinet de conseil Horváth & Partners, Volkswagen estime que le coût global pour le consommateur serait de 2 à 7 euros les 100 kilomètres pour la voiture électrique, contre 9 à 12 pour la voiture à hydrogène.

Des éléments objectifs qui disent non…

Le dilemme est là : plus souvent vous faites des transformations (passer d’une forme d’énergie à une autre) et moins le rendement final est bon. Or, dans le cas de l’hydrogène, vous êtes obligés de procéder à ces transformations, car il s’agit d’un élément qu’il faut produire, qu’on ne récolte pas à l’état naturel sur la Terre (pas de mine et peu de poches d’hydrogène dans la nature sauf au fond des océans sous certaines conditions…).

Il existe deux manières de produire de l’hydrogène : soit en utilisant un sous-produit de l’industrie pétrolière (99% de la production d’hydrogène actuelle, mais inacceptable dans le contexte tant vanté de la “transition énergétique”), soit en réalisant l’hydrolyse de l’eau (H2O) en utilisant de l’électricité (1% de la production d’hydrogène actuelle, car cela coûte très cher) pour séparer les deux atomes d’hydrogène de l’atome d’oxygène. Ce type d’hydrogène quand il est produit avec l’aide d’énergie renouvelable est appelé “hydrogène vert”. Actuellement “l’hydrogène vert” est commercialisé à 15 € le kg (par Air Liquide). Avec 1kg, une voiture à hydrogène parcourt environ 100 km, je vous laisse faire le calcul pour situer le niveau du problème…

De plus, l’hydrogène est un gaz qui est difficile à stocker, car ses atomes sont tellement petits et légers qu’ils se faufilent partout et il nécessite d’importants moyens techniques pour le stocker à température basse et à très haute pression. Le prix de stockage et de transport de l’hydrogène sont beaucoup plus élevés que celui du gaz de ville ou du diesel. Par exemple, pour faire un trajet de 600 km en voiture, il faut un réservoir de 40 kg de gasoil, mais il faut un réservoir de 250 kg d’hydrogène (c’est surtout l’enveloppe qui coûte cher et pèse très lourd pour maintenir l’hydrogène à 700 Bars, soit la pression qu’on retrouve à 7 000 m sous les mers). Donc, ce réservoir lourd et coûteux perd entre 1% et 5% de son contenu tous les jours… pas terrible !

Sans oublier que l’hydrogène est un produit explosif dont la manipulation exige des précautions très particulières que seule l’industrie maîtrise pour le moment. Quand on se rappelle combien les voitures utilisant le GPL ont été rapidement bannies des parkings souterrains pour cause de dangerosité, on se dit que la généralisation de l’hydrogène pour l’automobile va être vraiment difficile.

Récapitulons les inconvénients de l’hydrogène : difficile à produire (surtout s’il doit être “vert”…), difficile à stocker (et à conserver !), difficile à ravitailler (car dangereux)… N’en jetez plus !

On peut donc l’oublier pour la voiture individuelle. Tout simplement parce que, sur une voiture, la place manque, et le(s) réservoir(s) se doivent d’être compacts. Il faut donc comprimer fortement l’hydrogène, y compris dans son transport et son stockage. Et tout ceci consomme à nouveau de l’énergie. Les réservoirs d’un navire, ou bien d’un camion sont plus grands et nécessitent moins de compression et donc moins d’énergie en amont. Le bilan est ainsi amélioré. Citons à nouveau l’étude de VW : l’hydrogène ne pourra être utilisé que dans des niches, dans les camions et les bus, et sur de longues distances. Le poids de la batterie, l’autonomie et le temps de ravitaillement jouent ici un rôle décisif. Il augmente considérablement avec l’augmentation de la capacité, ce qui rend les batteries inintéressantes, même pour les camions. En outre, les stations-service de camions existantes pourraient être converties en un réseau de stations-service d’hydrogène avec un effort gérable en raison de leur nombre plus faible.

L’hydrogène pour les « gros », donc, et les batteries pour les transports individuels.

Difficile dans ces conditions de comprendre pourquoi il y a un tel enthousiasme pour cette nouvelle mode (à part l’effet d’aubaine des plans gouvernementaux… ceci explique cela). Je ne suis pas en train de dire que l’hydrogène ne sera jamais utilisé comme énergie dans l’avenir, simplement que ça va prendre plus de temps et d’efforts qu’annoncé, comme toujours.

===

Pour finir, une petite synthèse compliéée par Perplexity…

Plusieurs articles et rapports récents commentent le recul ou l’abandon de projets hydrogène en France et en Europe, en insistant surtout sur le coût, les échecs industriels et le manque d’efficacité énergétique.h2-mobile+2

Articles sur des projets abandonnés

  • Dijon Métropole a officiellement renoncé à ses bus à hydrogène après la faillite du constructeur Van Hool et du fournisseur d’électrolyseur McPhy, la collectivité se réorientant vers l’électrique et les biocarburants.h2-mobile

  • En Bretagne, le projet Armor Hydrogène a été stoppé après le retrait de l’opérateur Valorem, ce qui illustre les difficultés de montage économique et industriel des grands projets de production d’hydrogène vert.latribune

Analyses critiques en presse généraliste

  • Le Figaro détaille la série d’abandons de projets d’hydrogène vert en France depuis 2024 (faillite de McPhy, arrêt du programme piles à combustible chez Stellantis) et parle d’objectifs « irréalistes » pour la filière au vu des coûts et des retards.lefigaro

  • Le magazine Epsiloon consacre un dossier intitulé « Hydrogène, la fin d’un rêve industriel » qui insiste sur le coût très élevé pour les industriels et collectivités, entre investissements de départ et prix du kilo d’hydrogène bas carbone.epsiloon

Rapports institutionnels et études

  • La Cour des comptes française publie un rapport très sévère sur la stratégie nationale hydrogène, dénonçant des objectifs de capacités électrolytiques jugés irréalistes, des aides publiques mal ciblées et un coût global pouvant atteindre 9,6 à 13 milliards d’euros d’ici 2030.techniques-ingenieur+1

  • Le site de vulgarisation luxembourgeois Science.lu met en avant la faible efficacité énergétique de l’hydrogène vert par rapport à l’usage direct de l’électricité, ce qui rend d’autres solutions souvent plus efficaces et moins coûteuses en électricité renouvelable.science

Tribunes et prises de position sceptiques

  • L’association des Climato-réalistes publie un article « L’hydrogène vert, une fausse bonne idée » qui souligne le besoin colossal d’électricité bas carbone pour décarboner les usages actuels, les coûts très supérieurs au gaz naturel et les pertes sur l’ensemble du cycle de vie.climato-realistes

  • Un article d’Autoplus explique que plusieurs constructeurs (Daimler Truck, Stellantis) stoppent ou reportent leurs programmes hydrogène, en raison d’une efficacité énergétique et de coûts jugés défavorables face au véhicule électrique à batterie.autoplus

Synthèses prospectives

  • Le cabinet de conseil Alcimed décrit un futur de l’hydrogène vert « entre doutes et opportunités », pointant le manque de compétitivité, la pression des importations extra‑européennes et les incertitudes réglementaires comme facteurs de remise en cause de nombreux projets.alcimed

  1. https://www.h2-mobile.fr/actus/dijon-metropole-abandonne-bus-hydrogene/
  2. https://www.techniques-ingenieur.fr/actualite/articles/hydrogene-vert-la-cour-des-comptes-critique-severement-la-strategie-francaise-147279/
  3. https://www.lefigaro.fr/societes/manque-d-argent-public-objectifs-irrealistes-comment-l-hydrogene-vert-souffre-des-incoherences-politiques-francaises-20251024
  4. https://www.latribune.fr/article/regions/bretagne/10729002157719/hydrogene-vert-malgre-l-abandon-d-armor-hydrogene-la-bretagne-maintient-sa-feuille-de-route
  5. https://www.epsiloon.com/tous-les-numeros/n55/hydrogene_la_fin_d_un_reve_industriel/
  6. https://www.ccomptes.fr/sites/default/files/2025-06/20250605-S2025-0104-Soutien-developpement-hydrogene-decarbone_0.pdf
  7. https://www.science.lu/fr/decarbonation/protection-du-climat-quelles-fonctions-peut-remplir-lhydrogene-quelles-sont-ses-limites
  8. https://www.climato-realistes.fr/lhydrogene-verte-une-fausse-bonne-idee/
  9. https://www.autoplus.fr/environnement/voiture-a-hydrogene/plus-un-reve-quune-realite-labandon-de-ce-type-de-motorisation-se-profile-selon-un-expert-1393031.html
  10. https://www.alcimed.com/fr/insights/hydrogene-vert/
Publié dans Ce blog | Laisser un commentaire

Reiza nous offre son Noël : la version 1.6.9 d’Automobilista 2 !

J’ai pas encore eu le temps de la tester mais voilà une bonne façon de finir l’année en beauté : la 1.6.9 d’AMS2 est disponible !

Pas de grande révolution avec cette version mais voici enfin les trois générations de NASCAR (que j’avais déjà évoqué ici) disponibles et c’est bien !

ams2-nascar-gen2.jpg

ams2-pocono.jpg

automobilista-2-nascar-80s.jpg

Mais, encore plus important pour moi, nous allons enfin avoir les drapeaux jaunes !

Bon, faut tester pour voir si la promesse est tenue et donc cette lacune (criante) enfin comblée mais c’est vraiment ce que j’aime dans la démarche de Reiza : avancer pas à pas et perfectionner « à bas bruit » AMS2 version après version… Bravo les gars.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Après le bilan de l’année en SimRacing, voici MON bilan de l’année en SimRacing !

Dans un article précédent, j’établissais un bilan de l’année écoulée en ce qui concerne le domaine du SimRacing.

Actualités et bilan de l’année 2025 pour le SimRacing

Déjà, ce sujet est (de loin avec l’informatique, 11 articles pour cette année) celui pour lequel j’écris le plus 18 articles publiés en 2025.

L’année dernière, je vous avais déjà proposé ce type de récap…

Un bilan d’un an de SimRacing…

Cette fois, je vais faire plus concis et plus direct !

Le bilan Steam 2024

Le bilan Steam 2025

Le trio de tête reste presque identique sauf que Forza Motorsport a été remplacé par rFactor2 que je pratique encore occasionnellement.

Voici les heures cumulées des principales simulations que je pratique :

  • Automobilista 2 (AMS2) : 1459h (1197h en 2024)
  • Autmobilista 2 Beta : 177h (137h en 2024)
  • Assetto Corsa : 292h (284h en 2024)
  • Assetto Corsa EVO : 4h
  • Assetto Corsa Rally :
  • Le Mans Ultimate (LMU) : 272h (176h en 2024)
  • Nascar 25 : 13,5h
  • Heat 5 : 28h
  • rFactor 2 : 749h (708h en 2024)
  • Project Motor Racing (PMR) : 6,8h

En face de cette énumération comptable, quelques constatations : la seule simulation sur laquelle je passe vraiment du temps, c’est AMS2, point. Le reste a droit à quelques miettes. LMU progresse plus qu’Assetto Corsa et rFactor2 réunies… C’est dire !

Pour les plus récentes (AC EVO, Rally et PMR), ce n’est pas encore très significatif et c’est normal.

Je ne fais pratiquement que du offline (je roule contre les IA qui ne font pas chier et ne me reprochent rien quand je fais une erreur). Cette année, je crois que n’ai participé qu’à deux courses online (toute les deux sur LMU) et la seconde, c’est cet après-midi : une course de GT3 au Mans, qualifié 4, je termine second (sur 21). Pas grâce à ma vitesse mais juste de par ma volonté de rester sur la piste et de ne pas faire trop d’erreurs…

Les dernières actualités…

PMR et AC Rally viennent d’avoir des mises à jour alors, bien sûr, j’ai regardé ce que ça donne… Pour AC Rally, c’est toujours aussi beau et on de la neige désormais. En revanche, le triple-screen, c’est pas encore tout à fait cela.

Pour ce qui est de PMR, le radar est arrivé mais, désormais, je ne trouve plus où on peut régler le FFB (j’ai finalement trouvé mais, franchement, c’est mal foutu !) et le réglage du FOV a aussi disparu… ça ressemble un peu à « un pas en avant, deux pas en arrière » !

Publié dans Sports mécaniques virtuels | 2 commentaires

Sans doute le langage informatique le plus répandu (et donc, le plus influant) : COBOL, le vieux cheval sous-estimé !

Voici de nouveau (et là aussi !) un extrait que je découvre en lisant « EPOCH – Une histoire de l’informatique » de Stéphane Fosse. Même moi, j’apprends beaucoup en lisant cet ouvrage qui représente un travail énorme et soigné !

Cette fois, on se penche sur la saga du langage COBOL, un vétéran injustement sous-estimé mais qui a eu une trajectoire majeure dans notre histoire…

===

En mai 1959, le Pentagone accueille à Washington une réunion qui changera l’informatique d’entreprise pour les décennies à venir. Charles A. Phillips, à la tête du Data Systems Research Staff, rassemble une cinquantaine de personnes  : militaires, fonctionnaires, consultants et ingénieurs des plus grands fabricants d’ordinateurs. Chaque fabricant de l’époque a son propre langage, ses propres machines. Un programme écrit pour un IBM ne fonctionne pas sur un UNIVAC. Comment mutualiser les efforts dans un secteur où les applications administratives commencent à proliférer ?

De cette rencontre naît le CODASYL, un comité chargé de réfléchir aux langages informatiques. Un groupe plus restreint, le « comité court terme », reçoit la mission d’analyser les points forts et les faiblesses des compilateurs existants, principalement AIMACO (sa variante militaire), FLOW-MATIC (l’œuvre de Grace Hopper chez Remington-Rand), et COMTRAN (un projet d’IBM très théorique).

Personne ne s’attendait à ce que ce comité accouche d’un nouveau langage. Pourtant, en novembre 1959, six personnes s’enferment pendant deux semaines et en sortent avec les spécifications d’un langage qu’ils nomment COBOL  : Common Business Oriented Language. Ce document, finalisé en avril 1960, allait bien au-delà d’une simple synthèse des langages existants.

Efemerides de Tecnologia: 28 de mayo (1959) se crea CODASYL. Los ...

Grace Hopper est celle qui porte l’uniforme (c’est un amiral de la Navy!).

Le choix technique du COBOL reposait sur sa structure en quatre divisions  : IDENTIFICATION pour les informations du programme, ENVIRONMENT pour décrire l’environnement d’exécution, DATA pour structurer les données, et PROCEDURE pour les instructions. La syntaxe se rapprochait de phrases en anglais, rendant le code lisible y compris pour des non-spécialistes. Les noms de variables pouvaient compter jusqu’à 30 caractères, une nouveauté qui permettait d’utiliser des noms clairs et compréhensibles plutôt que des abréviations illisibles.

Le moment de vérité survint les 6 et 7 décembre 1960 lors d’une démonstration publique  : un même programme COBOL s’exécuta correctement sur deux machines radicalement différentes, un RCA 501 et un UNIVAC II. Pour la première fois, la portabilité du code informatique devenait réalité.

Meet Grace Hopper, the Pioneering Computer Scientist Who Helped Invent ...

Toujours Grace Hopper…

Les premières années de COBOL furent marquées par plusieurs évolutions  : COBOL-61, COBOL-61 Extended, puis COBOL-65. La normalisation ANSI arriva en 1968, suivie par d’autres normes en 1974 et 1985. La compatibilité ascendante, garantissant que les anciens programmes continueraient à fonctionner, est une caractéristique remarquable qui fut maintenue.

Le gouvernement américain avait l’exigence que tout ordinateur vendu ou loué aux administrations devait disposer d’un compilateur COBOL, et ce fut un des facteurs de succès de COBOL. Cette décision força les constructeurs à développer leurs propres compilateurs, propulsant COBOL au rang de standard incontournable dans l’informatique de gestion.

On pourrait questionner la longévité extraordinaire de ce langage né comme une solution temporaire, que plusieurs éléments expliquent. D’abord sa relative simplicité le rendait accessible aux programmeurs non académiques qui formaient le gros des équipes informatiques des entreprises. Sa lisibilité facilitait la maintenance des applications. Son orientation vers le traitement des données administratives correspondait parfaitement aux besoins du secteur tertiaire.

Face au bug de l’an 2000, le monde découvrit avec stupeur l’omniprésence de COBOL dans les rouages de l’économie. Les estimations vertigineuses montrèrent que sur les 300 milliards de lignes de code en production mondiale en 1997, environ 240 milliards étaient écrites en COBOL. Plus de 95% des données financières et d’assurance transitaient par ces programmes.

Contre toute logique apparente, COBOL traversa le cap de l’an 2000 sans perdre son importance. En 1999, plus de 50% des nouvelles applications critiques étaient encore développées dans ce langage, face à l’émergence de Java. Les projections pour 2004-2005 estimaient que 15% des nouvelles applications (5 milliards de lignes) seraient en COBOL, tandis que 80% des applications déployées constitueraient des extensions à des programmes COBOL existants.

Cette résistance inattendue trouve sa source dans les caractéristiques techniques du langage  : pas de pointeurs, des types de données élémentaires, une description détaillée des fichiers et des sorties d’impression. Ces limitations, qui pourraient sembler handicapantes pour des applications scientifiques, sont en réalité des atouts pour les applications de gestion en réduisant les risques d’erreurs catastrophiques.

Dans notre monde obsédé par l’innovation perpétuelle, parfois la simplicité et la stabilité l’emportent sur la sophistication. Un langage jugé dépassé par les informaticiens depuis les années 1970 continue de faire tourner les systèmes financiers mondiaux au XXIe siècle, démontrant que l’élégance théorique n’est pas toujours gage de pertinence pratique.

=========

« Dans notre monde obsédé par l’innovation perpétuelle, parfois la simplicité et la stabilité l’emportent sur la sophistication »… Je suis 100% d’accord !

Publié dans Anecdotes IT, Informatique, Livre histoire de l'informatique | Laisser un commentaire

Le tout premier disque dur : l’IBM 350 Ramac, une histoire mémorable !

Voici de nouveau un extrait que je découvre en lisant « EPOCH – Une histoire de l’informatique » de Stéphane Fosse. Même moi, j’apprends beaucoup en lisant cet ouvrage qui représente un travail énorme et soigné !

Cette fois, on se penche sur la création du tout premier disque dur, maillon indispensable de la technique utilisée pour créer l’informatique moderne…

====

IBM 350 RAMAC

Le 6 mai 1955, IBM dévoile sans tapage une avancée technique qui changera à jamais notre rapport aux données. Dans un laboratoire de San José, une équipe d’ingénieurs vient de créer le premier disque dur de l’histoire. Cet appareil au nom peu évocateur pour le grand public, l’IBM 350 RAMAC (Random Access Method of Accounting and Control), marque le début d’une nouvelle ère dans le stockage numérique.

Tout commence trois ans plus tôt. En janvier 1952, W. Wallace McDowell contacte Reynold B. Johnson, un ancien professeur reconverti chez IBM. La direction souhaite établir un petit laboratoire sur la côte Ouest américaine, loin des habitudes et structures de l’Est. Johnson reçoit carte blanche pour monter une équipe limitée à 50 personnes. Sa mission consistait à explorer des voies techniques différentes, notamment l’impression sans impact et la réduction des données.

Johnson ne perd pas de temps. En quelques semaines, il loue un bâtiment vide à San José, lance le recrutement et débute les travaux. Louis D. Stevens, envoyé temporairement pour l’aider, sera finalement son bras droit technique. Dès juillet 1952, le laboratoire fonctionne avec une trentaine de collaborateurs. L’atmosphère y est particulière, façonnée par trois règles établies par Johnson  : comprendre sa machine et son usage, connaître tous les projets en cours dans le laboratoire, et toujours donner priorité à l’aide entre collègues.

Le projet qui aboutira au RAMAC s’appelle au départ « Source Recording ». Son objectif est simplement de transformer des données alphanumériques en format lisible par machine, alors que les options de stockage se comptent sur les doigts d’une main  : cartes perforées, bandes magnétiques et, plus marginalement, tambours magnétiques. Ces supports présentent tous des limitations, rendant les processeurs souvent inactifs pendant la recherche d’information.

À l’automne 1952, l’équipe s’intéresse aux « fichiers bac » de cartes perforées très répandus dans les entreprises. Ces grands casiers rectangulaires contiennent des cartes classées par numéro de client ou d’article. Les employés y fouillent manuellement pour produire factures et bons de livraison, un processus lent et sujet aux erreurs.

Après avoir exploré diverses pistes, Johnson prend en janvier 1953 une décision audacieuse qui suscite l’incrédulité  : concentrer tous les efforts sur les disques magnétiques. Un ingénieur lui prédit un échec cuisant, et le projet hérite du surnom moqueur de « trancheuse à saucisson ».

Les problèmes techniques semblent insurmontables. Maintenir un écart microscopique entre la tête de lecture et la surface tournante, créer des surfaces parfaitement planes, développer un revêtement magnétique fiable… La liste paraît sans fin. L’équipe teste différents matériaux  : aluminium, laiton, verre, plastiques, magnésium. Les disques en aluminium se déforment à grande vitesse. La solution vient finalement de stratifiés d’aluminium compressés et chauffés au-delà du point de recuit. Le revêtement magnétique pose un autre casse-tête. Jake Hagopian trouve une méthode artisanale  : verser le revêtement sur la face interne d’un disque en rotation rapide. Bill Crooks l’améliore en filtrant la solution à travers du nylon et en utilisant… des gobelets en papier pour les mesures. Cette technique rudimentaire sera utilisée pendant un an avant d’être automatisée. Norman Vogel résout quant à lui le problème de la tête de lecture-écriture. Il conçoit un système qui rétracte la tête pendant le mouvement entre les disques, avec trois mini-pistons pneumatiques pour contrôler la position.

Le 10 février 1954, le premier transfert d’information entre cartes et disques est réussi. Le prototype ressemble à une machine abracadabrante, mais l’équipe persévère. Une refonte complète aboutit au Modèle II, avec comme innovation le passage à un axe vertical pour les disques, facilitant leur remplacement et laissant plus d’espace pour les mécanismes d’accès.

Le 10 janvier 1955, moins de trois ans après la création du laboratoire, le premier Modèle II du RAMAC 350 est présenté avec succès. Le système est commercialisé en septembre 1956, intégré au système IBM 305 RAMAC qui comprend processeur, lecteur de cartes et imprimante.

Father of the world’s first commercial computer disk drive’ Reynold B. (Rey) Johnson, stands outside the IBM 305 RAMAC in 1960 (Image credit: IBM).

Les caractéristiques du RAMAC 350 étaient sans précédent. Cinquante disques de 61 cm tournant à 1 200 tr/min, un débit de 100 000 bits par seconde, une capacité totale de 5 millions de caractères. La densité atteignait 2 000 bits par pouce carré, avec un temps d’accès moyen de 600 millisecondes. Pour mesurer le chemin parcouru, l’IBM 3380 des années 1980 utilisait neuf disques de 35,5 cm tournant à 3 600 tr/min, avec un débit de 24 millions de bits par seconde et une capacité de 1,25 milliard d’octets. Le coût de location mensuel par mégaoctet chuta de 130 dollars pour le RAMAC 350 à environ un dollar pour le 3380.

L’arrivée du RAMAC 350 a bouleversé notre rapport aux données. Pour la première fois, l’information devenait directement accessible sans manipulation physique préalable. Cette rupture technologique a rendu possibles les applications informatiques interactives  : réservations aériennes, gestion des stocks, services bancaires automatisés, contrôle des vols spatiaux, traitement de texte…

Cette innovation, née dans un modeste laboratoire californien, a lancé une industrie du stockage générant des milliards de dollars, et stimulé le développement des processeurs rapides et des services informatiques. En 1984, l’American Society of Mechanical Engineers reconnaît officiellement le RAMAC 350 comme jalon historique international, saluant son rôle dans l’évolution du génie mécanique et son influence sur la société du XXe siècle.

Le RAMAC marque la naissance véritable de l’ère numérique où nous vivons aujourd’hui, où l’accès instantané à l’information est devenu si naturel que nous en oublions parfois le miracle technologique qu’il représente.

Publié dans Anecdotes IT, Informatique, Livre histoire de l'informatique | Laisser un commentaire

Actualités et bilan de l’année 2025 pour le SimRacing

L’actualité du SimRacing a été intense en cette fin d’année !
Il est temps de récapituler et d’en faire un bilan.

Pour mémoire, voilà ce que je disais sur le sujet il y a un an :

Un bilan d’un an de SimRacing…

PMR loupe son entrée sur scène

Tout d’abord, nous avons eu le lancement très attendue de Project Motor Racing (PMR) qui a clairement déçu lors de sa sortie… Comme on dit « vous n’avez jamais une seconde chance de faire une bonne première impression ! ». Et dans le cas de PMR, cette première impression a été mauvaise, même avec la meilleure volonté du monde.

J’en ai parlé brièvement à sa sortie :

Project Motor Racing (PMR) : toutes premières impressions

Et, depuis, les correctifs ont commencé à sortir (mais peu de progrès apportés) et, pour finir, le studio en charge de PMR vient d’annoncer des licenciements !

Cela n’augure rien de bon et même s’il faut laisser du temps à cette simulation pour qu’elle puisse éventuellement remonter la pente, une scénario façon « No Man Skies » parait hors de portée… Only tine will tell.

Rennsport est sorti en version 1 à peu près au même moment mais je n’ai même pas pris la peine de le tester : pour moi, ce titre est un ratage majeur et il faut l’oublier.

Assetto Corsa Rally disponible en accès anticipé

Un bref (premier) essai d’Assetto Corsa Rally

Assetto Corsa Rally a fait une entrée remarquée. Révélé seulement quelques semaines auparavant lors de la SimRacing Expo 2025 fin octobre, AC Rally a été une agréable surprise en cette fin d’année. Je n’apprécie pas trop le rallye et donc, mon avis à ce propos est à prendre avec des pincettes mais il semble quand même que ce lancement soit une réussite (il n’y pas que des ratages finalement !).

EA Sports fait l’impasse sur F1 26 pendant un an

L’information la plus importante, en dehors des trois sorties de novembre, concerne la série de jeux F1 d’EA Sports. Depuis que Codemasters a commencé à développer la série en 2009, un nouvel opus est sorti chaque année – mais cette tradition prendra fin en 2026.

Au lieu de créer F1 26, EA Sports a annoncé qu’il n’y aurait pas de nouvel épisode. L’attention se porte désormais sur F1 27, « afin d’anticiper l’avenir et de préparer la suite », selon Lee Mather, directeur créatif senior.

Bon, je ne vais pas en faire une crise vu qu’il y a longtemps que je n’essaye même plus les dernières versions de ce titre qui, selon moi, a régulièrement décliné d’année en année (depuis celle de 2020, au moins !), mettant l’accent sur des futilités (pour ne pas dire des débilités !) plutôt que d’améliorer les sensations au volant qui en ont toujours (plus que jamais même !) bien besoin !

Le Mans Ultimate 1.2 : améliorations pas à pas

Studio 397 vient de rendre disponible sa 1.2. Comme je l’ai déjà dit auparavant, je ne suis pas intéressé par l’ELMS et donc, je n’achète pas les DLC qui y sont liés. Et, dans ce titre, seule l’expérience « Le Mans » m’intéresse…

24h du Mans sur LMU en full et en solo en 33 jours !

Cependant, je dois dire que la màj 1.2 apporte des progrès notables au niveau de la sensation au volant : c’est pas encore du niveau d’AMS2 (selon moi) mais c’est incontestablement mieux. Alors, certains vont dire « ouais, c’est pas grand-chose comme différence ! » et c’est vrai mais c’est pourtant bien ainsi qu’il faut procéder : l’échec spectaculaire de PMR prouve qu’il n’y pas de raccourcis possibles, que la maturation d’un titre prend des années et qu’il faut prendre son temps ou prendre le risque de se planter, voilà, c’est dit !

D’autant qu’il ne faut pas oublier que LMU s’appuie sur l’exxpérience et une partie du code de rFactor2 (qui lui remonte à 2013… excusez du peu !). Eh oui, il faut des années pour peaufiner un logiciel quel qu’il soit et c’est valable aussi pour les simulations…

LMU organise son premier événement en ligne de 24 heures
Pour clôturer le mois de novembre, LMU a organisé un nouvel événement de test en ligne. Pour la première fois dans l’histoire du jeu, il s’agissait d’une compétition de 24 heures, se déroulant logiquement au Mans.

Tout ne s’est pas déroulé sans accroc, une panne de serveur ayant perturbé l’une des sessions. L’équipe de Studio 397 a toutefois tiré des enseignements de ces problèmes. Un communiqué publié après l’événement a révélé que les développeurs travaillaient déjà à la résolution du problème et que le prochain événement de 24 heures est prévu pour janvier.

Studio397 reprend du poil de la bête car ils commencent à dire qu’ils envisagent de développer une suite à rFactor2 (qui serait donc, logiquement, rFactor3).

Assetto Corsa EVO : enfin quelques progrès mais un bilan globalement mitigé

AC EVO est également sortie en 0.4 et beaucoup ont salué une évolution enfin positive et enfin marquante. Je n’irais pas jusque-là !
Tout d’abord, oui, le titre est enfin utilisable mais je n’ai pas réussi à configurer le triple-screen (et pour un titre de cette catégorie, c’est le comble !) et cela a beaucoup limité mon envie de rouler avec… Mon avis sur AC EVO ne change pas beaucoup : il faut lui laisser du temps et on verra, dans un an (ou plus !).

J’ai pu lire ça et là que AS EVO était même moins bien qu’Assetto Corsa premier du nom. Sur le plan strictement factuel, c’est au moins en partie vrai mais, encore une fois, le premier AC a eu le temps de se bonifier sans pour autant combler toutes ses lacunes (pas de départ lancé par exemple, pas de jour/nuit ni de pluie) ni corriger tous ses défauts (les IA sont simplement nulles). Donc, il ne faudra pas que la déception compréhensible (si on attendait beaucoup de AC EVO) nous conduise à magnifier Assetto Corsa au-delà de ce qu’il est vraiment : un titre intéressant à cause de ses nombreuses modes et c’est -presque- tout.

Et les autres titres ?

Rien de nouveau à dire sur Forza Motorsport qui est maintenant dans un état de mort-vivant (ça donne pas envie d’y retourner, hein !). Globalement, ce titre a quand même été une monumentale déception après ce qui nous avait été promis… Là encore, ça s’est mal terminé : ventes en berne et licenciements (qui a dit « bien fait ! » ?).

On a aussi eu la sortie de Nascar 25

Nascar 25 sur PC, premières impressions

Mon avis sur ce titre n’a pas changé : plein de défauts et de lacunes mais, mais… Les courses sont super-prenantes !!

La preuve, j’ai déjà bouclé un championnat complet (niveau Arca, que j’ai remporté mais pas facilement car j’ai survolé certaines épreuves et j’étais aux fraises sur d’autres…). Donc, on va voir si les améliorations suivent ou si ça reste un truc moyen mais jouable.

Et, justement, on a eu un premier correctif dernièrement !
J’ai testé et je suis positif : c’est mieux. C’est mieux sur deux points : tout d’abord, graphiquement, il n’y a plus le défaut des « voitures qui volent » (les voitures qui vous précédaient étaient légèrement au-dessus de la piste… bof !). Ensuite, les sensations au volant se sont améliorées et les voitures sont un poil plus difficiles à tenir (les pneus s’usent un peu plus vite aussi, il me semble). Bref, tout cela va dans le bon sens et c’est encourageant.

Cependant, il est clair que Nascar 25 est basé sur les précédentes versions de Nascar Heat (ce qui n’est pas forcément un défaut : souvenez-vous qu’il faut du temps pour faire maturer un logiciel…) et donc, ce ne sera jamais une vraie simulation (il y a iRacing pour cela).

Finissons ce tour d’horizon par mon titre préféré : Automobilista 2 (AMS2, oui, encore et toujours !).

AMS2 : l’exemple à suivre

Reiza continue à faire progresser AMS2 régulièrement et dans le bon sens. La version 1.6.8 nous a apporté les voitures de Le Mans 2005 (avec le tracé dans sa version 2005)  et c’est un vrai bonheur à piloter !

Le Mans 2005 sur Automobilista 2, non ? Si !

Et ça ne va pas s’arrêter là car je pense que, prochainement (avant la fin de l’année ?), nous allons avoir les trois générations de Nascar avec Pocono… Là aussi, ça promet vraiment !

AMS2 1.6.7 ou le charme discret de la maturité

Après, en 2026, nous devrions avoir la 1.7 qui va apporter une refonte de la physique (dynamique des voitures)… Nous verrons bien mais j’ai confiance dans l’approche de Reiza : progresser pas à pas, sans big bang, sans esbroufe. Attention, tout n’est pas parfait dans AMS2 et je m’en fait l’écho à chaque fois : manque les drapeaux jaunes (un comble !) et l’enregistrement des sessions (ils y travaillent parait-il…). Je trouve aussi que l’équipe se disperse en terme de contenus : j’aurais préféré qu’ils complètent les classes existantes plutôt que d’en ajouter de nouvelles (comme les voitures DIRT qui, selon moi, n’apportent rien). Mais l’échec (provisoire ?) de PMR montre que l’attitude modeste mais obstinée de Reiza porte ses fruits, avec le temps…

Bilan 2025 : entre euphorie et inquiétude

D’un côté on a une offre de marché qui se bonifie progressivement (LMU, AMS2) et de l’autre, on a eu des flops spectaculaires !

On constate que la « niche » du Simracing excite les convoitises mais que les nouveaux entrants ne s’y prennent pas très bien. Laissons de côté le cas de Rennsport (sachez que je ne traite pas les cas pathologiques…) mais le big bang raté de PMR est très inquiétant.

Après la tragi-comédie de Forza Motorsport, ça commence à faire beaucoup…

Heureusement, il y a de l’espoir avec des initiatives modestes mais intéressantes comme l’annonce toute récente de « Grand Pro Circuit », une sorte de « Microprose Grand Prix » (1991 par l’inoubliable Geoff Crammond) mais remis au goût du jour (ou presque : les graphismes semblent un peu un ton en dessous mais ça aussi, ça peut être une bonne nouvelle : pas de « Unreal Engine » qui étouffe le jeu et met votre PC à genoux !).

On va surveiller cela avec intérêt.

Publié dans Sports mécaniques virtuels | Un commentaire

Histoire de l’informatique : la saga britannique dans les années 50 & 60

Voici quelques extraits savoureux que je découvre en lisant « EPOCH – Une histoire de l’informatique » de Stéphane Fosse. Même moi, j’apprends beaucoup en lisant cet ouvrage qui représente un travail énorme et soigné !

J’ai choisi ici la saga britannique et peu connue des ordinateurs Ferranti et Lyons.

======

Ferranti Mark I

Durant l’hiver 1951, l’Université de Manchester reçoit des mains de la société Ferranti une machine qui va changer la donne : le Mark I. Ce calculateur électronique britannique devance de quelques mois l’UNIVAC I américain et s’inscrit dans l’histoire comme le premier ordinateur commercialisé. Cette aventure technique n’aurait jamais vu le jour sans l’intuition de Sir Ben Lockspeiser. Ce haut fonctionnaire du ministère britannique de l’Approvisionnement avait saisi l’importance de relier la recherche universitaire au monde industriel.

En réalité, cette machine prolonge les travaux de F.C. Williams et Tom Kilburn. Ces chercheurs avaient déjà conçu un prototype fonctionnel à l’Université de Manchester. Le gouvernement britannique, désireux de valoriser cette avancée, confie à l’entreprise Ferranti la tâche de transformer l’expérimental en commercial. Si l’architecture générale est fidèle à l’original, les ingénieurs de Ferranti y ajoutent leur touche : un jeu d’instructions revu, des registres d’index supplémentaires (les fameux B-lines) et des fonctions inédites comme un générateur de nombres aléatoires.

La mémoire du Mark I reflète les contraintes technologiques de l’époque. D’un côté, une mémoire électronique construite autour des tubes Williams, rapide mais limitée à 20 480 bits. De l’autre, un tambour magnétique plus lent mais avec 655 360 bits répartis sur 256 pistes de 2 560 bits, double système annonçant l’architecture hiérarchique des mémoires modernes.

Programmer le Mark I relevait presque de l’épreuve initiatique. Alan Turing, figure légendaire du calcul et alors chercheur à Manchester, rédige le premier manuel de cette machine. Son approche consiste en du code machine sans fioritures, sans concessions aux limites cognitives humaines. À Cambridge, pendant ce temps, David Wheeler avait créé pour l’EDSAC un assembleur rudimentaire mais combien plus accessible. Deux visions s’opposaient.

The Ferranti Mark 1 Gallery (Digital 60)

The Ferranti Mark 1 Gallery (Digital 60)

L’interface avec le monde extérieur passait par des bandes perforées à cinq trous. Le flux d’entrée atteignait 400 caractères par seconde grâce au lecteur photoélectrique conçu par Ferranti. En sortie, une perforatrice plus modeste (33 caractères par seconde) et une imprimante télétype traduisaient les résultats des calculs. Un haut-parleur complétait le dispositif, alertant l’opérateur par des signaux sonores quand son attention devenait nécessaire.

Les mathématiciens furent parmi les premiers à s’emparer de cette puissance de calcul inédite. Ils l’utilisèrent pour explorer les nombres de Mersenne ou tester des aspects de l’hypothèse de Riemann. Les physiciens s’en servirent pour des calculs de tracé de rayons en optique. La vitesse de traitement des données ouvrait des possibilités nouvelles pour la recherche, malgré une fiabilité qui laissait parfois à désirer.

L’aventure commerciale du Mark I raconte aussi les difficultés de l’industrie informatique britannique. De 1951 à 1957, neuf exemplaires seulement trouvèrent preneurs : sept Mark I Star et deux Mark I. L’étroitesse du marché britannique limitait les perspectives de croissance. Quand IBM débarqua au Royaume-Uni avec son modèle de location, la concurrence devint féroce pour les constructeurs locaux.

L’histoire du Mark I se lit aussi à travers les relations complexes entre Ferranti et les organismes gouvernementaux, notamment la National Research Development Corporation (NRDC). Le financement public a certes rendu possible cette aventure, mais les négociations souvent tendues entre Ferranti et la NRDC ont parfois ralenti le projet. Sir Vincent de Ferranti défendait âprement les intérêts de son entreprise familiale, cherchant à minimiser les risques financiers dans cette aventure incertaine.

Le contraste entre le potentiel technique britannique et sa concrétisation commerciale saute aux yeux dans les statistiques : en 1960, le Royaume-Uni comptait 240 ordinateurs en fonction, contre 5 400 aux États-Unis. Pourtant, le Ferranti Mark I occupe une place à part dans le panthéon informatique. Sa mémoire à plusieurs niveaux, son système d’index et son architecture générale ont façonné la conception des ordinateurs qui ont suivi. Premier calculateur commercial, il matérialise ce moment où la recherche universitaire rencontre la production industrielle.

Cette expérience a aussi réorienté la trajectoire de Ferranti. Face aux réalités économiques, l’entreprise a progressivement abandonné le marché des grands systèmes pour se concentrer sur les applications militaires, les mini-ordinateurs puis les microprocesseurs. En 1963, Ferranti quittait définitivement le secteur des ordinateurs centraux.

LEO I

Au milieu du XXe siècle, J. Lyons & Co dominait le marché alimentaire au Royaume-Uni. Issue des idées visionnaires de la famille Salmon-Gluckstein à la fin du XIXe, cette entreprise gérait un réseau tentaculaire de salons de thé élégants, restaurants populaires et boulangeries industrielles à travers tout le pays.

Contrairement aux autres sociétés, Lyons cultivait une atmosphère propice à l’innovation technique. La raison en était simple : chaque jour, des milliers de transactions modestes s’accumulaient, chacune générant une marge infime. La survie financière exigeait donc une rigueur presque maniaque dans la gestion administrative. Cette particularité avait poussé les dirigeants à recruter dès 1923 un mathématicien de Cambridge, John Simmons, capable d’apporter une dimension scientifique à leurs méthodes de travail.

Au printemps 1947, deux cadres de l’entreprise, Oliver Standingford et Raymond Thompson, s’envolèrent vers l’Amérique. Leur mission initiale concernait l’étude d’équipements de bureau modernes, mais ils tombèrent par hasard sur des informations concernant l’ENIAC. Ces gigantesques machines de calcul, alors cantonnées aux laboratoires scientifiques, éveillèrent leur curiosité. Ils pressentirent que ces calculs automatisés pourraient transformer radicalement la bureaucratie de Lyons.

Leur intuition les conduisit jusqu’à l’université de Cambridge, où Maurice Wilkes travaillait sur l’EDSAC. À leur retour, ils rédigèrent un rapport audacieux. Non contents de suggérer l’adoption de l’informatique pour leur entreprise, ils proposèrent que Lyons fabrique sa propre machine. Cette idée, qui semblerait aujourd’hui absurde pour une société alimentaire, s’inscrivait parfaitement dans la philosophie d’indépendance technique de l’entreprise, habituée à concevoir ses propres outils industriels.

La direction valida le projet et déboursa 3 000 livres sterling pour soutenir les travaux de Wilkes, s’assurant en échange une assistance technique précieuse. Pour mener à bien cette aventure, l’entreprise embaucha le Dr John Pinkerton, un brillant ingénieur recommandé par Wilkes. David Caminer, responsable des systèmes chez Lyons, reçut la tâche de développer les applications et méthodes de programmation adaptées aux besoins spécifiques de l’entreprise.

La construction du LEO I (Lyons Electronic Office) commença en 1949. Ce colosse occupait plus de 450 mètres carrés et fonctionnait grâce à environ 6 000 tubes à vide répartis dans 21 armoires métalliques imposantes. Bien que basé sur l’architecture de l’EDSAC, LEO I intégrait des modifications substantielles pour traiter efficacement les données commerciales. Les ingénieurs accordèrent une attention particulière aux systèmes d’entrée-sortie, combinant cartes perforées et bandes de papier pour l’alimentation en données, complétées par des imprimantes et perforateurs pour la restitution des résultats.

LEO - The world's first 'Electronic Office' - Archives of IT

LEO – The world’s first ‘Electronic Office’ – Archives of IT

Le 29 novembre 1951, LEO I accomplit sa première tâche régulière, l’évaluation hebdomadaire de la production des boulangeries Lyons. Ce programme analysait les chiffres de fabrication de pains, gâteaux et tartes provenant de douze sites différents. Il calculait automatiquement la valorisation en intégrant le coût des matières premières, les salaires et les frais indirects. Aucun ordinateur n’avait jamais effectué pareille tâche de gestion auparavant.

Ce premier succès encouragea l’équipe à développer d’autres applications : gestion des stocks, calcul des meilleurs mélanges de thé, organisation des livraisons aux différents points de vente, facturation automatisée. Un nouveau cap fut franchi le 12 février 1954, lorsque LEO I traita la paie de 1 670 employés des boulangeries, produisant directement les chèques de salaire sans système de secours.

Les prouesses de cette machine attirèrent bientôt l’attention d’organisations extérieures. Le service météorologique britannique l’utilisa pour ses prévisions, l’administration fiscale pour calculer ses barèmes d’imposition, et British Railways pour déterminer les distances entre toutes ses gares. Le succès de ces prestations poussa Lyons à créer en 1954 une filiale spécialisée, LEO Computers Limited, pour commercialiser cette technologie.

Cette histoire raconte un curieux paradoxe : pendant que les fabricants traditionnels d’équipements de bureau et les géants de l’électronique hésitaient, une chaîne de restaurants et de salons de thé créait le premier ordinateur pour une application commerciale viable au monde. LEO I fonctionna jusqu’en janvier 1965, avant de céder sa place aux modèles plus performants LEO II et LEO III qui équipèrent de nombreuses entreprises et administrations britanniques.

La saga LEO se poursuivit à travers une série de fusions industrielles : d’abord avec English Electric en 1963, puis avec d’autres sociétés pour former International Computers Limited en 1968. Le dernier LEO III s’éteignit discrètement en 1981 dans les locaux de la poste britannique.

67673 LEO III Computer room and tape decks - Photograph - Computing History

67673 LEO III Computer room and tape decks – Photograph – Computing History

====

Fascinant, non ?

Publié dans Anecdotes IT, Livre histoire de l'informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Allez, avouez, vous aussi, vous détestez Noël (oui, encore une fois) !

Certaines années, je remet en avant cette chronique qui date de 2001 (ah quand même !).

Il n’est jamais trop tard pour cracher sur Noël !

Allez, avouez, vous aussi vous détestez Noël !

Et également, l’extraordinaire « Santaland Diaries » de David Sedaris. Régalez-vous, c’est Noël (Lefebvre, vous devriez avoir honte !)…

C’est un récit assez connu aux USA qui nous vient du formidable David Sedaris. Je vous invite, vraiment, à écouter son journal ci-dessous : son expérience en tant qu’Elfe à Macy. Si vous comprenez l’anglais, il FAUT écouter cette histoire… ça, vraiment ça, c’est Noël… Triste.

Publié dans La terrible vérité | Laisser un commentaire

« Les cons ou pourquoi sont-ils si nombreux » et autres chroniques qui n’ont pas pris une ride !

Je suis en train de relire mes chroniques de la « Terrible Vérité » (que j’ai publié dans un livre à retrouver ici). Je constate que ces chroniques, la plupart rédigées au début des années 2000 (déjà plus de vingt ans, incroyable ce que le temps file vite !!), n’ont pas pris une ride et sont toujours valables.

Je voudrais en profiter pour mettre en avant deux chroniques particulièrement chères à mon coeur :

Mort aux cons, il était temps de le dire !

Pourquoi nous sommes tous des misanthropes (mais si !)…

Publié dans La terrible vérité | Laisser un commentaire

Les retours décroissants : les faits sont têtus, même pour l’IA !

Voici une traduction en français le tout dernier article de Gary Marcus (vous pouvez retrouver la version originale ici). Après cette traduction, j’ai ajouté mon grain de sel à propos des retours décroissants…

==============

Gaspiller mille milliards de dollars est une chose terrible.

La communauté de l’apprentissage automatique prend enfin conscience de la folie ambiante, mais le détour de ces dernières années a été coûteux.

Gary Marcus – 27 Novembre 2025

Dernières nouvelles du célèbre chercheur en apprentissage automatique Ilya Sutskever :

Voici un autre résumé d’une interview récente de Sutskever qui fait grand bruit, un peu plus technique. En substance, Sutskever affirme que la mise à l’échelle (l’amélioration de l’IA grâce à un plus grand nombre de puces et de données ou « scaling ») atteint ses limites et que de nouvelles techniques sont nécessaires ; il se dit même ouvert aux techniques neurosymboliques et à l’innéité. Il ne prévoit clairement pas un avenir radieux pour les modèles de langage purement volumineux.

Sutskever a également déclaré : « Ce qui me semble le plus fondamental, c’est que ces modèles généralisent beaucoup moins bien que les gens. Et c’est flagrant. Cela me paraît être un point fondamental. »

Certaines de ces informations pourraient surprendre une grande partie de la communauté de l’apprentissage automatique ; elles peuvent paraître étonnantes venant de Sutskever, figure emblématique de l’apprentissage profond, qui a notamment contribué à l’article fondamental de 2012 démontrant l’impact considérable des GPU sur l’amélioration pratique de l’apprentissage profond, fondement des modèles linéaires. Il est également cofondateur d’OpenAI et considéré par beaucoup comme son chercheur principal jusqu’à son départ suite à une tentative infructueuse d’évincer Sam Altman.

Mais rien de ce qu’a dit Sutskever ne devrait surprendre, surtout pas les lecteurs de ce Substack, ni ceux qui me suivent depuis des années. En réalité, tout cela figurait déjà dans mon article de 2018, antérieur à GPT, intitulé «  Deep learning: A Critical Appraisal », où je plaidais pour des approches neurosymboliques en complément des réseaux de neurones (comme le fait désormais Sutskever), pour des contraintes plus innées (c’est-à-dire intégrées plutôt qu’acquises) (ce que Sutskever appelle les « nouvelles contraintes inductives »), et/ou dans mon évaluation de 2022, «  Deep learning is a wall », des LLM, où j’affirmais explicitement que les lois d’échelle de Kaplan atteindraient un point de saturation (comme Sutskever vient de le faire), et que les problèmes d’hallucinations, de vérité, de généralisation et de raisonnement persisteraient même avec l’augmentation de la taille des modèles, des points que Sutskever vient en grande partie de reconnaître.

Subbarao Kambhampati, quant à lui, défend depuis des années les limites de la planification avec les LLM . Emily Bender affirme depuis longtemps qu’une focalisation excessive sur les LLM « absorbe toute l’énergie » au détriment d’autres approches de recherche. L’ article d’Apple sur le raisonnement, injustement rejeté, a mis en lumière les problèmes de généralisation ; un autre article, intitulé «  Le raisonnement par chaîne de pensée des LLM : un mirage ? Une analyse de la distribution des données », a porté un coup fatal au raisonnement et à la généralisation des LLM.

Rien de ce qu’a dit Sutskever ne devrait surprendre. Alexia Jolicoeur-Martineau, chercheuse en apprentissage automatique chez Samsung, a bien résumé la situation mardi sur X, suite à la diffusion de l’interview de Sutskever :

Bien sûr, rien n’est joué d’avance. Peut-être qu’une simple augmentation de la capacité de calcul (ajout de données et de puissance de calcul sans modifications architecturales fondamentales) résoudra comme par magie le problème que des chercheurs tels que Sutskever, LeCun, Sutton, Chollet et moi-même ne croyons plus possible.

Et les investisseurs pourraient bien rechigner à se défaire de cette habitude. Comme Phil Libin l’a judicieusement prédit l’an dernier, c’est la mise à l’échelle – et non la génération de nouvelles idées – que les investisseurs maîtrisent le mieux.

Il ne s’agit pas seulement du fait que les investisseurs en capital-risque maîtrisent mieux le développement d’entreprises que l’invention de nouvelles idées ; pour ceux qui ont tant façonné ce secteur, le développement, même en cas d’échec, a été une aubaine : un moyen d’empocher leurs 2 % de frais de gestion en investissant l’argent d’autrui dans des paris qui paraissaient plausibles mais qui étaient en réalité colossaux, les rendant riches quoi qu’il arrive. Certes, les investisseurs en capital-risque s’enrichissent encore davantage si les investissements sont fructueux, c’est certain. Mais ils sont couverts dans tous les cas ; même si tout s’effondre, les investisseurs eux-mêmes deviendront riches grâce aux seuls frais de gestion. (Ce sont leurs clients, comme les fonds de pension, qui en subiront les conséquences). Les investisseurs en capital-risque pourraient donc continuer à soutenir l’engouement pour les masters en droit, du moins pour un temps.

Mais admettons, pour les besoins de la démonstration, que Sutskever et nous autres ayons raison, que l’IA générale n’émergera jamais directement des masters en droit, que ces derniers ont, dans une certaine mesure, atteint leurs limites et que nous avons effectivement besoin de nouvelles idées.

La question qui se pose alors est la suivante : quel a été le coût pour le domaine et la société du fait qu’il ait fallu si longtemps au courant dominant de l’apprentissage automatique pour comprendre ce que certains d’entre nous, y compris la quasi-totalité de la communauté de l’IA neurosymbolique, disions depuis des années ?

La première et la plus évidente des réponses est l’argent, que j’estime, à la louche, à environ mille milliards de dollars, dont une grande partie est consacrée aux puces Nvidia et aux salaires faramineux. (Zuckerberg aurait apparemment embauché des experts en apprentissage automatique avec des salaires de 100 millions de dollars par an).

D’après les calculs d’Ed Zitron, « les géants de la tech ont besoin de 2 000 milliards de dollars de revenus liés à l’IA d’ici 2030, faute de quoi leurs investissements auront été vains ». Si Sutskever et moi avons raison concernant les limites des masters en apprentissage automatique (LLM), la seule façon d’atteindre ces 2 000 milliards de dollars est d’inventer de nouvelles idées.

Si la définition de la folie est de faire la même chose encore et encore en espérant des résultats différents, les investissements de mille milliards de dollars dans des expériences toujours plus coûteuses visant à atteindre l’IA générale pourraient bien être une folie au plus haut point.

En première approximation, toutes les grandes entreprises technologiques, d’OpenAI à Google en passant par Meta, xAI, Anthropic et plusieurs entreprises chinoises, continuent de répéter la même expérience : construire des LLM toujours plus grands dans l’espoir d’atteindre l’AGI.

Cela n’a jamais fonctionné. Chaque nouveau modèle, plus grand et plus coûteux, apporte des améliorations mesurables, mais les gains semblent diminuer (c’est ce que Sutskever affirme à propos des lois de Kaplan ) et aucune de ces expériences n’a résolu les problèmes fondamentaux liés aux hallucinations, à la généralisation, à la planification et au raisonnement, comme Sutskever le reconnaît désormais lui aussi.

Mais il ne s’agit pas seulement de la perte potentielle d’un billion de dollars, voire plus, mais aussi des dommages collatéraux considérables qui pourraient affecter le reste de la société, tant sur le plan économique qu’autrement (par exemple, en raison de l’ impact négatif des masters en droit sur l’enseignement supérieur ). Comme l’écrivait Rogé Karma dans un article récent de The Atlantic : «  L’économie américaine tout entière repose sur la promesse de gains de productivité qui semblent encore bien loin de se concrétiser. »

À vrai dire, personne ne sait avec certitude quelle serait l’ampleur des conséquences. Si l’IA basée sur les technologies LLM ne répondait pas aux attentes et perdait de la valeur, qui en subirait les conséquences ? Uniquement les « commanditaires », comme les fonds de pension qui ont confié leur argent à des sociétés de capital-risque ? Ou les répercussions seraient-elles bien plus vastes ? Les banques pourraient-elles sombrer, dans une crise de liquidités similaire à celle de 2008, obligeant peut-être les contribuables à les renflouer ? Dans le pire des cas, l’impact d’une bulle de l’IA qui éclate pourrait être immense. (La consommation, largement alimentée par les personnes fortunées qui ont subi un revers boursier, pourrait également chuter, ce qui risquerait de provoquer une récession.)

Même la Maison Blanche a fait part de ses inquiétudes à ce sujet. Comme l’a déclaré David Sacks, le responsable de l’IA et des cryptomonnaies à la Maison Blanche, en début de semaine, en se référant à une analyse du Wall Street Journal : « Les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait de provoquer une récession. »

Extrait de l’article de Karma dans The Atlantic :

La prospérité que GenAI était censée apporter ne s’est guère concrétisée, si ce n’est par la hausse de leurs cours boursiers. (Nvidia fait exception, fournissant les composants essentiels – des puces de pointe – que les autres géants du secteur s’arrachent.) Comme le rapporte le Wall Street Journal , Alphabet, Amazon, Meta et Microsoft ont vu leur flux de trésorerie disponible diminuer de 30 % ces deux dernières années. Selon une estimation , Meta, Amazon, Microsoft, Google et Tesla auront dépensé collectivement 560 milliards de dollars en investissements liés à l’IA d’ici la fin de l’année, depuis début 2024, pour un chiffre d’affaires de seulement 35 milliards de dollars. OpenAI et Anthropic génèrent des revenus importants et connaissent une croissance rapide, mais restent encore loin du compte . Quasiment rentables, leurs valorisations respectives – environ 300 milliards et 183 milliards de dollars , et en constante augmentation – sont bien supérieures à leurs revenus actuels. (OpenAI prévoit un chiffre d’affaires d’environ 13 milliards de dollars cette année ; Anthropic , entre 2 et 4 milliards de dollars.) Les investisseurs misent gros sur la perspective de profits records grâce à ces dépenses. Si cette perspective s’avère erronée, ils pourraient se ruer sur les marchés, provoquant une correction brutale et importante.

L’éclatement de la bulle Internet a été grave, mais n’a pas déclenché de crise. Un éclatement de la bulle de l’IA pourrait avoir des conséquences différentes. Les investissements liés à l’IA ont déjà dépassé , en termes de part de l’économie, le niveau atteint par les télécommunications au plus fort de la bulle Internet. Au premier semestre de cette année, les dépenses des entreprises en IA ont contribué davantage à la croissance du PIB que l’ ensemble des dépenses de consommation . De nombreux experts estiment que si l’économie américaine a pu résister aux droits de douane et aux expulsions massives sans connaître de récession, c’est en grande partie parce que toutes ces dépenses en IA agissent, selon les termes d’un économiste, comme un « vaste programme de relance du secteur privé ». Un éclatement de la bulle de l’IA pourrait entraîner une baisse généralisée des dépenses, une diminution du nombre d’emplois et un ralentissement de la croissance, plongeant potentiellement l’économie dans la récession. L’économiste Noah Smith soutient même qu’une crise financière pourrait survenir si les prêts non réglementés du « crédit privé », qui financent une grande partie de l’expansion du secteur, venaient tous à s’effondrer simultanément.

L’ensemble paraît incroyablement fragile.

Pour le dire sans détour, le monde a misé à fond sur les LLM, mais, comme le souligne l’interview de Sutskever, il y a de nombreuses raisons de douter que les LLM tiennent un jour leurs promesses.

Le plus triste, c’est que la plupart des raisons sont connues depuis longtemps, même si elles n’étaient pas largement acceptées. Tout cela aurait pu être évité. Mais la communauté de l’apprentissage automatique a, avec arrogance, exclu d’autres voix, et même des domaines entiers comme les sciences cognitives. Et nous risquons tous d’en payer le prix.

Un vieux dicton à propos de telles folies dit que « six mois au laboratoire peuvent vous faire gagner un après-midi à la bibliothèque » ; ici, nous avons peut-être gaspillé mille milliards de dollars et plusieurs années pour redécouvrir ce que les sciences cognitives savaient déjà.

Un billion de dollars, c’est une somme astronomique qui pourrait être gaspillée. Si la zone d’impact est plus étendue, les dégâts pourraient être bien plus importants. On a l’impression d’assister à une tragédie grecque, un mélange évitable d’arrogance et de pouvoir qui risque fort de faire s’effondrer l’économie.

====================

Bon, comme vous l’avez deviné, il s’agit là d’une traduction automatique avec toutes les limites (et les déformations) que cela impose. Cependant, on comprend bien l’argument principal : le principe des retours décroissant frappe les LLMs à leur tour et les milieux financiers aiment le « scaling » (mise à l’échelle) qu’ils peuvent comprendre (au contraire de la vraie innovation qui parait -à juste titre- aléatoire).

Je trouve particulièrement savoureux cette mise en évidence des « retours décroissants » que j’ai déjà expliqué dans mon livre « Le fait technique« … Voici l’extrait concernant les retours décroissants :

===================

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel ! 

Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité. 

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

« il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité « 

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire. 

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas. 

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation.

==============

Voilà, on en est là : l’IA générative est frappée à son tour par la loi des retours décroissants comme le machine learning l’a été il y a dix ans. La propagande n’évoque jamais cela, elle cherche même à le cacher mais c’est inutile : les faits sont têtus et finissent toujours par s’imposer…

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

La toute première base de données historiques des écoles Montessori en France, développée avec SQLPage

Je suis très fan de SQLPage qui m’a permit de redécouvrir le plaisir de coder. J’en parle sur ce blog depuis un peu plus d’an :

Découverte de SQLPage, une solution technique enthousiasmante !

Un QCM sur votre « profil sociétal », pourquoi faire ?

Cette fois, c’est une nouvelle application que j’ai développée que je vous propose de découvrir : BdD MEF, la toute première base de données historiques des écoles Montessori en France…

Une photo d’écran de la page d’accueil de notre base de données, ouverte à tous !

Je suis particulièrement content car cette application m’a demandé des semaines de travail et de mise au point. Mais je crois que je peux être satisfait du résultat (en V1 au moins). La V2 ambitionne d’ajouter des images mais c’est pour plus tard. Attention, je ne prétend pas que c’est l’application du siècle car je ne suis pas un « codeur de la mort qui tue » !
Mais, pour un modeste amateur, je ne suis fier de pouvoir proposer cette application qui comble un vide dans ce domaine précis (les données historiques des écoles Montessori françaises… OK, c’est super niche comme créneau mais pour celles et ceux que ça intéressent, ça fait toute la différence !).

Une fois de plus, je voudrais insister sur les qualités de SQLPage qui m’ont permise de faire cela relativement facilement. Ce projet open source mérite d’être connu (il est tenu à bout de bras par deux jeunes français qui ont bien du mérite…) moi je dis.

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

Project Motor Racing (PMR) : toutes premières impressions

C’est peu de dire que cette simulation (PMR) était très attendue. Les premiers retours des « simtubers » (qui avaient eu accès à une pré-release) ce week-end étaient plutôt négatives : déception, énorme daube, rien qui va, j’en passe et des pires.

Sortie officielle ce mardi et j’ai pu commencer à tester cette version 1.0 en début d’après-midi. Soyons clair, je m’attendais au pire et mon niveau d’espérance n’était donc pas très haut…

Bon, je n’ai pu rouler qu’un peu plus de 2 heures dessus, c’est donc très léger pour se faire un avis définitif et structuré. Mais, de ce que j’en ai vu, c’est acceptable en solo avec zéro adversaire (en clair, vous êtes seul sur la piste) : le FFB est assez moyen mais pas autant catastrophique que ce que j’ai pu entendre ça et là. La physique semble un peu chatouilleuse, surtout avec des voitures à faible appui. Les graphismes ne sont pas à tomber par terre mais, par beau temps et de jour (de nuit sous la pluie, faudrait voir…), ça va encore. On connait mieux mais c’est pas horrible.

En fait, le problème général de cette V1, c’est qu’elle n’est pas du tout optimisée (et ça peut se comprendre, le titre vient juste de sortir !). Et dès qu’on met des adversaires sur la piste (je me suis contenté d’une douzaine), ça devient à peine jouable. PMR se met à ralentir à tel point qu’on peut se retrouver à rétrograder un rapport de trop tellement le décalage est perceptible.

Je n’ai roulé qu’à Daytona et avec peu de voitures (Porsche GT1 , BMW LMP et Porsche 917). Mais il est clair qu’il va falloir attendre avant que cette plateforme soit utilisable.

Et si jamais on la compare à AMS2, c’est le KO direct au premier round (dès les premières secondes même !). Bref, je conseille d’attendre un peu (tout comme pour Assetto Corsa EVO).

En attendant que je fasse une vidéo, voici l’avis d’un SimTubers suisse que j’apprécie car il est très modéré…

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Les promesses non-tenues, une habitude de la Tech. Aujourd’hui, les promesses non-tenues de la 5G, cinq ans après…

Le 25/11/2025, dans sa newsletter “Cafétech”, Jérôme Martin publiait ceci (ce n’est qu’un extrait, l’article complet à https://cafetech.substack.com/p/les-promesses-non-tenues-de-la-5g?open=false#%C2%A7cinq-ans-apres-son-lancement-les-promesses-non-tenues-de-la-g) :

Comme un symbole des promesses non tenues, la 5G a fêté la semaine dernière son cinquième anniversaire en France dans une quasi-indifférence générale. Un contraste saisissant avec l’enthousiasme qui avait accompagné le lancement, fin 2020, de cette nouvelle génération d’Internet mobile. Plus rapide, plus réactive, plus dense… La 5G était censée révolutionner les usages, aussi bien chez les particuliers que dans les entreprises. Elle devait également représenter une manne financière pour les opérateurs télécoms.

Cinq ans plus tard, force est de constater que la réalité est très éloignée du scénario annoncé. Les nouveaux services promis au grand public, comme la réalité augmentée ou le cloud gaming, ne se sont jamais matérialisés. Le déploiement de réseaux privés, censés offrir davantage de sécurité et de fiabilité aux entreprises, demeure marginal. Et les opérateurs n’ont jamais réussi à imposer les hausses de prix qui leur auraient permis de véritablement rentabiliser les investissements colossaux engagés pour moderniser leurs infrastructures.

Vous noterez que Jérôme Martin mentionne “dans l’indifférence générale”. Là aussi, c’est une constance de la Tech : lancement bruyant, promesses tapageuses mais on ne dresse jamais le bilan (ah ça non !). J’évoquais la 5G lors de son lancement dans cet article et je prévenais que l’évolution vers cette nouvelle génération prendrait au moins dix ans…

La propagande Tech vous vend toujours des « lendemains qui chantent » mais n’assure jamais le « service après-vente »… Et c’est justement ce que j’essaye de faire dans mes écrits. J’ai un nouveau projet de livre justement qui pourrait s’intituler « La déception informatique »… tout un programme !

Je viens de commencer, il faudra être patient car il est bien connu que « le mensonge prend l’ascenseur quand la vérité se contente de l’escalier »…

Publié dans Anecdotes IT, La terrible vérité, Références IT | Laisser un commentaire

Une série documentaire à vous recommander : « The American Revolution » par Ken Burns

Ken Burns est un célèbre réalisateur de films documentaires sur l’histoire des USA. Il est également connu à cause de ce qu’on appelle « l’effet Ken Burns » qui est présent sur iMovie et d’autres logiciels de montage vidéo.

Steve Jobs, le fondateur d’Apple, a baptisé du nom d’effet Ken Burns un effet vidéo intégré dans le logiciel iMovie qui consiste en un panoramique et un zoom avant simultanés effectués sur un document statique (photographie, peinture, dessin, gravure, etc.) au moyen d’une caméra fixe ou d’un logiciel vidéo, vu son usage intensif dans l’œuvre du réalisateur.

Je connaissais déjà Ken Burns à travers ces documentaires les plus fameux comme « The Civil War » (ce que nous appelons « la guerre de sécession ») qui est une série qui s’étale sur plus de 12 heures !

Je dois également citer « The war » (sur la seconde guerre mondiale) et « Vietnam » (sur la guerre du Vietnam, 17 heures d’épisodes !), toujours par Ken Burns. Et je ne vous mentionne ici que les séries documentaires que j’ai regardé. Car Ken Burns a en fait bien plus…

Bref, je vous invite à découvrir sa toute dernière production qui est un événement et un régal quand on aime l’Histoire :

Ah oui, j’oubliais : c’est uniquement en anglais (avec sous-titre en anglais, au mieux…)… un détail !

Ouais, t’es bien gentil avec tes trucs élitistes toi, mais ça concerne qui ce documentaire, hein ?

OK, on peut le voir ainsi, je comprend. Mais j’affirme aussi que face à l’océan de contenus médiocres (et encore, en étant gentil !) qui nous submerge tous les jours toujours un peu plus, quand on a un contenu qui sort du lot il faudrait le taire parce que ce n’est pas en français ?
Non, mille fois non !
Ken Burns mérite d’être découvert, connu, célébré car il fait œuvre utile.

Pour finir, où peut-on le voir ton documentaire miracle ?

Sur « The Flixer » et c’est gratos les mecs !

Voici l’adresse complète : https://theflixertv.to/watch-tv/watch-the-american-revolution-full-137839.12812050 (retirez les bloqueurs de pub pour que ça fonctionne…).

Profitez-en pour explorer The Flixer par la même occasion : y a de tout sur ce site (je dirais même, il y a tout !) et, je répété, c’est gratuit. Les sites de streaming qui sont aussi complet et qui fonctionnement aussi bien, ça devient rare, faut en profiter tant que cela existe. Un dernier conseil : regardez des contenus sur The Flixer tôt dans la journée car, le soir, l’Amérique s’est réveillée et la qualité baisse (bande passante, serveurs de stream).

Publié dans à travers mes découvertes | Laisser un commentaire

La propagande est partout, y compris dans les livres de fictions (certains au moins…) !

Je viens d’achever « Tsunami » de Marc Dugain.

La couverture de ce livre…

Commençons par le positif : cet ouvrage est bien écrit, la narration se tient, le rythme est bon, ça se lit vite et le résultat global est satisfaisant. Mais… Oui, vous vous doutiez bien qu’il y avait une « mais », un gros « mais » même !

Le contenu de ce livre est bourré de propagande. Oui, je suis sérieux, de la propagande, pure et simple. Marc Dugain ne prend pas de gants pour asséner ses vérités et ses évidences : le réchauffement climatique est une évidence (avec l’inévitable, l’inéluctable montée des eaux, forcément !), les Russes sont les méchants et le féminisme, c’est bien (les hommes sont systématiquement présentés comme lâches et faibles à quelques rares exceptions près). Le voilà le triptyque sacré de l’époque, prosternez-vous !

Je comprend mieux pourquoi cet auteur a un tel succès et est mis en avant dans les merdais : il coche toutes les (bonnes) cases, il est au sommet de la bien-pensance du moment, il est l’écrivain à la mode (cela implique aussi que son « œuvre » vieillira mal…).

Depuis la répression inouïe qui s’est abattue sur les gilets jaunes, je m’attend à tout de la part de ce système. Accordons lui qu’il ne néglige rien : la propagande déjà omniprésente dans les merdais (un matraquage odieux et permanent, au-delà de toute décence) ne suffit pas encore, il faut aussi en mettre dans les contenus de fiction (pour le cinéma, on était habitué mais pour les livres, j’aurais tendance à penser que c’est plus récent).

Il est bien évident que je ne vous recommande pas ce livre ni cet auteur. Ni oubli, ni pardon.

Publié dans à travers mes découvertes, La terrible vérité | Un commentaire

Fin de saison et lassitude générale vis-à-vis des catégories de sports-mécaniques

C’est la fin de la saison pour les sports-mécaniques. La saison MotoGP vient de se terminer avec le dernier GP à Valence. La saison WEC s’est terminée trois semaines plus tôt. La saison Nascar a été bouclée par la finale il y a deux semaines, reste juste la F1 qui fait quelques prolongations mais c’est la F1 (que, je précise une fois de plus, je ne suis pas…).

Cette saison se termine bizarrement pour moi car je ressens un sentiment général de lassitude et je dois avouer que c’est bien la première fois que ça m’arrive !

Je suis un passionné de sports-mécaniques et c’est donc complètement anormal que je ressente cela.

J’ai donc réfléchi à la situation et c’est le fruit de cette réflexion que je vous propose ici.

Tout d’abord, cette saison de MotoGP a été bizarre car dépourvue d’enjeu au plus haut niveau. Depuis l’accident qui avait mis Marc Marquez sur la touche (en 2020), nous avons eu droit à de beaux affrontements pour le titre mondial entre Fabio Quartararo et Pecco Bagnia ou entre Bagnia et Jorge Martin. En 2025, rien de tout cela : Quartararo n’est plus compétitif à cause de sa machine, Martin s’est blessé plusieurs fois et Bagnia passe par des hauts (pas souvent, hélas…) et des bas (bien trop souvent !) incompréhensibles. En conséquence, Marc Marquez a pu quasiment tout récolter en dominant la saison outrageusement. Il y a eu peu de vraies belles courses et quasiment aucun suspense au championnat.

Bref une saison décevante. Attention, le MotoGP geste un superbe spectacle, haut en couleurs et bien retransmis (les ralentis sont de toute beauté !). Mais c’est justement ça qui ne va plus : c’est de plus en plus un spectacle et de moins en moins un sport avec sa glorieuse incertitude. On y reviendra, c’est même l’argument principal de cet article.

Cela a été encore pire en WEC (le championnat du monde d’endurance). Tout d’abord, le WEC est une construction assez artificielle pour pouvoir dire que l’endurance ne se résume pas aux 24 Heures du Mans, qu’il y a d’autres manches, tout ça… En vérité, on se doute bien que si Le Mans ne faisait pas partie de ce championnat ce dernier n’existerait simplement pas, voilà, c’est dit. Le championnat WEC ne comprend que huit manches. Déjà, c’est pas beaucoup mais, quelque part, ça toujours été comme cela : les championnats d’endurance avaient souvent peu de manches (surtout comparé au championnat de F1), même dans les années 80 où le Groupe C était assez populaire.

Donc, faut attendre pas mal entre chaque manche mais pourquoi pas. Chaque course est plus disputée que le championnat de F1 dans son ensemble (où le nombre de dépassements se compte sur les doigts de la main et j’exagère à peine !) mais ce n’est pas cela qui coince. Ce qui ne va pas dans le WEC d’aujourd’hui (et ce depuis le début), c’est la BoP (pour balance of performance). La BoP est censée être là pour équilibrer le plateau, ne pas se retrouver avec une ou deux équipes qui dominent et les autres qui subissent (comme ça se passe en F1 d’ailleurs). Mais elle a un résultat discutable : au lieu d’être un équilibrage des performances, elle devient une balance des résultats !

Une ou deux équipes sont favorisées à l’occasion d’une épreuve et elles sont enterrées lors de l’épreuve suivante… Pas exactement ce qu’on voulait, n’est-ce pas ?

Cette BoP a renforcé le sentiment et le ressenti d’une compétition artificielle où la valeur des concurrents importait moins que la dernière mouture du règlement technique… C’est très dommage car l’endurance mérite mieux que cela, selon moi.

Mais ce malaise général ne se limite pas au MotoGP ou au WEC, même la Nascar est en crise : son audience chute et le recours à une période de “playoffs” qui détermine l’issue du championnat (et non pas les points accumulés tout au long de la saison… va comprendre !) est de plus en plus contesté par les fans et les observateurs. J’insère ici une excellente vidéo de Depiélo qui analyse fort bien où se situe le problème actuel de la Nascar…

On peut en déduire ce qui ne va pas avec les sports-mécaniques : les organisations en charge essayent de plus en plus d’en faire un spectacle mais c’est au détriment de la dimension sportive. C’est que, un spectacle, ça doit s’appuyer sur un narratif et là, on peut dire que les organisateurs n’ont pas encore compris cela…

Conclusion logique : je ne vais pas renouveler mon abonnement au service MotoGP dont j’étais pourtant client depuis 2008. La saison décevante et l’augmentation continue du prix de l’abonnement ont eu raison de ma patience et de ma bonne volonté !

De plus, la Dorna vient de se faire racheter par Liberty media qui détient déjà la F1 et cela n’augure rien de bon, selon moi…

Pareil pour le WEC : l’abonnement est cher vu le nombre de courses couvertes et les retransmissions ne sont pas exemptes de critiques (sur le plan technique mais également des commentaires : les commentateurs français sont si lamentables que je choisis systématiquement le commentaire anglais !), je ne vais donc pas renouveler là aussi. Une pause me fera du bien et on verra l’année prochaine si ça me manque ou pas…

Publié dans Sport-auto, sport-moto, sports mécaniques | 3 commentaires

Insondable connerie humaine : une preuve de plus !!

Cette fois, je ne vais pas me moquer des barbus ou des tatoués (mais ils ne perdent rien pour attendre ceux-là !). On va plutôt se pencher sur le cas des possesseurs d’iPhone. Attention, pas tous évidemment mais celles et ceux qui se sont précipités pour acheter « l’iPhone Pocket », un produit d’une laideur innommable (oui, je sais, les goûts et les couleurs, tout ça… mais là, suffit de voir le truc pour se dire WTF) et cher par dessus le marché.

De quoi s’agit-il ?
D’une petite pochette pour porter son iPhone en bandoulière… On peut discuter de l’utilité du bazar mais pas de son esthétique qui est simplement ignoble. Je vous montre, accrochez-vous :

Et le prix de cette horreur ?
Le modèle long coûte 249,95 euros et le modèle court coûte 159,95 euros (les détails ici). Et en plus, ce truc ni fait ni à faire s’est écoulé à toute vitesse :

L’épuisement des stocks n’a pas tardé : selon les informations de Numerama, Apple a vendu l’intégralité de son stock de « modèle long » (249,95 euros) en moins d’une heure le 14 novembre, jour de l’ouverture des ventes en exclusivité à l’Apple Store de Marché Saint-Germain, à Paris. Le « modèle court » (159,95 euros) n’était plus disponible qu’en deux couleurs lundi matin, avec une rupture probablement imminente.

Si ça ce n’est pas une preuve que la connerie s’étend à toute allure (alors qu’elle était déjà trop bien installée, selon moi), je ne sais plus comment le dire…

Publié dans La terrible vérité | 2 commentaires