A propos de la version 1.6 d’AMS2

Lors des tests que je mène sur la beta “notformedia” de la 1.6 d’Automobilista 2 (AMS2), j’ai pu comparer le comportement de la même voiture sur le même circuit afin de situer les différences entre la 1.5 et la 1.6… Et je dois dire que ces différences sont nettes et précises !

En effet, en roulant avec la 1.5 sur le tracé de Zeltweg (version 1974) au volant de la Brabham BT44 (F1 1974 également), j’ai éprouvé certaines difficultés à maîtriser cette monoplace. Pas en roulant normalement mais en attaquant car, avec ces voitures, il faut attaquer pour ressentir quelque chose : si on se promène, il ne se passe pratiquement rien, bien sûr.

Bref, avec la 1.5, la BT44 nécessite toute votre attention et elle vous avertit par des petites “ruades” (qui peuvent se terminer en “coup de raquette” si on en tient pas compte) quand elle considère que vous êtes en train d’exagérer… Trop aimable !

Changement d’ambiance avec la 1.6. Je ne dirais pas “qu’on est sur des rails” mais, incontestablement, c’est mieux, plus facile, plus précis. La BT44 semble bien plus directive sans pour autant réagir avec nervosité quand on en demande “un peu plus”…

Voici la BT44 de 1974… je ne peux vous la montrer dans AMS2 car, pour le moment, la beta de la 1.6 est encore au statut « notformedia »…

Je ne sais pas si c’est plus réaliste mais c’est plus efficace et plus agréable en tout cas : plus de deux secondes de gagnées sur ce tracé ultra-rapide qui demande une grande précision à tous les niveaux (trajectoires et points de freinage). Encore une fois, je ne sais pas si cette évolution est plus réaliste car même si j’ai une expérience de la compétition automobile à bord de monoplaces, je n’ai jamais eu la chance ou le privilège de m’installer dans le baquet d’une formule un de 1974 (ou de toute autre formule un d’ailleurs…) !

Ces quelques tests permettent aussi de se rendre compte qu’achever la finition d’une version majeure d’une simulation n’est pas une mince affaire et je voudrais, à cette occasion, tirer mon chapeau à toute l’équipe des développeurs de Reiza (l’éditeur d’AMS2). En effet, je suis presque sûr qu’eux aussi ont envie que cette version 1.6 soit enfin mise dans les mains des utilisateurs. Que le travail a été long et fastidieux et que la tentation d’y mettre fin soit grande. Et pourtant, on voit bien qu’il y a encore quelques détails à régler et c’est mieux de le faire avant qu’après, dans la mesure du possible.

J’ai signalé, avec précautions, ce que je croyais être un bug au niveau des arrêts ravitaillement mais je dois avouer que j’ai hésité à le faire pour ne pas passer pour un idiot si, finalement, il ne s’agissait pas d’un bug mais d’un oubli de ma part (dans le labyrinthe des options de configuration d’une simulation comme AMS2). Et pourtant, j’ai effectué quelques vérifications, encore et encore avant de me décider, convaincu que j’avais mis le doigt sur quelque chose mais tremblant à l’idée que c’était simplement une “fausse alerte”… C’est aussi à travers ce type d’expérience qu’on se rend compte que ça ne doit pas être facile à finaliser, un projet pareil… Respect donc.

 

Publié dans Sports mécaniques virtuels | Un commentaire

Une histoire de l’informatique moderne, épisode 21 : Le tournant de l’an 2000…

Le passage de la décennie 90 aux années 2000 a été l’occasion de nombreux changements significatifs. Nous les passons en revue ensemble à l’occasion de ce 21ème épisode !

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

La délicate question des interfaces utilisateurs…

Dans ma carrière, j’ai souvent été impliqué dans le design d’interface utilisateur dans le contexte d’applications informatique bien sûr et aussi de quelques sites Web. Mais, bien sûr, la question même des « interfaces utilisateurs » ne se résume pas aux différentes déclinaisons du monde digital, loin de là !

Pour ne citer que les domaines que je connais bien, même la pratique de la moto vous confronte à la question de l’interface utilisateur,: votre machine propose un agencement de commandes qui représente une interface utilisateur, rien de moins. L’embrayage s’actionne par le levier gauche, le frein avant par le levier droit et le frein arrière par la pédale de droite… je pourrais faire tout le tour de la machine mais ça serait fastidieux.
Même votre casque de protection (encore un des mes sujets favoris) impose une interface utilisateur plus ou moins bien pensée et donc plus ou moins pratique (ouverture/fermeture de l’écran, bouclage/débouclage de la jugulaire et ainsi de suite).

Oui, ce genre d’horreur existe !!

Or, sur ce sujet ô combien critique, je viens de lire un article tout à fait remarquable de ploum.net (encore lui et encore un article qui vaut le détour !) => Le retour de la vengeance des luddites technophiles

Et pour vous convaincre de le lire pour de bon, je me suis dit que quelques extraits pouvaient y aider :

La première et même unique propriété d’une bonne interface utilisateur c’est de ne jamais changer. De rester identique pendant des années, des décennies afin de construire une expertise durable et transmissible.

En résumé, un appareil qui se modifie est, par essence, un ennemi de son utilisateur. L’utilisateur paie pour avoir le droit de devenir l’esclave de son appareil!

Le point positif de tout cela c’est que si les bateaux de guerre et les voitures individuelles commencent à agir contre leurs utilisateurs de manière plus ouverte, les gens vont peut-être finir par comprendre que ces engins leur pourrissent la vie depuis le début.

Je me souviens que, dans les années 80, certains constructeurs automobiles remplaçaient les compteurs (analogiques) des tableaux de bord de leurs voitures par des écrans avec des indications numériques, pour faire « modernes », genre…
Bien entendu, le résultat était lamentable et ils sont vite revenus à des compteurs ronds avec des aiguilles (c’est encore le cas aujourd’hui même si les compteurs en question ont finalement été bel et bien remplacés par des écrans mais la forme ronde et les aiguilles sont restées…).

Ouch, ça fait mal !!

La question des interfaces utilisateurs n’est pas prête d’être tranchée et chacun a son opinion mais, en attendant, je vous encourage vraiment à aller lire l’article de Ploum !

Publié dans Anecdotes IT, Informatique, La terrible vérité | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 20 : une récapitulation des 10 épisodes précédents !

A l’occasion de cette seconde récapitulation (la première avec l’épisode 10…), je vous propose de nous focaliser sur les enseignements qu’apporte chaque épisode de l’histoire de l’informatique (à travers son évolution technique). Et on s’aperçoit que ces enseignements sont peu nombreux et répétitifs !

Publié dans Anecdotes IT, documentaires IT, Informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Basculer sur Linux, où en est-on ?

Si on veut se débarrasser une bonne fois pour toute de Google, Microsoft et Apple (liste non exhaustive !), ça passe par quelques décisions radicales et quelques efforts. En haut de la liste des « choses à faire », il y a forcément un item du genre « passer sur Linux »…

Et justement, il se trouve que j’ai une machine qui était la candidate parfaite pour cela. Mon MacBook pro 15′ de 2014 reste un peu esseulé, Apple ne veut plus le mettre à jour (pauvre chou, rejeté par son créateur !) et, du coup, je m’en sers moins… Faut dire que, comme nous tous, il a peu vieilli : sa batterie est morte (plus d’autonomie donc), son capot ne ferme plus (pour une raison que j’ignore) et il aurait bien besoin d’un peu de TLC (tender love care, d’amour et de soins quoi !).

Une batterie neuve, c’est cher ?

Opération N°1, changer la batterie. Je me suis rendu compte qu’il y avait une offre abondante de batteries de rechange sur Amazon.fr du moment où l’on connaît le modèle exact de son Mac (ça évite de se tromper). J’ai sélectionné un ensemble à 64 euros où il y avait une vidéo fort bien faite expliquant comment procéder au remplacement étape par étape…

Quelques jours après ma commande, j’ai reçu la nouvelle batterie et j’ai confié mon MacBook à mon fils Justin afin qu’il procède à l’opération ce qu’il fit rapidement et sans difficulté (il en a même profité pour démonter les ventilateurs et nettoyer l’intérieur de mon Mac aussi complètement que possible… Tant qu’à faire de lui donner un coup de jeune, autant le faire bien !). Résultat parfait : la nouvelle batterie est reconnue, charge normalement et tient bien le coup à l’usage… Opération N°1 complétée avec succès.

Sur cette image, on voit nettement que les batteries sont gonflées…

Et même, bénéfice induit, le capot ferme correctement désormais. En effet, c’était à cause du gonflement de l’ancienne batterie d’origine (voir la photo !) que le capot baillait ainsi. Avec la nouvelle qui est plate comme il se doit, plus de problème. L’opération suivante doit forcément être de passer à Linux… Mais, pour un Mac, c’est possible ça ?

Linux pour Mac, pas de problème !

Des distributions Linux pour Mac, en théorie, il y a en des tas. En pratique on s’aperçoit que c’est déjà plus nuancé : la plupart des Macbuntu et autres déclinaisons sont simplement des packages graphiques pour donner une apparence Mac OS à Ubuntu. Installons donc Ubuntu sur notre vieux Mac et on verra ensuite comment lui donner une apparence familière… Sauf que, non, ça n’a pas marché !

Pour différentes raisons, l’installation d’Ubuntu sur ce Mac a toujours échoué et j’ai fini par y renoncer. Attention, ça ne remet pas en cause la qualité de cette distribution très connue et dont le succès est, d’après moi, tout à fait mérité. J’ai Ubuntu sur un laptop Why et ça fonctionne très bien. Mais là, sur ce Mac, rien à faire. J’ai donc commencé à chercher des solutions alternatives et j’ai trouvé Linux Mint (pas difficile, c’est l’autre grosse distro très connue de ce petit monde !). Et cette fois, pas de problème : l’iso sur une clé USB, j’ai choisi l’installation via Grub et tout s’est bien passé du premier coup ou presque…

Pas d’accès réseau… Et comment je fais pour mettre à jour les drivers ?
La mauvaise surprise (et il y en a souvent au moins une dans ce genre d’opération…), c’est que le composant wifi n’a pas été automatiquement reconnu et installé. Pas de wifi, pas d’accès réseau, pas d’Internet, aie !
Heureusement, c’était juste le composant wifi qui posait problème et j’ai pu le contourner en branchant un câble Ethernet via un adaptateur USB… Accès réseau rétabli, à moi les mises à jour !
C’est ici que j’ai pu constater que Mint se débrouillait bien car il a détecté le problème tout seul et l’a corrigé sans me demander d’intervenir, pratique.

Tout n’est pas rose toutefois

Bon, cette histoire se termine bien pour moi car j’ai eu les moyens, la patience et les ressources pour la mener à bien. Reste la vraie question : Linux est-il prêt pour le grand-public ?
Selon moi, pas encore tout à fait. Que manque-t-il ?
Pas grand-chose mais c’est encore trop. Tout d’abord, il faudrait qu’il y ait l’unanimité sur la distro à recommander. Actuellement, il y a encore trop de choix (un cas où le fameux « embarras du choix » porte trop bien son nom) et cela peut rebuter beaucoup d’utilisateurs potentiels.

Ensuite, il y a tout de même encore des points à améliorer comme le choix des imprimantes à installer. Si vous avez une imprimante qui sort de l’ordinaire (c’est mon cas avec la Ricoh SP150, un excellent modèle par ailleurs), bonne chance !
Ceci dit, chacun sait que les « imprimantes, c’est l’enfer », il n’est donc pas surprenant que Linux soit encore perfectible sur ce plan !

Publié dans à travers mes découvertes, Anecdotes IT, Informatique | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 19 : Le Web devient le phénomène central !

Dans cet épisode, nous passons en revue des épisodes importants pour la montée du Web lors de la seconde partie des années 90 : le foisonnement des moteurs de recherche (avec Alta Vista, entre autres) jusqu’à l’apparition de Google et la guerre des browsers avec Netscape d’un côté et Internet Explorer de l’autre…

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 18 : apparition du Web !

Au début des années 90, le Web apparait enfin, perce et s’impose presque tout de suite. L’IPO de Netscape éclipse la sortie de Windows 95 : le monde bascule dans une nouvelle ère, celle de l’Internet et du Web !

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Lu, le dernier livre d’Aldo Sterone « ON N’A JAMAIS MARCHE SUR LA LUNE: L’IMPOSTURE APOLLO » (désolé pour les majuscules mais le titre est ainsi…).

Je viens de terminer ce livre (qu’on peut trouver sur Amazon ici) et je dois avouer que je suis très troublé par les arguments qui y sont développés. Contrairement à ce qu’on pourrait m’objecter, il ne s’agit pas du torchon d’un illuminé qui a craché un truc à peine lisible et peu crédible. Je connais l’auteur et je l’apprécie. Il publie également des vidéos qui sont édifiantes sur bien des points (je vous invite à creuser sa chaine, surtout en ce moment avec ce qui se passe en UK et qui est très mal couvert -quel surprise !- par nos merdias).

Sur Amazon, je constate que certains commentaires sont extrêmement négatifs… Voici un petit florilège :

Livre totalement complotiste, et se basant sur des arguments non scientifiques et faibles

Chef d’œuvre de sophismes, d’amalgames, de fausses preuves maintes fois réfutées. Comment peut-on accepter de publier cette… chose ?

Livre très bien écrit, bien sourcé.
On voit dessuite le niveau d’étude de l’auteur, il n’y a pas dire la YouTube Aerospace Institut est une référence.
Perso j’ai préféré « objectif lune » il y a plus de dessins. (mode ironique on, NDLA)

Il est surprenant qu’en 2024 avec toutes les puissances étrangères qui n’aiment pas les USA que aucune n’aie jamais sorti la moindre preuve qu’ils n’ont pas été sur la Lune…

Utile pour faire du feu cet hiver je vais en acheter 10 du coup, sinon il ne sert à rien.

Bon, le moins qu’on puisse dire (lire), c’est que les rageux sont de sortie !
Le sujet fait réagir, c’est clair… Ce qui est clair aussi c’est que ces rageux n’ont sans doute pas lu le livre (bravo les gars : critiquer sans même prendre le temps de lire, ça c’est de l’objectivité !).

Bon, c’est le moment de se mouiller : j’en pense quoi ?

Eh bien, je dois dire que j’ai beaucoup apprécié cette lecture car l’ouvrage est bien rédigé, les arguments sont bien présentés et certains de ces arguments posent effectivement question et c’est déjà beaucoup à notre époque où le dogmatisme triomphe bien trop souvent et bien trop facilement (le pire étant ceux qui prétendent vous clouer le bec avec un raisonnement scientifique alors qu’ils ne sont même pas en mesure d’expliquer quelle est la démarche scientifique, la vraie !).

Dans le lot des arguments présentés qui tous (tous !) posent questions (voire même posent problèmes…), il en est un qui m’a vraiment estomaqué et même, je dois l’avouer, remué en profondeur : c’est la question du freinage après le TLI (trans lunar injection)… En effet, comment Apollo 8 et les suivants ont fait pour se freiner afin de se mettre en orbite autour de la Lune ?

Si les données exposées par Sterone sont exactes, il faut alors passer de 11 Km/s à 1,6 Km/s (le TLI initial permet de passer de 7 Km/s à 11 Km/s afin de quitter l’orbite terrestre et d’aller vers la Lune) mais comment ont-ils fait alors qu’ils ont largé le troisième étage de la fusée Saturne V après le TLI, justement…

Bref, sans rentrer dans les détails trop techniques, je recommande de lire ce livre si le sujet vous intéresse. Chacun y trouvera des éléments à méditer. Ce qui en ressort, quoi qu’on en pense du sujet principal, c’est que, de tous les bords, ils nous mentent à peu près sur tout.

Publié dans à travers mes découvertes, La terrible vérité, Livres | 10 commentaires

Quand la borne est franchie, il n’y a plus de limite !

Lors de la grande panne informatique du 19 juillet dernier, certains en ont profité pour franchir les dernières bornes du capitalisme sauvage !

Je n’invente rien et je cite mes sources : les extraits (en italique) ci-dessous proviennent de cet article Nantes : Cet avion s’envole pour Londres mais… sans ses passagers

Avec ou sans passager, Ryanair s’en fout en fait !

Une histoire incroyable que je vais tenter de résumer ici…

Le vendredi 19 juillet, le vol Ryanair RYR8504 au départ de Nantes et à destination de Londres Stansted a décollé sans ses passagers à cause de Windows, le système d’exploitation, qui subit un plantage… « Un agent de l’aéroport nous a tout simplement annoncé « vous ne partez pas », confie à Ouest France Laurence Koenig, passagère du vol.

Bon, on peut le comprendre : les vols annulés, le 19 juillet dernier, il y en a eu un paquet !

Mais là où Ryanair a fait très fort, c’est que le vol n’a pas été annulé… Et ce n’est pas une nuance subtile.

Concernant le vol RYR8504, c’est « la compagnie Ryanair qui a décidé de ne pas procéder à l’embarquement de ses passagers, sans annuler formellement le vol ».

Une semaine après l’événement, aucun passager n’a pu se faire entendre. Quand Tyfenn, passagère du vol, fait sa demande de remboursement, la réponse de la compagnie low cost est formelle : « Votre demande de remboursement ne peut pas aboutir, votre vol n’a pas été annulé. » S’ensuit pour tous les passagers des échanges avec des boites mail automatiques ou des chats dont la réponse est toujours la même : l’avion a bien fait le trajet, il n’y aura donc pas de remboursement.

Pas de remboursement : quand on a votre argent, on le garde !

Oui, vous avez bien lu : pas annulé donc, pas de remboursement. Vous n’avez pu embarquer ?
Pas de notre faute, ça fait partie des impondérables prévus dans les conditions de ventes… Donc, vous pouvez vous assoir sur vos demandes de remboursement, point.

Ce n’est pas seulement un scandale, c’est un marqueur de l’évolution de notre société marchande : certains prestataires (pas tous, heureusement !) ont une culture de l’arnaque et ne s’en cachent même pas. Lorsque vous réservez un billet sur cette compagnie, vous avez une chance sur deux de gâcher votre argent, tout simplement.

Ryanair vient de le faire et je parie que ce n’est pas passé inaperçu des autres qui vont s’empresser de l’imiter. Vous êtes prévenus.

Publié dans à travers mes découvertes, La terrible vérité, Mort aux cons | Un commentaire

Une histoire de l’informatique moderne, épisode 17 : Arpanet devient Internet

Où nous assistons à la transformation progressive d’Arpanet en l’Internet. Egalement l’éclosion des premiers services en ligne (Compuserve, AOL) et les fameuses « Autoroutes de l’information »…

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Rien de bon à garder dans la vague actuelle de l’IA ? Pas tout à fait…

Si on veut être crédible dans ses critiques sur un sujet, il faut au moins respecter deux règles : 1- être honnête (et non pas « être objectif » car ça, l’objectivité, personne n’y parvient !), 2- faire ses devoirs et apprendre ses leçons… car, oui, être compétent sur un domaine devrait être un préalable avant de pouvoir en parler !

Donc, même si je dis et je répète que la vague actuelle de l’IA générative est une bulle hystérique et que, une fois la bulle éclatée, on n’en parlera presque plus, je veux rester honnête et quand je trouve quelque chose de « valable », je me dois de le dire…

Ce préambule pour dire que lors de mes nombreux tests, j’ai été plus souvent déçu qu’époustouflé mais qu’il y a quand même un cas que je souhaite mettre en avant : Gemini de Google.

Si vous fréquentez ce blog, vous savez combien je suis devenu critique (pour ne pas dire plus) vis-à-vis de Google et de son comportement. On ne peut donc pas me soupçonner de favoritisme avec Google/Alphabet… Ceci étant dit, j’ai été surpris de la qualité et de la cohérence des réponses que j’ai obtenu de la part de Gemini lors de mes récents test.

Pour vous permettre d’en juger, j’ai reproduit ci-dessous mes questions et les réponses obtenues. Je précise que je n’ai posé que des questions dont je connaissais les réponses afin de juger de la pertinence de Gemini face aux problèmes posés (en effet, ces systèmes ont l’habitude de répondre ce qui leur parait probable que ce soit factuellement exacte ou pas…).

============= dialogue avec Gemini ============

Ma première question => quelle est la différence entre doctrinal et dogmatique ?

Doctrinal vs. Dogmatique : Une Distinction Subtile

Doctrinal et dogmatique sont deux termes souvent utilisés dans des contextes religieux ou philosophiques, et ils peuvent sembler synonymes au premier abord. Cependant, ils comportent des nuances importantes.

Dogmatique

  • Définition: Un dogme est une croyance fondamentale, une vérité incontestable qui sert de base à un système de croyance. Il est généralement considéré comme révélé par une autorité divine ou établi par une institution.
  • Caractéristiques:
    • Infaillibilité: Un dogme est souvent présenté comme infaillible et ne pouvant être remis en question.
    • Fondamental: Il constitue le fondement d’une doctrine ou d’une religion.
    • Autoritaire: Les dogmes sont souvent imposés par une autorité supérieure.

Doctrinal

  • Définition: Une doctrine est un ensemble d’enseignements, de principes ou de croyances qui découlent d’un dogme ou d’un ensemble de dogmes.
  • Caractéristiques:
    • Développement: Les doctrines peuvent évoluer et se développer au fil du temps, en s’appuyant sur les dogmes fondamentaux.
    • Interprétation: Les doctrines peuvent faire l’objet d’interprétations différentes, même si elles reposent sur les mêmes dogmes.
    • Application: Les doctrines servent à guider la vie et les pratiques des croyants.

En résumé

  • Dogme: Vérité fondamentale, infaillible et révélée.
  • Doctrine: Ensemble d’enseignements qui découlent des dogmes.

Analogie: On peut comparer un dogme à une racine et une doctrine à une branche. La racine (dogme) est la source de vie de l’arbre (doctrine), mais les branches peuvent prendre différentes formes et tailles.

Exemple: Dans le christianisme, la Trinité est un dogme : Dieu est à la fois Père, Fils et Saint-Esprit. Les doctrines sur la nature de Jésus, sur le salut, etc., sont des développements de ce dogme fondamental.

En conclusion, bien que les termes doctrinal et dogmatique soient liés, ils ne sont pas synonymes. Le dogme est plus fondamental et absolu, tandis que la doctrine est plus développée et peut faire l’objet d’interprétations.

Ma seconde question => quelle est la définition originelle de bolchevique ?

La réponse de Gemini :

La définition originelle de « bolchevique »Bolchevique est un terme issu du russe qui, à l’origine, désignait simplement la majorité d’un vote lors d’un congrès du Parti ouvrier social-démocrate de Russie (POSDR) en 1903.

Une majorité qui a pris le pouvoir

  • Un schisme au sein du parti: Lors de ce congrès, deux tendances principales s’affrontèrent : les bolcheviks, menés par Lénine, et les mencheviks, menés par Martov. Le point de discorde était principalement la question de l’organisation du parti et de sa stratégie révolutionnaire.
  • Une vision plus radicale: Les bolcheviks prônaient une organisation du parti plus centralisée et une révolution prolétarienne immédiate, tandis que les mencheviks optaient pour une approche plus graduelle et une alliance avec les autres partis d’opposition.

Ainsi, à l’origine, le terme « bolchevique » ne portait pas en lui les connotations politiques et idéologiques qu’il a acquises par la suite.

L’évolution du terme

Avec la prise du pouvoir par les bolcheviks en Russie en 1917, le terme a pris une toute autre dimension. Il est devenu synonyme :

  • D’une idéologie révolutionnaire: Le bolchevisme est devenu une idéologie politique fondée sur les principes du marxisme-léninisme, prônant la dictature du prolétariat et la construction d’une société communiste.
  • D’un mouvement politique: Les bolcheviks sont devenus le parti unique dirigeant l’URSS, mettant en œuvre une politique de collectivisation des terres, d’industrialisation rapide et de répression politique.

En résumé, le terme « bolchevique » a connu une évolution sémantique importante au cours du XXe siècle. D’une simple désignation d’une majorité lors d’un vote, il est devenu synonyme d’un mouvement révolutionnaire et d’une idéologie politique qui a marqué l’histoire mondiale.

Ma troisième question => dans quelles circonstances le célèbre économiste Keynes aurait dit « à long terme, nous sommes tous morts » ?

La réponse de Gemini :

La célèbre phrase de Keynes : un contexte précis

John Maynard Keynes, figure majeure de l’économie du XXème siècle, est souvent cité pour cette phrase provocante : « À long terme, nous sommes tous morts ». Cette affirmation, bien qu’apparentement pessimiste, est en réalité un argument en faveur d’une action économique immédiate.

Pourquoi Keynes a-t-il prononcé cette phrase ?

  • Critique des politiques économiques à long terme: Keynes s’opposait à l’orthodoxie économique de son époque, qui privilégiait une approche à long terme et des mécanismes d’autorégulation du marché. Il estimait que cette vision était trop abstraite et ne tenait pas compte de la souffrance humaine causée par les crises économiques.
  • Urgence d’agir face aux crises: Pour Keynes, l’urgence de la situation économique exigeait des mesures immédiates de relance. Il soulignait que les politiques économiques à long terme étaient certes importantes, mais qu’elles ne pouvaient pas résoudre les problèmes du présent.
  • La nécessité de l’intervention de l’État: Cette phrase était donc un appel à l’action politique et à l’intervention de l’État dans l’économie pour stimuler la demande et sortir de la crise.

Les implications de cette phrase

Cette affirmation de Keynes a eu un impact considérable sur la pensée économique et a contribué à légitimer l’interventionnisme de l’État dans l’économie. Elle est souvent invoquée pour justifier des politiques économiques à court terme, même si elles peuvent avoir des conséquences à long terme.

En résumé

La phrase « À long terme, nous sommes tous morts » est un condensé de la pensée de Keynes. Elle exprime son impatience face à l’inaction des pouvoirs publics face aux crises économiques et souligne l’importance d’agir dans l’immédiat pour améliorer les conditions de vie des populations.

============== fin de l’échange avec Gemini ===========

Comme vous pouvez en juger, la qualité des réponses est tout à fait acceptable, plutôt bonne même. Est-ce pour autant qu’on soit tenu de crier à la « révolution technique » ou de redouter que les IA vont dominer le monde à brève échéance tout en nous transformant en esclaves hébétés ?

Non, sûrement pas. Surtout que « nous transformer en esclaves hébétés », c’est déjà fait pour de nombreuses personnes… et il n’y a pas eu besoin des IA pour cela !

Je crois plutôt que cette vague submergeante des IA génératives va finir par  prendre sa vraie dimension qui ressemblera plus à une vaguelette. En effet, avec le recul que j’essaye d’avoir sur l’évolution des techniques en général et sur l’évolution de l’informatique en particulier, cette soit-disant révolution technique est comme la montagne qui accouche d’une souris : les IA génératives vont trouver leur place dans l’arsenal des moyens à notre disposition pour les recherches sur Internet un peu à la manière des correcteurs orthographiques pour les traitements de texte : un complément utile mais pas la révolution annoncée.

Publié dans à travers mes découvertes, Informatique | Laisser un commentaire

Interview par Arthur Seyfried de Redsen sur la situation actuelle de l’IA

Ce n’est pas la première fois qu’Arthur m’interroge ainsi pour le compte de Redsen, on a déjà fait cela ensemble une paire de fois !

Cette fois, durant un peu plus de 45 mn nous avons évoqué différents sujets et surtout la bulle de l’IA…

Histoire d’être complet, voici les interviews précédentes réalisées avec Redsen :

Publié dans conférences, Informatique, Références IT | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 16 : les premier pas de l’Internet avec Arpanet

Avant de devenir l’Internet que nous connaissons et utilisons tous les jours, le réseau des réseaux a eu une longue histoire qui commence avec Arpanet dans les années 60…

Publié dans Anecdotes IT, documentaires IT, Informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Article Web par Edward Zitron – Pop Culture

Je vous propose cet article rédigé le 8/07/2024 par Edward Zitron, un blogueur américain que je viens de découvrir… J’ai utiliser Google Translation pour vous proposer une version traduite (en français) de cet excellent article mais la version originale est disponible à https://www.wheresyoured.at/pop-culture/.

Alors, pourquoi vous proposer cet article ?
Eh bien, je l’ai lu et la propos est tellement en phase avec ce que je pense du sujet (le hype actuel sur l’IA) que je n’ai pu résister à le publier sur mon blog (en français quand même, un minimum de valeur ajoutée !).

Voilà, je n’ai pas besoin d’en ajouter, je vous laisse lire cette longue mais détaillée et bien documentée charge sur le délire de l’IA (qui ne va pas tarder à exploser en plein vol !)…

=========

Culture pop

EDOUARD ZITRON – 8 JUILLET 202418 MA LECTURE

Il y a une semaine et demie, Goldman Sachs a publié un rapport de 31 pages (intitulé « Gen AI : Too Much Spend, Too Little Benefit ? ») qui comprend certains des ouvrages les plus accablants sur l’IA générative que j’ai jamais vu. Et oui, ce son que vous entendez est la lente déflation de la bulle que j’ai a été vous avertissant à propos depuis mars

Le rapport couvre les avantages de l’IA en matière de productivité (qui, selon Goldman, sont probablement limités), les rendements de l’IA (qui seront probablement beaucoup plus limités que prévu) et les demandes d’énergie de l’IA (qui sont probablement si importantes que les sociétés de services publics devront dépenser près de 40 % plus dans le les trois prochaines années pour répondre à la demande des hyperscalers comme Google et Microsoft).

Ce rapport est si important parce que Goldman Sachs, comme toute banque d’investissement, ne se soucie pas des sentiments des autres, à moins que cela ne soit rentable. Il se fera un plaisir de vanter n’importe quoi s’il pense que cela rapportera de l’argent. En mai dernier, il a été affirmé que l’IA (pas seulement l’IA générative) était « montrant des signes très positifs d’une éventuelle augmentation du PIB et de la productivité« , même si ledit rapport rappelle constamment que l’IA n’a pas encore eu d’impact sur la croissance de la productivité, et déclare que seulement 5 % environ des entreprises déclarent utiliser l’IA générative dans leur production régulière.

Le fait que Goldman se soit soudainement tourné vers le mouvement de l’IA suggère qu’il est extrêmement inquiet quant à l’avenir de l’IA générative, avec presque tout le monde d’accord sur un point essentiel : plus cette technologie met de temps à faire gagner de l’argent aux gens, plus elle devra gagner d’argent. .

Le rapport comprend un entretien avec l’économiste Daron Acemoglu du MIT (page 4), un professeur de l’Institut qui a publié un article en mai intitulé « La macroéconomie simple de l’IA» qui affirmait que « l’augmentation de la productivité américaine et, par conséquent, de la croissance du PIB grâce à l’IA générative s’avérera probablement beaucoup plus limitée que ce que pensent de nombreux prévisionnistes. » Un mois n’a fait que rendre Acemoglu plus pessimiste, déclarant que « des changements véritablement transformateurs ne se produiront pas ». rapidement et peu – voire aucune – se produiront probablement au cours des 10 prochaines années », et que la capacité de l’IA générative à affecter la productivité mondiale est faible parce que « bon nombre des tâches que les humains effectuent actuellement… sont multiformes et nécessitent des tâches concrètes ». interaction, que l’IA ne sera pas en mesure d’améliorer matériellement de sitôt. »

Ce qui rend cette interview – et vraiment cet article – si remarquable, c’est la façon dont elle attaque de manière approfondie et agressive tous les éléments de garantie marketing dont dispose le mouvement de l’IA. Acemoglu remet spécifiquement en question la croyance selon laquelle les modèles d’IA deviendront simplement plus puissants à mesure que nous leur injecterons plus de données et de capacité GPU, et posera spécifiquement une question : que signifie « doubler les capacités de l’IA » ? Comment cela améliore-t-il réellement quelque chose comme, par exemple, un représentant du service client ?

Et c’est un problème spécifique avec le baratin des fantasmes de l’IA. Ils s’appuient fortement sur l’idée que non seulement ces grands modèles de langage (LLM) obtiendront plus puissant, mais devenir plus puissant lui donnera d’une manière ou d’une autre le pouvoir de faire… quelque chose. Comme le dit Acemoglu, « que signifie doubler les capacités de l’IA ? » 

Non, vraiment, que signifie réellement « plus » ? Même si l’on pourrait dire que cela signifiera plus rapide processus génératifs, il n’y a vraiment pas de baromètre pour savoir à quoi ressemble le « meilleur », et c’est peut-être pour cela que ChatGPT, Claude et d’autres LLM n’ont pas encore fait un pas au-delà de la capacité de générer des choses. Claude LLM d’Anthropic pourrait être « meilleur de sa catégorie« , mais cela signifie seulement que c’est plus rapide et plus précis, ce qui est cool mais non l’avenir ou révolutionnaire ou même forcément bon.

Je dois ajouter que ce sont les questions que moi – et d’autres personnes écrivant sur l’IA – aurais dû poser tout le temps. L’IA générative génère des résultats basés sur des entrées et des requêtes textuelles, des requêtes qui peuvent être tout aussi spécifiques et complexes, mais la réponse est toujours, aussi évidente que cela puisse paraître, générée de manière fraîche, ce qui signifie qu’il n’y a pas de « connaissance » réelle ou, en fait, « l’intelligence » opérant dans n’importe quelle partie du processus. En conséquence, il est facile de voir comment cela se produit mieux, mais il est beaucoup plus difficile, voire impossible, de voir comment l’IA générative mène plus loin que là où nous en sommes déjà. 

Comment GPT – un modèle basé sur un transformateur qui génère des réponses de manière probabiliste (comme dans quelle partie de la génération suivante est la plus susceptible d’être la bonne) entièrement basée sur des données d’entraînement – ​​fait-il autre chose que générer des paragraphes de texte parfois précis ? Comment l’un de ces modèles peut-il même différencier quand la plupart d’entre eux sont formés sur les mêmes données de formation dont ils manquent déjà?

La crise des données de formation n’attire pas suffisamment l’attention, mais elle est suffisamment grave pour qu’elle puisse potentiellement arrêter (ou ralentir considérablement) tout développement de l’IA dans un avenir proche. En un seul article, publié dans la revue Computer Vision and Pattern Recognition, a constaté que pour obtenir une amélioration linéaire des performances du modèle, vous avez besoin d’une quantité de données exponentiellement importante. 

Ou, en d’autres termes, chaque étape supplémentaire devient de plus en plus (et exponentiellement) plus coûteuse à franchir. Cela implique un coût financier élevé – non seulement pour l’obtention des données, mais aussi pour le calcul requis pour les traiter – le PDG d’Anthropic, Dario Amodei, affirmant que les modèles d’IA actuellement en développement coûteront jusqu’à 1 milliard de dollars à former, et d’ici trois des années nous pouvons voir des modèles qui coûtent jusqu’à « dix ou cent milliards » de dollars, soit environ trois fois le PIB de l’Estonie.  

Acemoglu doute que les LLM puissent devenir superintelligents et que même ses estimations les plus prudentes des gains de productivité « pourraient s’avérer trop importantes si les modèles d’IA s’avèrent moins efficaces pour améliorer des tâches plus complexes ». Et je pense que c’est vraiment la racine du problème. 

Tout cet enthousiasme, chaque seconde de battage médiatique haletant ont été construits sur l’idée que l’industrie de l’intelligence artificielle – dirigée par l’IA générative – va d’une manière ou d’une autre révolutionner tout, du robotique à La chaîne d’approvisionnement, malgré le fait que l’IA générative ne va pas réellement résoudre ces problèmes car il n’est pas conçu pour le faire. 

Acemoglu a cependant des choses positives à dire, par exemple que des modèles d’IA pourraient être formés pour aider les scientifiques à concevoir et à tester de nouveaux matériaux (ce qui s’est passé l’année dernière) — son verdict général est assez sévère : l’utilisation de l’IA générative et « trop d’automatisation trop tôt pourraient créer des goulots d’étranglement et d’autres problèmes pour les entreprises qui n’ont plus la flexibilité et les capacités de dépannage qu’offre le capital humain ». Essentiellement, remplacer les humains par l’IA pourrait tout casser si vous êtes un de ces patrons qui ne savent pas vraiment de quoi ils parlent.

Le rapport comprend également un nettoyeur de palette pour le démon excentrique de l’IA à la page 6, où Joseph Briggs de Goldman Sachs soutient que l’IA générative « conduira probablement à une hausse économique significative » basée – et je ne vous merde pas – entièrement sur le idée selon laquelle l’IA remplacera les travailleurs dans certains emplois puis leur permettre de trouver un emploi dans d’autres domaines. Briggs affirme également que « l’automatisation complète des tâches exposées à l’IA qui sont susceptibles de se produire sur un horizon plus long pourrait générer des économies de coûts significatives », ce qui suppose que l’IA générative (ou l’IA elle-même) remplacera en réalité ces tâches. 

Je dois également ajouter que contrairement à toutes les autres interviews du rapport, Briggs mélange continuellement l’IA et l’IA générative, et suggère à un moment donné que « les récents progrès de l’IA générative » « préfigurent l’émergence d’une « superintelligence ».

J’ai inclus cette partie du rapport parce que parfois — très rarement — quelqu’un me suggère de ne pas envisager des deux côtés. La raison pour laquelle je n’inclut généralement pas les deux côtés de cet argument est que le côté hype de l’IA avance généralement des arguments basés sur l’hypothèse que des choses vont se produire, comme un modèle de transformateur qui génère de manière probabiliste la partie suivante d’une phrase ou une image qui, d’une manière ou d’une autre, se produira. gagner en sensibilité.

Francois Chollet — an AI researcher at Google — a récemment soutenu que les LLM ne peuvent pas conduire à l’AGI, expliquant (en détail) que les modèles comme GPT ne sont tout simplement pas capables du type de raisonnement et de théorie qui fait fonctionner le cerveau humain. Chollet note également que même les modèles spécialement construits pour accomplir les tâches du Corpus d’abstraction et de raisonnement (un test de référence pour les compétences en IA et la véritable « intelligence ») ne le font que parce qu’ils ont reçu des millions de points de données de personnes résolvant le test, ce qui revient un peu à mesurer le QI de quelqu’un en se basant sur ses études très difficiles pour compléter un QI. essai, sauf encore plus bête.

La raison pour laquelle j’évoque soudainement les superintelligences – ou AGI (intelligence artificielle générale) – est que, dans chaque défense de l’IA générative, il y a une tentative délibérée de contourner le problème qui l’IA générative n’automatise pas vraiment de nombreuses tâches. Bien qu’il soit efficace pour générer des réponses ou créer des éléments basés sur un demande, il n’y a pas de réelle interaction avec la tâche, ni avec la personne qui lui confie la tâche, ni avec la prise en compte de ce dont la tâche a besoin – juste l’abstraction de « chose dite » en « sortie générée ». 

Des tâches comme prendre la commande de quelqu’un et la transmettre à la cuisine d’un fast-food peuvent sembler élémentaires à la plupart des gens (je n’écrirai pas facile, travailler dans la restauration rapide, c’est nul), mais ce n’est pas pour un modèle d’IA qui génère des réponses sans vraiment comprendre le sens de l’un des mots. L’année dernière, Wendy’s a annoncé qu’elle intégrerait son système de commande génératif « FreshAI » dans certains restaurants, et il y a quelques semaines c’était a révélé que le système nécessite une intervention humaine sur 14% des commandesSur Reddit, un utilisateur a noté que l’IA de Wendy nécessitait régulièrement trois tentatives pour la comprendre, et je te couperais la parole si tu ne parlais pas assez vite.

Château Blanc, qui mis en œuvre un système similaire en partenariat avec Samsung et SoundHound, s’en sort à peine mieux, avec 10% des commandes nécessitant une intervention humaine. Le mois dernier, McDonald’s a abandonné son propre système de commande d’IA – qu’il avait construit avec IBM et déployé dans plus de 100 restaurants – probablement parce qu’il n’était tout simplement pas très bon, un client ayant appelé pour littéralement des centaines de nuggets de poulet. Cependant, pour être clair, le système de McDonald’s n’était pas basé sur l’IA générative.

À tout le moins, cela illustre le décalage entre ceux qui construisent des systèmes d’IA et à quel point (ou plutôt à quel point ils comprennent peu) les emplois qu’ils souhaitent éliminer. Un peu d’humilité fait beaucoup de bien.      

Une autre chose à noter est qu’en plus de l’IA générative qui gère ces commandes, Wendy’s a toujours besoin d’êtres humains pour préparer cette foutue nourriture. Malgré tout ce battage médiatique, toute cette attention médiatique, tous ces investissements incroyables, les prétendues « innovations » ne semblent même pas capables de remplacer les emplois pour lesquels elles sont censées – non pas que je pense qu’elles devraient, juste que J’en ai marre qu’on me dise que cet avenir est inévitable.

La réalité est que l’IA générative n’est pas douée pour remplacement d’emplois, mais marchandiser des actes de travail distincts, et, ce faisant, les premiers emplois créatifs qui aident les gens à constituer des portefeuilles pour progresser dans leur secteur.. 

Les indépendants voient leurs moyens de subsistance remplacés par des patrons utilisant l’IA générative ne sont pas tant « remplacés » qu’on leur montre à quel point de nombreux patrons ont peu de respect pour leur métier ou pour le client qu’il est censé servir. Les réviseurs et les artistes conceptuels fournissent un travail bien plus précieux que n’importe quelle IA générative. une économie dominée par des managers qui n’apprécient pas (ou ne participent pas) au travail signifie que ces emplois sont attaqués par les LLM qui produisent des trucs qui ont tous la même apparence et le même son, au point que les rédacteurs sont désormais payés pour les aider à paraître plus humains.

L’un des malentendus fondamentaux des patrons qui remplacent ces travailleurs par l’IA générative est que vous ne demandez pas simplement quelque chose, mais vous externalisez le risque et la responsabilité. Lorsque j’engage un artiste pour créer un logo, je m’attends à ce qu’il m’écoute, puis ajoute sa propre touche, puis nous ferons des allers-retours avec des ébauches jusqu’à ce que nous obtenions quelque chose qui me plaise. Je les paie non seulement pour leur temps, leurs années d’apprentissage de leur métier et le résultat lui-même, mais pour que le fardeau ultime de la production ne soit pas le mien et que leur expérience signifie qu’ils peuvent s’adapter à des circonstances auxquelles je n’aurais peut-être pas pensé. de. Ce ne sont pas des choses que vous pouvez entraîner dans un ensemble de données, car elles sont dérivées d’expériences internes et externes au processus de création.

Bien que l’on puisse « apprendre » à une IA générative à quoi ressemblent un milliard d’images, l’IA n’a pas de crampes aux mains ni d’appel à 20 heures disant qu’elle « a besoin d’elle pour apparaître davantage ». Il n’a pas d’humeurs et ne peut pas non plus les déduire des médias écrits ou visuels, car les émotions humaines sont extrêmement bizarre, tout comme nos humeurs, nos corps et nos existences en général. Je me rends compte que tout cela est un peu fleuri, mais même l’exemplaire le plus médiocre jamais écrit est, à un certain niveau, un recueil d’expériences. Et le remplacement complet d’une création est très peu probable si vous le faites en copiant un million d’éléments des devoirs de quelqu’un d’autre.

La partie la plus fascinante du rapport (page 10) est une interview de Jim Covello, responsable de la recherche sur les actions mondiales chez Goldman Sachs. Covello n’est pas un nom que vous aurez entendu à moins que vous soyez, pour une raison quelconque, un grand passionné de semi-conducteurs, mais il a toujours été du bon côté de l’histoire, nommé meilleur analyste des semi-conducteurs par II Research pendant des années, a réussi à rattraper le ralentissement des fondamentaux de plusieurs grandes sociétés de puces bien avant d’autres.

Et Jim, sans équivoque, pense que la bulle de l’IA générative est pleine de merde.

Covello estime que les dépenses combinées de tous les volets du boom de l’IA générative – centres de données, services publics et applications – coûteront mille milliards de dollars au cours des prochaines années seulement, et pose une question très simple : « quel problème de mille milliards de dollars l’IA résoudra-t-elle ?  » Il note que « le remplacement des emplois à bas salaires par une technologie extrêmement coûteuse est fondamentalement à l’opposé des transitions technologiques antérieures [dont il a] été témoin au cours des trente dernières années ».

Un mythe particulier que Covello dissipe est celui de la comparaison de l’IA générative »aux débuts d’Internet« , notant que « même à ses débuts, Internet était une solution technologique peu coûteuse qui permettait au commerce électronique de remplacer les solutions existantes coûteuses », et que « la technologie de l’IA est exceptionnellement coûteuse, et pour justifier ces coûts, la technologie doit être capable de résoudre des problèmes complexes, ce pour quoi il n’est pas conçu. »

Covello rejette également l’idée selon laquelle la technologie est coûteuse au départ et devient moins chère au fil du temps en la qualifiant d' »histoire révisionniste », et que « le monde de la technologie est trop complaisant dans l’hypothèse que les coûts de l’IA diminueront considérablement avec le temps ». Il note spécifiquement que la seule raison pour laquelle la loi de Moore était capable de permettre des puces plus petites, plus rapides et moins chères était parce que des concurrents comme AMD ont forcé Intel (et d’autres sociétés à rivaliser) – une chose qui ne semble pas vraiment se produire avec Nvidia, qui a une quasi-mainprise sur les GPU nécessaires pour gérer l’IA générative. 

Pendant que là sont les entreprises qui fabriquent des GPU destinés au marché de l’IA (en particulier en Chine, où les restrictions commerciales américaines empêchent les entreprises locales d’acheter des cartes de grande puissance comme l’A100 de peur qu’elles ne soient détournées vers l’armée), elles ne le font pas en même temps. échelle, et Covello note que « le marché est trop complaisant quant à la certitude d’une baisse des coûts ». 

Il note également que les coûts sont si élevés que même s’ils devaient baisser, il faudrait le faire de manière spectaculaire, et que la comparaison avec les débuts d’Internet (où les entreprises s’appuyaient souvent sur des serveurs à 64 000 $ de Sun Microsystems et il n’y avait pas d’AWS, Linode ou Azure) « n’est rien en comparaison » des coûts de l’IA, et cela même sans inclure le remplacement du réseau électrique, une nécessité pour maintenir ce boom.

Je pourrais probablement écrire l’intégralité de l’interview de Covello, car c’est méchant. Covello ajoute que l’adage courant selon lequel les gens ne pensaient pas que les smartphones seraient grands était faux. Il a assisté à des centaines de présentations au début des années 2000, dont beaucoup comprenaient des feuilles de route qui correspondent précisément au déploiement des smartphones, et qu’aucune feuille de route (ou application géniale) pour l’IA n’a été trouvée. 

Il note que les grandes entreprises technologiques n’ont désormais d’autre choix que de s’engager dans la course aux armements en matière d’IA étant donné le battage médiatique (qui poursuivra la tendance aux dépenses massives), et il estime qu’il y a « de faibles chances d’augmentation des revenus liés à l’IA ». en partie parce qu’il ne croit pas que l’IA générative rendra les travailleurs plus intelligents, mais simplement plus capables de trouver de meilleures informations plus rapidement, et que tous les avantages que l’IA générative vous offre peuvent être « arbitrés » parce que la technologie peut être utilisée partout, et donc vous ne peut pas, en tant qu’entreprise, augmenter les prix.

En clair : l’IA générative ne rapporte d’argent à personne car elle ne rapporte pas d’argent supplémentaire aux entreprises qui l’utilisent. L’efficacité est utile, mais ce n’est pas définition de l’entreprise. Il ajoute également que les hyperscalers comme Google et Microsoft « tireront également des revenus supplémentaires » de l’IA – et non les énormes rendements sur lesquels ils comptent peut-être, compte tenu de leurs énormes dépenses liées à l’IA au cours des deux dernières années.

C’est accablant pour de nombreuses raisons, la principale étant que la chose la plus importante que l’intelligence artificielle est censée faire est de sois intelligent, et vous rend plus intelligent. Être capable d’accéder plus rapidement aux informations peut vous rendre meilleur dans votre travail, mais c’est une question d’efficacité plutôt que de vous permettre de faire quelque chose de nouveau. L’IA générative ne crée pas de nouveaux emplois, elle n’en crée pas de nouveaux façons pour faire votre travail, et cela ne rapporte à personne – et la voie à suivre pour augmenter les revenus n’est pas claire.

Covello termine par une remarque importante et brutale : plus le temps passe sans applications significatives de l’IA, plus « l’histoire de l’IA deviendra » difficile, la rentabilité des entreprises flottant probablement dans cette bulle aussi longtemps qu’il faudra à l’industrie technologique pour atteindre un niveau record. période économique plus difficile.

Il ajoute également sa propre prédiction : « l’enthousiasme des investisseurs pourrait commencer à s’estomper » si « des cas d’utilisation importants ne commencent pas à devenir plus évidents au cours des 12 à 18 prochains mois ».

Je pense qu’il est optimiste.

Même si je ne raconterai pas le reste du rapport, un thème qui revient à plusieurs reprises est l’idée selon laquelle Le réseau électrique américain n’est littéralement pas prêt pour l’IA générative. Dans une interview avec l’ancien vice-président de l’énergie de Microsoft, Brian Janous (page 15), le rapport détaille de nombreux problèmes cauchemardesques que la croissance de l’IA générative cause au réseau électrique, tels que :

  • Les hyperscalers comme Microsoft, Amazon et Google ont augmenté leur demande d’énergie de quelques centaines de mégawatts au début des années 2010 à quelques gigawatts d’ici 2030, suffisamment pour alimenter plusieurs villes américaines.
  • La centralisation des opérations des centres de données pour plusieurs grandes entreprises technologiques du nord de la Virginie pourrait potentiellement nécessiter un doublement de la capacité du réseau au cours de la prochaine décennie.
  • Les services publics n’ont pas connu de période de croissance de la charge – comme dans le cas d’une augmentation significative de la consommation d’électricité – depuis près de 20 ans, ce qui constitue un problème car l’infrastructure électrique est lente à construire et implique des autorisations onéreuses et des mesures bureaucratiques pour s’assurer que cela est fait correctement.
  • La capacité totale des projets électriques en attente de connexion au réseau a augmenté de 30 % l’année dernière et les délais d’attente sont de 40 à 70 mois.
  • L’expansion du réseau n’est « pas une tâche facile ni rapide », et Mark Zuckerberg a déclaré que ces contraintes de puissance sont le problème le plus important pour l’IA, ce qui est… en quelque sorte vrai.

Essentiellement, en plus du fait que l’IA générative n’a pas d’applications tueuses, n’augmente pas de manière significative la productivité ou le PIB, ne génère aucun revenu, ne crée pas de nouveaux emplois et ne modifie pas massivement les industries existantes, elle nécessite également que l’Amérique reconstruise totalement son réseau électrique, ce que Janous regrette malheureusement. ajoute que les États-Unis ont en quelque sorte oublié comment procéder.

Peut-être La percée énergétique de Sam Altman pourrait être ces putains de sociétés d’IA sont obligées de payer pour de nouvelles infrastructures électriques.

La raison pour laquelle j’ai si angoisséement démonté ce rapport est que Si Goldman Sachs dit cela, les choses vont très, très mal. Il s’attaque également directement aux tactiques exagérées spécifiques des fanatiques de l’IA – le sentiment que l’IA générative créera de nouveaux emplois (ce n’est pas le cas depuis 18 mois), le sentiment que les coûts vont baisser (ils ne l’ont pas été, et il n’y a pas de nouveaux emplois). Cela ne semble pas être un moyen pour eux d’y parvenir d’une manière qui compte), et qu’il existe une demande incroyable pour ces produits (il n’y en a pas, et il n’y a aucun moyen d’y parvenir). 

Même Goldman Sachs, décrivant les avantages de l’IA en termes d’efficacité, a ajouté que même si elle était capable de créer une IA qui mettait à jour les données historiques dans ses modèles d’entreprise plus rapidement que de le faire manuellement, cela coûtait six fois plus cher.

La défense restante est également l’une des plus ennuyeuses : OpenAI a quelque chose que nous ne connaissons pas. Une grande technologie secrète et sexy qui brisera éternellement les os de tous les haineux. 

Pourtant, j’ai un contrepoint : non, ce n’est pas le cas. 

Sérieusement, Mira Murati, CTO d’OpenAI, a déclaré il y a quelques semaines que les modèles dont elle dispose dans ses laboratoires ne sont pas beaucoup plus avancés que ceux qui sont accessibles au public..

C’est ma réponse à tout cela. Il n’y a pas de tour de magie. Il n’y a aucune chose secrète que Sam Altman va nous révéler dans quelques mois qui me fasse manger du corbeau, ou un outil magique que Microsoft ou Google « sortent et qui font que tout cela en vaut la peine.

Il n’y en a pas. Je vous dis que non. 

IA générative, comme je l’ai dit en mars, atteint son apogée, si ce n’est pas déjà fait. Il ne peut pas faire grand-chose de plus que ce qu’il fait actuellement, si ce n’est d’en faire plus plus rapidement grâce à de nouveaux intrants. Cela ne devient pas beaucoup plus efficace. David Cahn, le hype-man de Sequoia, a joyeusement mentionné dans un blog récent que le B100 de Nvidia « avoir des performances 2,5 fois supérieures pour seulement 25 % plus coût« , ce qui ne veut rien dire, parce que l’IA générative ne va pas gagner en sensibilité, en intelligence et en conscience parce qu’elle est capable de fonctionner plus rapidement.

L’IA générative ne deviendra pas l’AGI, ni le type d’intelligence artificielle que vous avez vu dans la science-fiction. Les assistants ultra-intelligents comme Jarvis d’Iron Man nécessiteraient une forme de conscience qu’aucune technologie ne possède actuellement – ​​ou ne pourra jamais – avoir, à savoir la capacité à la fois de traiter et de comprendre les informations. parfaitement et fais décisions basées sur l’expérience, qui, si je n’ai pas été assez clair, sont toutes des choses entièrement distinctes. 

IA générative au mieux traite les informations lorsqu’il s’entraîne sur des données, mais à aucun moment il « n’apprend » ou « ne comprend », car tout ce qu’il fait est basé sur l’ingestion de données d’entraînement et le développement de réponses basées sur un sens mathématique ou une probabilité plutôt que sur une appréciation ou une compréhension de l’information. matériau lui-même. Les LLM sont des technologies totalement différentes de celle de « l’intelligence artificielle » dans le sens où la bulle de l’IA est un battage médiatique, et il est honteux que l’industrie de l’IA ait accaparé autant d’argent et d’attention avec un mensonge aussi flagrant et offensant.

Le marché du travail ne va pas changer grâce à l’IA générative, parce que l’IA générative ne peut pas réellement faire beaucoup de tâches, et elle est médiocre dans le peu de choses qu’elle est capable de faire. Bien qu’il s’agisse d’un outil d’efficacité utile, cette efficacité repose sur une technologie extrêmement coûteuse, et je pense qu’à un moment donné, les sociétés d’IA comme Anthropic et OpenAI devront augmenter leurs prix – ou commencer à s’effondrer sous le poids d’une technologie qui n’a aucun chemin vers la rentabilité.

S’il existait un moyen secret de résoudre tout cela, Microsoft, Meta, Google ou Amazon ne le feraient-ils pas… dont le PDG d’AWS a comparé le battage médiatique de l’IA générative à la bulle Dotcom en février — en avez-vous profité ? Et pourquoi ai-je entendu dire qu’OpenAI essaie déjà de lever un autre tour de table de plusieurs milliards de dollars ? après avoir levé un montant indéterminé pour une valorisation de 80 milliards de dollars en février? Son chiffre d’affaires annualisé n’est-il pas de 3,4 milliards de dollars? Pourquoi a-t-il besoin de plus d’argent ?

Je vais vous donner une hypothèse éclairée : parce que tout ce qu’ils – et d’autres colporteurs d’IA générative – ont aujourd’hui n’est évidemment pas l’avenir. L’IA générative n’est pas l’avenir, mais une régurgitation du passé, un moyen utile, mais pas révolutionnaire, de générer rapidement de « nouvelles » données à partir d’anciennes qui coûtent beaucoup trop cher pour rendre le calculer et énergie les exigences en valent la peine. Google a augmenté ses émissions de 48 % au cours des cinq dernières années à la poursuite d’une technologie qui a fait son moteur de recherche encore pire qu’il ne l’est déjà, avec peu de choses à montrer.

Il est vraiment remarquable de voir combien de personnes ont été séduites par cette escroquerie remarquable — cette manipulation sans scrupules des marchés financiers, des médias et des médias. des cadres sans cervelle déconnectés de la production – tout cela grâce à une industrie technologique qui s’est déconnectée de la création de technologies utiles.

On m’a demandé à plusieurs reprises ce qui, selon moi, ferait éclater cette bulle, et je maintiens qu’une partie de l’effondrement sera due à la dissidence des investisseurs, punissant l’un des principaux fournisseurs (Microsoft ou Google, très probablement) pour un investissement massif dans un secteur. qui génère peu de revenus réels. Cependant, je pense que l’effondrement sera une succession de mauvais événements… comme Figma suspendant sa nouvelle fonctionnalité d’IA après avoir immédiatement plagié l’application météo d’Apple, probablement à cause des données de formation qui l’incluaient – couronné par une grande entreprise, comme une grande société d’IA comme la société de chatbot Character.ai (qui a levé 150 millions de dollars de financement, et The Information prétend qu’il pourrait vendre à l’une des grandes entreprises technologiques) s’effondrant sous le poids d’un modèle économique non durable fondé sur une technologie non rentable. 

C’est peut-être Cognition AI, la société qui a levé 175 millions de dollars pour une valorisation de 2 milliards de dollars en avril pour faire un « ingénieur logiciel IA » qui était si bon qu’il a dû simuler une démo en complétant un projet de développement logiciel sur Upwork.

Fondamentalement, il y aura un moment qui effrayera une société de capital-risque qui poussera l’une de ses startups à vendre, ou l’effondrement soudain, inattendu mais très évident d’un acteur majeur. Pour OpenAI et Anthropic, il n’y a vraiment pas de voie vers la rentabilité – une seule qui implique de dépenser des milliards de dollars supplémentaires dans l’espoir de découvrir quelque chose. rien cela pourrait être véritablement innovant ou révélateur de l’avenir, plutôt que de nouvelles itérations d’IA générative, qui, au mieux, constituent une nouvelle façon extrêmement coûteuse de traiter les données.

Je ne vois aucune situation dans laquelle OpenAI et Anthropic continuent d’itérer à perpétuité sur de grands modèles de langage, comme à un moment donné Microsoft, Amazone et Google décident (ou sont obligés de décider) que le bien-être du cloud computing n’est pas un modèle économique. Sans une avancée réelle et tangible – qui les obligerait à quitter complètement le monde des LLM, à mon avis – il est difficile de savoir comment les entreprises d’IA générative peuvent survivre. 

L’IA générative est verrouillée la course de la Reine Rouge, brûlant de l’argent pour gagner de l’argent dans le but de prouver qu’ils gagneront un jour plus d’argent, même s’il n’y a pas de chemin clair pour y parvenir.

Je me sens un peu fou à chaque fois que j’écris un de ces morceaux, parce que c’est manifestement ridicule. L’IA générative n’est pas rentable, non durable et fondamentalement limitée dans ce qu’elle peut faire du fait qu’elle génère une réponse de manière probabiliste. Cela fait dix-huit mois que cette bulle a gonflé, et depuis lors, très peu de choses se sont réellement produites. impliquant la technologie faisant de nouvelles choses, juste une exploration itérative des limites très claires de ce qu’un modèle d’IA qui génère des réponses peut produire, la réponse étant « quelque chose qui est, parfois, plutôt bon ».

C’est évident. C’est bien documenté. L’IA générative coûte beaucoup trop cher, ne devient pas moins chère, consomme trop d’énergie et n’en fait pas assez pour justifier son existence. Il n’y a pas d’applications tueuses, ni d’applications tueuses à l’horizon. Et il n’y a pas de réponses. 

Je ne sais pas pourquoi davantage de gens ne le disent pas aussi fort qu’ils le peuvent. Je comprends que les grandes technologies ont désespérément besoin que ce soit le prochain marché en hypercroissance, car ils n’en ont pas d’autres, mais la poursuite de ce gâchis quasi utile en matière d’efficacité du cloud, provoquant une catastrophe environnementale, enverra une onde de choc à travers l’industrie.

Tout cela est un gaspillage honteux.

 

Publié dans à travers mes découvertes, Anecdotes IT, Informatique, La terrible vérité | Laisser un commentaire

Le Mans Ultimate propose son nouveau DLC… faut-il se précipiter ?

Comme vous le savez, Le Mans Ultimate (LMU) est une des simulations sur laquelle je roule régulièrement (même si Automobilista 2 -AMS2- reste encore ma préférée). Or, voici que le tout premier DLC payant (il y a déjà eu la BMW LMDh mais il était gratuit…) est proposé à partir d’aujourd’hui avec le tracé d’Imola, la version 2024 de la Peugeot 9X8 et la Lamborghini LMDh SC63…

De plus, il y a un patch avec une longue liste de corrections/modifications plus ou moins intéressantes…

Alors, est-ce le moment de se concentrer sur LMU au détriment d’AMS2 ?
Pas si vite papillon !

Tout d’abord, je n’aime pas le tracé d’Imola et je ne suis pas fan des Lambo en général… Mais, surtout, il n’y a toujours pas LA fonction que j’attend (et je ne suis pas le seul, bien sûr !) : l’enregistrement de la course en cours de session afin de pouvoir la reprendre plus tard seul ou avec des amis pilotes distants (distants géographiquement et pas forcément disponibles quand je le suis…). Cette fonction est appelée « coop driver swap » par Studio 397 qui développe ce titre. Pour moi, c’est une grosse déception que de devoir attendre encore et encore (elle avait déjà été retardé en juin et là, ils ne donnent même plus d’horizon…). Je reste persuadé que c’est cette fonction qui va donner son véritable essor à ce titre et même plus : elle va montrer la voie au marché du SimRacing et sera inévitablement copié par les autres titres. Ainsi, tout le monde y gagnera.

De plus, je constate que les principaux défauts (criants !) de LMU ne sont toujours pas corrigés ni en voie de l’être puisque les devs ne les évoquent même pas… à savoir les temps de chargement des circuits qui sont terriblement longs et l’optimisation des graphismes qui est plus que très nécessaire (je constate que je suis loin d’être le seul à souffrir de stuttering -bégaiement d’affichage- ce qui prouve, s’il en était besoin que le jeu est loin d’être optimisé).

Bon, alors, ça vous le coup ou pas ce DLC, finalement ?

Eh bien, ça dépend : si vous êtes déjà fan de LMU, n’hésitez pas et plongez. En effet, ce DLC n’est pas cher et le contenu est de qualité (j’aime pas Imola parce que je trouve les chicanes -surtout la première et la troisième- très mal conçues et que c’est l’horreur de mélanger des hypercars et des GT3 sur un tracé de cette espèce mais je ne vais pas jusqu’à dire que la version LMU est mal faite… au contraire, on s’y croirait -surtout si in se fit au caméras embarquées de la récente manche WEC sur ce circuit). Si, par contre, vous n’êtes pas dans cette catégorie (Fan de LMU de la première heure), je pense que vous pouvez encore patienter le temps que le titre se complète et fixe ses défauts.

 

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 15 : les L4G, seconde partie

Les L4G à l’heure de l’interface graphique et du client-serveur puis du Web ! Une histoire aux multiples tournants qui s’est prolongée jusqu’à aujourd’hui…

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 14 : les L4G, première partie

Les L4G, l’infocentre et le développement d’applications… Un vaste sujet ! Ici, la première partie : les L4G et les AGL jusqu’à la fin des années 80. La seconde partie concernera la prise en compte des interfaces graphiques (principalement Windows en fait) et du développement en réseau (le modèle client-serveur).

Publié dans Anecdotes IT, documentaires IT, Références IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

« Le droit à la réparation », un mouvement significatif de notre époque !

Soyons clairs, Apple, Google et une bonne partie des fournisseurs tech (aussi bien logiciel que matériel) se moque de nous ((pardon my french mais il faut bien le dire !)…

J’ai déjà pointé des articles qui nous montrent qu’il faut agir pour reprendre nos droits et nos libertés à ces géants qui abusent de plus en plus de leur position dominante. Et il s’avère qu’il y a un mouvement pour cela : « le droit à la réparation » (the right to repair movement). Il faut y adhérer, maintenant !

Tactiques hostiles de la part des constructeurs et des éditeurs

Apple est le leader dans les comportements hostiles (oui, hostile, il n’y pas d’autre mot pour qualifier leurs choix techniques) vis-à-vis des ses utilisateurs. Les exemples sont nombreux et désormais bien documentés. Google suit de près avec les récentes évolutions de YouTube. Pas besoin de vous faire un dessin, vous avez compris.

Cette vidéo résume bien cette situation scandaleuse !
On a assez subit, il est temps d’agir…

Publié dans à travers mes découvertes, Anecdotes IT, La terrible vérité | Un commentaire

Une histoire de l’informatique moderne, épisode 13 : la longue marche des SGBDR

Cet épisode 13 porte sur les bases de données et plus particulièrement sur l’essor du modèle relationnel appliqué aux SGBD (les SGBDR donc).

On s’aperçoit que l’histoire de l’évolution technique est souvent un éternel recommencement. En effet, les bases de données débutent par des fichiers ISAM. Puis apparaissent les vrais premiers SGBD (IDS, IMS, IDMS, etc.). Enfin, le modèle relationnel s’impose et, avec lui, le respect des propriétés ACID. Enfin, on voit arriver les SGBD NoSQL pour lesquels le respect des principes ACID n’est pas assuré de façon stricte, comme au début…

Publié dans Anecdotes IT, documentaires IT, Informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Découverte de SQLPage, une solution technique enthousiasmante !

J’ai découvert SQLPage dernièrement en faisant une recherche sur Google sur le thème de CFML. Je dois dire que je suis très enthousiaste vis-à-vis de ce projet open source car il correspond exactement à ce que je voulais et je dirais même à ce dont je rêvais et voilà que ça se matérialise sous mes yeux et que je peux le télécharger (depuis https://sql-page.com/) et l’essayer dans la foulée !

La page d’accueil du site du projet

De quoi s’agit-il en fait ?

SQLPage est un “Serveur d’applications Web open source low-code” (faut pas voir peur de ce jargon technique car le mot d’ordre de SQLPage est avant tout la sim-pli-ci-té…) qui permet de créer des applications Web sans effort avec uniquement des compétences SQL.

SQLPage transforme vos requêtes SQL en de superbes sites Web. SQLPage est un outil qui vous permet de créer des sites Web en utilisant uniquement des requêtes SQL (mais oui !). Vous écrivez des fichiers texte simples contenant des requêtes SQL, SQLPage les exécute sur votre base de données et affiche les résultats sous forme de site Web, page par page.

Vous pouvez afficher les informations que vous sélectionnez dans votre base de données dans des listes, des tableaux, des graphiques, des cartes, des formulaires et de nombreux autres composants d’interface utilisateur. Mais vous pouvez également insérer, mettre à jour et supprimer (tout cela via des requêtes “Select”, “insert”, “update” ou “delete” habituelles du SQL) des données de votre base de données à l’aide de SQLPage et ainsi créer une application Web complète.

Techniquement, c’est juste un bon vieux serveur web

Les principes derrière SQLPage ne sont pas très éloignés de ceux qui ont alimenté les débuts d’Internet. Comme PHP (lors de ses débuts), SQLPage reçoit simplement une requête, trouve le fichier à exécuter, l’exécute et renvoie une page Web que le navigateur doit afficher.

SQLPage est un serveur web écrit dans un langage de programmation rapide : Rust. SQLPage est extrêmement simple à utiliser : vous téléchargez un seul fichier exécutable, écrivez un fichier .sql (par page HTML désiré) et le tour est joué. 

Lorsque SQLPage reçoit une requête avec une URL se terminant par .sql, il trouve le fichier SQL correspondant, l’exécute sur la base de données (s’il y a des données à récupérer ou à écrire), en lui transmettant les informations de la requête Web en tant que paramètres d’instruction SQL de manière sécurisée. Lorsque la base de données commence à renvoyer des lignes pour la requête, SQLPage fait correspondre chaque élément d’information de la ligne à un paramètre du modèle d’un composant prédéfini (c’est ainsi que SQLPage gère la présentation dans les pages HTML résultantes) et renvoie le résultat au navigateur de l’utilisateur.

L’architecture de SQLPage en une image…

Voilà pour les aspects techniques, de manière très simplifiée, évidemment !

Si vous en voulez plus et une démonstration live, c’est facile : il suffit de regarder la vidéo réalisée par Ophir Lojkine (c’est le développeur qui est à l’origine de ce projet génial) sur YouTube…

Oui, la vidéo est en anglais mais facile à comprendre (Ophir s’exprime encore mieux en français, j’en témoigne !). Et en voici une autre (également en anglais) : 

La simplicité est clé

Ceci dit et j’insiste sur ce point, tout cela est possible de manière vraiment simple. La simplicité, c’est vraiment la clé et ce qui distingue SQLPage des autres solutions en la matière.  OK, c’est simple, on a compris… Mais peux-tu nous montrer à quoi ressemble ce fameux code ?

Car voir sur pièce, c’est mieux… Mais pas de problème monseigneur, tout de suite monseigneur !
Voici deux pages d’exemples de code SQLPage : 

Le code et le résultat !

Comme on peut s’en rendre compte, c’est simple et lisible. Et encore, j’ai pris ici une page bien fournie, la grande majorité des pages .sql sont bien plus frugales que cela.

Le retour de la simplicité au premier plan

Selon moi, SQLPage serait un signe du retour de la simplicité dans un contexte où c’est trop souvent le “toujours plus” qui triomphe. C’est d’ailleurs tout à fait fascinant de constater que l’évolution technique en matière de programmation oscille continuellement entre simplicité et sophistication. Des solutions techniques apparaissent, elles sont d’abord simples (comme les toutes premières versions de ColdFusion des frères Allaire au milieu des années 90 ou PHP lors de ces débuts) pour ensuite dériver et devenir plus complexes, moins “lisibles”, plus difficiles à mettre en œuvre… Mais capables de gérer des problèmes plus complexes, aussi…

Il y a toujours un compromis et des choix à faire entre les solutions techniques “larges & profondes” qui permettent de résoudre des problèmes complexes et les solutions techniques plus simples, mais moins adaptées à la réalisation de développements sophistiqués. Sur cette échelle SQLPage se situe quelque part entre Airtable et PHP.

L’expérience (positive) du “no code”

Dernièrement, on a connu les tendances du Low Code/no code dans les outils de développement intégrés et j’en ai parlé largement dans cette chronique. Je suis un utilisateur assidu de Airtable et j’en suis très satisfait la plupart du temps. Cependant, j’aimerais bien pouvoir aller plus loin avec Airtable dans certains cas, écrire mes propres requêtes en SQL par exemple… Mais, avec ce genre d’outil, si ce n’est pas prévu au départ, c’est simplement impossible. Et si demain Airtable disparaît (ou se met à évoluer d’une façon qui ne me convient pas ou même triple ses tarifs !), eh bien tout mon “investissement” dans cet outil sera perdu, encore heureux si j’arrive à sauvegarder mes données à temps !

C’est là où SQLPage offre une alternative intéressante, pour moi en tout cas. Cet outil définit une nouvelle catégorie à lui tout seul : celle du code simple. OK, il faut coder, tout coder de A à Z mais ça reste dans un langage standard (le SQL existe depuis les années 70 !) et avec une syntaxe sans surprise. Et, croyez-le ou non mais il existe toute une frange d’utilisateurs qui attendaient précisément une solution de cet acabit. 

Moins c’est plus…

Il y a une tendance bizarre dans notre domaine à rejeter la simplicité et ne pas comprendre que, très souvent, “moins c’est plus et plus, c’est moins finalement…”. Ici, il faut comprendre “plus” comme “trop”. Trop de fonctionnalités, trop de sophistication, trop de trucs différents à apprendre et ainsi de suite. Ce n’est d’ailleurs pas propre aux environnements de développement, c’est pareil dans les applications de bureautique : la dernière version d’Excel (par exemple) est capable de faire plein de trucs que vous n’utiliserez jamais et si, par hasard, vous vous retrouviez avec la version 95 d’Excel (celle diffusée avec le bundle d’Office95 en 1995, justement, à l’occasion du lancement de Windows 95… Oui, tout cela ne nous rajeunit pas, certes), vous ne seriez ni dérouté ni limité (à moins d’être un consultant qui raffole des macros Excel trop compliquées !).

Le “pourquoi faire simple quand on peut faire compliqué” (et la facturation qui va avec !) est un raisonnement bien trop répandu dans le milieu informatique et depuis trop longtemps.

Bien évidemment, les développeurs “top gun” vont trouver SQLPage trop simple, pas pour eux, je dirais même “indigne d’eux et de leur niveau technique stratosphérique” (OK, je me moque un peu là) mais, ça tombe bien, ce n’est justement pas pour eux qu’Ophir s’est lancé dans ce projet mais pour des gens comme moi. Mais justement, quand et pourquoi s’est-il lancé dans cette “quête” ?

Génèse du projet SQLPage

Il y a quelques années, Ophir avait des amis qui commençaient à travailler dans des sociétés de conseils et ils lui racontaient comment ils s’échinaient à tenter d’améliorer les processus des organisations clientes. Pour ce faire, ils employaient beaucoup d’Excel avec des formules et macros compliquées !

Voyant cela, Ophir réplique que tous ces efforts seraient bien plus efficaces en recourant à du vrai coding et non pas à triturer Excel dans tous les sens. Mais, en réponse, il constata une grosse réticence vis-à-vis du code informatique alors que les formules et macros Excel étaient, en réalité, bien compliquées que du code, surtout pour ce qui était de l’accès à une ou des bases de données.

Cette réticence s’expliquait facilement : ses amis étaient effrayés par l’apprentissage nécessaire avant d’arriver à se débrouiller avec SQL, HTML, Python et j’en passe…

Ophir se fit donc la réflexion qu’Il faudrait arriver à faire tout cela mais avec un seul langage (au lieu de tout cet empilement hétérogène. Ainsi l’apprentissage serait grandement simplifié et les réticences s’évanouissaient. D’accord mais quels étaient les langages à éliminer en premier lieu ?

Après pas mal de “jus de cerveau”, la réponse s’imposa d’elle-même : virer tous les langages procéduraux pour ne garder que la déclaration des données à afficher dans l’interface. Et, dans cette perspective simplifiée, un et un seul langage s’imposait vraiment : le vénérable, omniprésent et bien connu SQL !

Créé en 1974, normalisé en 1986, SQL, le langage d’interrogation des bases de données relationnelles a traversé les époques informatiques, s’est adapté à toutes formes de bases de données (pas seulement le sacro-saint modèle relationnel) et demeure –50 ans après sa naissance– toujours aussi incontournable.

Après la crise covid

Ophir a mené cette réflexion initiale en 2022 après la crise covid. 

Le but de ce nouveau projet serait de pouvoir écrire des applications Web mais sans avoir à écrire de HTML et sans avoir à écrire de logique, uniquement l’accès au données et aux composants d’affichage.

Le projet est officiellement lancé en août 2022 où on peut voir le tout premier “commit” sur GitHub : 

Commit sur GitHub

La toute première présentation du projet (qui, au tout début, s’appelait “SQL Site”… Mais suite à un conflit de nom existant, fut renommé rapidement en SQLPage) a eu lieu sur Hackernews puis sur Linuxfr. 

Sur Hackernews

Sur LinuxFR

Un accueil initial accompagné d’un certain scepticisme…

Le projet reçut un relatif bon accueil mais certains sceptiques dénigrèrent un peu l’intention, surtout parmi les plus techniques : ça leur paraissait tiré par les cheveux et pas assez ambitieux ou trop rustique selon les cas. Ces débuts mitigés ne sont pas complètement surprenants car beaucoup préfèrent critiquer que de faire… De plus, un projet axé sur la simplicité est presque une provocation pour les techniciens qui croient vivre par la technique et pour la technique !

Ophir ne se décourage pas et met en place le site web du projet (lui même écrit en SQLPage d’ailleurs) apparaît fin 2022. La popularité du site monte progressivement grâce aux moteurs de recherche (c’est mon cas, c’est comme cela que j’ai découvert ce projet !) et le projet commence à trouver son allure de croisière grâce à des vrais utilisateurs qui s’emparent de ce potentiel bienvenu.

Des utilisateurs réels sont apparus et ont développé des vrais app.

Pour illustrer l’entrée en scène des vrais utilisateurs, ceux qui transforment effectivement une idée en projet, commençons par de l’exotisme et transportons-nous en Afrique du Sud. Là, nous trouvons un certain William Cronje qui travaille dans le call center d’une entreprise de transport qui s’est dotée d’une grosse base de données qui permet de stocker les données des capteurs dont sont bardés les camions de l’entreprise. Des capteurs à tous les étages… mais pour quoi faire ?

Eh bien, il y a les usages évidents, genre surveiller la température du fourgon des camions frigorifiques mais il y a aussi les usages moins habituels et propres au contexte de l’Afrique du Sud… Ainsi, on trouve des capteurs pour assurer le tracking de camions afin de pouvoir déclencher des interventions rapides avec des équipes armées (carrément !) pour récupérer le camion lorsque ce dernier est victime d’une attaque (fréquente à ce qu’il parait !). La base de données, c’est bien mais avec des applications au-dessus afin d’en tirer le plein potentiel, c’est mieux ! 

Le chef de William repère SQLPage et lui propose de le tester. A la suite de ce test (positif), il a développé une demi-douzaine d’applis basées sur SQLPage.

Donc après ces premiers retours d’expériences, Ophir s’est dit « il y a bien quelque chose, surtout du côté des utilisateurs peu techniques ». Puis au tour des archéologues de s’emparer de SQLPage (un projet raconté en long et en large ici). Il y a aussi eu un directeur de collège dans le sud de la France qui s’est emparé de SQLPage pour le suivi de ses élèves handicapés. La mayonnaise commence effectivement à prendre du côté des low-techs et c’est bien la cible qu’il faut viser car il y a déjà pléthore pour ceux qui veulent toujours plus de sophistication…

Voici un aperçu de l’application développée par David, le principal du collège évoqué plus haut. 

Rester dans la simplicité est un combat !

Ophir est conscient que la maîtrise de l’évolution de son projet ne va pas être facile. Rester dans les fondamentaux de SQLPage veut dire aussi résister à ceux qui en demandent toujours plus : étendre les fonctions, étendre les capacités et ainsi de suite. Il suffit de voir la teneur des discussions à ce propos sur GitHub, ce sont toujours les plus “tech” qui s’expriment en premier, haut et fort. Ce n’est pas un reproche, c’est une constatation. Et d’ailleurs, c’est normal. L’utilisateur de base, celui qui est juste à l’aise pour manipuler Airtable (par exemple), son premier réflexe n’est pas de créer son compte sur GitHub (si même il sait de quoi il s’agit !).

Ceci dit, lors de l’échange récent par visio que j’ai eu avec Ophir, il m’est apparu qu’il avait une vision claire et, je dirais même saine, de l’avenir de son projet. Il n’est pas fermé à l’extension des capacités de SQPage mais en prenant en compte des SGBD pas encore traité par exemple. Ou en permettant l’utilisations simultanée de plusieurs sources de données au sein d’une même application (exemple : j’accède à des données en lecture sur une base hébergée par MySQL et, ensuite, je procède à une mise à jour de données stockées dans PostgreSQL ou autres). Et, sur le plan de l’accessibilité, Ophir et Alexis  Rouge Carrassat (l’ami d’Ophir et contributeur émérite du projet) sont en train de travailler à une offre cloud qui éviterait à des utilisateurs de base comme moi de se heurter au mur de la configuration qui semble “peanuts” au pro de la ligne de commande mais n’est pas si facile à contourner quand vous n’êtes pas familier avec le maniement de la “ligne de commande”, justement.

Conclusion, vers un avenir radieux ?

Vous l’aurez compris, je suis très enthousiaste vis-à-vis de ce projet et j’espère bien qu’il va connaître le succès, une large audience et évoluer dans le bon sens. Un avenir radieux quoi…

Mais j’ai aussi suffisamment d’expérience pour savoir que ce n’est pas gagné d’avance, quelles que soient les qualités de ce projet. En effet, ce n’est qu’un (relativement) nouveau projet open source comme il y en a plein tout le temps. Et la grande majorité ne décolle pas, rappel !

Il faudra donc un peu de chance à SQLPage. Mais j’y crois et je suis prêt à parier que ça sera le cas. Je vous encourage à tester SQLPage et à me faire part de vos expériences en commentaires.

Publié dans à travers mes découvertes, Anecdotes IT, Informatique | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 12 : la riche histoire des réseaux locaux !

Comme d’habitude, le décollage initial des réseaux locaux se fait au PARC de Xerox. Ensuite, le standard Ethernet a fait son trou et cette évolution lente et parfois cahotique s’est finalisée lors de la décennie 90 avec l’effacement de Novell Netware, la montée de Windows NT et la généralisation de TCP/IP.

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Mise à jour de « L’échelle Lefebvre : comment estimer le temps nécessaire aux innovations techniques »

Aujourd’hui, je vous propose une mise à jour d’un aritcle que j’ai déjà publié sur ce blog le 22 octobre 2023 :  « L’échelle Lefebvre : comment estimer le temps nécessaire aux innovations techniques« . Pourquoi cette mise à jour ?

Tout d’abord parce que j’ai une nouvelle illustration de cette fameuse « échelle Lefebvre » réalisée par mon fils Val ainsi que des nouveaux exemples. Ensuite parce que ce sujet méconnu mérité toujours une répétition. En effet, dans ce monde d’illusions et de médiocrité, même la technique et son évolution est travestie par des fausses idées reproduites tellement souvent que la plupart des gens y croient dur comme fer alors que c’est faux, tout simplement (si ça vous rappelle quelque chose, vous êtes sur la bonne voie !).

J’ai promis une nouvelle illustration, la voilà (en taille réduite, elle sera en grande taille à la fin de ce post) :

La nouvelle illustration signée Valentin Lefebvre !

Et des nouveaux exemple, les voilà :

Le disque laser vient de loin… C’est bien rappelé dans cette vidéo.

Cette innovation excitante n’est pas pour tout de suite : nous sommes au premier échelon, celui des dix ans nécessaire pour passer de la découverte aux premières application, remember !

Bien, on peut y aller maintenant !
========================

Introduction

Faire des prévisions en matière technique est difficile. Nous sommes toujours trop optimistes sur le court terme et trop pessimistes sur le long terme. Mais même si nous parvenions à corriger cela, nous avons toujours du mal à admettre que les paliers de l’évolution technique se mesurent en décennies plutôt qu’en années. Cet article explique pourquoi et vous propose une échelle de mesure afin de mieux évaluer les durées en termes de maturité (et donc de succès car il n’y a que les techniques matures qui rencontrent l’adhésion de leurs cibles).

Le quoi et le quand

En matière de prévisions techniques, il y a principalement deux dimensions : le “quoi” et le “quand”. Dire le “quoi” est relativement facile si on connait le domaine concerné mais se contenter de cela, ce n’est pas très utile… C’est comme de prévoir que la bourse va monter (ou baisser) sans être capable de préciser quand, sur quelle durée et, enfin, sur quelles valeurs. En revanche, dire le “quand” est beaucoup plus difficile mais c’est seulement en répondant sur les deux dimensions que les prévisions techniques peuvent être utiles.

Pendant ma carrière, j’ai toujours été plutôt bon pour prévoir les évolutions techniques dans mon domaine (l’informatique) mais pas aussi performant pour préciser à quelle vitesse elles allaient se produire et quand ces évolutions seraient enfin disponibles sur le marché (ce qui est très différent d’une démo dans un labo…). A ma grande surprise, ces évolutions se sont toujours avérées plus lentes que prévu et, en conséquence, leur maturité arrive bien plus tard qu’espéré.

J’ai fini par en faire un principe (le principe de maturité) et j’ai communiqué à ce sujet aussi souvent que possible. Quand je proclamais qu’il fallait au moins dix ans entre une découverte et sa première application pratique, je n’étais jamais cru. Et pourtant, j’étais encore trop optimiste, trop pressé.

Un aveuglement qui s’explique

Cet aveuglement envers ce “principe de maturité” vient principalement de la propagande technique (oui, il existe une “propagande technique”, nous y reviendrons !) qui affirme sur tous les tons que “tout s’accélère, tout va de plus en plus vite”…

Admettons mais, alors, comment se fait-il qu’il y ait un tel écart entre perception (tout s’accélère) et réalité (nous sommes dans une phase creuse, comme je l’affirme et explique dans mon livre “La crise de l’IT des années 2020« ) ?

En effet, en ce moment et depuis quelques années, quasiment tous les observateurs (qui ne sont pas forcément des spécialistes et encore moins des experts) vous affirment que nous vivons une période où le progrès technique connaît une accélération constante.

Tout va plus vite, n’est-ce pas ?

En effet, vous l’avez constaté : on vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils sont tellement persuadés que c’est la vérité qu’ils se la répètent les uns les autres et cela s’appelle un biais cognitif.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ? 

Mais ça ne fonctionne pas toujours de la sorte : y croire et s’en persuader ne produit pas pour autant une réalité concrète sur le terrain.

Ne pas confondre perception et réalité

Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le Soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du Soleil dans le ciel pour penser qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, mais de façon convaincante.

Et à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux (et c’était dangereux en plus !). Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement (rappelez-vous le principe du chauvinisme temporel : mon époque compte plus que toutes les autres !) alors que la technologie est, en réalité, en train de ralentir. Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira si vous vous mettez à affirmer que le progrès technique n’est pas aussi rapide qu’on le dit…

Tout nous pousse à croire que le progrès technique s’accélère, même la publicité tente d’en faire la démonstration !

La phase de maturation est systématiquement masquée

L’énorme différence entre perception et réalité s’explique par l’ignorance du public qui ne voit rien ou presque de la phase de maturation; les nouveautés semblent surgir du jour au lendemain alors qu’elles viennent de passer des années de mises au point lentes et chaotiques. L’iPhone d’Apple apparaît comme un coup de tonnerre dans un ciel bleu en 2007 alors que, en vérité, l’idée du Smartphone était dans l’air depuis 1995 avec General Magic… Et on peut multiplier les exemples ainsi longtemps : toutes les “révolutions en une nuit” ont généralement demandé trente ans de maturation !

Mais, pendant ces trente ans, personne n’en parlait.

Ce croquis, qui fait inévitablement penser aux smartphones actuels, remonte  en réalité à 1988…

S’il y a accélération, il y a aussi ralentissement…

Le grand paradoxe que pose le concept d’accélération continue, c’est que c’est sans limites !

Or, les accélérations techniques ont bien lieu, mais elles sont aussi suivies de ralentissements, forcément sinon le rythme deviendrait vite intenable. Bizarrement, c’est mieux admis en économie : les phases de croissance sont suivies de phases de récession et tout le monde trouve cela normal. Eh bien, il en est de même pour l’évolution technique : il y a des phases de croissance (à la suite d’une percée significative) qui se calment progressivement jusqu’à aboutir à un certain marasme technique (on tourne un peu en rond), c’est le moment d’une récession, comme une respiration avant un nouveau bond en avant. Mais si l’accélération continue est une illusion (c’est le cas), pourquoi la propagande s’acharne-t-elle à vouloir nous le faire croire ?

Tout le problème de la perception de l’accélération est résumé dans ce graphique : le grand public ne voit que la seconde phase et perçoit donc une accélération, car la longue et lente maturation est complètement ignorée.

L’état de l’art : ne pas croire la propagande !

L’état de l’art, dans tous les domaines qui reposent sur la technique de pointe, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on à ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que les techniques de pointe sont portées par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela, il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir. C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et qu’elle est forcément d’ordre technique. Ainsi, il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technique vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu des techniques. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie. 

Extrapoler à partir du passé

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) soient dans nos rues aussi rapidement qu’on nous le dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi certaine. C’est le principe des cygnes noirs : ce qui est prévu et qui semble évident n’arrivent pas souvent alors que ce qui est imprévisible et semble très improbable (pour ne pas dire impossible) arrive plutôt deux fois qu’une et l’Histoire est remplie de « cygnes noirs » qui confirment ce principe.

Les grands principes de l’évolution : la maturation

Le principe que nous allons détailler ici concerne le délai, le temps nécessaire pour qu’une innovation soit convertie en un produit, soit mise au point puis trouve enfin son marché et sa forme finale. La perception habituelle est que tout va de plus en plus vite, trop vite même parfois. Mais ne confondons pas perception avec réalité, car, contrairement à ce qu’on croit, il y a un délai incompressible entre l’apparition d’une technique, sa transformation en produit et son impact réel sur notre quotidien et nos habitudes.

Si l’évolution technique continuait à progresser à la vitesse que l’on a connue au XIXe siècle, il n’existerait plus aujourd’hui de délai entre une découverte et sa mise en application. Voici quelques exemples puisés dans les technologies de l’époque, aux États-Unis  : il a fallu attendre soixante-dix ans pour que le téléphone bénéficie à 50% de la population américaine et  trente-neuf ans pour que la télévision par câble atteigne ce taux, alors que seulement onze ans ont été nécessaires pour la radio… L’apogée est atteint avec le microprocesseur pour lequel, entre la première réalisation de Marcian Hoff et Federico Faggin en 1969 et sa diffusion massive via le micro-ordinateur en 1977, il s’écoule moins de dix ans. Personne n’a fait mieux depuis la fin des années soixante-dix.

Un délai incompressible

Une décennie, le voilà notre délai incompressible, le « time to market » cher aux industriels. Vérifiez, depuis le début des années soixante-dix, il faut au moins une dizaine d’années pour qu’une véritable innovation technique commence à trouver un marché (10 ans entre les premiers ordiphones WAP et l’iPhone) et à toucher un public. Et il faut au moins encore autant de temps pour qu’elle devienne incontournable (encore 10 ans entre le premier iPhone et la suprématie des plateformes comme Deliveroo ou Uber). Une génération est nécessaire pour changer les habitudes des utilisateurs et qu’ils adoptent des innovations dans leur quotidien (c’est comme pour l’aviation commerciale, elle existe depuis quelques dizaines d’années, mais n’est réellement à la disposition des masses que depuis peu).

Il est donc juste de dire que les évolutions significatives sont lentes et relativement peu fréquentes. En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard, normalisé (exemple : le concept de smartphone avec sa forme en brique qui est maintenant un standard bien installé et reconnu). Et l’histoire montre que ce processus prend souvent au moins vingt ans…

Vingt ans de délai pour les grands succès

Il a fallu vingt ans pour que les interfaces graphiques commencent à se populariser. Les premières recherches de Xerox datent des années 1970 et le succès de Windows 3.0 n’arrive que dans les années 1990. Il a fallu également vingt ans pour que le SGBDR se généralise entre les premiers travaux de recherches d’IBM et le succès d’un Oracle. Dix ans pour que les écrans à matrices actives concrétisent le rêve de l’écran plat à haute définition. Une dizaine d’années aussi pour le début de généralisation des réseaux locaux alors qu’on leur prédisait un avenir fulgurant. Et dix ans encore pour que France Télécom se décide à diffuser Numéris (avant l’ADSL…) à des tarifs acceptables !

Plus loin de nous, il a fallu près de trente ans (au XIXème siècle) pour que le moteur thermique (successeur de la machine à vapeur) passe d’une base très simple (alimenté au gaz, cycle deux temps, double effet, rendement faible) à sa forme finale et efficace (carburant liquide dérivé du pétrole, cycle à quatre temps, rendement acceptable).

Le délai incompressible (dix ans) combine plusieurs facteurs : 

  • Il faut du temps pour finaliser la mise au point (difficulté toujours minorée, mais la réalité est tenace et se rappelle au souvenir des optimistes à ce moment-là…).
  • Il faut du temps pour passer du discours technologique (c’est supérieur parce que…) au discours applicatif (cela va vous servir à…).
  • Il faut du temps pour que la cible visée se reconnaisse (ça va me servir à…)
  • Il faut du temps pour que les clients se familiarisent avant de généraliser (la plupart ont déjà essuyé des plâtres trop frais et n’ont plus envie de jouer les pilotes d’essai !).

La masse critique

Les évolutions les plus marquantes et les plus structurantes restent discrètes jusqu’à leurs percées. Un progrès n’apparaît pas spontanément (comme l’a résumé de façon géniale Ernest Hemingway à propos de “comment se retrouve-t-on ruiné après avoir été riche ?” : “progressivement et puis brutalement” –Gradually, then suddenly-), il est le fruit d’une lente maturation qui s’étale souvent sur une décennie (voire plus). Reprenons l’exemple d’Internet qui est très significatif sur ce plan…

Une croissance silencieuse

Pendant presque quinze ans, l’Internet a progressé discrètement, mais pas secrètement. Pourtant, personne n’en parlait. Il aura fallu l’émergence du Web en 1993-1994  pour que la croissance bondisse soudainement vers le ciel, à la surprise générale. La signification de ce phénomène est simple : les emballements de demain sont en préparation aujourd’hui, sous nos yeux. Il suffit donc de repérer les techniques prometteuses qui progressent régulièrement, sans accident de parcours, pour mettre le doigt sur les succès d’avenir.

Un emballement bénéfique

Il faut qu’il y ait un enthousiasme flagrant pour que l’emballement surgisse, c’est l’engouement des passionnés et adopteurs précoces qui le déclenche. Un exemple : l’Apple // a été l’amorce de la fusée « micro-informatique ». Pour que les deux Steve décollent (Steve Jobs n’a plus besoin d’être cité mais il ne faudrait pas oublier Steve Wozniak qui a été essentiel pour la partie technique de cette aventure…), il a fallu des efforts longs et soutenus de toute une génération de fervents adeptes, depuis les ingénieurs d’Intel, jusqu’aux concepteurs de CP/M, sans oublier les promoteurs du Basic, même si l’Apple// ne reposait sur aucun de ces trois composants !

Le phénomène d’emballement est comparable à la réaction en chaîne qui suit la réunion de la masse critique : il est à la limite du contrôlable. On l’a vu cette année avec l’emballement provoqué par ChatGPT qui aura mis au moins dix mois avant de se calmer. Ce phénomène est pourtant nécessaire afin d’assurer un retentissement suffisant à la nouvelle technique pour que sa diffusion ait véritablement des effets sur notre quotidien. Sans cela, la technique est confinée à une relative confidentialité qui interdit les impacts à grande échelle.

Attention à la fenêtre de lancement

Le non-respect du principe de la masse critique (attendre qu’une technique soit dans sa configuration favorable et qu’elle ait commencé à rassembler une bonne dynamique, le fameux momentum cher aux Américains) est fréquent dans l’informatique, car les grands acteurs sont trop avides de nouveautés spectaculaires pour se montrer patients. Pourtant, on peut tuer une technique prometteuse en la révélant trop tôt à l’appétit du public (comme on l’a fait avec les disques magnéto-optiques). Il existe donc une période de temps limitée pendant laquelle une technique doit faire ses preuves et fournir des exemples concrets de son utilité et de sa maturité. Cette période dure entre dix-huit et trente mois, pas au-delà. Cet obstacle est d’autant plus redoutable que l’attente est importante. Si l’accompagnement médiatique d’une nouvelle technique est exagéré, alors il s’ensuit un inévitable mouvement de balancier, tout aussi exagéré, pour sanctionner la légitime désillusion du public…

Car celui-ci n’est pas patient, l’hystérie de la découverte enthousiaste se transforme vite en déconvenue qui débouche sur un rejet immérité et prématuré (exemple : le flop des premiers casques de VR dans les années 90). La déception est souvent fatale (mais pas toujours), car elle influence le non-renouvellement des crédits, encore nécessaires pour parfaire la mise au point de la technique en devenir. C’est ce type « d’accident de parcours » qui est arrivé à l’intelligence artificielle à la fin des années quatre-vingt et qui faillit lui être fatal.

Le poids des infrastructures

S’il faut plus ou moins une décennie pour franchir toutes ces étapes et commencer la diffusion d’une invention, il en faut environ le triple pour atteindre le seuil de généralisation. Le temps nécessaire à une technique pour atteindre ce stade dépend aussi de ce qu’il réclame; les inventions nécessitant une infrastructure lourde sont forcément plus lentes à impacter leur marché.

Comme je sais que je ne suis jamais cru du premier coup quand j’évoque les délais des évolutions techniques, j’ai rassemblé ici quelques exemples qui montrent que de nombreuses découvertes que nous estimions proches de nous remontent en fait à bien plus loin dans le passé… Suivez le guide !

Quelques exemples incontestables

Les premiers composants électroniques remontent au début du XXe siècle : 1904 pour le tube diode (Fleming) et 1906 pour le tube triode (Lee De Forest). La découverte de la supraconductivité remonte à 1911 (découverte par Heike Kamerlingh Onnes).

L’électrocardiogramme est inventé en 1901 par Wilhem Einthoven. Et c’est Hans Berger qui invente l’électroencéphalogramme en 1924.

Le premier robot d’assemblage (Unimate de la société américaine Universal Automation) est installé dès 1962 sur une chaîne de production de General Motors. Plus de 60 ans après les premiers robots dans l’usine GM, Elon Musk a voulu nous faire croire que ses chaînes de montage robotisées (dans les usines Tesla) sont révolutionnaires… 

L’échographie est mise au point pour la première fois en 1955 par Inge Edler. Le stimulateur cardiaque (le fameux pacemaker) est inventé en 1958 par le docteur Ake Senning.

Richard Feynman a le concept de la nanotechnologie dès décembre 1959 (bien avant de pouvoir commencer à l’expérimenter).

Le premier appareil photo numérique à CCD (charge coupled device) est développé dans les laboratoires Bell dès 1971 (eh oui !). En 1975, Steve Sasson développe un autre appareil à base de CCD avec une résolution de 10000 pixels (il ne peut prendre que des photos en noir & blanc et demande 23 secondes pour capturer une image ensuite enregistrée sur une K7… l’appareil pèse 3,6 kg). Ensuite, RCA propose un appareil CCD capable de prendre des photos couleur en 1983.

C’est à la fin des années 1940 qu’une petite manufacture de produits photographiques de Rochester (New York) du nom de Haloid décide d’exploiter l’invention faite dix ans plus tôt par Chester Carlson, la xérographie (terme qui vient du grec xeros -sec- et graphein -écriture-). La conception du premier photocopieur, le XeroX Model A, et le succès des modèles suivants amènent la compagnie à changer son nom en 1958 pour Haloid Xerox, puis le 18 avril 1961, devenant simplement Xerox. 

XeroX Model A, 1949.

La première imprimante informatique à laser vient de Xerox aussi en 1971 (la 9700, un monstre capable de cracher 120 pages à la minute).

Canon en développe une version plus réduite en 1975 et HP commercialise sa première Laserjet en 1984 juste avant la Laserwriter d’Apple en 1985.

L’invention du téléphone mobile est attribuée au docteur Martin Cooper (Motorola) en 1973. Mais Motorola met encore dix ans avant d’en commercialiser un premier modèle : le Dynatac 8000.

L’empilement vertueux, mécanisme magique

Encore une fois, tous ces exemples sont là pour vous rappeler que l’innovation suit un chemin long et chaotique qui finit par déboucher, grâce à l’empilement vertueux. L’accumulation de petits pas finit par permettre d’atteindre un “effet de seuil” où le progrès franchit un palier et se révèle dans toute sa puissance.

Même si cette position (réfuter l’accélération continue du progrès technique) paraît contre-intuitive, je constate que je ne suis pas le seul à le dire et à l’écrire… Voici une petite sélection d’articles (plus un livre) qui vont dans ce sens !

 

Un préambule long mais nécessaire

Revenons donc, après ce long préambule, à cette fameuse “échelle Lefebvre” évoquée dans le titre de cet article ?

Cette “échelle” comporte quatre échelons : 

  • Dix ans, c’est le délais incompressible : de la découverte aux premières applications.
  • Vingt ans, c’est pour arriver au grand-public.
  • Trente ans, c’est pour atteindre la maturité finale.
  • Cinquante ans, c’est pour savoir que ça va en prendre encore cinquante !

En peu de mots, on peut résumer cette échelle ainsi : les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. 10, +10 (20), +10 (30).

La nouvelle illustration signée Valentin Lefebvre !

Les exemples qui permettent de confirmer cette échelle sont nombreux et j’en ai déjà listé quelques-uns dans ce document. Ajoutons donc des exemples supplémentaires pour illustrer le dernier échelon : 50 ans, la frontière de l’illusion…

La frontière de l’illusion

Le premier exemple est bien connu (projet ITER), il s’agit de la fusion nucléaire contrôlée. Aujourd’hui, on le sait : la fusion nucléaire est un espoir ténu et très lointain (on parle désormais de 2070… comme pour confirmer la blague récurrente à propos de la fusion : “ça fait cinquante ans qu’on nous dit que ça sera prêt dans cinquante ans” !

L’autre exemple, c’est l’IA (la fameuse, trop fameuse “intelligence artificielle” !). Le concept initial remonte aux années cinquante et, aujourd’hui, après de nombreuses étapes plus ou moins spectaculaires, on est toujours loin du but défini par les pionniers : atteindre le niveau dit “d’intelligence générale”. Déjà, il faudrait s’entendre sur ce que ce “but” recouvre réellement mais on sait déjà que ça va prendre encore des décennies (j’insiste sur le pluriel ici…) avant de s’en approcher. Certes, alors que quasiment tout le monde a été hypnotisé par l’irruption de ChatGPT en 2023, il paraît téméraire d’affirmer qu’on est encore loin du but… Et pourtant, les vrais spécialistes (j’insiste sur “vrais” ici) nous le confirment : le chemin sera encore long, tortueux et semé de déceptions.

Conclusion

On constate qu’on n’est pas armés mentalement pour accepter que les évolutions techniques soient aussi longues, prennent autant de temps et demandent autant d’étapes. On a toujours tendance à croire que ça fait irruption brusquement parce que, justement, on n’a pas vu toute la phase de préparation. Il est difficile pour le grand public d’admettre que les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. Sur ce plan-là, on va continuer à croire aux “révolutions en une nuit” alors qu’elles ont toutes demandé vingt ans de préparation…

On aura beau dire et expliquer, les gens sont toujours persuadés que tout va de plus en plus vite. Tout simplement parce que dans leur vie à eux, ils ont de plus en plus de mal à gérer un monde qui est complexe et qui se complexifie de façon croissante. Donc cette notion de saturation est assimilée à de l’accélération alors que ça n’a rien à voir parce qu’on l’a vu, tout est cyclique. Et ses cycles s’enchaînent avec, successivement, des phases d’accélération et des phases de ralentissement. Le problème c’est que même pendant les phases de ralentissement, on a tout de même l’impression d’être toujours dans un monde qui va de plus en plus vite donc cet écart entre la perception et la réalité est voué à persister.

Publié dans Anecdotes IT, conférences, divers, Le fait technique | Laisser un commentaire

Encore un nouveau point sur les simulations du moment

Allez, on va de nouveau évoquer les simulations de course auto qui nous occupe : Le Mans Ultimate (LMU), Automobilista 2 (AMS2), Forza et ce qui pourrait venir à la suite.

Je commence par vous avouer que, de temps en temps, je vais refaire un tour sur d’autres simulations qui ne sont pas dans cette liste, genre Assetto Corsa Competizione (ACC) ou Raceroom voire iRacing. de ces trois-là, c’est iRacing que je connais le mieux car je l’ai beaucoup pratiqué “dans le temps” (pendant au moins une dizaine d’années, j’ai même participé aux 500 Miles d’Indy et les 24 Heures de Daytona organisé par iRacing et, globalement, j’en tire un assez bon souvenir).

Donc, j’ai roulé un peu sur ACC et je me suis vite arrêté : vraiment pas pour moi ce truc. De temps en temps, ici et là, je peux lire des critiques sur AMS2 que j’ai du mal à comprendre, genre “c’est trop arcade” ou “c’est trop facile” ou d’autres encore moins articulées… J’ai du mal à comprendre mais j’accepte car ça m’arrive aussi sur les autres titres. Donc, je ne vais pas écrire “ACC est une sous-merde” mais simplement “vraiment pas pour moi ce truc”. Récemment, j’ai reçu une clé afin de pouvoir tester Rennsport et j’ai donc installé le bazar (qui se lance via le Epic Games Launcher, j’aurais préféré que ça soit disponible sur Steam mais bon, on fait avec…). Et sur Rennsport, je vais dire comme pour ACC : “vraiment pas pour moi ce truc”. Dans ce dernier cas, je voudrais ajouter que je ne comprend pas le positionnement de ce titre : qui est visé ? pourquoi faire (que du online ?) ? encore du GT3 ?

Ceci dit, il faut prendre tout cela avec recul et modération : l’avis que j’exprime sur tel ou tel titre n’est que mon opinion en fonction de ma configuration, de mes attentes et de mes habitudes, rien plus, rien de moins. Modifiez la config et les habitudes, vous aurez un autre avis…

Bref, voyons nos titres phares dans le désordre…

J’en avais déjà dit beaucoup dans ce post récent :

Le point sur les simulations autour des 24h du Mans

Forza, l’usure du temps

Avec le temps qui passe, Forza se révèle de plus en plus comme une déception globale. Le mode online est infréquentable car il semble que ce soit le rdv préféré de tous les abrutis. Le mode carrière est vide ce qui est un vrai problème car la motivation à rouler avec ce titre tombe vite à zéro en dehors d’une incitation qui ressemble à quelque chose. Donc, je vous fait ici une promesse, celle de ne plus parler de Forza à moins d’avoir quelque chose de (vraiment) positif à en dire !

LMU, en attente de la sauvegarde

Pour ce qui est de LMU, je constate que je suis loin d’être le seul à souffrir de stuttering (bégaiement d’affichage) ce qui prouve (s’il en était besoin) que le jeu est loin d’être optimisé.

Ceci dit, je suis persuadé que cette simulation prendra son envol (au moins pour moi) à partir du moment où on pourra enregistrer sa course au cours d’une session afin de la reprendre plus tard quand bon vous semble (et encore mieux si on peut le faire en mode partage -à plusieurs donc- mais ne rêvons pas trop svp). Et puis, puisqu’on en est aux souhaits débridés, demandons aussi une bonne et franche optimisation, hein !

AMS2, voilà la 1.6 et les mods

AMS2 évolue à son rythme ou plutôt celui de la petite équipe de Reiza. La version 1.6 va bientôt être disponible (au plus tard à la fin de cet été si on en croit les rumeurs…, voir à https://www.overtake.gg/news/automobilista-2-upcoming-content-previewed-collaboration-with-multiplayer-platforms.2219/) mais il y a plus à dire qu’une simple évolution de version. Selon moi, le titre phare de Reiza est en train de changer de dimension car des équipes de moddeurs sérieux proposent des mods très achevées qui réhaussent de beaucoup l’intérêt de cette simulation dans son ensemble. Je veux prendre comme exemple la toute récente version 2.2 du mod Indycar 2023 (voir à https://www.overtake.gg/news/automobilista-2-indycar-2023-mod-receives-major-update.2196/). Avec ce mod, c’est quasiment comme si on avait à disposition une simulation dédiée au championnat Indycar sauf que, effectivement, il manque encore quelques tracés (aussi bien routiers qu’ovals).

N’oublions pas que c’est grâce aux mods que rFactor, rFactor2 ou Assetto Corsa ont décollé pour de bon.

Publié dans Sports mécaniques virtuels | Un commentaire

Une histoire de l’informatique moderne, épisode 11 : la longue marche de l’interface graphique !

Voici notre épisode 11 qui est consacré à l’apparition et l’avénement de l’interface graphique jusqu’à sa généralisation qui a pris, croyez-le ou non, trente ans !

Publié dans Anecdotes IT, documentaires IT, Informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Je vous invite à lire cet article (qui n’est pas de moi), entièrement.

Il vient d’un écrivain avec qui j’ai échangé dernièrement. Je n’approuve pas (loin de là !) toutes ces prises de position (exemple horrible : il est en faveur de l’écriture inclusive, un crime pour un auteur !!!) mais je dois dire que ce message m’a touché : ce qu’il décrit est effectivement en train de se passer (et même de s’accentuer, voir Google par exemple).

https://ploum.net/2024-06-18-acceptation-inacceptable.html

Extrait pour vous motiver :

======
Il faut absolument revoir « All the President’s Men » pour se rendre compte le scandale qu’était le fait d’installer des micros-espions en 1972. Scandale qui aboutira à la démission de Nixon alors que, depuis Edward Snowden, nous trouvons normal de nous balader tous en permanence avec des micros et caméras-espionnes partout.

Edward Snowden pensait choquer le monde avec ses révélations. Nous nous sommes contentés de hausser les épaules en trouvant cela « normal ».
======

Alors, on a le choix : résister (même juste un peu, Firefox au lieu de Chrome par exemple) ou se laisser couler.

à vous de voir…

Publié dans à travers mes découvertes, La terrible vérité | Laisser un commentaire

Le point sur les simulations autour des 24h du Mans

À l’occasion des 24 Heures du Mans, il semble que nos différentes simulations ce soient un peu réveillées. En tout cas des mises à jour sont là où sont annoncées et je vous propose aujourd’hui de passer en revue la situation en ce qui concerne Forza, Le Mans Ultimate (LMU) et Automobilista2 (AMS2), ce sera déjà pas mal.

La question de la maturité.

Il est particulièrement intéressant de constater qu’il faut du temps, beaucoup de temps, laisser passer quelques mois avant de véritablement pouvoir juger un titre. Par exemple, il y a quelques mois je vous ai proposé des revues de Forza et de LMU au moment de leur sortie et, dans ces analyses, j’étais assez positif parce que, à mon avis, il y a toujours un bien favorable vis-à-vis de la nouveauté, c’est comme ça. Aujourd’hui avec plusieurs mois de recul on est mieux placé je m’en rends compte pour vraiment avoir un avis réfléchi sur le titre en question. D’abord on y a passé beaucoup de temps et, ensuite, on a pu constater son évolution avec les mises à jour successives. Et tout cela accumulé, fait que l’avis initial exprimé dans l’enthousiasme du début peut-être revu, voir complètement annulé, par quelques mois de pratique. On en est là aujourd’hui et c’est l’usure du temps qui est le meilleur juge de la qualité d’une simulation ou d’un film ou d’un livre.

Pour vous permettre de juger sur pièces, je vous ai remis ci-dessous les liens vers mes avis récents sur les titres en questions…

Le Mans Ultimate : ce qu’on peut en dire, à ce stade…

Que peut-on encore dire d’intéressant sur Forza Motorsport (8) ?

Automobilista 2 au Mans sous la pluie

LMU et sa récente màj…

Commençons par LMU. je ne vous cache pas que j’ai été très déçu par le contenu de la dernière mise à jour. Principalement parce que la fonction que j’attends, c’est l’enregistrement des courses que ce soit en mode coopératif ou non. Mais si on veut faire des courses d’endurance, c’est-à-dire des courses longues, il faut qu’on puisse enregistrer sa session afin d’y revenir parce que, soyons honnête,s on a pas 6, 8 ou 10h ou plus encore à consacrer non-stop à une session de Sim Racing. C’est le bon sens même. 

Donc le fait que cette fonction ne faisait pas partie de cette mise à jour, c’était pour moi une grosse déception. De plus, je constate que les problèmes inhérents à LMU sont toujours les mêmes. La simulation demande encore beaucoup d’optimisation afin de pouvoir tourner correctement et, pour le moment, sur des configurations qui ne sont pas au dernier cri, eh bien soyons clairs : c’est tout juste roulable (et c’est encore pire sous la pluie !). En particulier mon système est victime de “bégaiement d’affichage”, c’est ce que les Anglo-Saxons appellent le stuttering. J’ai beaucoup cherché pour résoudre ce problème qui rendait LMU complètement inutilisable et j’ai fini par trouver que, dans les options graphiques, il fallait passer de full screen à borderless et que ce simple changement avait de grandes conséquences positives. Ceci dit, aujourd’hui les problèmes restent à peu près les mêmes à savoir que les temps de chargement des circuits sont toujours terriblement longs et que les IA sont capables de vous percuter un freinage et ça je trouve ça complètement insupportable. C’est quelque chose qui ne m’arrive simplement jamais avec AMS2 et c’est à vous dégoûter de rouler avec LMU. 

Conclusion (provisoire !) sur LMU

Il y a quand même des choses positives qui arrivent avec la dernière mise à jour. Le radar de bord, par exemple, est bien fait et très utile. Je ne peux pas en dire autant des ralentis qui, c’est évident, demandent encore du travail pour être finalisés (et sont aussi longs que les circuits à charger !!).

Pour moi le problème principal de LMU ce n’est pas le contenu. Le fait d’avoir le plateau intégral 2003 et tous les circuits de la saison 2003 me suffisent complètement. Bien entendu, avoir l’équivalent pour la saison 2024 serait un plus et l’équipe de développement travaille déjà dans ce sens puisque la dernière mise à jour permettait d’avoir les livrées 2024 ainsi que la BMW LMDh. C’est bien, c’est positif mais ce n’est pas là que j’attends les progrès. Selon moi, le domaine où est LMU doit vraiment progresser afin de réaliser son potentiel (qui est grand à mon avis) c’est dans la complétude des fonctions essentielles ainsi que dans l’optimisation du titre afin d’améliorer la fluidité de l’affichage, même sur les PC qui ne sont pas du dernier cri.

Au tour d’AMS2

Pour ce qui est d’AMS2, on attend la mise à jour de la 1.6 qui promet beaucoup (avec, entre autres, le circuit de Road Atlanta) mais qui se fait attendre. Bien jour, il faudra vérifier l’ampleur et le gain (ou la régression) apportés par cette nouvelle version. 

AMS2 reste ma simulation préférée car c’est la plus agréable à rouler, la plus complète et la plus mature (pas de gros bug à déplorer et une bonne optimisation). AMS2 n’est pas encore appréciée comme elle le devrait et je suis toujours surpris d’entendre des YouTubeurs la qualifier de “simcade, intéressante mais pas rigoureuse”… Souvent, je me demande si on parle des mêmes titres !

Certes, AMS2 est plus permissive qu’iRacing mais les autres aussi (iRacing est vraiment punitive sur tous les plans…). Cependant, je pense que cela fait partie d’un certain snobisme de critiquer (voire de mépriser) AMS2 tout simplement parce que cette simulation a des origines modestes (mais ces récentes évolutions montre combien elle a évolué) et qu’elle utilise le madness engine issu de PCARS2… Et, là aussi, il faut souligner que Reiza fait un travail formidable pour tirer parti de ce madness engine en prenant le temps de faire les choses correctement.

Cependant tout n’est pas parfait avec AMS2, loin s’en faut !

D’abord, je trouve que Reiza se disperse trop en voulant adresser toutes les catégories ou presque : je préférerais que le studio se concentre sur ses points forts, à savoir les contenus historiques et l’endurance, point.

Ensuite, j’aimerais que les nouvelles fonctionnalités soient finalisées une bonne fois pour toutes avant de passer à autre chose. Par exemple, les drapeaux ne sont toujours pas là et le fonctionnement des feux de signalisation qui sont en bord de piste (comme sur le circuit du Mans par exemple) est encore et toujours inachevé.

Donc, sur AMS2, je reste positif et j’encourage à découvrir cette simulation mais je reste attentif et critique sur les points faibles qui, forcément, existent.

Finissons par Forza

Avec ce titre, je vais être plus sévère. C’est là où on se rend compte que le recul est indispensable pour juger un titre car, lors de sa découverte, j’étais plutôt positif. Mais, clairement, ça n’a pas duré…

En effet, voici un titre qui a vite montré ses limites avec un mode carrière très creux (et où on est obligé de piloter des voitures sans intérêt : à quoi bon rouler en Golf, je vous le demande ?) et des courses online infréquentables (parce que beaucoup trop de pilotes se croient tout permis), plus un mode “course libre” très limité (pas moyen d’avoir des qualifs, la place sur la grille est toujours au milieu…).

Alors, la mise à jour (la 9ème) de cette semaine peut-elle changer la donne ?

Non, ce serait trop demander mais on voudrait croire dans les progrès annoncés. Cependant, on trouve toujours les temps de chargements trop longs, les pénalités distribuées au petit bonheur (et pas toujours justifiées) et les ralentis qui ne fonctionnent toujours pas (pour moi en tout cas).

Bon, cette mise à jour est centrée sur l’endurance (avec Sebring comme nouveau tracé) mais tempérez votre enthousiasme car, pour Forza, des courses d’endurance, ce sont des manches de 30 à 45 mn maximum… Ouais, ça calme !

Bref, faut pas trop en demander à Forza et surtout pas le comparer à LMU ou à AMS2…

C’est difficile de trouver son idéal même avec l’offre du marché actuelle qui est plutôt riche. pour mémoire, je vous renvoi vers les trois articles que j’ai déjà rédigé sur ce sujet :

La simulation idéale (en simracing)

La simulation de Simracing idéale, suite…

La simulation idéale en SimRacing, suite et fin ?

Publié dans Sports mécaniques virtuels | 2 commentaires

24h du Mans 2024, un pronostic svp ?

Je vous propose de faire un point avant le vrai début des 24 Heures du Mans (bon il y a quand même eu la séance de journée test ce dimanche qui nous a déjà donné quelques indications mais en vérité ça commence mercredi pour les choses sérieuses). Et cette année l’incertitude n’a jamais été aussi grande au vu du plateau incroyable qui est réuni pour cette édition.

Un plateau jamais vu !

14 grands constructeurs engagés cette année : c’est du jamais vu dans l’histoire des 24h du Mans !

Dans le désordre, on peut citer : Aston-Martin (seulement en GT3LM), Alpine (Seulement en Hypercar), BMW (en Hypercar et GT3LM), Cadillac (Hypercar), Chevrolet (GT3LM), Ferrari (en Hypercar et GT3LM), Ford (seulement en GT3LM), McLaren (seulement en GT3LM), Lamborghini (en Hypercar et GT3LM), Peugeot (seulement en Hypercar), Porsche (en Hypercar et GT3LM) et enfin Toyota (en Hypercar et GT3LM).

A ce plateau déjà énorme, il faut ajouter les LMP2 (100% Oreca) et l’Isotta-Fraschini, une hypercar de plus (mais pas aussi compétitive que celles des “gros”…). 

Se baser sur les résultats en WEC ?

Pour avoir une idée des forces en présence et de la compétitivité des uns par rapport aux autres on peut déjà se baser sur les trois premières manches du championnat WEC qui ont déjà eu lieu. Mais d’une part les 24 Heures du Mans sont une course à part et d’autre part les résultats et les comportements des concurrents pendant les trois premières manches ne sont pas forcément significatifs. En effet, bien souvent, les concurrents ne révèlent leur vraie force qu’à l’occasion des 24 Heures du Mans qui, plus que jamais, représente l’enjeu principal de toute la saison d’endurance. Le fait de ne pas révéler son vrai potentiel lors des premières manches est une pratique bien connue dans le sport auto que les Américains appellent “sand bagging”, c’est-à-dire faire du “bac à sable”. L’année dernière, par exemple, Toyota avait bien performé lors des premières manches et, du coup, la BOP ne leur avait pas été favorable pour les 24 Heures du Mans. Je pense que, cette fois, les Japonais ont bien compris la leçon et ils ont bien fait attention d’être de ne pas être en pointe pendant les premières manches pour ne pas être pénalisés au moment du rendez-vous Manceau. Ceci dit, il est quand même de plus en plus difficile de dissimuler son vrai potentiel aux autorités car désormais tout est terriblement surveillé. Les voitures sont même dotées de capteurs qui permettent de mesurer la puissance délivrée, le couple du moteur et ainsi de suite, tout un tas de paramètres qui sont examinés à la loupe par les autorités sportives qui déterminent la fameuse BOP. Mais même si c’est plus difficile qu’avant, je pense qu’il y a quand même un élément d’incertitude important avant que ne démarre l’épreuve des 24 Heures du Mans pour de bon. 

Je me lance !

Cependant, je vais quand même me livrer au risque des pronostics même si c’est un exercice hautement aléatoire et dont les résultats produisent plus de ridicule que de gloire. Donc pour moi, le favori de ces 24 Heures du Mans 2024, c’est clairement Toyota. Même si l’équipe japonaise n’a pas été en pointe lors de ces trois premières manches, si on excepte Imola où ils ont carrément remporté la victoire (fruit des circonstance et de leur excellence tactique), je pense que le désir de revanche des Japonais et de toute l’équipe Toyota est très fort, suite à ce qui s’est passé lors de l’édition précédente. Et cet élément à lui seul peut-être en mesure de faire pencher la balance et d’emporter la décision, en tout cas c’est mon opinion.

Le Mans Live, où ?

L’autre question, c’est « comment suivre cette édition des 24h du Mans dans les meilleures conditions » ?

Ces dernières années, je me suis contenté de suivre cette épreuve à travers Eurosport qui fait un direct quasiment intégral. Mais, problème, je ne supporte plus les niaiseries et les commentaires lamentables des journalistes de cette chaine (s’ils pouvaient se contenter de laisser parler les pilotes comme Paul Belmondo, toujours pertinent et mesuré, ça serait parfait mais, hélas, faut toujours qu’ils la ramènent !). J’ai donc pris l’abonnement WEC qui est très complet et très bien fait.

Publié dans Sport-auto | 2 commentaires

Une histoire de l’informatique moderne, épisode 10 : une récapitulation et des enseignements

Cette fois, je vous propose une rapide récapitulation des épisodes précédents mais, surtout, avec à chaque fois, les enseignements à en tirer… Et il y a de quoi faire !

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Une histoire de l’informatique moderne, épisode 9 – Le « coup d’état » manqué d’IBM

Comment IBM a voulu reprendre la main sur le marché de la micro, se débarrasser des cloneurs et assoir définitivement la primauté des mainframes par un « coup d’état » soigneusement préparé et a échoué, complétement et définitivement ! Après cela, IBM n’a plus jamais été considéré comme le N°1 naturel de l’informatique… Plus haut vous montez et dure sera la chûte !

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

L’engagement, un livre d’Arnaud Monteboug

Je viens de terminer « L’engagement », un livre d’Arnaud Monteboug.

La couverture du livre en question…

Pour commencer, je dois avouer que je lis rarement des livres politiques. La plupart du temps, ces derniers se caractérisent par une grande médiocrité et la médiocrité, c’est ce que j’essaie d’éviter (!). 

En plus de cela, je ne connaissais pas vraiment Arnaud Montebourg. Bien entendu, je me souvenais qu’il avait été ministre et qu’il militait en faveur du “made in France” mais c’était à peu près tout. Circonstances aggravantes je me rappelais quand même qu’il était socialiste et qu’il avait siégé au gouvernement de François Hollande (rien que cela suffisant à avoir les plus grandes réserves vis-à-vis du personnage et de ses livres…).

Mais il se trouve qu’un de mes fils m’avait incité à lire ce livre qu’il avait même laissé à la maison au format papier pour que je tienne ma promesse. J’ai donc fini par ouvrir cet ouvrage et je dois dire que je l’ai pratiquement lu d’une traite (pas tout à fait mais en tout cas une lecture vraiment suivie).

Le positif dans cet ouvrage c’est à la fois le ton qui semble honnête de l’auteur voire même authentique par moment et la peinture précise de ces années quand il était ministre. C’est bien rédigé et dans un bon français : c’est en train de devenir rare et c’est donc à souligner. Arnaud Montebourg nous décrit François Hollande dans toute sa grande médiocrité, sa lâcheté, sa paresse, ses compromissions, sa tendance au confort, etc. C’est une description au vitriol mais qui, à mon avis, est tout à fait méritée.

C’est assez vertigineux de constater à quel point on était tombé (bas) avec ce gouvernement Hollande et à quel point on est en arrivé aujourd’hui pour (presque) le regretter. On est passé d’un Flamby incapable et ridicule à un sale type nocif et hostile vis-à-vis du peuple français. On est en droit de se demander combien d’étapes on va devoir encore subir dans cette descente infernale, dans ce déclin abominable avant qu’enfin la France connaissent un sursaut.

Autre point à mettre au crédit d’Arnaud Montebourg c’est sa lucidité vis-à-vis des Américains qui sont de moins en moins nos alliés et de plus en plus nos adversaires d’une façon qui est de plus en plus avérée, visible et inquiétante.

Rassurez-vous, je ne suis pas en train de devenir un “fan de Montebourg pur sucre” car j’ai tout de même réussi à garder ma lucidité même si j’ai apprécié son livre. Et cette lucidité m’oblige à constater que même si l’auteur est sincère, il n’en est pas moins coupable d’une naïveté confondante. En effet, comment a-t-il pu se laisser rouler dans la farine par des individus comme Hollande ou Valls, qui sont d’une médiocrité poisseuse. Clairement, cela nous indique qu’Arnaud Montebourg avait quand même une grosse faille dans sa cuirasse d’animal politique et ça explique sans doute pourquoi il a fini par sortir du jeu, même s’il a toujours la tentation de vouloir y revenir quoi qu’il en dise.

Pour conclure, il s’agit d’un ouvrage que je vous recommande de lire si on s’intéresse au sujet de la mondialisation de la désindustrialisation et des affaires comme Alstom ou ArcelorMittal. Sur ce sujet, les descriptions de l’auteur sont édifiantes et utiles.

Publié dans à travers mes découvertes, Livres | Laisser un commentaire