Une réfutation du manifeste “techno-optimiste” de Marc Andreessen

De quoi s’agit-il ?

Le 16 octobre 2023, Marc Andreessen a publié un document intitulé “The techno-optimist manifesto” (le manifeste des techno-optimistes) où il proclame que “toute la technique est bonne, la technique va nous sauver, il suffit d’y croire” (en résumé !).

Presque trop facile !

La première fois que j’ai lu ce manifeste, je me suis dit immédiatement que c’était pile pour moi : Marc y exprimait, de manière presque caricaturale, le point de vue des solutionnistes et il apparaissait évident que cela se prêtait (exigeait même !) à une réfutation en bonne et due forme. C’était même presque trop facile !

Bien entendu, je n’ai pas détaillé et répondu à ce texte paragraphe par paragraphe car le document en question est assez long. Mais l’argument principal est clair et bien identifié. C’est sur celui-ci que j’ai fait porter ma réponse.

Ignorants la nature de la technique !

En plus d’être un florilège d’affirmations gratuites et de contre-vérité criantes (voire risibles), tout le contenu de ce manifeste est une preuve criante que Marc et ses “adeptes” sont fondamentalement ignorants de la nature réelle et profonde de la technique. Leur mantra préféré peut se résumer à “il n’y a pas de problème posé par la technique -comme la pollution par exemple” qui ne puisse se résoudre par plus de technique !”… Hum, on voit d’ici l’absurdité de cette affirmation où la cause du problème deviendrait, comme par magie, la clé de la solution… D’ailleurs, cette croyance magique dans la technique est à la base de l’aveuglement de ce groupe d’exaltés. Quand ils clament “plus de technique, toujours plus de technique”, ce n’est pas suite à un raisonnement rationnel basé sur des expérimentations (l’approche empirique essais/erreurs est à la base de bien des découvertes, tant sur le plan technique que scientifique) ou à une démarche scientifique rigoureuse, rien de tout cela. C’est simplement une foi aveugle dans l’équation “technique = bien” qui débouche sur le raisonnement biaisé “encore plus de technique = encore plus de bénéfices pour tous !”. Or, il suffit de se pencher un peu sérieusement sur l’histoire de l’évolution technique pour comprendre que la nature même de la technique n’est certainement pas “gratuite et toujours bénéfique”…

La vraie nature de la technique

La vraie nature de la technique peut se résumer en trois points : la technique est ambivalente (elle n’est pas neutre), elle n’est pas omnipotente et elle n’est pas soumise.. Ambivalente car La technique n’est pas neutre. Un progrès technique n’est pas forcément un progrès pour l’humanité !

Il y a toujours un prix à payer et, en ce sens, on peut dire qu’elle est ambivalente. Toute évolution technique présente des avantages ET des inconvénients. On pourrait croire que remplacer une technique obsolète par une nouvelle plus performante est toujours un gain, mais ce n’est pas aussi simple : la nouvelle technique n’est utilisable qu’avec son contexte (par exemple, les ressources dont elle a besoin pour fonctionner). Le progrès technique n’est pas gratuit, il se paye toujours même si on ne s’en rend pas compte tout de suite.

La technique n’est pas omnipotente (toute puissante) : elle n’a pas réponse à tout, il restera toujours des problèmes insolubles. C’est important de le dire et de le redire pour barrer la route au solutionnisme. Si vous gardez cela en tête, il vous sera facile de reconnaître quand on essaye de vous vendre l’impossible. Si on vous dit que tout est possible, que c’est gratuit et sans conséquence, méfiance…

Et enfin, la technique n’est pas soumise, elle ne l’a jamais été. Depuis le feu qui n’a jamais été « maîtrisé » (si cela avait été le cas, pourquoi avons-nous besoin des pompiers pour éteindre les incendies ?) jusqu’à l’atome qui l’est encore moins. La cruelle vérité est que nous ne maîtrisons pas vraiment ce que nous utilisons et que, de temps en temps, cet usage dérape, nous échappe et provoque quelques conséquences (le plus souvent jamais imaginées !). 

Un manifeste mal rédigé

En plus d’être basé sur des axiomes erronés, ce manifeste est très mal rédigé : il déborde d’une emphase et d’une prétention qui le rendent pénible à lire, en particulier dans les paragraphes sur “l’ennemi” et “l’avenir” situés à la fin de ce pensum, si vous arrivez jusque-là… Et pour ajouter l’insulte à la blessure, Marc a beaucoup recours au “name dropping” : il cite des personnalités pour montrer l’étendue de sa culture… C’est vite lassant et ça donne l’impression inverse. Marc, nous ne sommes pas vraiment sûrs que Richard Feynman (entre autres) serait ravi de voir tes emprunts.

Exagérons, exagérons, il en restera toujours quelque chose !

Plusieurs fois, Marc emploi des formules qui illustrent parfaitement sa tendance à exagérer sans vergogne : “pour toujours”, “sans limite supérieure”… Pour ceux qui croient encore que “les arbres peuvent monter jusqu’au ciel”, ce discours pourra passer. Les autres sauront que le détecteur de conneries s’est allumé en rouge vif !

Un autre exemple significatif avec cet extrait : 

Ray Kurzweil définit sa loi des retours accélérés : Les progrès technologiques ont tendance à se nourrir d’eux-mêmes, augmentant ainsi le rythme des progrès ultérieurs.

Nous croyons en l’accélérationnisme – la propulsion consciente et délibérée du développement technologique – pour garantir le respect de la loi des rendements accélérés. Pour garantir que la spirale ascendante du techno-capital se poursuive pour toujours.

Ray Kurzweil peut bien avancer ce qu’il veut, ça n’est pas pour autant que c’est valide !

Dans le cas présent, c’est même plutôt le contraire : ce qu’on peut constater depuis plus de 150 ans, c’est la loi des retours décroissants

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

Source https://www.penserchanger.com/la-loi-des-rendements-decroissants/ 

Partout et tout le temps

Ce phénomène des retours décroissants, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas. 

Beaucoup d’argent, toujours plus d’argent mais peu de résultats

Les retours décroissants affectent tous les domaines et tous les secteurs. Dans le domaine militaire, il est de plus en plus coûteux de concevoir des nouveaux systèmes (comme des avions de combat ou les blindés) pour des gains de performances de plus en plus réduits. Pareil dans le domaine des médicaments : beaucoup d’argent et de moyens sont disponibles et pourtant, les résultats se font de plus en plus rares, comme si la technique ralentissait (tiens, tiens…). Dans le cadre des médicaments, le phénomène est tellement évident qu’il a même donné lieu à une « loi », la loi Eroom. Voir à https://en.wikipedia.org/wiki/Eroom%27s_law

La loi d’Eroom fait observer que la découverte et la mise en production de nouveaux médicaments devient plus lente et plus coûteuse avec le temps, malgré les améliorations techniques (criblage à haut débit, biotech, chimie combinatoire et conception de médicaments), une tendance observée dans les années 1980. Le coût de développement d’un nouveau médicament double à peu près tous les neuf ans (ajusté en fonction de l’inflation).

Le fait que la découverte de nouveaux médicaments ralentit progressivement depuis des décennies est une bonne illustration supplémentaire de la loi des retours dégressifs.

Source https://www.crossfit.com/health/erooms-law 

Ni techno-pessimiste, ni techno-sceptique

Je peux parfois donner l’impression que je nie le progrès technique… Mais rien n’est plus faux !

Le problème essentiel vient de la façon dont les nouveautés techniques sont présentées au grand public. À chaque fois, la nouvelle technique à la mode est accompagnée de promesses faramineuses à grands coups d’adjectifs ronflants (« révolutionnaire » est le terme le plus souvent utilisé). Mais ça ne veut pas dire que c’est forcément un pétard mouillé pour autant. L’Internet, par exemple, n’a pas tenu toutes les promesses du temps de la bulle des dotcoms, mais il n’en a pas moins changé beaucoup de choses (depuis le commerce en ligne qui a redéfini nos pratiques de consommation jusqu’au cloud qui a redéfini notre façon de gérer l’informatique). Finalement, l’Internet peut être vu comme une déception seulement si vous avez cru à toutes les fables proclamées dans les années quatre-vingt-dix. 

Nous savons tous que la technique finit toujours par progresser, presque inexorablement, et ce dans quasiment tous les domaines. Mais cette progression prend simplement plus de temps (toujours plus de temps !) que ce qui en est dit (un exemple : les « autoroutes de l’information » de Bill Gates sont bien là avec les CDN, mais quarante ans après avoir été annoncées… une paille !).

Une arrogance qui appelle à une correction

Allez, un dernier exemple pour situer le niveau d’exagération et d’arrogance de l’auteur de ce document :

Nous croyons en la nature, mais nous croyons aussi en surmonter la nature. Nous ne sommes pas des primitifs craignant la foudre. Nous sommes le prédateur suprême ; la foudre travaille pour nous.

S’il en était besoin, voici une preuve de plus de l’hubris du personnage : “la foudre travaille pour nous”… Voici qui appelle un “et la foudre le frappa” !

Rien de bon, vraiment ?

N’y a t-il rien de bon dans ce (long) document ?

Eh bien en étant ultra-indulgent, on peut approuver son rejet du dogmatisme et du communisme. Mais c’est un peu comme être très poli (ou très hypocrite) quand on approuve une personne qui vous dirait “le bien, c’est mieux que le mal”…

En fait, c’est comme si Marc en était resté coincé à sa période Netscape où l’Internet était censé “sauver la démocratie et la faim dans le monde” (ce n’est même pas exagéré : ce mantra ridicule était répété à l’envie par des gens comme Marc Andreessen… Aujourd’hui, on peut constater que ces promesses ont été, disons, survendues !). Mais ce serait oublier les faces sombres de ce personnage : cette “baleine de la crypto” n’oublie jamais de prendre son bénéfice d’abord et surtout au détriment des gogos qui veulent bien le croire (demandez à tous ceux qui se sont fait “rincer” par la vague récente des cryptos bidons…).

Les accélérationistes existent et ils ont même un mouvement

Le pire, c’est que Marc n’est pas seul à proclamer cette “foi”, il a des adeptes (les e/acc) et même une place de marché pour afficher leurs convictions (https://accelerate.shop/en-eur/ les goodies pour les e/acc !) et ils ont trouvé un nom pour leur “mouvement” : accélérationnisme efficace

https://en.wikipedia.org/wiki/Effective_accelerationism

https://effectiveacceleration.tech/

Bon, on pourrait croire à une pochade de la Silicon Valley mais il est à craindre que cela soit très sérieux (Marc et ses adeptes ont l’air d’y croire) tout en étant totalement loufoque (aucun de leurs arguments ne résiste à une analyse rationnelle). Mais, à notre époque, le bon sens se perd (combien de fois, ces derniers mois, avez-vous lu que ChatGPT était une “révolution et allait tout changer ?” alors qu’il est désormais clair que les “réponses” de ce logiciel sont souvent sujettes à caution…).

Conclusion : ne pas croire au solutionnisme

Le solutionnisme est une impasse. C’est une idéologie fallacieuse qui nous pousse à ne pas corriger les erreurs déjà commises dans le passé. Si nous voulons vraiment progresser et aller de l’avant, il ne faut pas se laisser aller à des solutions de facilité du genre “plus de technique, toujours plus de technique” alors que c’est précisément l’excès de technique mal pensée et mal implémentée qui est la cause des problèmes que nous affrontons désormais.

Les solutionnistes sont des illusionnistes qui veulent nous leurrer pour que leurs petites affaires puissent se poursuivre sans entrave.

Addendum par Laurent Poulain (un ami de longue date avec lequel j’ai rédigé notre “Histoire de l’informatique moderne”):

Il est indéniable que l’humanité a énormément bénéficié des progrès techniques au cours des siècles, et il est à parier que cette tendance va continuer.

Mais les techno-solutionnistes nous présentent une fausse dichotomie. Ils sous-entendent que n’importe quelle startup tech est dans la lignée d’Henri Ford, Robert Noyce ou Steve Jobs. Marc Andreessen affirme que la technologie est la solution à TOUS les problèmes, et que toute tentative de réguler une nouvelle technologie qui pourrait sauver des vies dans le futur est similaire à un meurtre. Certains techno-solutionnistes semblent également avoir une vision fort simpliste de la technologie. La Loi de Moore double magiquement la vitesse de nos ordinateurs tous les deux ans, et continuera à la faire éternellement. Bien entendu, toute critique de cette vision est vue comme anti-progrès. Soit vous êtes à 100% dans notre camp soit vous êtes contre nous.

En d’autres termes: nous autres élites de la tech savons mieux que quiconque comment résoudre tous les problèmes du monde, laissez nous en paix. Ce n’est pas comme si nous n’avions jamais abusé de notre pouvoir ou parfois promis du vent.

La guerre est sans doute le plus grand contre-exemple où plus de technologie ne résout pas le problème. Richard Gatling, inventeur de la mitrailleuse du même nom, pensait que son invention allait mettre un terme aux guerres. Qui allait être assez fou pour démarrer un conflit lorsqu’une arme tellement destructrice que la mitrailleuse est utilisée ?
La Grande Guerre a prouvé le contraire.

« Donnez-nous un problème réel et nous pourrons inventer une technologie qui le résoudra » clame Marc Andreessen. Il peut commencer par San Francisco qui a son lot de problèmes (prix du logement, sans-abris, vols à l’étalage croissants). Et s’il veut un problème dont la résolution lui attirera l’admiration du monde entier (dont votre serviteur), suggérons-lui de s’attaquer à la corruption.

Mais en quoi l’exagération des techno-solutionnistes peut-elle être une mauvaise chose ? Après tout, ils génèrent du buzz qui alimente l’industrie. Sauf qu’à trop promettre, on court le risque d’un retour de bâton pour l’industrie tech tout entière. Dans les années 90 c’est toute l’industrie de l’IA qui a pâti des trop grandes promesses des années 80.

Au final, M. Andreessen résume la situation mieux que quiconque, probablement sans ironie aucune : « Notre ennemi est la tour d’ivoire, la vision du monde des experts je-sais-tout, se livrant à des théories abstraites, des croyances de luxe, de l’ingénierie sociale, déconnectées du monde réel, délirantes, non élues et irresponsables – jouant à Dieu avec la vie de tous les autres, avec une isolation totale contre les conséquences. »

Publié dans Anecdotes IT, divers, Informatique, La terrible vérité, Le fait technique | Laisser un commentaire

La simulation idéale en SimRacing, suite et fin ?

Voici le troisième volet de la série d’articles que je vous propose sur ce sujet. Mais je pense qu’on ne peut l’épuiser aussi facilement donc, je me réserve d’y revenir encore mais plus tard !

Dans les deux précédents volets (voir ici et là), je revenais sur l’offre du marché et ce qu’on pouvait en espérer mais aussi sur la personnalisation que chacun est en droit de mettre en place autour de la notion de simulateur de pilotage automobile (et de courses !). Vous connaissez mes préférences et, cette fois, je vais vous faire part d’expériences récentes.

Toujours dans le but d’améliorer la capacité immersive (c’est bien dit, hein !) de mon simulateur, je creuse et j’essaye des solutions dans tel ou tel domaine. Dernièrement, j’ai testé et rejetté le HF8 de Next Level Racing (évoqué dans l’épisode précédent), cette fois, je vais vous relater un autre test négatif : le Delanclip Fusion Pro. Il s’agit d’une alternative à TrackIR bien connu qui permet de faire du suivi d’affichage en fonction de la position de votre tête…

En gros, grâce à ces systèmes, vous avez l’équivalent de la vision VR mais sans le casque. Bon, mon expérience s’est avérée négative (au final, je n’ai pas conservé le Delanclip Fusion Pro) car, d’une part, j’ai eu du mal à le faire fonctionner dans un premier temps. Une fois que j’ai surmonté ces inévitables problèmes de mise en service, j’ai constaté que le rendu ne me convenait pas. C’est seulement en l’expérimentant que j’ai pu me rendre compte que ce système ne m’apportait rien, me gênait plutôt en fait. C’est aussi parce que mon triple-screens me convient très bien. Je m’y suis tellement habitué que la moindre perturbation de l’affichage me gêne tout de suite.

Cette expérience négative ne l’a pas été complètement, négative. Car elle m’a permit de me confirmer, une fois de plus, que « le mieux est l’ennemi du bien » et que « plus » est quelquefois synonyme de « moins ». Désormais, je suis plutôt prudent sur les évolutions possibles de mon simulateur ce qui peut être compris comme un bon signe : ça veut dire que je suis arrivé à un niveau satisfaisant dans l’ensemble.

C’est pourquoi, par exemple, je n’ai pas encore changé la base de mon volant pour un Direct Drive. Mon Fanatec Elite CSL me parait encore en très bon état et me donne un retour convaincant. Donc, je le garde plutôt que de céder à la mode actuelle. Cela peut largement attendre !

Ces différentes expériences récentes ont achevé de me convaincre que la simulation idéale est en fait un système : un ensemble de composants travaillant en symbiose. La simulation elle même est le composant centrale avec donc une grande importance mais qui ne peut donner son plein potentiel sans l’apport des autres (composants) : écran(s), volant+pédalier, chassis+baquet et les autres éventuels « accessoires ». C’est grâce aux choix judicieux effectués autour de la simulation logicielle que vous allez construire votre « simulateur de pilotage idéal ».

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Voilà pourquoi vous devez passer à Automobilista 2 !

Le circuit du Mans et trois protos LMDh dans la toute dernière mise-à-jour d’Automobilista 2 (AMS2), que demander de plus ?
Et que va-t-il rester à LeMans Ultimate (si jamais il sort !) ?

Sérieusement, ce package « spécial Le Mans » est grandiose : le circuit est magnifique (comme d’habitude avec Reiza) et les nouvelles voitures sont top !

Spécialement la Porsche 963 qui est un régal à piloter : rapide et facile, elle est particulièrement adaptée aux pilotes habitués aux GTE/GT3 car les LMDh sont plutôt lourdes mais dotées de pas mal d’appuis et de puissance. Ce mélange bien dosé donne un résultat très plaisant, même pour moi qui ne suis pas trop fan des voitures modernes pourtant.

Si vous hésitiez encore à plonger sur AMS2, il est temps, il est grand temps !

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Un film de SF français et en animation ? Oui, c’est Mars Express !

C’est un ovni (un film français de SF et en animation ?) mais c’est une pépite aussi : je viens de découvrir Mars Express !

Déjà, voici la bande-annonce de cet « ovni » :

Ensuite, je recommande de regarder cette interview du réalisateur par Nexus VI (toujours excellent !) :

Une autre critique positive à voir :

Mon avis : c’est du bon et c’est du lourd. Déjà, le fait que c’est en animation s’oublie très vite, bravo !
Ensuite, l’écriture et la réalisation sont au top : on ne vous prend pas pour des débiles. Enfin, l’univers dépeint est très cohérent et ça aussi c’est bien. Bref, vous l’aurez compris : allez le voir, sans restriction.

Publié dans divers, Science-fiction | Laisser un commentaire

Que peut-on encore dire d’intéressant sur l’IA ? Cosmotech propose une réponse juste et équilibrée !

La vague actuelle d’hystérie et d’exagérations ridicules sur l’IA m’exaspère au plus haut point. Mais, en cherchant bien, on peut trouver des acteurs raisonnables qui proposent un discours intéressant et qui apporte quelque chose sur le sujet… C’est le cas de Cosmotech (un start-up française spécialisée sur la simulation et les jumeaux numériques) et je vous invite à regarder la série de courtes vidéos présentées par Michel Morvan, le co-fondateur de cette société… Je précise que je n’ai aucun lien avec Cosmotech (que je viens de découvrir !) et que j’approuve à 100% ce que dit Michel Morvan dans ces vidéos !

Publié dans Anecdotes IT, Informatique, Références IT | Laisser un commentaire

Bilan/rétrospective 2023 : le Simracing, les sports-mécaniques et la tech

Quand j’étais jeune (dans les années 70 donc…), j’adorais les rétrospectives de l’année à la télé… Un autre temps, un autre monde !

Quelques éléments complémentaire à cette vidéo :

Lecture : deux livres “tech” à vous recommander !

Sam Altman est le prochain SBF… en pire !

Que peut-on encore dire d’intéressant sur Forza Motorsport (8) ?

Retour sur l’édition du centenaire des 24 heures du Mans

Deep Fake grâce à l’IA, des cas pratiques et utiles à l’horizon ?

Quelques règles pour survivre à la hype…

Crypto : de la bulle spéculative à la bulle d’illusions !

Publié dans Ce blog, Informatique, Sport-auto, Sports mécaniques virtuels | Un commentaire

Mon roman « Hacking » disponible en troisième édition

Je prends toujours soin de mes livres. J’en ai déjà publié 34 mais il ne s’agit pas d’une course au volume, il s’agit de maintenir la qualité de l’ensemble.

C’est pourquoi je n’abandonne pas mes livres déjà publiés, jamais. S’il y a des corrections à faire, je les applique et si j’ai une idée d’amélioration, je la mets en œuvre.

Aujourd’hui, j’ai le plaisir de vous annoncer la publication de la 3e édition de Hacking qui est un roman qui me tient à cœur et que j’ai pu améliorer grâce à la collaboration de Nicolas Joubert Bousson. Ce dernier a pris en charge la “colorisation” de l’ouvrage. Certes, il ne s’agit pas d’une bande dessinée, mais la notion de colorisation s’applique bien au travail effectué par Nicolas.

La couverture du livre

En effet, mon style d’écriture ne brille pas par l’étendue des descriptions.  au contraire, je suis plutôt très sobre sur ce point, laissant au lecteur le soin de combler les blancs.  Mais cette fois, c’est Nicolas qui s’est chargé de cette tâche et je dois dire qu’il y a réussi à se brillamment. j’ai accepté et intégré toutes ces suggestions qui, à mon avis, ajoutent effectivement l’ambiance qu’il fallait à ce récit.

Bien entendu, ces ajouts ont augmenté le nombre de pages de ce livre et j’ai donc légèrement ajusté le prix de vente en conséquence. Vous pouvez retrouver cette nouvelle édition ici.

Publié dans Ce blog, Informatique, Mes livres | Laisser un commentaire

La simulation de Simracing idéale, suite…

Suite du premier article sur le sujet à retrouver ici…

Je voudrais revenir à nouveau sur la notion de mode carrière qui est souvent un sujet décrié et difficile à cerner. On l’a vu par exemple dans le récent cas de Forza Motorsport qu’un mode carrière sans relief, sans intérêt et sans surprise n’apporte simplement rien. si Turn10 n’est pas capable de nous proposer un mode Carrière qui ressemble à quelque chose alors c’est sans doute que le défi est inaccessible ! 

Un très bon mode carrière est possible…

Mais en fait, pas du tout. je suis en train de tester et d’apprécier un titre sur lequel je n’aurais pas misé lourd au départ et il s’agit de NASCAR Heat 5. À ma grande surprise, il s’avère que ce titre propose un mode carrière tout à fait honorable et tout à fait appréciable. Il reprend le principe de base de devoir vous faire progresser depuis le bas de l’échelle mais en plus il apporte des surprises, des rebondissements et un déroulement qui le rend tout à fait intéressant. Alors bien sûr, certains vont dire “NASCAR heat 5, pouah, c’est pas une simulation”. 

Je dois dire que je ne suis pas du tout d’accord avec les conclusions de cette vidéo : le FFB est correct et le gameplay est attrayant. Une fois de plus, cela illustre qu’il faut se faire une opinion par soi-même, point !

Les snobs du Simracing !

Cela m’évoque fortement une anecdote que je voudrais vous raconter ici. Il y a deux ans, pendant le déroulement des 24 Heures de Spa que je regardais en direct sur YouTube, dans le chat les commentaires allaient bon train sur les qualités respectives supposées des différentes GT3 engagées. Certains certains faisaient même pas de leur expérience de pilotage au volant de ces voitures alors que cette expérience effective se résumait à quelques heures au volant de leur simulation préférée. Bien sûr, cela avait le don d’énerver les vrais amateurs de sport auto et, pour finir, il y en a un qui écrivit dans le chat “fermez vos gueules les snobs du Sim Racing !”. J’en ris encore à chaque fois que j’y pense parce cela résumait parfaitement l’état d’esprit des amateurs (de certains amateurs, ne généralisons pas…) de sport auto pour qui les simracers sont des frimeurs, ce qui heureusement n’est pas le cas général.

Gentleman driver du SimRacing

Je pense au contraire qu’on doit sortir de ce getto de la simulation élitiste réservé à des “aliens” surentrainés (ça existe déjà et c’est l’esport). Car cette catégorie, si elle est intéressante (et elle l’est car il faut un sommet à une pyramide) ne concerne pas beaucoup de monde. Je me vois comme un “gentleman driver” du Simracing et je pense que nous sommes nombreux à pouvoir (et vouloir) nous ranger dans cette catégorie.

Bien sûr que j’apprécie au plus haut point des simulations sérieuses comme Automobilista 2 (AMS2)car, avec elles, l’immersion et l’engagement sont poussés au plus fort de ce que je peux encaisser. Pour situer mes préférences, j’ai cumulé 927 heures sur AMS2 et 706 heures sur rFactor2 alors que j’ai encore passé que 88 heures sur Forza Motorsport…

Le bilan annuel de mon compte sur Steam…

Mais, justement, je n’ai pas toujours envie d’un engagement fort, intensif et exigeant comme le propose AMS2. En ce moment, je dispute un championnat sur AMS2 avec les monoplaces CART de 1995 (comme je l’ai déjà fait avec les F1 78), des courses d’une heure pleine, avec une météo variable, et je peux vous assurer que je sors de chaque manche en nage et saturé de tension nerveuse…

Certains soirs, j’ai juste envie de m’amuser un peu au volant sans avoir à m’engager plus que cela. Et là, un Forza ou un Nascar Heat 5 conviennent parfaitement. Mais, même avec ces titres plus accessibles, mes attentes restent fortes du côté du FFB et des IA. Si cela n’est pas au rendez-vous, je passe mon chemin.

Une petite vidéo d’ambiance pour situer le fun sur Nascar Heat 5…

La simulation idéale n’est pas forcément monolithique

La simulation idéale n’est pas forcément monolithique

Ce dont je me suis rendu compte avec mes expériences récentes, c’est que notre simulation idéale cible ne sera pas forcément “monolithique” (d’un seul bloc)… Je m’explique…

Cela fait déjà des années que les simracers utilisent des programmes extérieurs pour analyser les données de télémétrie quand ils peuvent les récupérer. De mon côté, j’ai découvert “Crew Chief” et je ne peux plus m’en passer sur AMS2 : c’est tellement bien fait qu’on finirait presque par s’y attacher comme à un vieux copain !

Pour approfondir l’immersion, il y a aussi à creuser du côté des retours haptiques. Mon pédalier Fanatec vibre quand je bloque mes roues au freinage ou que je patine à l’accélération et c’est déjà bien. Avec le Buttkicker, j’ai découvert que faire vibrer son siège (pour simuler les vibrations du moteur ainsi que les changements de rapports) apportait un gros plus.

Encouragé, j’ai voulu aller plus loin et j’ai commandé le HF8 de Next Level Racing. Je l’ai reçu, installé, testé et renvoyé !

Non pas qu’il s’agit d’un mauvais produit mais je lui ai trouvé trois défauts : un, ça modifie l’assise de votre baquet (en clair, ça prend de la place !), deux, les vibrations sont bien là mais moins faciles à “lire” qu’avec le Buttkicker. Et enfin, trois, le HF8 entrait en conflit avec le Buttkicker au niveau de l’adressage dans AMS2 et je devais donc choisir… C’était l’un ou l’autre !

J’ai préféré garder le Buttkicker auquel je suis désormais habitué et attaché. Tout cela pour dire que nous devrons sans doute constituer nous même notre « package idéal » afin de faire vivre la simulation idéale qui va nous satisfaire pleinement…

Le sujet n’est pas encore épuisé et je prévois donc une troisième partie bientôt.

Publié dans récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

En ce moment, il est de bon ton de détester Elon Musk… Une vidéo personnelle

Cette courte vidéo pour faire le point sur un des sujets du moment : Elon Musk, créateur de SpaceX et Tesla (oui, Tesla aussi…) qui serait devenu un « danger pour la démocratie » (dixit les chiens de garde des médias mainstream) depuis que ce dernier a mis la main sur Twitter !

Bien entendu, c’est un gros tas de conneries… La suite de mon point de vue (qui, bien sûr, n’engage que moi) dans la vidéo ci-dessous :

Pour en savoir plus sur Musk, il faut lire !
La biographie récente et bien rédigée par Walter Isaacson est un passage obligé (selon moi, toujours)…

 

Publié dans à travers mes découvertes, La terrible vérité | Laisser un commentaire

Le prochain déclin de Google

Avant de commencer à expliquer pourquoi je voudrais vous parler du prochain déclin de Google, il est important de préciser que, pendant ma carrière, j’ai à plusieurs reprises écrit sur le déclin d’IBM. Or, même si Big Blue est aujourd’hui que l’ombre de lui-même, qu’une fraction de sa gloire passée, qu’il n’a plus ni l’audience ni l’influence qu’il avait dans les années 70 et 80, force est de reconnaître qu’il est encore là.

Ce préambule pour garder en tête qu’il y a toujours beaucoup d’inertie entre les prédictions initiales et leur réalisation finale. Et même, j’insiste, cette inertie se mesure le plus souvent en décennies (le pluriel étant ici de rigueur !).

Ceci étant dit, on peut maintenant expliquer pourquoi il est raisonnable de penser que c’est le commencement de la fin pour Google. Il serait plus exact de parler d’Alphabet car Google n’est qu’une entité dans ce groupe tentaculaire. Pour paraphraser Hubert Reeves qui disait que “l’homme était en guerre contre la nature et que s’il gagnait, il était perdu” on peut dire la même chose pour Google qui est en guerre contre ses utilisateurs et que forcément ça finira mal.

L’élément le plus visible de la guerre que Google mène contre ses utilisateurs invisible à travers le combat que mène YouTube contre les bloqueurs de publicité actuellement. non seulement vous ne pouvez plus éviter les pubs dans YouTube à moins d’efforts techniques répétés et frustrants mais en plus le volume de ses pubs apparaît comme de plus en plus grand. c’est en quelque sorte une double punition. 

il est clair que YouTube peut se permettre de malmener ainsi ses utilisateurs pour ramasser le plus possible d’abonnement premium et de revenus par les publicités mais pendant combien de temps ? 

On sait que c’est l’abus de position dominante qui finit par éroder cette position dominante.  Et YouTube ne fera pas exception à cette règle. bien entendu, cela prendra du temps voire même beaucoup de temps mais c’est inévitable. 

l’autre élément qui permet de penser que Google a entamé son déclin, c’est la panique que le groupe affiche vis-à-vis de sa position dans le domaine de l’intelligence artificielle. Cette semaine, Google présentait son dernier avatar en matière d’intelligence artificielle nommée Gemini.

Quelques jours après l’officialisation de Gemini, le nouveau modèle d’intelligence artificielle de Google, un édito publié sur le site de Bloomberg, signé Parmi Olson, explique que Google aurait déformé la perception des résultats de Gemini dans une de ses vidéos de présentation.

Dans cette vidéo, l’intelligence artificielle de Google paraît en effet dotée de capacités de compréhension impressionnantes. Si au visionnage, la firme de Mountain View laisse penser que Gemini est capable d’interagir avec l’utilisateur et d’avoir une attitude presque humaine, il semblerait que le montage de la vidéo y soit pour beaucoup et que Gemini ne puisse pas réellement réagir à de simples petites relances orales. Dans les faits, l’IA n’aurait pas répondu du tac au tac aux images présentées par le démonstrateur, ni même réagi avec lui, ce qu’a confirmé Google auprès de Bloomberg. Un porte-parole de la marque avoue à demi-mot que « des images fixes de la séquence » et des requêtes écrites ont été utilisées (source).

Cette politique de la terre brûlée est d’autant plus dommage qu’au début des années 2000, Google représentait une alternative rafraîchissante vis-à-vis de Microsoft. J’étais un utilisateur fidèle des produits Google de Gmail en particulier et puis des Google Docs quand ils sont apparus. Mais depuis le début des années 2020 on voit une dégradation sur tous les fronts et on constate que Google est devenu plus ou moins comme les autres, c’est-à-dire motivé uniquement par le profit. S’il en est ainsi, il est clair que ce déclin va aller crescendo et que personne ne regrettera le géant de Mountain View.

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

Michel Onfray : une profonde déception !

J’appréciais beaucoup l’intellectuel Michel Onfray. J’étais complètement en accord avec lui sur Freud et j’approuve également sa position sur Jésus.
Hélas, trois fois hélas, Onfray s’est roulé dans l’ignoble pendant la crise sanitaire… Voici une compilation de ses prises de paroles sur le sujet où il dit pis que pendre sur les non-vaccinés :

Je considère que ce qui s’est passé pendant la crise sanitaire est un événement majeur qui impacte notre société en profondeur. Or, ceux qui ont participé à l’abrutissement du peuple et à l’ostracisation des non-vaccinés sont impardonables.

Après cela, je ne peux laisser passer et continuer à dire « Onfray est un intellectuel intéressant ». Pas de pardon pour les collabos : Onfray a relayé la doxa sur la crise sanitaire, c’est donc un collabo, point.

Publié dans à travers mes découvertes, Ce blog, La terrible vérité | Laisser un commentaire

Lecture : deux livres “tech” à vous recommander !

Il faut lire, on ne le dira jamais assez surtout à notre époque où il semble que de plus en plus de gens ne lisent plus (triste).

Donc, je vais vous recommander mes deux récentes lectures du moment. Il s’agit de livres “tech” comme je les affectionne… Tout d’abord, un sur l’histoire du système Android qui équipe la majorité des smartphones aujourd’hui en circulation. L’autre sur la vague crypto qui a tout balayé en 2020 et 2021 avant de se révéler pour ce qu’elle était vraiment en 2022 : un tas de conneries (désolé, il n’y a pas d’autre mot !).

Commençons par le livre sur Android avec Androids: The Team that Built the Android Operating System (English Edition).

Très bien rédigé et très détaillé, l’ouvrage revient sur toute la genèse du développement de ce système, relativement modeste au début et omniprésent aujourd’hui. Une épopée majeure dans l’Histoire de l’informatique (un de mes sujets de prédilection, comme vous le savez).

Le livre contient quelques pépites comme ces slides extrait du “pitch deck” des fondateurs qui explique (en 2005) que le marché des smartphones va exploser à cause de raisons purement techniques.

Déjà à l’époque, il était clair que les smartphones (une catégorie qui se limitait essentiellement au Blackberry et au Palm Treo) allaient devenir des plateformes comparables aux PC : puissants et versatiles. Et que donc cette nouvelle catégorie allait émerger et prendre une place énorme sur le marché… à condition qu’un OS ouvert et polyvalent soit disponible !

Google a cru à ce pitch avant tous les VCs et a emporté le morceau, bravo à eux.

Le livre contient aussi des révélations croustillantes sur les difficultés qu’a rencontré l’équipe pour stabiliser Java (qui avait été choisie comme moyen prioritaire pour développer des applications sur Android). Finalement, et après même un procès avec Oracle autour de ce sujet, l’équipe Android a tout réécrit pour s’appuyer sur une plateforme “java-like” (Android RunTime) mais dont les tenants et aboutissants pouvaient être maîtrisés… Comme vous pouvez vous en douter, j’ai particulièrement apprécié ces révélations qui vont tout à fait dans mon sens !

Pour ceux que cette période de l’Histoire de l’informatique intéressent, je ne peux que recommander également ce film qui retrace la saga Blackberry (ce n’est PAS un documentaire) : 

Passons à l’autre sujet, la crypto (que je ne considère PAS comme faisant partie de l’histoire de l’informatique !). Si vous lisez ce blog, vous savez combien ce sujet me hérisse !

Number Go Up: Inside Crypto’s Wild Rise and Staggering Fall (English Edition) ne se contente pas de narrer les tribulations de FTX/SBF et heureusement. Il s’agit d’une enquête très détaillée sur les différents aspects de la vague crypto avec Tether, les NFT et ainsi de suite. L’auteur n’arrête pas de répéter que ce qu’il a découvert est encore pire que ce qu’il imaginait… c’est dire !

Oui, ces deux ouvrages sont en anglais mais bon, pour accéder aux bonnes sources, il faut fournir quelques efforts. En ce moment, je suis en train de lire la biographie d’Elon Musk (rédigée par Walter Isaacson, celui qui avait fait celle sur Steve Jobs…) qui elle est disponible en français… ouf !

 

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

La simulation idéale (en simracing)

Cette fois, j’ai envie de vous parler de la simulation idéale pour le Simracing et bien sûr elle n’existe pas encore. Si l’on regarde dans l’offre du marché, qui est riche et différenciée, il y a plusieurs titres qui présentent des caractéristiques communes qui sont plutôt pas mal, qui atteignent un niveau intéressant, mais qui sont loin de pouvoir constituer une “simulation idéale”. Ceci étant dit, la notion de “simulation idéale” est évidemment propre à chacun : ce que j’imagine d’idéal n’est pas forcément à votre goût et vice-versa.

Du bon à reprendre de l’offre existante

Donc, ce que je propose cette fois, c’est d’imaginer ma simulation idéale à partir des caractéristiques qu’on a envie de retrouver dans cette simulation hypothétique. Bien sûr, cette simulation reprendrait des éléments déjà fort bien traités dans les titres actuels comme le force feedback, la modélisation des voitures, la modélisation des tracés avec le laser scan et ainsi de suite. Tout ça, bien sûr, n’est pas à jeter aux orties, c’est à garder et c’est cela qui doit encore être amélioré si c’est possible. Mais c’est justement dans les autres caractéristiques qu’il faut aller creuser pour compléter ce qui pourrait devenir une simulation idéale.

Fonction indispensable, mais jamais utilisée ?

Il faut faire cet exercice de penser avec sincérité parce que, bien sûr, on peut imaginer que telle ou telle caractéristique qui paraît éventuellement indispensable sur le papier, mais qui, au final, ne serait peu ou pas utilisée par les joueurs parce que trop contraignante ou parce qu’elle n’apporte pas de plaisir ou même tout simplement trop difficile à utiliser. Par le passé on a déjà eu l’exemple de ces fonctions qui étaient bien pensées et qui étaient censées refléter la réalité, mais qui étaient systématiquement contournées parce que n’apportant rien au gameplay ou même gâchant le gameplay. J’en veux pour exemple le fait de devoir démarrer son moteur manuellement que tu es une fonction qui existait de la simulation proposée par Kunoz dans la simulation qui précédait Assetto Corsa (ça fait un moment donc et cette étape n’a plus été vue nulle part depuis…).

Des choix structurants

Donc, si on voulait imaginer une simulation idéale, par quoi faudrait-il commencer, qu’est-ce qui serait indispensable d’intégrer ?

Ce n’est pas évident comme question, car les réponses dépendent des orientations de conception qu’on va choisir au départ et pour lesquelles on devra rester fidèle tout au long de la phase initiale. Par exemple, on peut définir un mode carrière qui ressemble plus ou moins à la réalité, c’est-à-dire qui soit basé sur la méritocratie. Cela va impliquer que l’apprenti pilote, pour passer d’un niveau à un autre, doit avoir complété le niveau en cours, mais pas seulement : il faut également qu’il le fasse à un certain niveau de performance parce que sinon, évidemment, il va être recalé et devra redoubler le niveau qu’il vient d’effectuer ce qui, avouons-le, n’est pas très motivant à la longue.

Ceci dit, le mode carrière peut aussi être reproduit autrement, par exemple en se basant sur les voitures disponibles et en liant l’évolution technique de ces voitures au niveau de performance du pilote qui les conduit. Pour parler concrètement, on peut imaginer qu’on commencerait avec une monoplace de base et qu’on pourrait faire évoluer les performances de cette monoplace en fonction des primes récoltées lors des courses effectuées dans la catégorie de départ. Mais en plus, on pourrait imaginer que ce système basé sur l’argent fonctionne dans les deux sens c’est-à-dire que les primes servent également à l’entretien de la voiture et également aux réparations sur la voiture. Car bien sûr, chaque sortie de route entraîne des dégâts et les dégâts importants entraînent des dépenses conséquentes. Inévitablement, dans ce contexte, il faudra trouver l’équilibre entre performance et fiabilité. Performance d’une part pour récolter de bonnes primes afin de continuer à faire progresser la voiture et donc, les résultats et fiabilité d’autre part pour éviter de devoir dépenser ses primes en réparation.

Tony Stewart’s Sprint Car Racing, le bon exemple

Et là il ne s’agit pas seulement de mon imagination débridée, il s’agit d’un exemple bien réel que j’ai pu éprouver dans le cadre d’un titre : Tony Stewart’s Sprint, Car Racing. En effet, ce titre est dédié au Sprint, Car (sur ovale de terre battue) et il propose exactement cette fonctionnalité et le fait bien. C’est donc possible : ça ajoute pas mal d’intérêt au mode carrière et, j’en témoigne, ça fonctionne.

Sortir des évolutions scriptées

Ensuite, on veut faire évoluer la voiture elle-même dans un cadre technique et évidemment on voudra éviter de se retrouver dans une situation scriptée ou finalement les évolutions possibles sont prévues et codifiées à l’avance et n’offrent pas beaucoup de marge. Aujourd’hui de nombreux titres proposent ce type d’évolution, comme Forza Motorsport par exemple, où il est possible d’améliorer sa voiture étape par étape en achetant des pièces détachées plus évoluées que dans la configuration de base. Mais c’est justement là le contexte scripté que je voudrais éviter parce que ça n’apporte pas grand-chose, on sait d’avance ce qu’on va avoir et il n’y a pas de surprise. Ce qui serait préférable, ce serait évidemment d’avoir de l’influence sur les possibilités techniques d’évolution qui s’offrent à nous. Par exemple, décider de consacrer une partie de son budget à des recherches dans tel ou tel domaine, par exemple l’aérodynamique, de façon à obtenir des progrès qu’on n’aurait pas obtenus automatiquement et c’est comme ça qu’on sortirait du contexte scripté.

Pour les technophiles seulement ?

Bien entendu ce genre de possibilités ne va intéresser que les utilisateurs qui aiment la technique et qui trouveront ce type de challenge excitant et valorisant. Pour les autres, pour ceux qui ont du mal à régler leur voiture et aimeraient bien laisser ça à un ingénieur de piste virtuel. Avec lui, il y aurait juste à décrire le comportement de la voiture en virage et il ferait les ajustements nécessaires. Eh bien, pour ceux-là, ma proposition est une aberration !

Ce que je propose est à l’opposé de cet ingénieur de piste virtuel. Il est d’ailleurs intéressant de noter que certains titres par le passé ont essayé de mettre à disposition un “ingénieur de piste virtuel” qui fait les ajustements ou qui les propose à votre place. Project CARS 2, par exemple, avait ce type de fonction intégré dans la partie réglage de la voiture. Clairement, ce n’était pas très convaincant et ça laissait encore pas mal à désirer. Quand on a le niveau de compétence supposé, il est clair qu’on préférera intervenir soi-même sur la voiture et sur les réglages (voir à ce propos ici et ici).

L’étape d’après : la voiture complète basée sur vos choix

L’idéal serait évidemment de pouvoir générer entièrement une voiture à partir des paramètres de votre choix et en vérité c’est déjà possible !

En effet, il existe déjà la possibilité de définir les choix techniques de votre voiture dans Automation et ensuite d’importer le résultat dans BeamNG Drive. Pour le moment, tout cela est encore un peu embryonnaire et BeamNG Drive n’est pas exactement mon modèle de simulation sur piste réaliste. Mais, au moins, cela indique que cette direction est possible, voire souhaitable.

Et, en faisait quelques recherches, j’ai découvert que c’est également possible avec Assetto Corsa !

Multiplayers ou IA ?

L’autre aspect important de cette simulation idéale, ce sont les adversaires et là, clairement, on a seulement deux choix possibles : soit le multiplayers, soit les IA.

Le multiplayers est très frustrant (à part sur iRacing) parce qu’on se rend bien compte que, la plupart du temps, sur le lobby, on va tomber sur des types qui font n’importe quoi, qui ne respectent rien (dernièrement, sur Forza, j’en ai même vu un qui s’amusait à rouler en sens inverse !) et qui n’auront aucun remords à gâcher votre course dès le premier freinage…

Reste les IA : affronter des adversaires robotisés pilotés par une intelligence artificielle. Et là, on a beaucoup de recul puisque ça fait des années voire des dizaines d’années que nos différents titres nous proposent cette option. Je considère que le niveau qu’on a atteint aujourd’hui avec Automobilista 2 est tout à fait satisfaisant.

Alors, comme on veut toujours mieux, il faudrait que les IA puissent progresser par elles-mêmes. Par exemple en s’appuyant sur un système de machine learning de façon à ce que leur niveau de compétitivité soit toujours adapté à votre niveau. Donc si vous progressez et que vous allez plus vite, les IA vont plus vite aussi. Et si vous êtes dans un jour sans, eh bien, en quelque sorte, elles vous attendent. Présenté ainsi, ça paraît grossier, mais bon, on comprend à peu près le schéma de penser derrière le recours à ces IA adaptatives.

Second volet à venir…

Il y a encore beaucoup d’autres aspects à traiter dans le cadre de cette simulation idéale et je vous propose qu’on se retrouve dans un second volet qu’il me reste à écrire.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Les grands personnages de l’informatique que j’ai rencontré dans les années 90…

Lors de ma carrière dans l’informatique, j’ai eu la chance et le privilège de rencontrer directement les principaux dirigeants des grandes sociétés ce qu’on pouvait appeler les grands personnages de l’informatique. Aujourd’hui je vais vous parler des plus connus et parmi eux il y a Bill Gates, Steve Ballmer, Scott Macnelly, Larry Ellison et Marc Andreessen.

Steve Jobs, est le seul qui manque à l’appel et j’en suis bien désolé.

C’est de ce que j’ai effectivement rencontré, voir interviewé, dont je vais vous parler aujourd’hui, principalement en bien mais quelquefois en moins bien.

Publié dans Anecdotes IT, documentaires IT, Informatique | Laisser un commentaire

Mon 34ème livre : Dr Miracle, saison 1972 (tome 3 de la série « Dr Miracle »).

Voià un nouveau livre de publié : Dr Miracle – saison 72, disponible comme d’habitude sur Amazon. Et, pour une fois, j’ai été plutôt lent à l’écrire puisque je l’ai commencé en juillet 2022 !

La couverture du dernier « Dr Miracle ».

Même si j’ai été lent à l’écrire, je suis particulièrement content de l’avoir achevé car cela donne corps à cette série qui commence à ressembler à quelque chose avec trois volumes. C’est donc une saga importante pour moi, comme toutes les séries que l’on débute, on espère toujours pouvoir la mener à bien. Et comme je m’éloigne du thème de la SF avec « Dr Miracle », je voudrais bien que ces livres trouvent leur audience ce qui, pour le moment, n’est pas vraiment le cas. J’ai essayé d’en faire parler dans les sites et magazines spécialisés (comme Sport-Auto et Auto Hebdo) mais sans succès.

Pourtant, j’aime beaucoup le concept qui est l’épine dorsale de ces livres : le Dr Miracle en question est une sorte de coach, un conseiller discret mais qui tire sur les bonnes ficelles afin de remettre telle ou telle écurie de course sur le chemin du succès. Ces « Dr Miracles » ont toujours existés (et existent toujours !) dans le monde des sports mécaniques mais il n’y en avait pas qu’un par époque bien sûr.

Très peu de fiction

Dans cette série, il y a très peu de fiction voire pas du tout : le seul élément imaginé, c’est le personnage de Dr Miracle lui-même. Tout le reste est basé, plus ou moins fidèlement, sur des faits précis et sur ce qu’on peut savoir sur la manière dont ils se sont déroulés.

Documentation importante nécessaire

Bien entendu, pour écrire ces livres, je me documente sérieusement et c’est d’ailleurs une partie du plaisir que je trouve à raconter ces histoires : c’est de les découvrir en premier !

La saison 1972

Dans ce troisième volume des aventures de Dr Miracle, nous verrons l’émergence de Jarno Saarinen, la victoire de Beltoise à Monaco, Matra aux 24 heures du Mans, l’Indy 500 avec Penske, l’engagement de Porsche dans le challenge Can-Am et, enfin, la nouvelle victoire de Japauto au bol d’or.

Publié dans Livres, Mes livres, Sport-auto | Laisser un commentaire

Je recommande d’écouter cette (longue) interview de Cyril ABITEBOUL

Oui, vous avez bien lu, je recommande d’écouter cette interview de l’ancien directeur de Renault F1. Alors, on connait surtout Cyril à travers ses apparitions sur Netflix dans la série « Drive to Survive« . Voici un court exemple :

Alors, comme vous le savez, je ne suis plus trop fan de la F1. J’ai beaucoup suivi ce championnat dans le passé que j’ai beaucoup apprécié. Mais désormais, c’est un passé de plus en plus lointain !
Ceci dit, on s’aperçoit que la F1 est un spectacle qui est très peu (voire pas du tout, surtout si on est habitué au MotoGP !) intéressant à suivre en direct, mais qui peut procurer des contenus intéressants sous la forme de documentaire comme on a pu s’en apercevoir avec le fameux
Drive to survive de Netflix.

Si je vous recommande ici de regarder cette interview que Cyril Abiteboul c’est justement parce qu’elle permet d’aller au-delà des apparences et de découvrir quelqu’un qui est au minimum intéressant à défaut d’être forcément sympathique. Et en plus, il a des choses à dire, il les dit, et c’est fascinant de découvrir après coup les petits secrets de cette grande organisation. Car je l’avoue, jusque-là je n’avais pas une opinion formidable de Cyril Abiteboul simplement parce que je me basais sur ce que j’avais vu de lui sur Netflix justement.

Or, en écoutant cette longue interview, j’ai découvert un personnage intéressant, précis, assez franc ou en tout cas en apparence et qui raconte son parcours à peu près tel qu’il s’est déroulé tout du moins de son point de vue. Et c’est justement parce que cette interview permet d’aller au-delà des apparences et d’éventuellement changer son opinion sur ce personnage que je vous la recommande, mais pas seulement. Elle apporte aussi des détails croustillants sur le fonctionnement de ce microcosme qu’est la F1. Si vous vous intéressez à ce sujet ou plus généralement au sport auto dans son ensemble, je pense qu’il s’agit d’un contenu qui mérite qu’on y passe du temps.

Voilà la présentation qui en est faite par Yann DELPLANQUE, l’animateur de la chaine YouTube « Dans la boite à gants » (que je découvre à cette occasion).

Aujourd’hui, j’ai le plaisir de recevoir Cyril ABITEBOUL. Personnage qui ne laisse personne indifférent, je dois dire qu’il m’a particulièrement marqué, sûrement parce que son parcours académique ne présageait pas vraiment ses 15 années en Formule 1 complètement folles. Entre un patron du nom de Flavio BRIATORE, puis un certain Carlos GHOSN à la tête de Renault, ses bras de fer avec Redbull et Helmut MARKO ou encore sa désillusion avec Daniel RICCIARDO, vous allez plonger dans les coulisses de la Formule 1. Que vous le connaissiez depuis Drive to Survive sur Netflix ou depuis ses débuts en Formule 1 chez Renault en 2001, vous allez découvrir le parcours extraordinaire d’un homme dont l’unique obsession est le résultat. Ce que vous allez entendre de la part de l’ex-Directeur Général de Renault F1 Team, vous ne le retrouverez nulle part ailleurs même si vous êtes un passionné averti du monde de la Formule 1. Je vais me mouiller un peu en disant cela, mais cet épisode est assurément le mieux construit depuis mes débuts il y a près de 3 ans, j’espère que vous l’apprécierez autant que l’on a pris de plaisir à le tourner avec Cyril.

Publié dans Sport-auto | Laisser un commentaire

Un article prospectif de Justin Lefebvre : les processeurs ARM et Windows…

Avant-propos d’Alain :
Mon fils Justin (15 ans) voulait publier cet article (qu’il a rédigé entièrement, je n’y ai apporté que des micro-corrections tout à fait mineures) mais, comme il n’a pas (encore) de blog, je lui ai proposé d’utiliser le mien…

Introduction

En 2024, la licence de Qualcomm qui leur garantit qu’ils sont les seuls à produire des processeurs pour Windows ARM va expirer, laissant donc la place à n’importe qui. Y-a-t’il ici un potentiel de remplacer l’archaïque architecture X86 ?
Est-ce trop tôt ?

Un petit rappel pour commencer en douceur…

Pour un petit rappel, la plupart des ordinateurs qui tournent sur Windows, opèrent avec un processeur basé sur l’architecture “X86”, qui est différente de l’architecture “ARM”. Dans le passé, on les différenciait par leur utilisation ; les X86 étaient faits pour les calculs complexes, qui demandent beaucoup des procédures et de temps, et donc employés dans les PC, tandis qu’ARM est plus simple, plus direct et plus minimaliste dans ses instructions, et beaucoup plus efficaces (que les processeurs X86) sur leur consommation électrique, donc utilisés dans les téléphones, les tablettes, les consoles portables, etc. 

Mais récemment, Apple a décidé de prouver que ARM a aussi beaucoup de potentiel pour le marché des PC de workstations : programmes et calculs complexes, modélisations 3D et même du gaming, le tout avec une consommation électrique (j’insiste) beaucoup plus efficace que n’importe quel X86 (voir image ci dessous).

Crédit : optimum tech

Sauf qu’Apple n’a pas eu de mal à adapter l’écosystème entier pour ARM puisqu’ils possèdent leur écosystème entièrement, aussi bien le hardware que le software. Du côté des pc, c’est bien plus complexe car il peut exister un ordinateur qui n’a pas deux pièces venant du même fabricant… Il faudrait donc qu’un fabricant de processeur comme AMD, Nvidia, Qualcomm (ou Intel s’il se réveille à temps) travaillent en commun avec Microsoft pour développer une version fiable et optimisée de Windows Arm, et qui soit compatible avec le hardware actuel.

Mais si Qualcomm avait la licence pendant si longtemps, pourquoi n’ont-ils pas décollé en popularité ? 

Eh bien, Microsoft avait peur que si Qualcomm réussissait à populariser les CPU sur ARM, il dominerait le marché comme Intel l’a fait avec les X86. Donc Microsoft a juste attendu que leur licence d’exclusivité expire, en laissant Windows ARM avec peu de support, peu de mises-a-jour, bref, bloquant toute possibilité à Qualcomm de faire un bon produit, donc de dominer. Maintenant que la licence est proche d’expirer, Microsoft va accueillir trois nouveaux constructeurs les bras grands ouverts et potentiellement améliorer Windows pour ARM.

Ma prévision

De là vient ma spéculation : Un, deux, trois ou les quatre géants vont travailler en collaboration avec Microsoft pour développer deux versions du prochain Windows (donc W12). L’une, celle de base, sera toujours sur X86 pour les clients souhaitant passer de W11 à W12 sans changer leur processeur. Puis une deuxième version, basée sur ARM, pour supporter la nouvelle lignée des processeurs ARM d’AMD, Nvidia et Intel. La transition sera lente, mais après sans doute une ou deux générations de processeurs, ainsi que toute la durée de vie de W12, la grande majorité des logiciels seront compatibles entre les deux architectures, et les performances seront supérieures, le tout avec une consommation inférieure. Cette transition n’affectera pas que les PC, mais logiquement, ensuite les consoles, les consoles portables, et les serveurs, où la transition a déjà commencé. C’est donc peut-être le début de la fin pour X86 ?

Je noterais aussi que Nvidia n’est pas complètement inexpérimenté dans la conception de processeurs basés sur ARM, car ils on fait la lignée de processeurs pour serveurs de database, les Grace Hopper. Même si en effet, ces processeurs n’étaient pas destinés pour la masse, il faudrait donc qu’ils apprennent à optimiser leurs processeurs pour l’expérience utilisateurs.

Nvidia a besoin de créer des CPU/APU par exemple s’ils ne veulent pas se faire écraser dans le domaine des ordis portables, où AMD et Intel vont offrir des packages sans eux.

Qualcomm n’est pas complètement en dehors de l’équation car ce sont les seuls qui ont de l’expérience à développer des CPU pour PC sur Windows, et ils viennent d’annoncer leur nouvelle lignée de processeurs sur ce marché (la comparaison ci dessous est entre les X86 les plus efficaces en consommation et le nouveau CPU de Qualcomm).

Crédit : Videocardz.com

Conclusion : tout le monde gagne !

En conclusion, si cette transition se fait, tout le monde va y gagner : Les consommateurs qui ne seront pas écrasés sous un monopole d’une marque, puisqu’il y aura potentiellement quatre constructeurs, donc du choix dans les produits, mais aussi une réduction dans la consommation d’électricité des ordinateurs les constructeurs car ils vont explorer un tout nouveau marché. Et enfin Microsoft car leur produit sera reconnu comme fiable (s’ils font leur travail).

sources : 

https://videocardz.com/newz/nvidia-and-amd-reportedly-working-on-arm-based-processors-for-pcs

https://www.youtube.com/watch?v=BZW_orkfhGQ&t=900s 

https://www.youtube.com/watch?v=5dhuxRF2c_w&t=780s 

https://www.youtube.com/watch?v=MxCPUfJsdMQ&t=931s

Le mot de la fin par Alain…
Depuis que Microsoft et Intel dominent le marché des PC, il y a eu souvent ce genre de prédictions mais force est de reconnaitre que ça ne s’est jamais réalisé. Cette fois-ce sera-t-elle différente ?
Difficile à dire. Justin fait le pari que oui, nous verrons…

Publié dans Anecdotes IT, Informatique | Un commentaire

Que peut-on encore dire d’intéressant sur Forza Motorsport (8) ?

Avant de commencer à parler de la dernière version de Forza Motosport (que beaucoup s’obstinent encore à désigner par « Forza Motosport 8 »), voyons déjà ce que je disais sur la version précédente en septembre 2019 (dans le « monde d’avant » donc…) :

==============

Alors, déjà, il y a deux versions de Forza pour deux publics bien différents : Motorsport (actuellement en version 7) et Horizon (actuellement en version 4). Horizon est typiquement un “jeu de voitures” sur routes ouvertes. J’ai essayé et j’ai tout de suite détesté (mon fils de onze ans aime bien lui… comme quoi il en faut pour tous les goûts) : rouler à fond dans de beaux paysages, je ne vois pas vraiment l’intérêt (mais c’est sans doute moi qui suis limité sur ce plan…). Je préfère nettement tourner sur circuits… direction Forza Motorsport donc. Pour beaucoup, c’est le “vrai” Forza.

Par rapport à nos titres habituels, Forza est quand même assez différent dans la mesure où il faut “acheter” ses voitures et qu’on reçoit des “récompenses” au fur et à mesure de la progression dans le jeu. Rien de tout cela dans nos simulations habituelles, n’est-ce pas ?

Au début, ce “decorum” m’irritait plutôt mais, finalement, on s’y fait assez vite. Bon, arrête de tourner autour du pot et parle-nous du comportement au volant, bon sang !

Eh bien, une fois qu’on a retiré toutes les aides, c’est plutôt pas mal en fait. Bien mieux que ce à quoi je m’attendais à dire vrai. Si on est tout à fait honnête, c’est au moins aussi bien que PCARS mais sans doute un peu en dessous de rFactor 2, à mon avis. Tourner à Spa au volant d’une Corvette CR7 est une expérience tout à fait convaincante, pas de problème, on s’y croit !

La CR7 sur Forza est très réussie, y compris au volant !

Bon, bien sûr, les effets visuels (brouillard, effet de soleil, etc.) sont vraiment bluffants mais le rendu au volant est quand même ce qui compte le plus à nous autres, les puristes de la simulation. Je dois dire que sur ce plan, Forza Motorsport 7 passe la barre haut la main (with flying colors comme dirait mes amis américains !). Pour ce qui est du comportement des IA, je n’ai pas encore assez roulé pour avoir une idée bien arrêtée. Je dirais que ce n’est pas mal mais largement améliorable. Il me semble que l’opposition cesse une fois qu’on a réussi à prendre la tête, comme si les adversaires étaient démoralisés tout d’un coup…

Pour ce qui est de la sensibilité aux réglages, j’ai peu testé et je ne peux me prononcer. En revanche, ce qui est sûr, c’est qu’il faut presque systématiquement augmenter la puissance de freinage (surtout pour les voitures “vintages”).

Car c’est une leçon que je tire de cette expérience (très positive, dois-je le répéter ?) : il faut vraiment beaucoup rouler pour bien se rendre compte des défauts et des qualités d’un titre… Un exemple : c’est en utilisant PCARS sur cette console que, finalement, j’ai réalisé un gros défaut de ce titre (un comportement que je n’avais pas réussi à vraiment saisir jusque-là)… J’ai constaté que le comportement des voitures changeait (inexplicablement) entre les essais libres et la course (avec des configurations identiques, évidemment !). Donc, vous vous appliquez à bien régler votre voitures (pneus durs, réservoir plein, tout ça) mais, au moment du départ, vous vous retrouvez avec un engin qui ne se comporte plus comme avant avec les conséquences immédiates qu’on imagine facilement… Cette différence est vraiment dommageable et retire une bonne partie de son attrait à PCARS 2.

L’autre intérêt de Forza, c’est le côté “casual gaming” : le titre vous permet de rouler sans avoir à vous poser de questions, vite fait, bien fait. Et ça, c’est tout à fait dans l’esprit console. Disons-le, c’est (selon moi) un gros plus de ces plateformes. Voilà, je ne sais pas si j’ai réussi à vous convaincre d’inclure Forza et la Xbox dans nos destinations possibles (si ce n’est préférées !) mais, de mon côté, je suis bien content d’avoir essayé finalement !

=============

Donc, aujourd’hui, j’ai décidé de vous donner mon avis sur ce nouveau titre car il est remarquable et significatif sur plus d’un plan. Tout d’abord, j’ai pu remarquer l’ampleur de la promotion avant que ce titre ne soit effectivement disponible : c’est là où on voit qu’il y a Microsoft derrière !

Si « Le Mans Ultimate » ou « Automobilista 2 » disposaient ne serait-ce que du dixième de cette force de frappe, il est clair que les choses changeraient radicalement pour eux. Une grosse promo avant le lancement (avec des promesses « en veux-tu en voilà ! ») et une couverture média tout aussi impressionnante au moment de la disponibilité réelle du jeu le 10 octobre dernier.

Et puis, quand le jeu a été vraiment disponible, là, le ton a changé un peu et de nombreux Youtubeurs ont crié au scandale !
Alors, simulation de l’année ou infâme daube ?
Ni l’un ni l’autre en fait… Voici mon avis mo-dé-ré dans un vidéo de 30+ minutes :

Ah oui, j’oubliais : je ne peux comparer Forza à la dernière version de Gran Turismo étant donné que je n’ai jamais essayé ce dernier.

Bilan final et récapitulatif… D’abord les points positifs :

  • Le FFB (une fois bien réglé) et le comportement des voitures bien prévisible et amusant (sauf exceptions parce que certaines voitures sont carrément ratées),
  • Les IA (une fois que le premier tour est passé…),
  • Le système de pénalités (le meilleur aujourd’hui disponible sur le marché),
  • Les graphismes (y compris les effets météo) et les sons ,
  • Le système de gestions des collisions (comme les pénalités : bien équilibré),

Et maintenant, les points négatifs :

  • Le drop off des pneus (un bon point mais là c’est trop fort !),
  • Le jeu libre (pas de qualifs, pas de maitrise de la grille et ainsi de suite),
  • Le choix des voitures discutable (trop de voitures de route) et les catégories (trop d’anomalies absurdes) et un choix de circuits un peu restreint,
  • Les filtres du multiplayers sont inefficaces (du coup, le lobby est chaotique),
  • La stabilité du jeu (ça plante, trop !),
  • Le mode carrière qui est bof-bof…
  • Les replays (marche pas, tout simplement !),
  • Les stats, vos stats (ben y en a pas…).

La vérité est que le nouveau Forza Motorsport n’est pas très différent du précédent en fait !
Bon, il y a des circuits en moins et  des détails de ce genre mais, grosso modo, c’est très comparable. Voilà, c’était le mot de la fin.

Et, comme promis, voici une bonne vidéo sur comment régler son volant avec Forza Motorsport :

Publié dans Ce blog, Sports mécaniques virtuels | 2 commentaires

Le seconde crise du logiciel sera plus grave que la première !

Plus le niveau de la technique est élevé, plus les avantages que peuvent apporter des progrès nouveaux diminuent par rapport aux inconvénients.

Simone Weil.

Nous sommes désormais entourés par de multiples dispositifs électroniques qui reposent tous et de plus en plus sur la programmation numérique. Et force est de constater deux choses : d’une part, ces dispositifs sont très attachants (pour ne pas dire addictifs !) ; dès qu’on s’en sert et qu’on en constate l’efficacité, on a ensuite du mal à s’en passer (notamment les smartphones). Mais, d’autre part, on se rend vite compte que ces appareils ont une fiabilité “aléatoire”, pour le dire gentiment… Or, la question de la fiabilité (ou de la non-fiabilité dans le cas présent) va se poser de manière de plus en plus appuyée, voire douloureuse.

L’informatique (et la technique en général) est jugée sur ce qui ne fonctionne pas !

Que ce soit juste ou pas, il faut bien l’admettre, l’informatique des organisations est d’abord et avant tout jugée sur ce qui ne fonctionne pas, point. Surtout depuis que cette informatique est exposée aux regards de tous dans ses relations avec ses clients via les interfaces Web et mobiles…

On peut toujours rêver de mettre en place des avantages concurrentiels formidables, la réalité est plus prosaïque et elle vous rattrape vite : vos utilisateurs veulent que leurs applications fonctionnent, les bons jours comme les mauvais jours (surtout les mauvais jours en fait !).

 Et le “bon” fonctionnement ne se limite pas à répondre présent lors d’une sollicitation technique (en clair, lorsqu’on demande la page d’accueil de l’intranet -par exemple-, celle-ci s’affiche dans un délai raisonnable), il faut aussi que la facilité d’utilisation soit au rendez-vous. Or, l’ergonomie de l’interface utilisateur est un point qui est toujours négligé. Combien de fois se retrouve-t-on sur la page d’une application où l’étape suivante est impossible à atteindre ou que les choix possibles sont trop confus pour être utilisables ?

Surtout aujourd’hui où l’on vous impose de plus en plus de faire toutes vos démarches en ligne (qu’elles soient administratives ou commerciales), le vécu utilisateur s’apparente trop souvent à un “parcours du combattant” qui est stressant et frustrant. Bref, vous l’aurez compris, l’informatique est critique (et il est critique qu’elle réponde correctement quand on en a besoin) et on a l’impression que les décideurs n’ont pas encore tout à fait intégré cette caractéristique majeure.

Les nouvelles voitures stoppées par les bugs !

Pourtant, il n’y a pas besoin d’être un grand visionnaire pour s’apercevoir que, dans notre monde ultra technique, les choses qui ne fonctionnent pas sont plus la règle que l’exception… Que ce soit dans votre voiture (où l’électronique est de plus en plus présente) ou que ce soit dans votre usage personnel de votre smartphone (applications qui déraillent, périphériques bluetooth non-reconnus, j’en passe et des pires…), on en vient à regretter l’époque où on se plaignait de son imprimante (ah ça, ça n’a pas changé…) !

Je n’exagère même pas : au fur et à mesure que le temps passe, nos voitures sont de plus en plus des “ordinateurs avec des roues” et les inévitables bugs les rendent souvent inutilisables. Un exemple : en mai 2020, le groupe Volkswagen a été obligé de retarder (encore) la sortie de sa nouvelle Golf 8 à cause d’un problème de logiciel. En cause, un problème lié au système d’appel d’urgence eCall qui a retardé l’arrivée effective sur le marché de la nouvelle Golf. Devenu obligatoire en Europe depuis le 31 mars 2018, le système d’appel d’urgence doit être fonctionnel et nécessitait donc une mise à jour pour les véhicules déjà produits. La Golf 8 n’est pas la seule à poser problème chez VW, la nouvelle ID.3 est elle aussi frappée par les bugs : des ingénieurs affirment que le développement a été « trop hâtif » et que les logiciels ont du mal à communiquer entre eux, entraînant de nombreux bugs électroniques. Des centaines de testeurs rapportent près de 300 erreurs par jour (en février 2020), obligeant Volkswagen à revoir sa copie.

Bien entendu, VW n’est pas le seul constructeur à souffrir de cette complexité logicielle, mais ces retards successifs ont fait grand bruit en Allemagne où l’on s’étonnait de voir la commercialisation de produits importants retardés pour des questions qui n’ont rien à voir avec ce que les constructeurs automobiles ont l’habitude de traiter.

Le mur de la complexité

On pourrait ainsi s’avancer à tracer une courbe en cloche avec en abscisse la complexité et en ordonnée le bien-être général : 

La partie croissante représente le progrès garant de l’avenir, c’est-à-dire la complexité maîtrisée donc déterministe, la partie décroissante représente la chute où règne le chaos.

Source http://arnienathalaud.unblog.fr/divagations/3-de-la-complexite/

Erreur mineure, grandes conséquences potentielles

Un exemple du chaos entraîné par cet excès de complexité : une erreur logicielle mineure qui aurait pu compromettre le décollage d’un avion. C’est ce qui aurait pu se produire en juillet 2020 lors d’un vol reliant le Royaume-Uni et l’Espagne. Avant chaque vol, les passagers s’enregistrent et doivent préciser leur sexe. En fonction de la réponse, le logiciel estime un poids moyen en fonction de si on est un homme, une femme ou un enfant. Des informations importantes pour le pilote puisqu’avec une connaissance du poids total des passagers, le commandant de bord peut ajuster la vitesse et déterminer quelle puissance il doit mettre lors du décollage.

Lors de ce vol commercial du 21 juillet 2020 reliant Birmingham à Palma, il y avait 187 passagers à bord ainsi que 6 membres d’équipage. Après plusieurs mois sans être utilisé à cause du Covid-19, le logiciel d’enregistrement de l’opérateur TUI Airways a obtenu une mise à jour qui présentait un gros problème. L’ensemble des passagères qui avaient choisi le titre de « Mademoiselle » ont été considérées comme des enfants. Et c’est ici que réside le problème : le logiciel a considéré que les « Miss » étaient des enfants, estimant donc un poids moyen qui n’était pas le bon. Effectivement, la classification attribue un poids de 34 kg pour un enfant et de 69 kg pour une femme. À bord du Boeing, il y avait normalement 29 enfants de prévus or, avec cette erreur, la feuille de charge considérait qu’il y en avait 65 ! 

Générant ainsi au passage une différence de 1244 kg par rapport à la charge réelle de l’avion.

Une capture de l’écran du cockpit servant à définir les paramètres de la poussée au décollage…

Même si le pilote trouvait étonnant le nombre anormalement élevé d’enfants à bord, il s’est quand même basé sur cette information erronée pour préparer son décollage. Du coup, la vitesse programmée pour décoller était un poil trop faible…

En soi, les passagers à bord n’ont pas risqué leur vie, mais l’organisme britannique en charge des accidents aériens a tout de même qualifié cet incident de « grave ». Par ailleurs, sur la même journée, trois vols au départ de Birmingham ont également été victimes de ce bug. Plus grave, la compagnie aérienne avait connaissance du problème qui a duré une dizaine de jours. Des équipes avaient corrigé les erreurs sauf pour celles concernant les passagers qui s’étaient enregistrés 24 heures avant le vol en raison du départ en week-end des équipes. Cette histoire est emblématique des petits problèmes qui s’accumulent (mise à jour erronée, équipe non disponible, etc.) et qui finissent par déboucher sur une situation qu’on n’aurait jamais imaginée au départ (une erreur mineure sur le logiciel de gestion de l’embarquement qui impacte le décollage de l’avion…).

La civilisation de la panne

Bref, nous sommes passés d’une “civilisation de la peine” (où l’effort physique était prédominant et où tout le travail s’effectuait laborieusement “à la main et à la sueur de son front”…) à une “civilisation de la panne” (où la machine qui est censée nous soulager est trop souvent défaillante). 

Partant du principe que l’automatisation croissante induit de plus en plus de complexité et démultiplie d’autant la probabilité de la panne, l’avenir serait donc pavé de… dysfonctionnements, comme on dit aujourd’hui par euphémisme. D’où cet axiome : La panne est consubstantielle à la technologie.

Yves Lasfargue recense des “points de fragilité” qui sont autant de causes de panne dans les systèmes d’informatisation et d’automatisation actuels. La multiplication et la complexité des composants dans les machines : la probabilité pour que la faucille tombe en panne est infiniment moindre que pour la moissonneuse-batteuse ! 

La fragilité apparaît donc comme la rançon de la complexité… et du confort, toute la question étant de savoir si le taux de pannes est supportable. L’intégration locale des composants explique qu’une panne de l’un des composants se répercute inéluctablement sur l’ensemble du système jusqu’à le paralyser.

Chacun connaît aujourd’hui les limites des systèmes automatisés : plus ils sont récents, plus ils sont intégrés, c’est-à-dire que les machines dépendent de plus en plus les unes des autres. Les systèmes « hautement intégrés », genre atelier robotisé ou réseau de communication, sont fragiles, délicats et présentent des risques de pannes non négligeables du fait des interrelations entre chaque composant.

Yves Lasfargue, directeur du Créfac dans “Robotisés, rebelles, rejetés”. Les éditions de l’Atelier, Paris, 1993.

La fiabilité des systèmes complexes

La fiabilité des systèmes complexes est devenue une denrée rare, car on ne laisse pas le temps à ces systèmes de mûrir. Un exemple parlant : les fusées. Les lanceurs utilisés pour mettre des satellites et des hommes en orbite autour de la Terre ne sont pas très nombreux et font l’objet de grandes attentions. Cela peut facilement se comprendre : les lancements coûtent très cher et les échecs sont le plus souvent des désastres complets (mort des astronautes et/ou perte totale de la charge utile).

Et pourtant, en dépit de ces enjeux, la fiabilité de ces lanceurs dépasse rarement les 50% (en clair, un lancement sur deux échoue). Il y a pourtant une exception : la fusée russe Soyouz affiche une fiabilité record. À fin 2017, plus de 1 880 lanceurs Soyouz ont été lancés, avec un taux de réussite proche de 98 %.

Comment expliquer cela ?

Eh bien, justement parce que les Russes ne sont pas repartis d’une feuille blanche pour faire évoluer leur fusée fétiche. Le lanceur Soyouz est mis en service en 1966. Il s’agit d’une évolution du lanceur Voskhod lui-même dérivé du missile balistique intercontinental R-7 Semiorka par adjonction d’un troisième étage. Quand on sait que le missile R-7 est lui un dérivé du fameux V2 conçu dans les années quarante par Von Braun, on comprend que la technologie embarquée dans les lanceurs russes bénéficie déjà d’un certain recul. On voit tout de suite la différence : dans ce domaine, la fiabilité ne s’obtient pas en quelques mois, mais bien en années, voire même en décennies.

La seconde crise du logiciel

Bien qu’il existe une littérature pertinente sur le sujet (j’ai déjà cité Jacques Ellul et je viens de le faire avec Yves Lasfargue), les risques liés à la croissance de la complexité sont trop souvent ignorés ou niés. En conséquence, je pense que nous allons droit vers une nouvelle “crise du logiciel”.

Cette seconde crise va être très différente de la première. Il y a soixante ans, la première crise du logiciel s’est déclarée quand on s’est rendu compte que le développement des programmes devenait le goulot d’étranglement de la mise en place des systèmes (les ordinateurs dans les organisations, principalement des mainframes). Aujourd’hui, cette nouvelle crise ne concerne pas la vitesse de développement, mais la fiabilité des systèmes qui repose sur une part croissante de logiciels.

Une première crise il y a 60 ans

Revenons rapidement sur les effets et les causes de ce qu’on a appelé “la crise du logiciel” dans les années 60 et 70. Au début des années soixante et avec le lancement de chaque nouvelle machine, le logiciel système fourni par IBM pour accompagner ses ordinateurs augmentait -en taille- d’un facteur dix tous les cinq ans !

En conséquence de cette “enflure”, on a estimé que la part du coût de développement des logiciels de base est passée de 10% en 1960 à 40% en 1965 sur le total du coût de mise en œuvre d’un nouveau système… C’est ainsi que s’est révélée la première « crise du logiciel » : le nombre d’installations de systèmes augmentait bien plus vite que le nombre de programmeurs formés, le logiciel devenait ainsi le goulot d’étranglement principal qui menaçait de mettre fin à la croissance de cette industrie. 

Une première crise qui dure encore

Cette crise ne s’est jamais vraiment tout à fait résorbée, mais le secteur a appris à vivre avec jusqu’à aujourd’hui. La liste d’attentes pour les nouvelles applications a toujours été très (trop) longue dans toutes les organisations reposant sur l’informatique et c’est aussi la raison du développement du “shadow IT” : les départements lassés de devoir attendre leurs applications se sont souvent mis à les développer par eux-mêmes avec des outils no-code.

Une nouvelle crise, tu es sûr ?

Aujourd’hui, tout le monde est en train de réaliser que le logiciel est un élément essentiel dans les systèmes modernes. Le premier à l’avoir affirmé est Marc Andreessen dans son célèbre article “le logiciel mange le monde” (source https://a16z.com/2011/08/20/why-software-is-eating-the-world/) en 2011 dont voici un extrait :

Six décennies après la révolution informatique, quatre décennies depuis l’invention du microprocesseur et deux décennies après l’avènement de l’Internet moderne, toutes les technologies nécessaires pour transformer les industries grâce au logiciel fonctionnent enfin et peuvent être largement diffusées à l’échelle mondiale.

Plus de deux milliards de personnes utilisent aujourd’hui l’Internet haut débit, contre peut-être 50 millions il y a dix ans, lorsque j’étais chez Netscape, la société que j’ai cofondée. Au cours des 10 prochaines années, je m’attends à ce qu’au moins cinq milliards de personnes dans le monde possèdent des smartphones, donnant à chaque individu doté d’un tel téléphone un accès instantané à toute la puissance d’Internet, à chaque instant de chaque jour.

En arrière-plan, les outils de programmation logicielle et les services Internet facilitent le lancement de nouvelles start-ups mondiales basées sur des logiciels dans de nombreux secteurs, sans avoir besoin d’investir dans une nouvelle infrastructure et de former de nouveaux employés. En 2000, lorsque mon partenaire Ben Horowitz était PDG de la première entreprise de cloud computing, Loudcloud, le coût d’un client exécutant une application Internet de base était d’environ 150 000 $ par mois. L’exécution de cette même application aujourd’hui dans le cloud d’Amazon coûte environ 1 500 $ par mois.

Et, effectivement, tous ou quasiment tous les systèmes développés désormais contiennent systématiquement une part de logiciel, une part de plus en plus importante.

Après la version optimiste contenue dans l’article d’Andreessen, il est temps de passer à la version réaliste : le logiciel est de nouveau en crise parce que sa généralisation démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Que ce soit VW ou Boeing (Boeing est en crise depuis les accidents affectant son 737 Max, encore une histoire de logiciels mal-conçus), leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger), mais, cette fois, la nature même de ces bugs est différente.

La toujours délicate intégration de systèmes

En effet, il ne s’agit plus simplement d’ordinateurs isolés ou fonctionnant en réseau… Cette fois, on touche du doigt la limite induite par la toujours délicate intégration de systèmes. Pour commencer, ces logiciels s’exécutent dans des contextes où les tests et les corrections sont difficiles à réaliser à cause de la nature même des systèmes embarqués (allez donc traquer un bug qui ne se manifeste que dans certaines conditions d’un avion en plein vol…). Ensuite, les systèmes en question ne sont pas des éléments isolés (comme le sont les ordinateurs, qu’ils soient en réseau ou non), mais bien des éléments profondément dépendants des autres systèmes qui les entourent et les alimentent en données et mesures. Enfin, les organisations qui développent ces logiciels ne sont pas spécialisées en informatique, mais font cela en plus de leur domaine d’expertise habituel. Tout cela explique, au moins en partie, pourquoi ces bugs sont si fréquents, si bloquants et si difficiles (et coûteux !) à corriger.

Une situation qui est significative d’un nouveau contexte

Je pense que cette situation est significative d’un nouveau contexte. Il ne s’agit pas d’un épiphénomène qui apparaît brusquement pour disparaître une fois qu’on en aura pris la mesure. Je crois au contraire que c’est juste le début de nos difficultés en la matière. Il est possible, voire probable, que ce type de logiciel ne soit jamais totalement fiabilisé (tout comme il reste toujours des bugs dans nos programmes habituels). Dans le secteur informatique, on s’est adaptés à cette réalité souvent pénible, quelquefois douloureuse, mais qu’on sait inamovible. Dans les secteurs industriels cités, en revanche, je doute qu’on s’attendait à une telle non-fiabilité et qu’on n’ait pas encore réalisé qu’elle était quasi-impossible à améliorer radicalement.

La situation ne va donc pas s’améliorer, mais va empirer et le logiciel va devenir le facteur bloquant de l’évolution vers le toujours plus d’intégration et de fonctions intelligentes tout comme il a représenté le goulot d’étranglement des débuts de l’informatique.

Les tests logiciels sont lents et complexes

Écrire un logiciel est -relativement- rapide, mais le mettre au point est terriblement plus long, car les tests logiciels sont lents et complexes. Lents, car il y a de nombreuses possibilités à vérifier et il faut tout revérifier à chaque modification (tests de non-régression). Complexes, car le contexte est important et pour un logiciel système (par exemple), il faut pouvoir tester chaque plate-forme dans toutes les configurations possibles… On imagine vite ce que cela représente !

Logiciels et turbines à gaz, même combat !

Prenons un exemple, celui d’un « accident industriel » célèbre : les turbines à gaz GT24/GT26 d’Alstom qui se sont avérées défectueuses au début des années 2000. Pourquoi des engins aussi coûteux et complexes ont-ils été mis sur le marché sans être testés de fond en comble (ce qui aurait évité de commercialiser des turbines de grande puissance comportant un défaut de conception) ?

Tout simplement parce qu’il aurait fallu laisser tourner ces turbines pendant des années (quatre à cinq ans minimum !) avant que le défaut ne se manifeste… La rentabilité du programme ne pouvait s’accommoder de tests aussi longs, la direction de l’époque a donc pris le risque de se contenter des tests habituels qui étaient tout à fait satisfaisants…

 Le schéma des turbines à gaz GT24/GT26 d’Alstom.

On est plus ou moins face au même dilemme avec les logiciels embarqués : il faudrait pouvoir les tester sur l’ensemble du cycle de vie et sur toutes les variations de plateformes possibles et il suffit de lire cette phrase pour penser immédiatement que ce n’est pas près d’arriver !

Les conséquences de la seconde crise du logiciel

La nouvelle crise du logiciel que nous sommes en train de vivre produit déjà des conséquences en cascade : la vague des ransomwares qu’on connaît depuis quelques années et qui va en s’amplifiant n’en est qu’un exemple.

Nous avons déjà évoqué les déboires du Boeing 737 Max mais imaginez cet exemple à l’échelle d’un système déployé globalement et concernant des millions d’unités… Du jour au lendemain, suite à une attaque ou à une mise à jour maladroite (ou à une attaque permise par une mise à jour mal-conçue…) deviendrait totalement inutilisable pour une période plus ou moins longue. Le futur sera sans doute fait de ces “tempêtes logicielles” qui vont rendre inopérants des pans entiers de notre infrastructure globale pendant des jours, des semaines voire des mois.

Qui n’est pas en faveur des smart grid ?

Une logique qui se comprend, mais qu’il faut éviter

Injecter du logiciel partout vient d’une logique facile à comprendre : pour augmenter la souplesse et la performance des systèmes distribués (distribution d’eau ou d’électricité par exemple), on va vers les fameuses smart grid qui promettent beaucoup, mais représentent aussi un réel danger latent. Le fait d’ajouter de la complexité à la complexité est rarement un bon calcul, comme on va s’en rendre compte douloureusement à l’avenir…

Publié dans Anecdotes IT, documentaires IT, Informatique, Le fait technique, Références IT | Laisser un commentaire

L’échelle Lefebvre : comment estimer le temps nécessaire aux innovations techniques

Introduction

Faire des prévisions en matière technique est difficile. Nous sommes toujours trop optimistes sur le court terme et trop pessimistes sur le long terme. Mais même si nous parvenions à corriger cela, nous avons toujours du mal à admettre que les paliers de l’évolution technique se mesurent en décennies plutôt qu’en années. Cet article explique pourquoi et vous propose une échelle de mesure afin de mieux évaluer les durées en termes de maturité (et donc de succès car il n’y a que les techniques matures qui rencontrent l’adhésion de leurs cibles).

Le quoi et le quand

En matière de prévisions techniques, il y a principalement deux dimensions : le “quoi” et le “quand”. Dire le “quoi” est relativement facile si on connait le domaine concerné mais se contenter de cela, ce n’est pas très utile… C’est comme de prévoir que la bourse va monter (ou baisser) sans être capable de préciser quand, sur quelle durée et, enfin, sur quelles valeurs. En revanche, dire le “quand” est beaucoup plus difficile mais c’est seulement en répondant sur les deux dimensions que les prévisions techniques peuvent être utiles.

Pendant ma carrière, j’ai toujours été plutôt bon pour prévoir les évolutions techniques dans mon domaine (l’informatique) mais pas aussi performant pour préciser à quelle vitesse elles allaient se produire et quand ces évolutions seraient enfin disponibles sur le marché (ce qui est très différent d’une démo dans un labo…). A ma grande surprise, ces évolutions se sont toujours avérées plus lentes que prévu et, en conséquence, leur maturité arrive bien plus tard qu’espéré.

J’ai fini par en faire un principe (le principe de maturité) et j’ai communiqué à ce sujet aussi souvent que possible. Quand je proclamais qu’il fallait au moins dix ans entre une découverte et sa première application pratique, je n’étais jamais cru. Et pourtant, j’étais encore trop optimiste, trop pressé.

Un aveuglement qui s’explique

Cet aveuglement envers ce “principe de maturité” vient principalement de la propagande technique (oui, il existe une “propagande technique”, nous y reviendrons !) qui affirme sur tous les tons que “tout s’accélère, tout va de plus en plus vite”…

Admettons mais, alors, comment se fait-il qu’il y ait un tel écart entre perception (tout s’accélère) et réalité (nous sommes dans une phase creuse, comme je l’affirme et explique dans mon livre “La crise de l’IT des années 2020« ) ?

En effet, en ce moment et depuis quelques années, quasiment tous les observateurs (qui ne sont pas forcément des spécialistes et encore moins des experts) vous affirment que nous vivons une période où le progrès technique connaît une accélération constante.

Tout va plus vite, n’est-ce pas ?

En effet, vous l’avez constaté : on vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils sont tellement persuadés que c’est la vérité qu’ils se la répètent les uns les autres et cela s’appelle un biais cognitif.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ? 

Mais ça ne fonctionne pas toujours de la sorte : y croire et s’en persuader ne produit pas pour autant une réalité concrète sur le terrain.

Ne pas confondre perception et réalité

Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le Soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du Soleil dans le ciel pour penser qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, mais de façon convaincante.

Et à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux (et c’était dangereux en plus !). Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement (rappelez-vous le principe du chauvinisme temporel : mon époque compte plus que toutes les autres !) alors que la technologie est, en réalité, en train de ralentir. Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira si vous vous mettez à affirmer que le progrès technique n’est pas aussi rapide qu’on le dit…

Tout nous pousse à croire que le progrès technique s’accélère, même la publicité tente d’en faire la démonstration !

La phase de maturation est systématiquement masquée

L’énorme différence entre perception et réalité s’explique par l’ignorance du public qui ne voit rien ou presque de la phase de maturation; les nouveautés semblent surgir du jour au lendemain alors qu’elles viennent de passer des années de mises au point lentes et chaotiques. L’iPhone d’Apple apparaît comme un coup de tonnerre dans un ciel bleu en 2007 alors que, en vérité, l’idée du Smartphone était dans l’air depuis 1995 avec General Magic… Et on peut multiplier les exemples ainsi longtemps : toutes les “révolutions en une nuit” ont généralement demandé trente ans de maturation !

Mais, pendant ces trente ans, personne n’en parlait.

Ce croquis, qui fait inévitablement penser aux smartphones actuels, remonte  en réalité à 1988…

S’il y a accélération, il y a aussi ralentissement…

Le grand paradoxe que pose le concept d’accélération continue, c’est que c’est sans limites !

Or, les accélérations techniques ont bien lieu, mais elles sont aussi suivies de ralentissements, forcément sinon le rythme deviendrait vite intenable. Bizarrement, c’est mieux admis en économie : les phases de croissance sont suivies de phases de récession et tout le monde trouve cela normal. Eh bien, il en est de même pour l’évolution technique : il y a des phases de croissance (à la suite d’une percée significative) qui se calment progressivement jusqu’à aboutir à un certain marasme technique (on tourne un peu en rond), c’est le moment d’une récession, comme une respiration avant un nouveau bond en avant. Mais si l’accélération continue est une illusion (c’est le cas), pourquoi la propagande s’acharne-t-elle à vouloir nous le faire croire ?

Tout le problème de la perception de l’accélération est résumé dans ce graphique : le grand public ne voit que la seconde phase et perçoit donc une accélération, car la longue et lente maturation est complètement ignorée.

L’état de l’art : ne pas croire la propagande !

L’état de l’art, dans tous les domaines qui reposent sur la technique de pointe, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on à ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que les techniques de pointe sont portées par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela, il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir. C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et qu’elle est forcément d’ordre technique. Ainsi, il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technique vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu des techniques. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie. 

Extrapoler à partir du passé

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) soient dans nos rues aussi rapidement qu’on nous le dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi certaine. C’est le principe des cygnes noirs : ce qui est prévu et qui semble évident n’arrivent pas souvent alors que ce qui est imprévisible et semble très improbable (pour ne pas dire impossible) arrive plutôt deux fois qu’une et l’Histoire est remplie de « cygnes noirs » qui confirment ce principe.

Les grands principes de l’évolution : la maturation

Le principe que nous allons détailler ici concerne le délai, le temps nécessaire pour qu’une innovation soit convertie en un produit, soit mise au point puis trouve enfin son marché et sa forme finale. La perception habituelle est que tout va de plus en plus vite, trop vite même parfois. Mais ne confondons pas perception avec réalité, car, contrairement à ce qu’on croit, il y a un délai incompressible entre l’apparition d’une technique, sa transformation en produit et son impact réel sur notre quotidien et nos habitudes.

Si l’évolution technique continuait à progresser à la vitesse que l’on a connue au XIXe siècle, il n’existerait plus aujourd’hui de délai entre une découverte et sa mise en application. Voici quelques exemples puisés dans les technologies de l’époque, aux États-Unis  : il a fallu attendre soixante-dix ans pour que le téléphone bénéficie à 50% de la population américaine et  trente-neuf ans pour que la télévision par câble atteigne ce taux, alors que seulement onze ans ont été nécessaires pour la radio… L’apogée est atteint avec le microprocesseur pour lequel, entre la première réalisation de Marcian Hoff et Federico Faggin en 1969 et sa diffusion massive via le micro-ordinateur en 1977, il s’écoule moins de dix ans. Personne n’a fait mieux depuis la fin des années soixante-dix.

Un délai incompressible

Une décennie, le voilà notre délai incompressible, le « time to market » cher aux industriels. Vérifiez, depuis le début des années soixante-dix, il faut au moins une dizaine d’années pour qu’une véritable innovation technique commence à trouver un marché (10 ans entre les premiers ordiphones WAP et l’iPhone) et à toucher un public. Et il faut au moins encore autant de temps pour qu’elle devienne incontournable (encore 10 ans entre le premier iPhone et la suprématie des plateformes comme Deliveroo ou Uber). Une génération est nécessaire pour changer les habitudes des utilisateurs et qu’ils adoptent des innovations dans leur quotidien (c’est comme pour l’aviation commerciale, elle existe depuis quelques dizaines d’années, mais n’est réellement à la disposition des masses que depuis peu).

Il est donc juste de dire que les évolutions significatives sont lentes et relativement peu fréquentes. En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard, normalisé (exemple : le concept de smartphone avec sa forme en brique qui est maintenant un standard bien installé et reconnu). Et l’histoire montre que ce processus prend souvent au moins vingt ans…

Vingt ans de délai pour les grands succès

Il a fallu vingt ans pour que les interfaces graphiques commencent à se populariser. Les premières recherches de Xerox datent des années 1970 et le succès de Windows 3.0 n’arrive que dans les années 1990. Il a fallu également vingt ans pour que le SGBDR se généralise entre les premiers travaux de recherches d’IBM et le succès d’un Oracle. Dix ans pour que les écrans à matrices actives concrétisent le rêve de l’écran plat à haute définition. Une dizaine d’années aussi pour le début de généralisation des réseaux locaux alors qu’on leur prédisait un avenir fulgurant. Et dix ans encore pour que France Télécom se décide à diffuser Numéris (avant l’ADSL…) à des tarifs acceptables !

Plus loin de nous, il a fallu près de trente ans (au XIXème siècle) pour que le moteur thermique (successeur de la machine à vapeur) passe d’une base très simple (alimenté au gaz, cycle deux temps, double effet, rendement faible) à sa forme finale et efficace (carburant liquide dérivé du pétrole, cycle à quatre temps, rendement acceptable).

Le délai incompressible (dix ans) combine plusieurs facteurs : 

  • Il faut du temps pour finaliser la mise au point (difficulté toujours minorée, mais la réalité est tenace et se rappelle au souvenir des optimistes à ce moment-là…).
  • Il faut du temps pour passer du discours technologique (c’est supérieur parce que…) au discours applicatif (cela va vous servir à…).
  • Il faut du temps pour que la cible visée se reconnaisse (ça va me servir à…)
  • Il faut du temps pour que les clients se familiarisent avant de généraliser (la plupart ont déjà essuyé des plâtres trop frais et n’ont plus envie de jouer les pilotes d’essai !).

La masse critique

Les évolutions les plus marquantes et les plus structurantes restent discrètes jusqu’à leurs percées. Un progrès n’apparaît pas spontanément (comme l’a résumé de façon géniale Ernest Hemingway à propos de “comment se retrouve-t-on ruiné après avoir été riche ?” : “progressivement et puis brutalement” –Gradually, then suddenly-), il est le fruit d’une lente maturation qui s’étale souvent sur une décennie (voire plus). Reprenons l’exemple d’Internet qui est très significatif sur ce plan…

Une croissance silencieuse

Pendant presque quinze ans, l’Internet a progressé discrètement, mais pas secrètement. Pourtant, personne n’en parlait. Il aura fallu l’émergence du Web en 1993-1994  pour que la croissance bondisse soudainement vers le ciel, à la surprise générale. La signification de ce phénomène est simple : les emballements de demain sont en préparation aujourd’hui, sous nos yeux. Il suffit donc de repérer les techniques prometteuses qui progressent régulièrement, sans accident de parcours, pour mettre le doigt sur les succès d’avenir.

Un emballement bénéfique

Il faut qu’il y ait un enthousiasme flagrant pour que l’emballement surgisse, c’est l’engouement des passionnés et adopteurs précoces qui le déclenche. Un exemple : l’Apple // a été l’amorce de la fusée « micro-informatique ». Pour que les deux Steve décollent (Steve Jobs n’a plus besoin d’être cité mais il ne faudrait pas oublier Steve Wozniak qui a été essentiel pour la partie technique de cette aventure…), il a fallu des efforts longs et soutenus de toute une génération de fervents adeptes, depuis les ingénieurs d’Intel, jusqu’aux concepteurs de CP/M, sans oublier les promoteurs du Basic, même si l’Apple// ne reposait sur aucun de ces trois composants !

Le phénomène d’emballement est comparable à la réaction en chaîne qui suit la réunion de la masse critique : il est à la limite du contrôlable. On l’a vu cette année avec l’emballement provoqué par ChatGPT qui aura mis au moins dix mois avant de se calmer. Ce phénomène est pourtant nécessaire afin d’assurer un retentissement suffisant à la nouvelle technique pour que sa diffusion ait véritablement des effets sur notre quotidien. Sans cela, la technique est confinée à une relative confidentialité qui interdit les impacts à grande échelle.

Attention à la fenêtre de lancement

Le non-respect du principe de la masse critique (attendre qu’une technique soit dans sa configuration favorable et qu’elle ait commencé à rassembler une bonne dynamique, le fameux momentum cher aux Américains) est fréquent dans l’informatique, car les grands acteurs sont trop avides de nouveautés spectaculaires pour se montrer patients. Pourtant, on peut tuer une technique prometteuse en la révélant trop tôt à l’appétit du public (comme on l’a fait avec les disques magnéto-optiques). Il existe donc une période de temps limitée pendant laquelle une technique doit faire ses preuves et fournir des exemples concrets de son utilité et de sa maturité. Cette période dure entre dix-huit et trente mois, pas au-delà. Cet obstacle est d’autant plus redoutable que l’attente est importante. Si l’accompagnement médiatique d’une nouvelle technique est exagéré, alors il s’ensuit un inévitable mouvement de balancier, tout aussi exagéré, pour sanctionner la légitime désillusion du public…

Car celui-ci n’est pas patient, l’hystérie de la découverte enthousiaste se transforme vite en déconvenue qui débouche sur un rejet immérité et prématuré (exemple : le flop des premiers casques de VR dans les années 90). La déception est souvent fatale (mais pas toujours), car elle influence le non-renouvellement des crédits, encore nécessaires pour parfaire la mise au point de la technique en devenir. C’est ce type « d’accident de parcours » qui est arrivé à l’intelligence artificielle à la fin des années quatre-vingt et qui faillit lui être fatal.

Le poids des infrastructures

S’il faut plus ou moins une décennie pour franchir toutes ces étapes et commencer la diffusion d’une invention, il en faut environ le triple pour atteindre le seuil de généralisation. Le temps nécessaire à une technique pour atteindre ce stade dépend aussi de ce qu’il réclame; les inventions nécessitant une infrastructure lourde sont forcément plus lentes à impacter leur marché.

Comme je sais que je ne suis jamais cru du premier coup quand j’évoque les délais des évolutions techniques, j’ai rassemblé ici quelques exemples qui montrent que de nombreuses découvertes que nous estimions proches de nous remontent en fait à bien plus loin dans le passé… Suivez le guide !

Quelques exemples incontestables

Les premiers composants électroniques remontent au début du XXe siècle : 1904 pour le tube diode (Fleming) et 1906 pour le tube triode (Lee De Forest). La découverte de la supraconductivité remonte à 1911 (découverte par Heike Kamerlingh Onnes).

L’électrocardiogramme est inventé en 1901 par Wilhem Einthoven. Et c’est Hans Berger qui invente l’électroencéphalogramme en 1924.

Le premier robot d’assemblage (Unimate de la société américaine Universal Automation) est installé dès 1962 sur une chaîne de production de General Motors. Plus de 60 ans après les premiers robots dans l’usine GM, Elon Musk a voulu nous faire croire que ses chaînes de montage robotisées (dans les usines Tesla) sont révolutionnaires… 

L’échographie est mise au point pour la première fois en 1955 par Inge Edler. Le stimulateur cardiaque (le fameux pacemaker) est inventé en 1958 par le docteur Ake Senning.

Richard Feynman a le concept de la nanotechnologie dès décembre 1959 (bien avant de pouvoir commencer à l’expérimenter).

Le premier appareil photo numérique à CCD (charge coupled device) est développé dans les laboratoires Bell dès 1971 (eh oui !). En 1975, Steve Sasson développe un autre appareil à base de CCD avec une résolution de 10000 pixels (il ne peut prendre que des photos en noir & blanc et demande 23 secondes pour capturer une image ensuite enregistrée sur une K7… l’appareil pèse 3,6 kg). Ensuite, RCA propose un appareil CCD capable de prendre des photos couleur en 1983.

C’est à la fin des années 1940 qu’une petite manufacture de produits photographiques de Rochester (New York) du nom de Haloid décide d’exploiter l’invention faite dix ans plus tôt par Chester Carlson, la xérographie (terme qui vient du grec xeros -sec- et graphein -écriture-). La conception du premier photocopieur, le XeroX Model A, et le succès des modèles suivants amènent la compagnie à changer son nom en 1958 pour Haloid Xerox, puis le 18 avril 1961, devenant simplement Xerox. 

XeroX Model A, 1949.

La première imprimante informatique à laser vient de Xerox aussi en 1971 (la 9700, un monstre capable de cracher 120 pages à la minute).

Canon en développe une version plus réduite en 1975 et HP commercialise sa première Laserjet en 1984 juste avant la Laserwriter d’Apple en 1985.

L’invention du téléphone mobile est attribuée au docteur Martin Cooper (Motorola) en 1973. Mais Motorola met encore dix ans avant d’en commercialiser un premier modèle : le Dynatac 8000.

L’empilement vertueux, mécanisme magique

Encore une fois, tous ces exemples sont là pour vous rappeler que l’innovation suit un chemin long et chaotique qui finit par déboucher, grâce à l’empilement vertueux. L’accumulation de petits pas finit par permettre d’atteindre un “effet de seuil” où le progrès franchit un palier et se révèle dans toute sa puissance.

Même si cette position (réfuter l’accélération continue du progrès technique) paraît contre-intuitive, je constate que je ne suis pas le seul à le dire et à l’écrire… Voici une petite sélection d’articles (plus un livre) qui vont dans ce sens !

 

Un préambule long mais nécessaire

Revenons donc, après ce long préambule, à cette fameuse “échelle Lefebvre” évoquée dans le titre de cet article ?

Cette “échelle” comporte quatre échelons : 

  • Dix ans, c’est le délais incompressible.
  • Vingt ans, c’est pour arriver au grand-public.
  • Trente ans, c’est pour atteindre la maturité finale.
  • Cinquante ans, c’est pour savoir que ça va en prendre encore cinquante !

En peu de mots, on peut résumer cette échelle ainsi : les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. 10, +10 (20), +10 (30).

Les exemples qui permettent de confirmer cette échelle sont nombreux et j’en ai déjà listé quelques-uns dans ce document. Ajoutons donc des exemples supplémentaires pour illustrer le dernier échelon : 50 ans, la frontière de l’illusion…

La frontière de l’illusion

Le premier exemple est bien connu (projet ITER), il s’agit de la fusion nucléaire contrôlée. Aujourd’hui, on le sait : la fusion nucléaire est un espoir ténu et très lointain (on parle désormais de 2070… comme pour confirmer la blague récurrente à propos de la fusion : “ça fait cinquante ans qu’on nous dit que ça sera prêt dans cinquante ans” !

L’autre exemple, c’est l’IA (la fameuse, trop fameuse “intelligence artificielle” !). Le concept initial remonte aux années cinquante et, aujourd’hui, après de nombreuses étapes plus ou moins spectaculaires, on est toujours loin du but défini par les pionniers : atteindre le niveau dit “d’intelligence générale”. Déjà, il faudrait s’entendre sur ce que ce “but” recouvre réellement mais on sait déjà que ça va prendre encore des décennies (j’insiste sur le pluriel ici…) avant de s’en approcher. Certes, alors que quasiment tout le monde a été hypnotisé par l’irruption de ChatGPT en 2023, il paraît téméraire d’affirmer qu’on est encore loin du but… Et pourtant, les vrais spécialistes (j’insiste sur “vrais” ici) nous le confirment : le chemin sera encore long, tortueux et semé de déceptions.

Conclusion

On constate qu’on n’est pas armés mentalement pour accepter que les évolutions techniques soient aussi longues, prennent autant de temps et demandent autant d’étapes. On a toujours tendance à croire que ça fait irruption brusquement parce que, justement, on n’a pas vu toute la phase de préparation. Il est difficile pour le grand public d’admettre que les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. Sur ce plan-là, on va continuer à croire aux “révolutions en une nuit” alors qu’elles ont toutes demandé vingt ans de préparation…

On aura beau dire et expliquer, les gens sont toujours persuadés que tout va de plus en plus vite. Tout simplement parce que dans leur vie à eux, ils ont de plus en plus de mal à gérer un monde qui est complexe et qui se complexifie de façon croissante. Donc cette notion de saturation est assimilée à de l’accélération alors que ça n’a rien à voir parce qu’on l’a vu, tout est cyclique. Et ses cycles s’enchaînent avec, successivement, des phases d’accélération et des phases de ralentissement. Le problème c’est que même pendant les phases de ralentissement, on a tout de même l’impression d’être toujours dans un monde qui va de plus en plus vite donc cet écart entre la perception et la réalité est voué à persister.

Publié dans conférences, Informatique, Références IT | Laisser un commentaire

Sam Altman est le prochain SBF… en pire !

Les deux Sam… le pire n’est pas celui qu’on croit !

En ce moment, c’est le procès de SBF (Sam Bankman-Fried, le fondateur de FTX, une plateforme d’échanges crypto qui a fait une faillite retentissante en novembre 2022). Petit à petit, on découvre l’ampleur de la fraude et de la culpabilité de l’ex petit génie. Il n’y a guère de doute que ce dernier va faire un long séjour en prison et qu’on l’oubliera. Tant mieux dans un sens car nous n’avons pas besoin de ce genre de personnage qui s’est avéré être un menteur particulièrement vicieux.

Mais si vous avez aimé SBF, vous allez adorer l’autre Sam : Sam Altman. Un “wunderkid” en remplace un autre, assez vite. Sam Altam sait brosser ses cheveux, lui.

L’autre Sam, baigné dans la “gloire de l’IA”

Nous allons maintenant parler de l’autre Sam d’Amérique, le visage de la révolution de l’IA qui a pris d’assaut le monde (vous savez ce que j’en pense ou alors, il suffit d’aller revoir ceci) : Sam Altman d’OpenAI. Sam Altman (SamA dans le reste du texte) se décrit comme un entrepreneur, un investisseur et un programmeur. Il a été président de Y Combinator et PDG de Reddit pendant une courte période. Il a cofondé Loopt en 2005 et est l’actuel PDG d’OpenAI, la société mère du chatbot ChatGPT.

Depuis le lancement de ChatGPT, SamA attend avec impatience d’étendre de manière agressive son empire technologique, la cryptographie étant le dernier espace dans lequel le milliardaire de 38 ans se lance (oh, quelle surprise !). Son objectif est de « fournir une fraction d’un jeton numérique à chaque personne dans le monde ». Worldcoin (c’est le nom du “alt coin” lancé par SamA), une entreprise à la pointe de la technologie, veut utiliser la technologie de balayage de l’iris pour authentifier les individus et les récompenser avec des jetons.

Les parallèles entre SamA et SBF sont nombreux : les deux aiment la crypto et ils aiment aussi susciter la régulation du gouvernement mais pour les activités des autres, pas pour eux bien sûr !

SBF réclamait de la régulation sur les plateformes d’échanges espérant ainsi affaiblir Binance… On connaît la suite.

SamA estime que la technologie IA nécessite l’intervention des gouvernements. « Je pense que si cette technologie tourne mal, elle peut faire des dégâts… nous voulons le dire clairement », a déclaré Altman, ajoutant : « Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise ». Ben voyons !

SamA, un SBF en pire

Avec SamA, nous avons l’exemple type d’un individu dangereux et sans scrupule. Pour s’en convaincre, il suffit de d’interpréter les signaux que ce type envoie…

Déjà, rien que ce premier exemple est édifiant : SamA lance une société sur l’IA basée sur l’Open Source et, à la première occasion, il se vend à Microsoft !!

Bravo, c’est du jamais vu !

Comme si cela ne suffisait pas à montrer quelle est la nature de cet individu, voilà qu’il se lance dans la crypto (le repaire des escrocs) !

Si, avec ça, vous avez besoin de plus de signaux, c’est que vous ne voulez pas voir l’inéluctable : SamA fera encore plus de dégâts que SBF. Vous l’avez là pour la première fois ici, souvenez-vous en…

Publié dans Anecdotes IT, La terrible vérité | 3 commentaires

Les deux bords de la société

Notre société humaine est désormais divisée en deux bords, deux extrêmes qui s’éloignent l’une de l’autre, progressivement mais inexorablement.

Vous allez me dire, ce n’est pas nouveau !

En effet, depuis qu’on étudie le “champ sociétal”, on aime à le séparer en entités distinctes : les riches et les pauvres, les progressistes et les conservateurs, les écolos et les pollueurs et ainsi de suite, vous m’avez compris.

Mais on n’en est plus là aujourd’hui. Un des deux bords, qui compte encore la majorité des gens (et largement), représente la conformité (ceux de ce bord diraient même la “normalité”). Dans ce groupe, ces gens croient à la parole officielle (la doxa), ils ne la remettent pas en doute. Ils râlent éventuellement mais ils se conforment, y compris aux injonctions les plus intrusives comme les injections de produits douteux sous couvert d’une “science” inféodée à Big Pharma.

Le second bord est celui de la liberté. Ce groupe est encore minoritaire mais grandit chaque jour un peu plus. Les membres de ce groupe rejettent la doxa et ses zélateurs (les principaux médias). Ce n’est pas une position facile car la puissance publique utilise tous les moyens à sa disposition (pressions statutaires, ostracisation, restrictions d’actions et de mouvement) pour “faire rentrer dans le rang” ces récalcitrants qui gâchent le bel alignement.

Ce que nous avons vu de choquant sans y croire depuis cinq ans

Eh oui, cela fait au moins cinq ans que nous avons basculé dans une France difficile à reconnaître !

Nous avons vu la violence publique s’abattre sur les gilets jaunes, une répression d’une brutalité que l’on ne pouvait imaginer s’est déchainée sur des protestataires qui ne représentaient un danger pour personne. Moi comme d’autres, nous n’en sommes pas encore revenus… Cette violence, cette répression, cette brutalité envers un groupe aussi inoffensif, c’était plus que choquant, c’était incroyable !

Puis nous avons eu la fameuse “Crise sanitaire” et son cortège de mesures absurdes : privation des libertés, contraintes risibles et inefficaces (tous s’en souviennent avec un peu d’embarras : comment as-t-on pu supporter un gouvernement aussi inepte ?), sans oublier la coercition insidieuse sur ceux (rares) qui relevaient courageusement que, vraiment, quelque chose n’allait pas. Et bien sûr, les fameux vaccins miracles sont arrivés : 100% efficaces et 100% sûrs… Combien de fois avons-nous entendu cela ?

Mais, bien sûr, ces “vaccins expérimentaux” obligatoires n’ont pas été efficaces et ils ont produit de nombreux effets secondaires incontestables (sans parler des morts subites, le tout dans un silence médiatique assourdissant).

Tout cela s’est accompagné d’une propagande des médias permanente et abrutissante. Et comme cela ne suffisait pas, nous avons découvert que les principaux réseaux sociaux pratiquaient une censure systématique, même sur les contenus factuels basés sur les chiffres officiels !

Si on m’avait dit que Facebook, Youtube et Linkedin (pour ne citer qu’eux) deviendraient des collaborateurs zélés de la puissance publique, je ne l’aurais pas cru (tout comme je jugeais impossible -à tort !- la violence sur les gilets jaunes…). Avec tout cet appareil oppressant, se faire traiter de complotiste est devenu un badge d’honneur : depuis cinq ans, pratiquement tout ce que les soit-disant complotistes ont annoncé et dénoncé s’est avéré exact… Sans que les médias le reconnaissent, bien sûr. Ce silence complice démontre s’il en était besoin que ces “journalistes” sont à fond du côté du système, poussent la propagande officielle même quand cette dernière est absurde (comme on a pu le voir à maintes reprises lors des reportages sur la guerre en Ukraine) et sont donc sans doute possible des ennemis du peuple.

Une France méconnaissable

Oui, je n’exagère même pas en écrivant que nous avons basculé dans une France que nous ne reconnaissons pas. Passe encore de la corruption, du gaspillage de l’argent public, des emplois fictifs et autres abus, nous faisons désormais face à une puissance publique hostile, agressive et sans contrôle. En plus, tout cela se produit en même temps que la dégradation manifeste de nos infrastructures publiques : après les déserts médicaux (une pénible réalité dès qu’on s’éloigne des grands centres urbains), nous devons désormais faire face aux déserts administratifs où il devient de plus en plus difficile de faire renouveler une simple pièce d’identité !

Cela sans même évoquer la fiscalité toujours plus écrasante ou l’Education Nationale qui se perd dans les débats sur le genre alors que les résultats des tests des élèves n’a jamais été si bas. Comme si tout était fait pour exacerber la frustration du peuple et exciter l’envie de révolte des classes laborieuses.

Plus jamais cela, la grande illusion

Pendant des décennies, on nous a rabâché “plus jamais cela” en pointant les années d’occupation et de collaboration de triste mémoire. Mais voilà qu’il a suffit d’une crise sanitaire pour que toutes ces résolutions solennelles soient aussitôt oubliées et foulées aux pieds. Les médias ont organisé une opposition exacerbée entre les vaccinés et les non-vaccinés. Ces derniers étaient désignés à la vindicte du bon peuple et certains (dont une majorité d’artistes connus, on ne va pas les oublier…) s’en sont donné à cœur-joie d’une manière écoeurante, rappelant ainsi les sombres heures de la collaboration. On croyait donc (à tort) qu’on ne reverrait pas de telles bassesses mais, comme je l’ai souligné plus haut, la France d’aujourd’hui ne ressemble plus à la France à laquelle nous étions tous habitués.

Une certaine résistance est en train de se former

Justement, certains ont compris qu’il fallait arrêter de subir et d’obéir aveuglement. Que cet État n’était plus là que pour nous abaisser et nous contraindre d’accepter l’inacceptable. Bien entendu, qualifier ce mouvement de “résistance” fait inévitablement penser aux FFI (Forces Françaises de l’intérieur, la résistance unifiée à partir du 1er juin 1944). Notre modeste mouvement n’est évidemment pas comparable avec la résistance des patriotes lors de l’occupation de notre pays. Nous n’en sommes pas à prendre les armes mais l’idée de la liberté qui nous guide est la même.

Et pourtant, notre génération de”boomers” a été élevée avec le respect des institutions comme horizon indépassable. Quand j’étais jeune, les soit-disant révolutionnaires (genre les leaders de mai 68 dont le sociologue Michel Clouscard a démontré qu’ils n’étaient que des sociaux-traîtres au final) me semblaient tout à fait à côté de la plaque. Jamais je n’aurais imaginé qu’un gouvernement français ferait preuve de cette hostilité poisseuse envers son propre peuple.

Jamais je n’aurais pu imaginer que j’écrirais un jour un texte comme celui-là. Ce n’est pourtant pas moi qui ai changé mais les masques autour de nous qui sont tombés.

Des trahisons récentes et significatives

S’il fallait encore une preuve que le système global nous est hostil et agressif, il suffit de constater les trahisons qui se multiplient, même de la part des institutions que nous pouvions imaginer impartials : l’appel récent du pape en faveur de l’accueil des réfugiés ou le prix Nobel de médecine attribué aux découvreurs des fameux “vaccins” ARN devraient achever de nous convaincre qu’il n’y a rien à attendre des maillons du système qui nous encercle et nous enferme.

Il n’y a rien non plus à espérer de la collusion des médias mainstream et des réseaux sociaux. Ces derniers ont prouvé maintes fois qu’ils étaient résolument du côté du manche. 

La guerre comme ultime recours

L’Histoire l’a montré souvent (trop souvent), les systèmes politiques en déliquescence ont recours à la guerre pour prolonger leur domination. Et justement, les guerres se multiplient ces derniers temps comme vous avez pu le remarquer. Pour les hiérarques du système, la guerre ne présente que des avantages : tout d’abord, ce ne sont pas eux qui les mènent (!), ensuite ça permet de mobiliser les masses pour une “juste cause”, ça permet d’écouler le matériel militaire et ainsi de pouvoir en vendre plus à ceux qui ont les moyens de payer et enfin ça justifie une propagande débridée qui se résume toujours “eux contre nous” et “nous sommes du côté du bien” ce qui est évidemment mensonger dans tous les cas.

En revanche, pour les peuples, la guerre est une perte nette sur tous les plans. 

Inventons notre résistance

Notre résistance, nous devons l’inventer nous-mêmes avec nos propres moyens. Mais nous avons une certitude : le temps joue pour nous. En effet, aucun système oppressif ne dure toujours. Tout comme les monopoles finissent toujours par être balayés, les dictatures soit-disant douces qui nous oppriment ne résisteront pas à l’usure du temps et à l’opposition des peuples.

Le combat sera long, il sera amer mais il est inévitable que nous soyons vainqueurs car ceux qui nous oppriment n’ont pas de base solide. Sinon, pourquoi seraient-ils obligés de faire appel aux mensonges systématiques de la propagande pour justifier toutes leurs actions ?

Il ne s’agit donc pas de proclamer que nous allons triompher parce que nous sommes les plus forts mais plutôt parce que nous sommes du côté du bien. Car se battre pour sa liberté, c’est toujours être du côté du bien.

Publié dans La terrible vérité | Laisser un commentaire

Deep Fake grâce à l’IA, des cas pratiques et utiles à l’horizon ?

Cette fois, nous allons parler d’IA et de manière positive !

Si vous suivez ce blog, vous savez que je fais partie des « septiques » vis-à-vis de la vague IA générative que nous subissons depuis des mois. J’essaye même de temps en temps de ramener les gens à la raison (voir « Quelques règles pour survivre à la hype…« ), sans grand succès d’ailleurs !

Dans une série récente réalisée avec Redsen, j’essaye de faire voler en éclats tous les poncifs à propos de cette nouvelle vague IA et de ses promesses (et menaces !) extraordinaires, à voir ici  (c’est une playlist acec 6 vidéos) :

Cependant, mon propos du jour n’est pas de revenir encore sur l’hallucination collective qu’on vient de subir avec ChatGPT et consorts… Non, cette fois, je vous propose plutôt de constater qu’on est sans doute pas loin des vrais cas pratiques.

Traduction vidéo synchronisée

L’exemple du jour c’est Hey Gen qui le fournit. Il s’agit d’une startup dédiée aux nouveaux usages grâce au recours massif à différents systèmes d’IA. J’ai donc testé leur offre de traduction synchronisée dont le princip est fort simple ; vous uploader une vidéo qui a été réalisée dans une langue (le français dans mon cas) et vous sélectionner la langue désirée (l’espagnol dans mon cas) et vous attendez le résultat. Hey Gen promet que la vidéo va être une copie conforme de votre « discours » mais dans la langue cible avec même la synchronisation des lèvres… Voyons donc ce que cela donne :

Ne vous y trompez pas : je ne suis pas à mon tour victime de l’effet démo mais quand on peut repérer des avancées intéressantes, il faut aussi savoir le reconnaitre.

Donc, sans doute ce type de service (Hey Gen) est-il annonciateur de cas pratiques utilisables comme celui-ci. Cela ne veut pas dire que les traducteurs vont inexorablement se retrouver au chômage, loin de là !
Mais ces nouveaux outils vont permettre de créer des nouveaux usages comme on a pu le vivre avec les différentes vagues logicielles de ces dernières décennies.

Publié dans à travers mes découvertes, Anecdotes IT, Informatique | 4 commentaires

Des vidéos éclairantes sur l’évolution de la société depuis mai 68

Mai 68 est un marqueur de notre histoire récente. Mais au-delà des poncifs habituels sur cette date et cet événement, il est bon d’écouter certains penseurs, surtout ceux qui sont peu connus ou même, encore mieux, en disgrace.

Je vous en propose deux aujourd’hui : Alain Soral (sur lequel j’ai déjà parlé ici, ça remonte à 2011 quand même !) et Michel Clouscard que je ne connaissais pas du tout et c’est l’interview de Soral qui m’a permis de le découvrir…

Alors, certains vont dire « Soral ? Mais c’est un facho ! »… Et ça suffit à l’exclure ?
Je ne crois pas : Soral a des choses à dire et il le dit plutôt bien, ça nous change des ectoplasmes que tentent de nous imposer les médias, point.

De plus, écouter Soral permet de faire des découvertes significatives comme Clouscard que je considère être comme le « Jacques Ellul de la sociologie » !
Bon, il faut nuancer : Ellul est le théoricien de l’influence de la technique sur la société (un thème qui m’est cher) alors que Clouscard est le théoricien de « capitalisme de la séduction » (un domaine vaste et fascinant). Je vous invite à regarder et écouter le documentaire ci-dessous qui lui a été consacré : on apprend beaucoup et on comprend aussi pas mal grâce à ce contenu.

On s’aperçoit grâce à ces deux vidéos que les Tartuffes qui occupent désormais les plateaux-télé (que, je rappelle, nul ne vous oblige à regarder !!) sont des renégats et des sociaux-traitres.

Publié dans à travers mes découvertes, La terrible vérité | Laisser un commentaire

Championnat complet de la saison F1 de 1978 sur AMS2, récit et bilan

L’idée est de pouvoir boucler un championnat complet (bon, 14 manches, face aux standards d’aujourd’hui, ça parait peu !) avec un bon niveau de compétitivité des IA (100% quand même) et la possibilité d’abimer la voiture (et donc de ne pas terminer).

Un petit aperçu de ces courses avec une vidéo récente à voir (ou à revoir) ici…

J’ai quand même mis deux limites au réalisme. Tout d’abord, les manches durent 40 minutes, pas plus. Je pense que c’est la bonne durée : ni trop court, ni trop long (mais ça n’engage que moi). Ensuite, pas de pluie : toutes les manches se déroulent par temps sec. Automobilista 2 (AMS2)  gère le temps variable et la pluie est plutôt réaliste, même un peu trop : si la pluie est forte, sur certains circuits, on ne voit carrément rien !

Après y avoir bien réfléchi (et fait quelques tests), je me suis dégonflé : pas de pluie pour ce coup-ci. J’ai utilisé les skins permettant de recréer visuellement le plateau de la saison 1978 et ces skins sont vraiment formidables : jusqu’aux casques de pilotes fidèlement reproduits !

Andretti en tête… logique !

https://www.racedepartment.com/downloads/ams2-f1-1978-season.47537/ réalisée par AFry.

Et ce n’est pas tout : avec cette skin, vient un fichier XML qui redéfinit les forces en présence afin d’être sûr que les meilleurs vont être devant (Andretti, Peterson, les Ferrari) et que les attardés seront bien ceux qui étaient peu compétitifs lors de cette fameuse saison (genre Arnoux, Brambilla, Rosberg, etc.).

Admirez les détails de cette skin !

Le choix des circuits aussi, j’y ai fait bien attention : j’ai privilégié les versions “historiques” des différents tracés mais, avec la version actuelle d’AMS2, il est impossible de reproduire le calendrier de la saison 78 (manque Le Castellet par exemple) et j’ai donc été obligé d’inclure des tracés qui n’existaient simplement pas à l’époque. Mais, à part ça, il y a vraiment de quoi s‘y croire !

Un circuit peu connu mais à découvrir !

Manche 1 – Argentine – Termas de rio Hondo

Victoire facile en partant de la pôle. J’ai attaqué tout le long pour me mettre hors de portée de Peterson (rapide et incisif). Pneus usés mais encore utilisables, carburant avec une bonne marge.

Un tracé plat mais assez intéressant au final…

Manche 2 – Brésil – Jacarepagua

Victoire difficile en partant de la première ligne (mais pas en pôle position).

Andretti a mené au moins les trois quart de la course et j’ai passé mon temps à le poursuivre, à le rejoindre et à tenter de le dépasser (beaucoup d’échanges musclés où je rétrogradais ensuite de 2-3 secondes pour revenir après).

Finalement, j’ai pu le dépasser et prendre de l’avance (jamais plus de 5 secondes). Fin de course difficile : pneus avants très usés, je ralentis fortement. Andretti remonte fort, je suis sauvé par les attardés qui le retarde et l’élimine dans le dernier tour !!

C’était la course la plus difficile de la saison…

Kyalami, mon circuit préféré !

Manche 3 – Afrique du Sud – Kyalami

Je pensais faire la pôle facilement mais mes adversaires ont amélioré en fin de séance, je me retrouve seulement 4ème temps.

Départ moyen, je fais les premiers tours en 5ème position. Je reste calme, je remonte pas à pas et, au 9ème tour, je prends la tête facilement. AMS2 plante (c’est rare mais ça arrive !) vers le 14ème tour (tiers de la course).

Seconde tentative : très bon départ, je pars en tête et j’y reste tout le temps, rien à signaler sinon que les pneus avant s’usent beaucoup et vite (il y a un équilibre à rétablir). Course quand même moins dominante qu’en Argentine car je termine avec une avance réduite cette fois.

Un tracé vraiment difficile !

Manche 4 – USA Ouest – Long Beach

Pôle position, largement. Pourtant, le tracé est super difficile !

Victoire relativement facile car je n’ai pas l’opposition (dès la fin du premier tour, j’avais 4 secondes d’avance sur le second !) mais le tracé du circuit fait qu’il fallait rester concentré tout le temps : la moindre erreur et c’est le mur…

L’usure des pneus n’a pas posé de problème cette fois (le rééquilibrage des réglages semble porter ses fruits) mais il fallait que je surveille la température des freins qui montait vite si j’attaquais un peu.

J’ai pris un tour à tout le monde sauf les cinq premiers.

Un circuit qui semble facile et qui ne l’est pas !

Manche 5 – Portugal – Estoril

Pôle mais il a fallu que je me bouge pour la décrocher !

Je termine 5ème. J’aurais pu gagner mais j’ai fait trop d’erreurs. Je termine la course sans aileron arrière et c’est déjà beau que j’ai pu sauver cette 5ème place !

En fait, j’ai sous-estimé la difficulté de ce tracé dont les points de freinages sont difficiles à déterminer à plusieurs endroits, d’où mes erreurs à répétition. Ceci dit, je n’envisageais pas de gagner chaque course !

Manche 6 – Espagne – Barcelone
Pôle position sans problème et, cette fois, j’ai bien pris le temps de peaufiner la configuration course, surtout au niveau de la pression des pneus (plus forte côté droit pour compenser le sens du circuit qui a surtout des virages à droite).

Mon objectif principal : faire une course super propre pour oublier la précédente !

Victoire très satisfaisante car j’ai atteint mon objectif : j’ai gagné sans virer personne… Mais j’ai surpiloté pendant les trois premiers tours et ça c’est moyen.

J’ai pris un départ moyen et j’ai passé un moment derrière les deux Lotus qui allaient bien. J’ai pu prendre la tête au 4ème tour mais je n’ai jamais eu une grosse avance sur Andretti qui signe son meilleur temps à moins d’une demi-seconde du mien.

J’ai de l’avance au championnat : 135 pts sur le second (Watson) qui a 95 pts.

Manche 7 – Italie – Imola

Pôle position relativement facilement mais ce circuit ne m’inspire pas.

Je pars en tête et j’arrive à creuser un petit écart sur Watson (au mieux, autour de 10 secondes) mais je m’aperçois vite que je n’ai pas embarqué assez de carburant (c’était régulièrement trop pour les autres tracés mais pas ici où on est à fond souvent et longtemps). A partir de la mi-course, je passe en mode “economy-run” pour arriver à finir.

J’y arrive presque mais il y a un tour de trop à faire et je termine en me traînant, sauvant juste la 3ème place !

Brands Hatch, un tracé vraiment unique !

Marche 8 – UK – Brands Hatch

Pôle mais je me sortant les tripes : Brands Hatch reste un circuit hyper difficile où la faute est facile…

Je prends un bon départ et je mène mais sans creuser l’écart. Andretti devient pressant à partir du 3ème tour et me double à la fin du 5ème en me bousculant. Je repars 5ème et remonte 3ème à mi-course mais pas mieux : j’ai fait trop d’erreurs pour rattraper les Lotus !

Au championnat, regroupement : j’ai 165 pts devant Watson avec 128 pts puis Andretti (119) et Peterson (106).

Un tracé à l’intérêt douteux…

Manche 9 – Allemagne – Hockenheim

Je n’ai réussi que le 4ème temps sur ce tracé sans grand intérêt finalement. Mais j’ai constaté qu’en surgonflant un peu les pneus (pour compenser le fait qu’ils ne montaient pas en température), on gagne en vitesse de pointe au moins 10 km/h sinon plus !

Victoire relativement facile après un excellent départ, en tête de bout en bout et pas d’erreur cette fois. J’ai pu creuser un petit écart dès le début et heureusement car cet écart est ensuite resté stable : mes poursuivants bénéficiaient de l’aspiration et pas moi.

Bonne affaire au championnat… En revanche, on peut se demander quel est l’intérêt d’un circuit pareil : nul selon moi.

Un beau circuit qui n’existe plus (sous cette forme), hélas !

Manche 10 – Autriche – Zeltweg

Très mauvaises qualifs !

J’aime bien ce circuit mais j’y suis lent… Je reste coincé à plus de 2 secondes de la pôle et rien à faire pour améliorer (13ème temps au final… ça aurait pu être encore pire !)… De plus, je constate que les pneus avant s’usent vite. Cela va être difficile de faire un super résultat ici !

Après un bon départ, je suis remonté en 10ème position, j’ai passé une bonne partie de la seconde moitié de la course à remonter sur Dépailler pour la 9ème place mais, à chaque fois que j’étais à portée, je faisais une micro-erreur qui me renvoyait à 3 secondes.

J’ai dû faire au moins 5 ou 6 tentatives pour le doubler enfin. En fin de course, les gars devant ralentissaient (à cause des attardés) et j’ai pu donc accrocher la 8ème place en finissant à un souffle du 7ème… Bref, ça aurait pu être pire.

Le légendaire tracé de Spa…

Manche 11 – Belgique – Spa

Cette fois, je me sentais bien sur ce tracé et j’étais compétitif : pôle-position facilement et avec un bon écart (presque une seconde). Difficile de comprendre ce qui m’est arrivé en Autriche du coup !

Le déroulement de la course a été limpide : départ correct, en tête de bout en bout, écart creusé progressivement avec le second (Waton puis Andretti). Même l’usure de pneus n’a pas été un problème car mon réglage permet d’user les 4 presque de façon identique.

Le seul écueil, c’était que je rejoignais un attardé, le “dirty air” de son sillage rendait la voiture difficile à tenir.

Au championnat, je suis assez confortable avec 219 pts devant Andretti (177 pts) et Watson (161 pts).

Forza Monza !

Manche 12 – Italie – Monza

Pôle-position assez facilement. Bonne course avec une nette victoire mais, en fait, je n’ai pu commencer à avoir un vrai écart avec Andretti qu’à partir de la mi-course.

Je suis surtout super content d’avoir fait une course vraiment propre : aucune erreur, rien à me reprocher (ou presque) et un bon rythme.

Le Glen et ses couleurs d’automne…

Manche 13 – USA est – Watkins Glen

Nouveau (gros) trou d’air : comme à Zeltweg, je ne suis pas compétitif sur une piste que pourtant j’apprécie… seulement 15ème temps en ayant essayé plein de réglages pour améliorer la voiture (qui sous-virait trop dans les grandes courbes). Finalement, à la fin des qualifications, je ne suis que 17ème sur la grille… Vraiment pas terrible !

Je m’aligne en me disant qu’il faut que je fasse la même course qu’à Zeltweg justement : accrocher une 8ème ou 7ème place pour sauver au moins quelques points… Sauf que là, je pars d’encore plus loin !

Bon départ (super bon départ même) et premier tour de folie, je suis 12ème. Ensuite, dans les premiers tours, j’arrive encore à grappiller quelques places : 10ème. J’ai attaqué autant que je pouvais pour rejoindre celui qui était devant moi et, à mi-course, je suis 8ème ce qui n’est déjà pas si mal. La fin de course va procurer son lot de surprises puisque les nombreux abandons me poussent à la 4ème place !

Une position très chanceuse et pas vraiment méritée mais je suis content qu’une mauvaise course se termine au pied du podium. Au championnat, je ne peux être rejoint par Andretti (le dernier à me menacer), c’est gagné !

Suzuka, un grand huit ?

Manche 14 – Japon – Suzuka

En prenant les mêmes réglages qu’au Glen, j’ai fait facilement la pôle avec plus d’une seconde d’avance…

La course a été limpide : après un départ moyen, je me suis retrouvé 3ème derrière les deux lotus d’Andretti et Peterson. Mais je n’ai pas eu de mal à les doubler tous les deux dès la fin du premier tour. Le reste fut tranquille : j’augmentais mon avance sans forcer tour après tour. Pas de problème de pneus ni d’essence. J’ai donc gagné avec une bonne marge.

Et pourtant, je n’apprécie pas particulièrement ce tracé que je trouve artificiellement difficile et, en plus, je déteste vraiment la dernière chicane que je trouve complètement ridicule, pire que celle de Spa, c’est dire !

Après 14 manches, je gagne assez largement…

Conclusion

Globalement, j’ai plutôt de la chance pendant ce championnat car je n’ai pas abandonné une seule fois sur panne mécanique. Et pourtant, des abandons de voitures fumantes, j’en ai vu un paquet surtout en fin de course !

De plus, ces abandons m’ont souvent été favorables, surtout quand j’étais à la ramasse…

Alors, justement, comment expliquer mes contre-performances ici et là (en fait, surtout Zeltweg et Watkins Glen) ?

Eh bien, je ne les explique pas. Je constate que j’ai été dans le coup souvent et quelquefois carrément au-dessus du lot (comme à Long Beach et à Suzuka). Mais les concurrents étaient compétitifs car, à chaque fois que je faisais une erreur, j’étais passé et déposé par mes poursuivants.

Sur le plan de la gestion des courses je me suis débrouillé correctement sauf à Imola où la panne d’essence était vraiment de ma faute. Cependant, ce revers m’a plutôt servi car j’ai fait très attention à ce paramètre lors de la suite (et cet incident ne m’a plus jamais menacé). J’ai aussi amélioré la situation sur le plan de l’usure des pneus au fur et à mesure qu’avançait la saison en affinant les réglages de ma BT46B. Tout d’abord en équilibrant la répartition des efforts entre le train avant et le train arrière puis en adoptant des réglages de pression asymétriques entre les bords gauche et droits en fonction du tracé à chaque fois. Si le circuit tournait majoritairement à droite, je surgonflais (un peu) les pneus avant et arrière droits afin de compenser leur moindre travail et ainsi de les garder en température.

Ces fignolages m’ont bien aidé lors de la seconde moitié de la saison où je n’ai plus eu besoin d’économiser les gommes alors que cela m’est arrivé en première partie.

Une fois de plus, Automobilista 2 m’a éblouie par la finesse de sa simulation et par la somptuosité des paysages qui environnent les circuits. Lorsqu’on débouche de la parabolique à Monza, on peut voir les Alpes au nord de MIlan avec les sommets couverts de neige… sublime ! 

On est gêné par le sillage aérodynamique des voitures que l’on suit de trop près, on les voit perdre des morceaux de gommes et les échappements cracher des flammes au rétrogradage… L’immersion est complète et ça aide à garder sa concentration.

Je suis très satisfait d’avoir “remporté ce championnat” fictif mais j’aurais aimé faire au moins une course “parfaite”. Pas forcément en l’emportant largement (ça, j’ai eu) mais plutôt en ne faisant pas la moindre erreur pendant les quarante minutes que durait chaque manche. Et quand je dis “pas la moindre erreur”, c’est aucun freinage raté (avec élargissement dans le virage pour compenser), aucune limite de piste de franchie et pas un seul contact (même minime) avec les IA (y compris avec les attardés). Eh bien ça, je me le suis promis avant chaque départ et j’attend encore de réussir à l’accomplir (j’ai frôlé ce résultat à Monza mais pas tout à fait complètement…).

Tu as le temps de faire tout cela ?

Bon alors, bien sûr, faire 14 courses de 40 mn (sans compter les qualifs , hein !), ça prend du temps, beaucoup de temps, j’avoue. Mais c’est du temps-plaisir !

Et, bientôt, si tout va bien, un nouveau titre de SimRacing va adresser ce problème du temps, surtout pour les équipages éparpillés… Il s’agit de Le Mans Ultimate !

LMU peut-être vu comme un lifting de rFactor2 mais j’espère bien que cela va s’avèrer être bien plus que cela. LMU devrait proposer une fonction de « relais asynchrone » qui va être très apprécié par ceux qui ne peuvent pas rouler n’importe quand (la grosse majorité en fait). J’espérais quelque chose comme cela depuis longtemps afin de pouvoir rouler avec des amis éloignés et très occupés. Faire les 24 heures du Mans en SimRacing, c’est génial mais c’est très impliquant. Avec cette solution, ça va le rendre un peu plus possible… Je veux y croire !

Publié dans Sport-auto, Sports mécaniques virtuels | Laisser un commentaire

Une vidéo de plus pour mes trois derniers casques

Encore un petit supplément dans la grande série « j’aime les casques de moto et je le montre !« … On en était resté au sauvetage du Premium Trophy mais, entretemps, j’en ai acheté trois de plus… Mais arrêtez-le, quelqu’un !

Voilà donc une courte (finalement pas si courte : je suis bavard sur ce sujet !) vidéo pour couvrir ces trois casques de plus : le Gasoline Jet Café Racer (à €46,58), le Marko Boréal (un autre jet, à €172,13) et le HJC V10 (un intégral vintage à €201).

Alors, ce sont les derniers ?

Ben, peut-être pas même si la liste potentielle commence à s’épuiser…

Publié dans casques moto | Un commentaire

Un petit tour à bord d’une Brabham BT46B à Barcelone

Petite vidéo du formidable Automobilista 2 v1.5 sur le cicuit de Barcelone. Je sais, les F1 de 78 n’ont jamais couru sur ce tracé puisqu’il n’existait pas encore lors de cette saison mémorable (La manche espagnole de la saison 1978 de F1 s’est déroulée à Jarama). Et oui, la BT46B n’a jamais couru ailleurs qu’à Anderstorp. Enfin, c’est certain que les Brabham BT49 n’ont pas disputé la saison 1978 car elles ne sont apparues que deux ans plus tard !
Mais cet ajout permet d’avoir un peu plus de diversité (le mot est à la mode !) dans le peloton et la « balance des performances » façon AMS2 fait en sorte que ces voitures (les BT49) ne soient pas loin au-devant des autres… Ouf !

La possibilité de replacer les « skins » des voitures nous offre le plateau de la saison 1978 d’une façon très agréable à défaut d’être réaliste (les Ferrari et Ligier sont basées sur la Lotus 79 mais comme le « décor » est bien réalisé, ça passe !). Les casques sont très bien fait et la compétence des pilotes est bien reproduite puisque nous avons systématiquement les Lotus d’Andretti et de Peterson aux avant-postes.

J’ai choisi de rouler à bord de la BT46B (la fameuse « voiture-aspirateur » qui gagna la première et seule course où elle fut alignée) de Lauda, mon pilote préféré.

Dans cette petite vidéo, je ne vous propose que les trois premières minutes sur les 40 que durait cette course. Plus d’explications ci-dessous…

Pas pour frimer !

Alors, tout d’abord, ce n’est pas pour « frimer » que je vous propose cette vidéo car, dans ces 3 minutes, je fais pas mal d’erreurs : je rate mon départ, je me fais bousculer par Andretti après le S du départ, Peterson en profite pour me passer aussi… Et, à la fin du premier tour, je sort super large de la dernière courbe à droite !

Cette grossière erreur aurait pu être la dernière de cette session car ma course aurait pu (aurait dû ?) se terminer là… Heureusement, la chance était avec moi et j’ai pu me remettre en piste sans rien toucher (c’est là aussi qu’on voit que les PNJ – PNJ = personage non-joueur ou adversaire robot ou IA, tout simplement…- d’Automobilista 2 sont particulièrement prudents et attentionnés : personne ne m’a percuté lorsque je suis (mal) revenu en piste !

Ensuite, je continue les conneries car je suis énervé par mon mauvais début de course : « dive bombing » de la mort qui tue pour m’extraire du groupe des poursuivants qui m’avaient pourtant gentiment épargné, « block pass » agressif sur Peterson et le même, un tour plus loin sur Andretti au même endroit (mais ça, on ne le voit pas car la vidéo s’arrête avant…). Tout ça sans compter le nombre de point de corde que je loupe car, bien sûr, je surpilote pour rattraper les deux Lotus !

Par la suite, je me suis enfin calmé et j’ai commencé à rouler propre afin d’épargner mes pneus et de ne pas faire surchauffer mes freins. Et c’est à partir de là que j’ai pu gérer ma course : rester en tête, creuser un peu d’avance (assez peu au final) et rallier l’arrivée sans plus faire de boulette…

Pourquoi seulement 40 mn ?

Selon moi, c’est pile le bon choix de durée : pas trop court, pas trop long (hey, c’est un loisir, ça doit rester du plaisir !). De plus, avec les F1 de 1978, je ne vois pas comment faire durer mes pneus pendant 1h30/1h40 !!
Là, en 40 mn, je dois gérer l’usure des pneus mais ça reste jouable.

Pourquoi les F1 de 1978 ?

C’est vrai, y a plein de choix de monoplaces sur AMS2 mais j’aime pas les modernes (trop d’appuis et moteurs trop « hystériques » !) et, parmi les rétros, j’ai longuement roulé avec les F1 de 1983 mais avec la McLaren Cosworth (ma préférée de cette époque) c’est vraiment dur de lutter avec les turbo !

Avec les voitures de 1978, j’ai un compromis qui me convient : juste assez d’appui pour être -relativement- faciles à piloter (on peut attaquer raisonnablement sans risquer de se mettre au tas à chaque virage) mais qui doivent être menées avec respect… Il faut gérer les pneus et les freins et il faut éviter les surrégimes (surtout lors des rétrogradages) pour ne pas abimer le moteur. Tout cela, ça me convient bien.

Et puis, avec ces voitures, j’arrive encore à être plus rapide que mon fils de 15 ans qui m’atomise avec les voitures modernes !

Et AMS2, c’est vraiment si bien que cela ?

J’ai déjà expliqué dans cet article tout le bien que je pensais d’AMS2 et je continue à affirmer que c’est actuellement la meilleure simulation disponible, surtout pour rouler offline. Quels sont les autres choix possibles ?

rFactor2 : très bonne physique mais graphismes un peu datés et, surtout, bien trop de bugs qui font planter le titre trop souvent (vraiment trop souvent…).

iRacing : le meilleur choix pour rouler online mais le niveau est hyper-compétitif désormais. Les graphismes sont bons mais un peu « plats » et le FFB n’est plus aussi bon qu’il y a dix ans. La possibilité de rouler offline progresse et les IA sont très bien, quasiment du niveau d’AMS2 (j’ai testé de nouveau dernièrement). Mais c’est iRacing : c’est cher et fermé.

Assetto Corsa : très bonne physique avec certaines voitures (la March F1 de 1970 est absolument extraordinaire, vraiment !), physique déroutante avec les autres. Pour ce qui est d’Assetto Corsa Competizione, c’est limité aux GT3 alors, merci mais non merci.

Reste quoi comme autres choix ?
Souvenons-nous qu’on parle ici de simulations… On peut s’amuser avec Gran Turismo ou Forza mais c’est autre chose (rien de négatif ici).

Ce que nous apporte la simulation désormais

Je pratique le SimRacing depuis les années 90, je commence donc à accumuler une certaine expérience… L’immersion progresse encore et toujours à tel point que, au bout de 40 mn de course, je suis épuisé et ne nage à cause de la tension de la concentration nécessaire !

Dans cet article récent, je vous exposais les petits ajouts qui rendent AMS2 encore plus plaisant. Je confirme aujourd’hui : sans le Buttkicker ou sans Crew Chief, ça n’a plus du tout la même saveur… Quand je m’installe au volant, je savoure désormais chaque minute. J’ai vraiment l’impression de pratiquer le pilotage comme aux grandes heures de mes expériences sur monoplace (en 200 et 2001 sur Arcobaleno). Surtout qu’avec la mise à jour 1.5, le FFB d’AMS2 vous permet de parfaitement sentir le sous-virage ou le contraire, c’est bluffant !

Sur YouTube, on peut voir des setup de folie qui font monter l’addition… Certes, c’est impressionnant mais est-ce nécessaire ?
Je ne crois pas : avec un PC solide et un triple-screen raisonnable, on peut déjà se faire très plaisir (OK, ça prend un peu de place, c’est vrai). J’ai amélioré et peaufiné ma configuration pas à pas et sans faire des dépenses excessives. Je privilégie toujours les petites évolutions maitrisées plutôt que les grands sauts dans l’inconnu qui vont vous priver de votre configuration le temps d’arriver à la mettre en place. Car, le vrai ennemi, c’est le temps : le SimRacing réclame du temps pour pouvoir le pratiquer, il faut donc éviter d’être handicapé par une configuration toujours en devenir…

Je viens de le dire, le temps voilà l’ennemi et c’est pourquoi je roule désormais majoritairement offline. Parce que c’est difficile de réunir toutes les bonnes conditions au moment où JE peux rouler… Avec le offline, c’est plus simple : on configure son choix de course et c’est good to go!
Ceci dit, en dépit des progrès des IA (surtout avec AMS2), j’avoue que rouler avec d’autres vrais humains est bien plus excitant mais c’est aussi plus de stress : quand vous touchez un de vos adversaires, ce n’est pas une IA que vous envoyez dans le décor, c’est quelqu’un comme vous à qui vous gâchez la course… nuance.

Publié dans Sport-auto, Sports mécaniques virtuels | Laisser un commentaire

Ce qui ne change pas (ou très lentement) dans le secteur informatique

On dit continuellement que tout change très vite dans le secteur informatique et dans les techniques utilisées dans l’électronique et l’informatique. C’est en partie vrai mais en partie seulement. Aujourd’hui, dans cet article, nous allons plutôt parler des choses immuables, celle qui ne change jamais (ou presque jamais !) et vous allez voir qu’il y en a plein de ce genre dans l’informatique justement.

Une architecture Von Neumann omniprésente

Déjà un élément qui n’a jamais changé depuis le début c’est l’architecture des ordinateurs qui encore aujourd’hui répond à un formalisme qu’on appelle l’architecture Von Neumann.

Schématisation de l’architecture de von Neumann.

Et oui c’est peut-être une surprise pour vous mais c’est toujours la même architecture depuis le début. c’est aussi parce que cette organisation des composants s’est avérée être efficace et relativement facile à mettre en œuvre. La technique informatique a évolué sur les matières utilisées pour les composants et la structure même de ses composants mais l’architecture de base, elle n’a jamais évolué. Cela peut enfin changer à l’avenir avec l’avènement des ordinateurs quantiques qui eux sont radicalement différents mais comme cet avènement est encore lointain je gage que l’architecture Von Neumann a encore de beaux jours devant elle.

John von Neumann dans les années 1940. Un mathématicien éminent injustement méconnu au regard de ses apports !

Le silicium irremplaçable ?

Autre chose qui n’a pas bougé depuis les débuts de l’informatique moderne : c’est l’usage du silicium pour les composants électroniques. Alors il est important de préciser qu’on parle de l’informatique moderne c’est-à-dire depuis le début des années 60 pas avant ou les ordinateurs étaient encore équipés quelquefois de lampe à vide et là c’était pas (du tout !) du silicium. j’ai beau être un ancêtre, avoir connu la carte perforée, mon ancienneté ne remonte tout de même pas jusque-là !

donc le silicium semble être irremplaçable indétrônable puisque depuis le début on n’a pas fait 100 à y avoir recours. Pourtant il y a eu quelques tentatives, dans les années 80 par exemple, avec l’utilisation de l’arséniure de gallium mais ça n’a pas été très loin. donc encore un domaine qui se caractérise par un certain immobilisme.

Les projets, toujours un bain de sang !

Ce qui ne change toujours pas et qui est à la limite du désespérant, c’est la difficulté de mener des projets informatiques et d’aboutir dans les délais prévus et dans le budget prévu. En vérité, plus de la moitié des projets engagés par les clients, les constructeurs ou les éditeurs n’aboutissent tout simplement pas. Depuis toujours, le développement logiciel est une activité difficile qui finit le plus souvent par un échec cuisant. Les méthodes évoluent, les outils évoluent mais ce qui ne change pas c’est la difficulté d’écrire des programmes et surtout de les mettre au point de manière satisfaisante. Une percée radicale ou une évolution significative sont annoncées régulièrement mais, presque 50 ans après le livre de Frédéric Brooks, on constate toujours qu’il n’y a toujours pas de balle d’argent (there is no silver bullet) et que les projets informatiques peinent à sortir du puits à goudron (tar pit).

La hype règne en maître !

Une autre constante du secteur de l’informatique c’est ce qu’on appelle la hype. Il s’agit du battage médiatique à l’occasion d’une nouvelle mode technique. ici tous les mots sont importants en particulier le fait qu’il s’agit de mode et non pas de technique établies et que le principe d’une mode c’est que ça se démode !

Alors dire que ça ne change pas est légèrement inexact car en fait la hype empire d’année en année donc quelque part ça change quand même un peu. Il y a quelques décennies il était raisonnable de parler de battage médiatique à chaque fois qu’une nouvelle mode technique apparaissait et semblait prometteuse. Puis on est passé à l’exagération médiatique et maintenant j’affirme qu’on en est à l’hystérie médiatique à chaque fois qu’une nouvelle mode technique ou une pseudo mode technique apparaît et semble être plus ou moins prometteuse. Le pire a été atteint avec le web 3 qui non seulement n’apporte pas grand-chose sur le plan technique mais en plus et tout simplement une escroquerie dans sa nature même.

Des promesses, toujours des promesses

Autre chose qui paraît immuable, qui semble ne jamais changer, ce sont les promesses commerciales pour vendre l’informatique au sens large ou des nouveaux systèmes ou des nouveaux logiciels ou des nouvelles architectures. Dernièrement on en a encore eu l’exemple avec la montée puis la généralisation du Cloud, la promesse était, encore une fois, que ça allait revenir moins cher. Combien de fois ai-je entendu cela pendant mes 40 ans de carrière dans le secteur ? 

Et, à chaque fois, cela s’est avéré inexact. Il n’y a pas que l’argument économique qui revient constamment dans les promesses exagérées du discours commercial du secteur informatique, il y a également des affirmations du genre “ça va être plus facile à développer” ou encore “l’exécution des programmes sera bien plus rapide”. Je simplifie un peu (à peine !) mais vous avez tout de suite perçu l’idée générale derrière ces affirmations car vous aussi vous les avez entendues encore et encore…

L’immobilisme n’est pas une fatalité

J’insiste ici sur les éléments qui ne changent pas mais cela ne veut pas forcément dire que des choses sont destinées à rester toujours les mêmes y compris dans les domaines déjà cités. Je voudrais prendre comme exemple la fameuse loi de Moore qui s’était toujours vérifiée depuis le milieu des années 60 mais qui a fini par s’effacer récemment. Donc, même une situation qui perdure année après année, décennie après décennie, n’a pas vocation à être en place éternellement, comme on a pu le voir justement avec la loi de Moore. Ceci pour dire que je ne prétends pas que toute l’informatique est condamnée à l’immobilisme et que rien ne change jamais bien évidemment. Je veux juste mettre l’accent sur des exemples significatifs qui montrent que le progrès frénétique et les changements tout azimut ne sont pas une généralité en informatique contrairement aux idées reçues.

Pas un techno-réfractaire !

J’insiste aussi sur le fait que je ne suis pas contre l’évolution technique, je ne suis même pas un sceptique de l’évolution technique. Je voudrais juste qu’on en prenne la mesure exacte plutôt que de basculer systématiquement dans les fantasmes les plus délirants dès qu’on parle de l’évolution technique et de son inévitable accélération, qui est tout ce qu’on veut sauf prouvée. La meilleure preuve que je ne suis pas un “techno-réfractaire”, c’est que ce texte que vous êtes en train de lire, je ne l’ai pas directement rédigé mais plutôt dicté directement à mon Mac puisque, désormais, cette technique est suffisamment au point pour être utilisable (après, il faut bien le dire, des décennies d’efforts). Et d’ailleurs, dicter un texte n’est pas tellement plus facile ni même plus rapide que de le taper directement au clavier parce qu’il faut savoir à l’avance ce qu’on veut exprimer.

En conclusion

Il ne s’agit pas ici de seulement dénoncer une fois de plus les idées reçues trop nombreuses et trop stupides dans ce secteur comme dans de nombreuses autres. Tout au long de ma carrière en informatique j’ai justement essayé de promouvoir de façon équilibrée ce qui me paraissait être légitime, intéressant, utilisable, applicable en un mot. et c’est pour cela que j’insiste autant à travers mes livres ou dans des articles comme celui-ci sur le côté nocif de la hype ou sur les impasses que représentent les idées reçues.

Publié dans Anecdotes IT, Informatique, Références IT | Un commentaire

Montolieu, le village du livre

Imaginez un village du Tarn isolé et typique (magnifique même) et qui, en plus, est dédié aux livres… Ne rêvez plus, ce village existe et c’est Montolieu !
Dans ce village, il n’y a pas moins de quinze librairies… Voici quelques photos (issues du site) pour situer l’ambiance :

 

 

 

Alors qu’on dit et répète qu’à notre époque les gens lisent moins (voire plus du tout), c’est rassurant de constater ce genre d’initiative. Nous avons passé la matinée à Montolieu et y avons acheté des kilos de livres !

En particulier, j’ai trouvé des « Sciences & vie » spécial automobiles des années 50/60 qui sont de véritables trésors…

Bien entendu, pour cela, il faut fouiller les librairies et même, certaines fois, leurs annexes (quelquefois encore plus grande que la boutique principale !) mais le résultat en vaut la peine…

Publié dans Livres | Laisser un commentaire

Que reste-t-il du client-serveur ?

Le modèle client-serveur était le grand espoir du début des années 90. Grâce à lui, on allait enfin pouvoir combiner les interfaces graphiques des PC avec des processus solides et des bases de données volumineuses des divers serveurs et autres mainframes.

Les espoirs du client-serveur première génération se fracassent sur le “mur du déploiement”…

Mais, après plusieurs années d’essais/erreurs, d’expérimentations sophistiquées et de projets ambitieux, force était de reconnaître que le modèle peinait à tenir toutes ses promesses. Les ambitions du client-serveur se sont douloureusement fracassées sur les écueils suivants : les applications étaient difficiles à développer (à cause des interfaces graphiques et du fait du caractère “distribué” de l’exécution des requêtes et procédures), elles étaient difficiles à déployer (il fallait les installer une par une sur chaque PC de chaque utilisateurs et, quand il y en avait des centaines, l’expression “le mur du déploiement” prenait tout son sens !) et à maintenir (le mur du déploiement s’opposait aussi aux inévitables mises à jour). Et enfin, le trafic réseau important interdisait d’envisager un fonctionnement “à distance” dans de bonnes conditions (comprendre, avec des performances acceptables à l’époque où même l’ADSL n’existait pas encore, même à l’état de concept…).

Le Web rebat les cartes avec une solution utilisable dans toutes les conditions

On pouvait penser que, avec du temps et beaucoup d’efforts, on allait finir par surmonter tous ces problèmes. Mais le modèle client-serveur mis en œuvre avec un client “lourd” (qu’il soit basé sur Windows ou le Mac, ça n’a fait aucune différence) est resté au fond du sac “de la déception et de l’oubli” depuis son échec au milieu des années 90 (définition des différences entre client lourd, client léger et client riche à https://fr.wikipedia.org/wiki/Client-serveur).

Car oui, on a tendance à l’oublier mais le Web est une déclinaison du modèle client-serveur. HTTP est un protocole en tout point conforme au modèle client-serveur. En un sens, grâce au Web (et à HTTP) le client-serveur n’a jamais été aussi vivant et répandu !

Certes, il s’agit là d’une déclinaison minimum (client-serveur de présentation) du modèle mais peu importe, le fait est là, le client-serveur n’a pas disparu, tout au contraire. Mais quand le Web s’est imposé de façon foudroyante à partir des années 1994/95, il était aussi l’illustration incontestable que la simplicité est la reine de toutes les vertus en matière informatique.

Le Web première génération s’est donc imposé, d’abord pour des pages statiques d’information sur l’Internet et, dans un second temps (mais très vite aussi) sur les intranets. Bien entendu, on ne s’est pas contenté de mettre en place juste des sites statiques, utiles mais limités. Progressivement, le Web s’est avéré être également une plateforme adéquate pour des traitements transactionnels via le Web client-serveur (c’est moi qui l’ai appelé ainsi à cette époque), à la fois simple et robuste, gommant en une seule fois toutes les limites qui avait fait échouer le client-serveur basé sur le client lourd.

Le client léger triomphait et son potentiel paraissait sans limite.

Sun et Oracle tentent un coup d’état

Évidemment, ce triomphe radieux de la simplicité heureuse (!) ne pouvait pas plaire à tout le monde, en particulier à ceux qui voyaient dans l’irruption de l’Internet une possibilité de déloger Microsoft de son sommet. Java est apparu en 1995 au sein de Sun Microsystems et fut aussitôt mis en avant par Sun (beaucoup) et Oracle (un peu) comme LA solution qui allait permettre de profiter pleinement du Web ET de se débarrasser de Microsoft par la même occasion… Les deux promesses se sont avérées être nettement exagérées (voire complètement fausses !), le Web a prospéré sans Java et Microsoft est toujours là (hélas ?).

C’est que la solution de type “client lourd renouvelé” proposé par Sun avait de nombreux défauts et, disons-le, ne fonctionnait pas, tout simplement. Je pourrais expliquer le pourquoi du comment en long et en large mais je l’ai déjà fait amplement dans mes livres parus à l’époque (voir Intranet, client-serveur universel et Web client-serveur, le triomphe du client léger… Ces livres ne sont plus guère disponibles et c’est pourquoi j’ai tout regroupé dans Du client-Serveur au Web qui lui est disponible !).

Bref, la tentative de “putsch” via Java (sans oublier le désastreux CORBA !) s’est terminé par un échec retentissant et mérité (même si certains -peu nombreux désormais- ne veulent toujours pas l’admettre). Dans l’informatique, il y en a toujours pour croire que “plus c’est compliqué et mieux c’est” alors que la réalité du terrain nous prouve tous les jours que ce sont les solutions relativement “rustiques” qui s’en sortent le mieux.

Le client léger devient client riche avec Ajax 

Si l’idée d’un client lourd éventuellement débarrassé de ses tares revenait régulièrement, c’est bien qu’il manquait tout de même quelque chose au client léger : la possibilité d’avoir une interface un peu plus interactive. Le recours à JavaScript (rien à voir avec Java et heureusement !) était un pas dans cette direction mais, bien sûr, on voulait plus et mieux…

Et nous avons fini par l’avoir !

Ce miracle porte un nom et c’est Ajax (Ajax est l’acronyme d’asynchronous JavaScript and XML : JavaScript et XML asynchrones).

C’est Ajax qui a vraiment changé la donne technique du Web et a permis de passer d’un client léger mais limité à un client riche à qui plus rien ne manque. Ajax étend le dialogue client serveur continu au niveau d’une page au lieu de nécessiter le chargement d’une nouvelle page pour chaque échange.

C’est Gmail (en 2004) qui a popularisé ce fonctionnement : grâce à Ajax, Gmail n’était pas qu’un Webmail de plus mais une véritable application Web riche et interactive qui n’avait rien à envier à une application native Mac ou Windows.

Après Gmail, Ajax s’est répandu largement et plus aucune application Web d’envergure ne peut s’en passer. Le client riche est désormais une réalité et son domaine d’application ne cesse de s’étendre. Le ChromeBook de Google (encore un vieux rêve qui a pu trouver sa forme finale) a pu voir le jour et prendre sa place sur le marché grâce à la richesse apportée par Ajax et ce n’est pas fini. 

Un client-serveur dont on ne parle plus car il est omniprésent

Le client-serveur a donc fini par triompher, complètement au point d’être omniprésent. Lorsque je travaillais à sa promotion en publiant le premier livre en français sur le sujet (Architecture client-serveur en 1993), je n’imaginais évidemment pas que cela se passerait ainsi. Le chemin a été long et difficile (c’est toujours ainsi quand une nouvelle technique tente de trouver sa place) mais le résultat dépasse de beaucoup mes espoirs les plus fous que j’osais formuler à cette époque. Le fait qu’on en parle plus de nos jours est le signe le plus sûr de son triomphe total : l’omniprésence se paye par l’invisibilité.

Publié dans Anecdotes IT, Informatique, Livres, Références IT | 2 commentaires