Les 20 ans de BD de Quentin : l’entretien complet !

20 ans de BD, ça se fête !

Et surtout, ça permet de revenir sur les faits marquants, se poser les bonnes questions et savourer le moment et le parcours…

Il y a 51 minutes de questions/réponses… Ah oui, c’est pas un « format court ! », en effet !
Mais, en 20 ans, Quentin à accumulé bien des choses à dire…

Publié dans Ce blog | Laisser un commentaire

Journée internationale du chat : voici Flocon !

Normalement, je ne suis pas trop fan des journée internationale de ceci ou de cela mais pour celle du chat, je dis oui !

Pour illustre cela dignement, voici le gardien de notre maison, notre redoutable Flocon qui règne en maitre sur notre domaine…

Publié dans Ce blog, Ch'es grôle !, divers | Laisser un commentaire

Quels sont les livres informatiques *vraiment* important (j’insiste sur « vraiment »)

Kevin Mitnick vient de mourrir et c’est l’occasion de se pencher sur cette importante question : quels sont les livres qui comptent vraiment dans le domaine informatique ?

A mon avis, il y en a deux et deux seulement !
Oui, je sais, ça parait peu… Mais là, on parle des livres qui sont importants pour le domaine (fondamentales même, oserais-je l’écrire) et qui sont quasiment intemporels (c’est-à-dire que, depuis leur publication, leur argument est resté complètement valable en dépit du temps passé). Deux livres donc.

Commençons par celui de Mitnick justement avec « The art of deception » (l’art de la supercherie, « deception » est un faux-ami en anglais…). Mitnick en a écrit d’autres mais je pense que c’est ce premier qui a fait date et qui reste incontournable dans son domaine (la sécurité informatique).

L’auteur nous explique, avec de nombreux exemples, qu’il ne sert à rien de se doter d’un firewall de la mort-qui-tue car c’est une protection illusoire, trop facile à contourner grâce à l’ingénierie sociale… de quoi s’agit-il ?

L’ingénierie sociale regroupe des technique utilisées par les cybercriminels pour inciter des utilisateurs peu méfiants à leur envoyer leurs données confidentielles, infectant ainsi leurs ordinateurs avec des programmes malveillants ou ouvrant des liens vers des sites infectés. Par ailleurs, les pirates informatiques peuvent tenter d’exploiter le manque de connaissances d’un utilisateur. Grâce à la rapidité de la technologie, de nombreux consommateurs et employés ne réalisent pas la valeur des données personnelles et ne savent pas comment protéger ces informations de manière optimale.

Source https://www.kaspersky.fr/resource-center/definitions/what-is-social-engineering

C’est aussi ce que j’ai constaté tout au long de ma carrière dans l’informatique : l’humain est toujours le maillon faible en matière de sécurité, toujours !

J’ai interrogé des spécialistes pour mes chroniques Redsen à ce sujet et tous répètent la même chose : former vos gens plutôt que de dépenser votre argent dans des systèmes sophistiqués qui vont s’avérer décevants… Voir à https://www.redsen.com/chronique-alain-lefebvre/penser-a-la-securite-informatique-serait-il-antinaturel/

Depuis que KM a publié son premier livre, rien n’a changé, son propos reste pertinent et indépassable. Et vous allez voir qu’il s’agit de même pour le second livre : The Mythical Man-Month de Fred Brooks.

Paru en 1975 il est toujours autant d’actualité encore aujourd’hui !

Les projets logiciels sont difficiles à faire aboutir dans les délais prévus et dans le budget prévu. En fait, ils sont simplement difficiles à faire aboutir, point barre !

Dans son ouvrage de référence, Fred Brooks explique pourquoi. Lui aussi insiste sur le facteur humain, quelle surprise !

Vous l’avez compris, je ne peux que recommander de lire (ou de relire comme je le fais actuellement) ces deux livres qui, j’insiste, ont gardé toute leur pertinence encore aujourd’hui. D’ailleurs, cela devrait conduire à s’interroger : voilà un secteur qui n’arrête pas de proclamer qu’il change tout le temps et évolue très vite… Mais on constate surtout que les fondamentaux restent les mêmes décennie après décennie !

J’avais annoncé deux livres mais j’entend déjà les cris de certains : deux livres, seulement deux livres, tu es sûr ?

Allez, si vous insistez, je peux aussi en inclure un troisième : Does It Matter?: Information Technology and the Corrosion of Competitive Advantage de Nicolas Carr.

Dans cet ouvrage magistral, l’auteur explique que le fameux « avantage stratégique » que l’informatique est censée apporter est le plus souvent une illusion… Oui, dur à encaisser mais tout à fait vrai !

Tout cela, je l’ai écris maintes fois dans mes livres techniques tels que « Vers l’informatique raisonnée » mais cela va tellement à l’encontre des croyances habituelles sur le sujet que cela a du mal à faire son chemin…

Publié dans Anecdotes IT, Informatique, Livre histoire de l'informatique, Livres | Laisser un commentaire

Mon activité d’écriture en ce moment…

De temps en temps, je vous informe sur mes sujets du moments, les projets en cours et, d’une façon plus générale, de mes « travaux d’entretien » sur mes livres déjà publiés.

Mise à jour de Dr Miracle 70 & 71 avant la sortie du tome 3 (1972)

Avant de finaliser mon travail actuel sur la saison 1972 de « Dr Miracle« , je me suis aperçu qu’il fallait que j’harmonise les deux premiers tomes (saisons 1970 et 1971) avec les standards définis dans le troisième à venir… J’en ai profité pour également faire des corrections (mineures mais tout compte n’est-ce pas ?).

Revoir et améliorer mes livres déjà publiés est une partie importante de mon travail quotidien à laquelle je ne rechigne jamais, même au détriment des nouvelles écritures en cours. En effet, pour moi, mes livres publiés ne sont pas des « branches mortes » et il crucial de continuer à les faire vivre… Voilà, c’est dit (une fois de plus car j’ai déjà dit cela sur ce blog même si je ne retrouve pas tout de suite où !)).

Le tome 3 de la saga « Dr Miracle », la saison 1972

Le voilà le projet du moment : la saison 1972 de sports mécaniques de Dr Miracle. Cette saga sur le « vroum-vroum » des années 70 est un projet de coeur pour moi. C’est aussi un projet de (très) longue haleine car ça va prendre un peu (beaucoup en fait !) de temps à être bouclé mais je n’en ai cure : ce sont ces années là dans ce domaine là que je veux revisiter une fois de plus mais avec un personnage prétexte, Yves Lefranc alias « docteur miracle ».

La saison 1972 est particulièrement intéressante en plus : elle marque une nouvelle ère dans le domaine des grands prix moto et de l’endurance (fin des gros moteurs sur les protos).

Mise à jour et corrections sur « Le fait Technique »

Toujours sur le principe « il n’y a pas de petites corrections », J’ai remis la main à la pâte sur « Le Fait Technique » alors sa publication est relativement récente.

Voilà pour les travaux du moment : l’amour des livres, c’est aussi et d’abord de les respecter.

Publié dans Le fait technique, Mes livres, Sport-auto | Laisser un commentaire

Des petits plus pour votre setup de Simracing… ainsi que pour apprécier AMS2 !

Voici ce que je viens d’ajouter dernièrement sur mon baquet afin d’améliorer l’immersion… Alors, au programme de cet article, il y a Buttkicker, Crew Chief et les mods qui arrivent (enfin) sur Automobilista 2 (AMS 2 pour faire court).

Dans cet article, pas mal de vidéos empruntées à des « influenceurs du SimRacing » que je salue au passage !

Buttkicker, c’est pas mal

C’est un accessoire qui fait vibrer votre siège en fonction de ce qui se passe à bord de votre voiture… Voyons voir :

Alors, qu’est-ce que ça donne, ça vaut le coup (et le coût) ?

A mon avis, oui, ça vaut le coup si on suit les conseils de Homed en limitant les effets à seulement ceux qui comptent pour vous car il est très vrai que « trop d’effets tue l’effet ! ». Donc, si on passe du temps sur le paramètrage et qu’on est raisonnable sur le nombre d’effets (moi, je me contente de deux : les vibrations du moteur et les secousses lors du passage des rapports); alors c’est vraiment bien : l’immersion est renforcée, c’est clair.
Un indice qui ne trompe pas : quand on va sur une simulation non-supportée, ça vous manque tout de suite… Tout est dit !

Coussin de siège

Cela parait être une blague mais je l’ai acheté (et installé) et, effectivement, c’est bien mieux :

Le confort dans le baquet, ça compte vu le nombre d’heures qu’on passe dedans !

Tension de harnais ?

Alors, ça pourrait devenir un projet futur… je dois avouer que je suis tenté !

AMS 2, toujours mieux !

AMS 2 s’améliore encore et toujours. La version 1,5 va sortir avec un nouveau modèle de pneus qui promet beaucoup : on sent beaucoup mieux le train avant, rFactor2 est (enfin) dépassé.Et les projets d’avenir sont enthousiasmants : Le Mans est au programme, rien que cela !

Les mods arrivent enfin et c’est une super nouvelle : tout ce qui manque en terme de véhicules historiques va pouvoir être comblé (je rêve là, ok, ok…).

Et voici quelques éléments comme Crew Chief pour le compléter de manière intelligente.

Crew Chief

Crew Chief est un utilitaire in-dis-pen-sable pour vous aider à gérer vos courses et qui renforce l’immersion, vraiment !
Donc, vous avez un type qui vous parle « à la radio » pour dire tout ce qui est utile et même indispensable : sortie des stands claire, faut penser à ravitailler, les dégats sur ta voiture, la températures des freins, des pneus, du moteur et ainsi de suite… On s’y habitue tellement vite que, sans, ça ne le fait plus !

Comment ça marche, comment ça s’installe, voyez cela sur cette vidéo :

Ah, d’accord, vous voulez Crew chief mais en français ?
Pas de problème, y en a qui se sont penchés sur la question (moi, la version en anglais me va bien…) :

Mods, enfin !

Il y a des mods sur Automobilista 2 désormais et c’est génial !
Je recommande surtout celles de Thunderflash. Pouvoir rouler dans des groupe 5, c’est vraiment super, ceux qui ont connu « DRM Revival » me comprendrons. Vous allez me dire « oui mais ce sont juste certaines des voitures qui sont présentes dans PCARS 2 et c’est vrai. Mais, elles roulent bien mieux dans AMS 2 !

https://www.youtube.com/watch?v=GV1NFZ0ZX1k

Avant, installer des mods dans AMS 2 était vraiment (trop) compliqué et pénible (car il fallait refaire la manip à chaque màj !) mais, maintenant, nous avons enfin un « gestionnaire de contenus » !

Content Manager

Grâce à ce gestionnaire de contenus, installer des mods est devenu faciles alors, plus d’excuse !

Nouveau CM pour AMS2 https://www.racedepartment.com/downloads/automobilista-2-content-manager.59727/

Les Mods circuits et voitures https://projectcarsmoddingteam.weebly… https://mmodding3.net/

Des skins etc pour AMS2 https://www.racedepartment.com/downloads/categories/ams-2-skins.197/

Si, avec tout cela, je ne suis pas parvenu à vous convaincre de vous y mettre (à AMS2), c’est que c’est peine perdue !

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Visite au musée des 24 heures du Mans…

Je ne sors pas souvent de ma tanière alors, quand je le fais, il faut vraiment que cela en vaille la peine !!

Mais à l’occasion de l’édition du centenaire des 24 heures du Mans qu’on a déjà évoqué, le musée de ces mêmes 24 heures s’était doté d’une exposition exceptionnelle et temporaire… En effet, elle s’achève le 2 juillet !

Je savais que c’était le type d’événement à ne pas louper mais j’étais réticent à affronter la foule… J’ai donc planifié ma visite au moment le plus « creux » d’après mes estimations.

Et, effectivement, c’était tranquille et l’exposition présentée était de très haut niveau avec certaines voitures illustres mais qu’on ne peut jamais voir (collections privées). Mon coup de coeur à moi, c’est la magnifique Tracta de 1928 de mon héros, J.A Grégoire.

Je suis tout à fait ravi que le musée ait rendu hommage à celui qui reste méconnu et qui fut pourtant indissociable de l’essor de l’automobile à traction avant dans le monde…

Publié dans Ce blog, Sport-auto | Laisser un commentaire

Retour sur l’édition du centenaire des 24 heures du Mans

Ce week-end, c’était les 24 heures du Mans, une épreuve que je suis depuis des décennies et que je ne veux rater sous aucun prétexte… Je n’y vais pas physiquement sur place cependant : j’y suis allé en 2003 et j’ai détesté cela !

En effet, il y avait bien trop de monde pour moi et même si j’étais dans des conditions VIP (invité par l’équipe Pescarolo parce que Soheil Ayari y roulait à l’époque), je me suis bien juré de ne pas y remettre les pieds : la foule, c’est vraiment pas mon truc.

Eurosport, laissez parler vos consultants !

Donc, je regarde les 24 heures à distance, au confort de mon home devant mes écrans (jusqu’à 4 !) grâce à la retransmission intégrale d’Eurosport (canal sans pub de préférence… encore heureux qu’on puisse choisir !). D’ailleurs, à propos d’Eurosport, il faudrait que les journalistes/commentateurs rigolent un peu moins et soient un peu plus attentif à ce qui se passe sur la piste (un temps de réponse de plusieurs secondes à plusieurs dizaines de secondes selon les événements !). Un conseil simple; laissez un peu plus la parole à vos pilotes/consultants : Frank Lagorce, Eric Hélary et Paul Belmondo, ils savent de quoi ils parlent, eux…

Endurance-info pour aller plus loin

Eurosport donc, c’est bien pour les images qui bougent mais, pour les détails importants, mieux vaut aller aux bonnes sources. Et, en français, je ne saurais trop vous recommander le site Endurance-info qui est très complet, très bien informé et très pertinent (c’est tout ?). De plus, son abonnement payant n’est vraiment pas cher, profitez-en tant que c’est comme cela (note pour Endurance-info : changez rien les gars !) : 18€ par an, soit 1,5€ par mois…

L’édition du centenaire… l’affiche tient-elle ses promesses ?

Alors, cette 91ème édition avait été présentée avec force fanfare : on allait voir ce qu’on allait voir, ah mais !
Déjà, je trouve que ça commençait mal avec une retouche de dernière minute de la BOP… Alors que, justement, les « autorités compétentes » (le WEC et l’ACO) avaient juré qu’elles n’y toucheraient pas, quelles respectaient les règles (qu’elles avaient mise en place !) et ainsi de suite… Et, bien sûr, au dernier moment : « ah, au fait, on a retouché la BOP afin que Peugeot évite le ridicule… ça vous la coupe, hein ! »… Comme quoi, il ne faut jamais croire les dénégations des fameuses « autorités compétentes » (et s’est hélas vérifié de nombreuses fois à travers l’Histoire récente ou ancienne…).

Bon mais en dehors de ce regrettable ajustement, le plateau présenté était plutôt valable, non ?
Oui, dans une large mesure. On peut penser que le plateau des 24 heures 1998 et 1999 était encore plus alléchant mais les courses qui s’en sont suivies n’ont pas été à la hauteur de l’affiche… Comme quoi, bien souvent, le mieux est l’ennemi du bien. Donc, oui, la course promettait beaucoup et, soyons juste, elle a aussi beaucoup tenu !

L’image inévitable : la Ferrari devant la Toyota…

Je suis de près le championnat WEC 2023 (ainsi que les 24 heures de Daytona, chaque année) depuis le début (à Sebring) pour voir comment les forces en présence s’équilibrent et, effectivement, c’est la manche disputée au Mans qui a été la plus intéressante et de loin !
La course a été intéressante à suivre de bout en bout, voire même palpitante à certains moments.  Cependant, si on doit faire un reproche ou émettre un regret, c’est au niveau des procédures liées à la voiture de sécurité qu’il faut les placer…

Le problème de la safety car…

L’édition du Centenaire des 24 Heures du Mans a vu l’entrée en vigueur d’un nouveau système de voiture de sécurité. Le moins que l’on puisse dire, c’est que cet ensemble de nouvelles règles sont assez compliquées et, surtout prennent beaucoup trop de temps à être exécutées !

Trop longues, beaucoup trop longues les nouvelles procédures sous safety-car…

Voilà ce qu’en pensent certain des intéressés (source https://www.endurance-info.com/auto/article/107486-une-regle-de-safety-car-qui-divise) :

===

« La nouvelle règle de la voiture de sécurité ne nous semble pas correspondre à l’esprit du Mans, indique notamment Pascal Vasselon, directeur technique du Toyota Gazoo Racing, interrogé à ce sujet durant la semaine mancelle. Lorsque l’on regarde ce qui a fait la grandeur du Mans, c’est tout le contraire de ce genre d’artifice où, si on n’est pas bon aux arrêts aux stands, si on fait une erreur de stratégie, ce n’est pas grave parce que la voiture de sécurité va tout remettre en place. C’est assez grave au niveau de l’état d’esprit. C’est un grand pas vers l’américanisation du Mans et notre avis est que ce ne doit pas être le cas. Sinon, ce n’est plus Le Mans. »

Un avis clairement partagé par Philippe Sinault, Team Principal d’Alpine Elf Team. « En théorie, il n’y a pas besoin de cela. La règle est la règle. On ne doit pas avoir besoin de ces règles pour être dans le coup. « C’est pour les faibles. ». » a confié le Français à Endurance-Info.

Témoignage de Sébastien Bourdais dans AutoHebdo (Source https://www.autohebdo.fr/actualites/endurance/24-heures-du-mans/bourdais-rassure-par-le-niveau-de-la-cadillac-au-mans-en-2024-nous-pourrons-avoir-lambition-de-jouer-la-gagne.html) :

Le seul bémol dans tout ça, ce sont les procédures. Le Safety Car, je valide, mais il y a moyen de faire moins compliqué et plus rapide. Il y a trop de patience, il faudrait demander à certains de se presser un peu, et je pense principalement aux concurrents pour avoir deux ou trois tours de moins sous Safety Car. Mais le principal problème, ce sont les slow zones, les Full Course Yellow

Que faudrait-il pour résoudre ce problème ?

Parfois, juste un drapeau jaune, c’est suffisant. Il faut arrêter de vouloir tout contrôler parce qu’on se rend compte que nous sommes ultra-accidentogènes en réalité. On essaie de faire de la sécurité la priorité, mais les slow zones durent plus d’une minute et quand tu repars, les pneus sont froids. Ce serait bien de faire un petit temps mort et de regarder ce qu’on pourrait faire de mieux. Par moments, ça tue la course. Ça cause plus de problèmes que de solutions. J’aimerais vraiment que ce soit revu. Nous avons vu des accidents qui n’auraient pas eu lieu avec simplement un drapeau jaune.

===

Après les deux premières sorties de la safety-car qu’on peut qualifier de désastreuse (beaucoup-beaucoup trop long !!), la direction de course semble avoir compris son erreur puisque à partir du matin, les safety-cars sont restés garées et il n’y à eu que des slow-zones ou, au pire, des FCY. Pas l’idéal (voire les témoignages) mais quand même bien mieux que les safety-cars…

Beaucoup d’erreurs humaines, beaucoup trop ?

Cette édition s’est aussi caractérisée par le nombre inhabituel de sorties de piste, accrochages et accidents… Faut-il le regretter ?

La pluie, ça glisse les mecs !

Ma question peut paraitre bizarre (qui ne voudrait pas moins d’accidents, ne serait-ce que sur le plan de la sécurité ?) mais je m’explique : les voitures de course d’aujourd’hui sont devenues tellement fiables que même les courses d’endurance sont « à fond » du début à la fin… La différence se fait sur les arrêts aux stands et sur l’habileté des pilotes à éviter les erreurs (trafic, piste glissante, trop d’attaque, etc.). Et, en fait, c’est une bonne nouvelle !

Oui, j’insiste, que le facteur humain redevienne déterminant devrait nous rassurer : les ingénieurs travaillent, le législateur tente de suivre mais, au final, ce sont les pilotes qui font la différence… N’est-ce pas là l’essence même du sport-auto ?
Tous, nous voulons que Le Mans reste une course de pilotes sans que les ingénieurs prennent (trop) le dessus. Or, c’est justement ce que l’édition 2023 des 24 heures du Mans vient de nous montrer… Et il faudrait le regretter ?

La magie et la morsure du Mans…

Finissons cet article par deux notions bien connues des passionnés et qui participent fortement à faire des 24 heures du Mans une course mythique, peut-être bien LA plus grande course du monde (les américains ne seront jamais d’accord avec cela : pour eux, LA plus grande course du monde, ce sont les 500 miles d’Indianapolis et, effectivement, ça se discute…). Il s’agit de la « magie du Mans » et de la « morsure du Mans ». Explications.

La magie du Mans, c’est l’ambiance à bord des voitures lors des différentes phases de la course mais en particulier lors de la nuit. Il faut l’avoir vécu pour comprendre : même en simulation, même en Karting (les des 24 heures du Mans karting), cette ambiance, cette « magie du Mans » vous saute à la figure et vous marque à jamais. Quoi qu’il arrive après (bon résultat ou abandon), vous voulez revivre « ça »…

La morsure du Mans est douloureuse et inattendue. C’est quand on croit que tout est joué, plié, terminé que cette morsure est la plus profonde (demandez donc à Toyota : la morsure du Mans, ils connaissent eux !). C’est quand vous êtes arrogant et que vous pensez que « finalement, Le Mans, c’est facile » que les dieux des 24 heures vous envoient dans le mur en gloussant… Quand on s’est pris, ne serait-ce qu’une fois (sur une demi-douzaine de tentatives, je n’ai terminé les 24 heures du Mans en simulation que deux fois… donc, oui, j’en témoigne : la morsure du Mans existe bel et bien !), cette morsure, on respecte cette course, ça oui !

En 2016, dans le stand Toyota, l’état major hébété réalise ce que c’est que la morsure du Mans, eux qui croyait avoir déjà tout connu…

Cette « morsure du Mans », c’est la façon qu’a cette course de choisir ses vainqueurs. Car tous les vrais connaisseurs le confirment : Le Mans est une course qui choisit ses vainqueurs, toujours.

Publié dans Sport-auto | Un commentaire

Mission : sauver le casque Premier « Trophy » !

Si vous lisez ce blog, peut-être savez-vous déjà que j’ai une vraie passion pour les casques moto !

Et, lors de ma revue en vidéo de tous mes casques, j’étais particulièrement critique sur l’intégral Premier Trophy que je trouvais très décevant, surtout au niveau de l’écran.

Le Premier Trophy avec mes pauvres tentatives pour enrayer les infiltrations d’air au de l’écran…

Prenant le taureau par les cornes (façon de parler…), je décidais de faire une dernière tentatives afin de « sauver » ce casque de l’oubli sur mes étagères !
Dans mon stock d’écran, j’en cherchais un qui puisse s’adapter correctement et, coup de chance, j’en ai trouvé un (rigide) qui avait pile les bonnes dimensions et les trous aux bons endroits.

Le Trophy avec son nouvel écran… Look préservé !

J’ai du mal à identifier à quel casque appartient cet écran (le Bell Star II ?) mais qu’importe, j’avais hâte de tester ce que donnais cette modification… J’ai pu rouler ce matin justement et là, miracle, cette modification s’avère très bénéfique vis-à-vis du défaut principal de ce casque : les infiltrations d’air au niveau de l’écran.

Les autres défauts sont toujours là mais, au moins, grâce à cet écran, ce casque est de nouveau utilisable, hourra !

Ceci dit, Premier aurait pu se bouger un peu sur cet aspect : si j’ai pu le faire, pourquoi pas eux ?

 

Publié dans casques moto | Laisser un commentaire

Là où l’IA pourrait vraiment être utile…

Pour commencer, je crois utile de rappeler ma position à propos du battage médiatique actuel (pour ne pas écrire « l’hystérie »…) sur l’IA (avec la dernière itération dite « générative ») : je fais partie des « septiques modérés » (oui c’est intéressant, non, ça ne va pas tout changer).

Ceci étant dit, je crois tout de même que cette nouvelle vague d’IA va nous être utile pour améliorer nos jeux vidéo actuels qui, disons-le, sont relativement médiocres sur le plan de l’IA, justement.

Lors d’une récente présentation de Nvidia, son PDG a expliqué ce que pourrait nous apporter les IA génératives au niveau des PNJ :

Nvidia a également présenté quelques exemples d’applications concrètes de l’IA générative. Dans le jeu vidéo, la société californienne va lancer une plateforme permettant aux développeurs de générer automatiquement des conversations ou des animations, notamment pour les personnages non jouables qui pourront ainsi être dotés de « personnalités réalistes qui évoluent ».

Cela parait trivial mais c’est assez important en fait, du moins, quand on s’intéresse aux jeux vidéo et aux simulations récréatives (c’est mon cas !). En effet, l’idéal théorique, c’est de jouer ou de rouler en ligne contre d’autres joueurs, d’autres vrais joueurs, des humains quoi… Mais, c’est seulement idéal en théorie car, en pratique, ces niveaux de jeu sont souvent (trop souvent) pollués par des crétins qui font n’importe quoi et gâchent votre expérience (quand ce n’est pas votre course dès le premier virage du premier tour, situation vécue trop souvent, hélas !).

Donc, pour éviter la foule mal éduquée, on se réfugie en mode « local » et on affronte des adversaires virtuels, des IA. Là aussi, le pire côtoie le meilleur : certaines simulations s’en tirent mieux que d’autres mais, d’une manière générale, on sent bien qu’il y a de la place pour une (grande) amélioration… Et c’est sans doute ce que les IA génératives peuvent nous apporter à terme (souvenez-vous : les évolutions importantes prennent du temps !).

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Quelques règles pour survivre à la hype…

En ce moment, cela n’a pu vous échapper, on vit une nouvelle vague de hype qui submerge tout à propos des fameuses « IA génératives »… Alors, que vous soyez enthousiaste ou sidéré (vis-à-vis de cette vague), peu importe. Ce qui compte, c’est de savoir comment gérer ce nouveau tsunami car il y en aura d’autres !

Je vous propose ici quelques règles simples que j’ai détaillé dans la vidéo qui illustre cet article :

  1. plus la vague (de hype) est haute et plus il est nécessaire de garder la tête froide et d’analyser rationnellement les données qui sont à notre disposition (tout en gardant en tête que ces données sont biaisées, forcément…).
  2. se souvenir que la hype présente une nouvelle technique toujours trop tôt par rapport à son niveau de maturité.
  3. garder en tête qu’il faut plusieurs phases (au moins deux, souvent plus) avant qu’une technique, quelle qu’elle soit, atteigne son vrai potentiel. De plus, la phase finale sera forcément moins ambitieuse que la phase initiale.
  4. enfin, il faut admettre qu’il y a une assez grande « mortalité » dans ce qui nous est présenté : entre les techniques qui n’ont pas tenues leurs promesses et celles qui n’étaient que du vent, il y a pas mal de déchets…

Bon, quelques explications supplémentaires dans la vidéo que voici :

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

Mes vidéos préférées issues de ma chaine YouTube

J’ai une chaine YouTube depuis 17 ans et j’ai publié 109 vidéos dessus. Bon, certaines ont évidemment ma préférence et c’est à une petite sélection que je vous invite sur cette page…

Cette vidéo est un teaser de mon documentaire sur la 917… Cela fait déjà 15 ans qu’elle est en ligne et c’est elle qui a le plus de vues de toute ma chaine !

Les 24 heures du Mans approchent, voilà un petit hommage où le Simracing tient sa place…

Un WE avec mon fils Val sur des motos, l’idéal !

Pour commencer l’année avec le sourire… Bon, c’était en 2017 mais rien n’a changé : ces images sont toujours autant roboratives !

Un drone permet de faire des belles images comme celles-ci…

On termine avec un peu de sport-auto, quand la F1 ressemblait à quelque chose…

 

Publié dans divers | Laisser un commentaire

Mes chroniques publiées sur Linkedin, compilation complète !

Voici des articles exclusifs que je n’avais publié que sur Linkedin (je crois, peut-être y a-t-il une ou deux exceptions…). Cela concerne pas mal de sujets divers mais je vous livre tout en vrac !

Bon, c’est tout de même par ordre chronologique, si ça peut aider…

Mes chroniques publiées sur Linkedin


La simulation, technique d’avenir, ô combien !

Publiée le 2 juin 2019 sur Linkedin

L’anticipation, sous-domaine de la science-fiction, joue son rôle quand elle permet de prévoir ce qui va nous arriver dans le futur. Dans le cas qui nous occupe ici, la question est centrée sur les applications de la simulation et leurs conséquences. Tout d’abord, il n’y a guère de doute que la simulation sera mise en œuvre.

Déjà, du côté scientifique, il y a beaucoup de justifications à le faire : pour modéliser les phénomènes naturels (tels que le climat et ainsi être en mesure de mieux prévoir son évolution ainsi que la météo à court terme) mais aussi et surtout pour modéliser les phénomènes sociaux (avec la nécessité de simuler les personnes jusqu’au niveau individuel le plus fin).

Aujourd’hui, de nombreux phénomènes sociaux sont considérés comme chaotiques, principalement par ignorance. Une fois simulés correctement, on pourra les étudier sous tous les angles et comprendre enfin la dynamique de chacun (si vous voulez optimiser l’évacuation d’un grand bâtiment, il vous faut connaitre à l’avance le comportement de la foule lors d’un mouvement de panique…).

Mais le domaine scientifique « pur » va être un champ d’application minoritaire de la simulation (contrairement à ce qui sera mis en avant pour justifier de la mettre en œuvre). Le domaine économique sera bien plus prolifique dans son utilisation des « simulis » !

Le domaine de la publicité, par exemple, sera un grand consommateur de situations simulées afin d’optimiser le message, le plan média, la fréquence de diffusion et ainsi de suite. On imagine bien que les politiciens, comme les publicitaires, vont également se jeter sur cet outil pour ajuster leurs discours en fonction de leurs cibles.

Tout cela parait évident une fois exposé correctement. Mais c’est dans le domaine de la « distraction » que le secteur économique va le plus avoir recours à la simulation, hé oui. En effet, regardez le succès actuel des différentes déclinaisons de ce qu’on appelle encore « les jeux vidéo » (voir à http://fr.wikipedia.org/wiki/Jeu_vidéo). Il suffit de regarder les chiffres pour se convaincre de l’importance croissante de ce secteur : l’industrie vidéoludique (c’est comme ça qu’on l’appelle selon Wikipédia…) génère actuellement un revenu plus important que celui du cinéma et ceci depuis 1997. En 2007, le revenu global approchait les 40 milliards de dollars. En 2012, le chiffre d’affaires mondial de l’industrie atteint 60 milliards de dollars selon le SNJV (Syndicat National du Jeu Vidéo). L’industrie vidéoludique serait ainsi la première industrie culturelle dans le monde. Le jeu le plus coûteux de l’histoire (fin 2013), GTA V, a coûté 270 millions de dollars (moitié production, moitié marketing) soit l’ordre de grandeur d’un blockbuster hollywoodien.

Donc, on a un moyen médiocre (pour dire le mieux) de se projeter dans un univers plus ou moins bien simulé (là encore, on reste gentil) et ça marche du tonnerre : des millions de gens (et pas que des jeunes) y passent un temps de plus en plus important tout en y dépensant une somme d’argent pas ridicule. Que se passera-t-il le jour où on pourra proposer une alternative autrement convaincante ?

Oui, vous m’avez bien compris, j’en reviens encore à la simulation, la vraie. Le jour où on pourra vous proposer une plongée en immersion totale dans les univers simulés (spécialisés au début, généralistes ensuite), vous allez voir que l’offre va faire recette immédiatement (et ça sera le cas de le dire : les succès financiers des jeux vidéo actuels paraitront bien pâles en comparaison !). Les gens vont se ruer vers ce nouveau « loisir » et les cas d’addiction vont se multiplier jusqu’à atteindre un seuil alarmant : le nombre d’individus qui vont préférer vivre une vie « plus ou moins scriptée » (en fonction de leurs préférences) dans les univers simulés va être surprenant. Tout du moins, ça sera surprenant à nos yeux d’aujourd’hui alors que ça paraitra banal quand ça sera possible. De la même façon qu’un honnête homme du XIXe siècle serait étonné de voir quelle est l’étendue actuelle de la consommation des substances addictives (y compris le sucre, les cigarettes, les médicaments, en plus des substances illégales comme les drogues dures).

Il n’est donc pas impossible (pour ne pas dire qu’il est probable) que l’usage des simulis soit le prochain grand problème de société à l’avenir. Voire même fera naître une autre catégorie de population : ceux qui vivent principalement en immersion (dans les simulis donc) et très peu (voire le moins possible) en dehors.

Bien entendu, cette situation ne va pas arriver du jour au lendemain. Tout d’abord, la mise au point de la « simulation totale » va prendre un certain temps (mais sans doute sera-t-elle là avant la singularité technologique qui reste un horizon hypothétique alors que la simulation totale est une perspective quasi certaine). Ensuite, les techniques d’immersion resteront compliquées et coûteuses pendant une période plus ou moins longue et, clairement, le transfert synaptique (si on continue à l’appeler ainsi) ne sera pas à la disposition de tout un chacun avant des décennies. Cependant, cela va finir par arriver et quand ça sera là, les digues vont céder et les masses vont s’y précipiter. Qui restera-t-il « à la surface » ?

Les deux extrémités, comme d’habitude : les plus pauvres qui n’auront pas les moyens de se payer une immersion (même brève) et les plus riches qui préféreront regarder tout cela de haut, tout en tirant les ficelles pour les plus malins d’entre eux.

L’avènement de la simulation aura quelques conséquences inattendues : disparation de la prostitution (tout du moins dans les pays riches, elle sera toujours effective dans les pays pauvres) et disparition des compétitions sportives. Ces disparitions seront limitées à leurs expressions physiques dans le monde « réel », car, bien sûr, compétitions et prostitution seront plus que jamais à la mode dans les simulis…

Pas besoin d’expliquer pourquoi la prostitution va être florissante dans les mondes virtuels, penchons-nous sur les raisons concernant les compétitions : facilités d’organisation, plus grande liberté des règles, diffusion « télévisée » à l’identique, réduction du danger et de ses conséquences, etc.

Encore que, pour ce dernier point, rien n’est moins sûr. On ignore encore (et pour cause !) quels seront les effets secondaires (ou encore, les effets réels, tout simplement) que pourraient avoir une blessure ou un traumatisme sur mon corps réel lorsque ces dommages arriveront à mon « avatar » en immersion… Peut-on vraiment séparer le corps de l’esprit ?

Voilà le type de « découvertes » que nous allons faire avec l’avènement de la simulation totale. Accrochez-vous, ça va secouer, car, comme disent les Anglais « there is always a surprise! » (il y a toujours une surprise).

PS) on constate que les simulis commencent à être mis en place par les industriels (à travers ce qu’on commence à appeler les “jumeaux numériques”). Les motoristes de l’aviation civile simulent le fonctionnement des moteurs équipant les flottes des compagnies aériennes en les alimentant avec les données réelles venant des vrais moteurs qui volent tous les jours.

Le but est de prévenir les pannes, d’anticiper les opérations de maintenance. Mais il est clair que, à l’avenir, ces simulations très techniques auront tout intérêt à être reliées à d’autres dans les domaines voisins : la météo afin de pouvoir y ajouter les données d’environnement et ainsi de suite. Une fois qu’on a cette image en tête, il est assez facile de se projeter la suite.

Et ce n’est que le début…


La technostructure est-elle en train de devenir autiste ?

Publiée le 18 septembre 2019 sur Linkedin

C’est la question qu’on peut se poser face au fossé qui est en train de se creuser entre les “gens normaux” et toutes les infrastructures dans lesquelles nous vivons et évoluons que j’ai pris l’habitude d’appeler la technostructure. En effet, on constate de plus en plus que le niveau de complexité augmente, que les réglementations s’accumulent, deviennent de plus en plus restrictive et qu’il est de plus en plus compliqué de les respecter, de les suivre ou même de les comprendre. En plus de cela, la numérisation croissante de nos interactions avec ses interlocuteurs (organisations ou sociétés), au lieu d’apporter les bénéfices espérés et promis produit de plus en plus de frustrations bien légitimes. En effet, on est de plus en plus souvent face à un mur, confrontés à des interfaces qui n’ont pas été pensées et qui n’ont pas été testé avec des “gens normaux” et qui vous imposent leur logique si tant est qu’elle soit compréhensible.

Et c’est moi qui dis cela !

Moi qui utilise des ordinateurs tous les jours depuis 1983… Moi qui suis à l’aise avec les systèmes techniques les plus divers, mais qui n’arrive plus à supporter l’absurde bureaucratie dans laquelle s’enfonce notre société.

Ce décalage de plus en plus fréquent et de plus en plus profond doit nous interroger. Jusqu’au cela va-t-il aller avant qu’un vrai craquement se produise ?

Va-t-on assister à un autre mouvement populaire de type “gilet jaune”, mais qui, cette fois, ne viendra pas des pauvres qui ne supportent plus d’être écrasés, mais des gens aisés qui ne supportent plus d’être oppressés par cette technostructure qui devient de plus en plus autiste.

À l’heure où l’on parle de plus en plus de relation client, sur le terrain, la situation est blême : le client, justement, a de plus en plus l’impression de ne plus être entendu, voire même de plus être respecté. Ce décalage ne peut plus durer, il va forcément déboucher sur quelque chose et j’ai bien peur que ce quelque chose ne soit pas souhaitable…


Pourquoi prédire un “hiver de l’IA” est contre-intuitif ?

Publiée le 7 janvier 2020.

Dans certains de mes écrits précédents, je reviens souvent sur une idée forte : l’IA, actuellement formidablement à la mode, va bientôt entrer dans une période moins florissante, un nouvel “hiver de l’IA” comme cette discipline en a déjà connu deux dans son passé. Pourtant, bien que les éléments qui indiquent ce prochain effondrement s’accumulent, le battage médiatique ne faiblit pas et continue à résonner positivement avec l’assentiment (aveugle ?) de la grande majorité des “analystes” de la tech. Pourquoi ?

Pour comprendre les forces qui sont à l’œuvre ici, je vous propose de nous pencher sur les mécanismes mentaux qui entretiennent cette croyance (l’IA, c’est l’avenir) en dépit des signaux qui indiquent le contraire.

Psychologie des foules

Prédire l’hiver de l’IA, c’est comme prédire un krach boursier : il est impossible d’indiquer avec précision quand cela se produira. Cependant, comme avant un krach boursier, on peut déjà observer des signes de l’effondrement imminent. Actuellement le “récit IA” trouve encore une résonance si forte qu’il est plus facile (pour le grand public) d’ignorer ces signaux et de continuer à croire cette belle histoire.

Pour comprendre la force du “récit IA”, il faut sortir du domaine de la tech pour passer dans le domaine de la psychologie sociale, de la psychologie des foules. Chaque nouveau convaincu renforce la conviction de l’ensemble avec des arguments du genre “un millions de personnes ne peuvent pas avoir tort, ne peuvent pas penser la même chose en même temps et se tromper” alors qu’on a des exemples par le passé qui montrent que le volume ne fait rien à l’affaire et qu’on peut avoir des foules qui ont des convictions (y compris très fortes comme dans le domaine religieux) qui ne reposent hélas sur rien. Dans le domaine de l’IA, il faut comprendre que chaque démonstration médiatique vient renforcer les autres. On est donc face à un effet cumulatif qui finit par ancrer une conviction en profondeur dans chacun de nous, on finit par s’habituer à “l’évidence” de telle ou telle affirmation, de telle ou telle hypothèse. Au bout d’un moment, elle n’est plus considérée comme une hypothèse, mais ça devient un fait (ça ne l’est pas), au moins dans la tête des gens. C’est ce mécanisme qui est à l’œuvre continuellement avec le battage médiatique autour de l’IA (et c’est pareil pour les autres modes).

Renforcement positif, forcément

Les membres du système médiatique vont, consciemment ou inconsciemment, appliquer un filtre de “renforcement” dans le choix des nouvelles qu’ils publient. Donc, dans un premier temps, ils vont plutôt publier des articles avec des éléments qui vont dans le sens d’une confirmation du phénomène en cours. Il faudrait le tarissement de cette source (celle qui confirme le phénomène) puis l’apparition d’une autre source (qui elle infirmerait la chose) qui irait dans l’autre sens (finalement, le phénomène “à la mode” n’est que vent, ça marche, etc.) et seulement si le flot de la seconde source se met à dépasser la première, on verrait le ton s’inverser. Et si on en arrive là, l’emballement médiatique reprend, mais dans l’autre sens.

Retournement de tendance, généralisée

Tout d’un coup, tous ces commentateurs qui disaient et répétaient “l’IA c’est l’avenir et ça va tout changer” vont se mettre à dire à l’unisson “finalement, c’est pas pour tout de suite, c’est limité, on a trop rêvé, etc.”. C’est un cycle qui se reproduit à l’identique depuis des décennies encore et encore. On a eu de nombreuses modes qui ont permis de l’illustrer (ce n’est d’ailleurs pas limité au domaine technique, on voit le même “cycle du hype” partout, y compris dans les domaines économiques et politiques). Ce n’est pas pour rien qu’en matière d’IA on parle de “printemps” et “d’hiver” parce que ça s’est déjà produit et l’on sait que ça va se produire à nouveau.

Une bulle médiatique, encore et toujours

Actuellement, nous avons tous les signes qui permettent d’identifier un prochain “hiver”, c’est-à-dire qu’on sait qu’on a accumulé tous les indices qui désignent une bulle, une bulle médiatique autour de l’IA qui se caractérise par “assez peu de signaux et beaucoup de bruits” (d’ailleurs, toutes les bulles médiatiques sont toujours basées sur un rapport signal/bruit complètement disproportionné !). La différence flagrante entre l’ampleur de l’écho donné aux réalisations spectaculaires (mais peu nombreuses) et le silence sur les réalisations ordinaires indiquent que ces dernières sont bien trop rares pour que la situation puisse être considérée comme “normale”. Donc, une mise en scène grandiose d’un côté et le désert de l’autre. On retrouve ce décalage aussi bien avec Watson d’IBM qu’avec Deepmind de Google. Dans ce dernier exemple, on va parler encore et toujours de sa formidable réussite dans le domaine du jeu vidéo et du jeu de Go, mais on va taire le fait que Deepmind n’arrive pas à trouver des débouchés pour ses logiciels en dehors de la “galaxie Google”. Pourquoi ce biais narratif ?

Eh bien parce que c’est plus facile et mieux reçu par la cible habituelle de ressasser quelque chose de connu que de proposer une vraie analyse, une analyse critique de la situation. Donc, on ne le fait pas sauf quand l’époque et l’atmosphère sont devenues favorables à un “AI bashing” qui, très vite, se généralise (emballement médiatique de fin de cycle). Ce décalage entre le grandiose de ce qui est mis en avant (AlphaZero et le jeu de Go) et le désert des réalisations plus modestes, mais concrètes peut être expliqué par le principe des retours décroissants qui est presque un effet de “miroir inversé” avec l’enflure médiatique qui elle va croissant.

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel !

Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité.

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

« il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité « 

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire.

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas.

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite”… Voir à ce propos => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-1-la-maturation

Peu de sources, trop de diffuseurs

Mais cette confusion est inévitable, car liée à notre capacité de perceptions limitées et au fait qu’on aille toujours vers le plus facile. Et le plus facile, c’est de retenir les éléments qui correspondent à notre schéma de pensée (et d’éliminer les autres), auxquels on peut adhérer et avec lesquels on a “l’impression de comprendre” plutôt que de devoir reconsidérer ses filtres, faire une vraie analyse, se mettre à penser pour de vrai, à se lancer dans une analyse critique. Il est plus facile et confortable d’avaler des contenus qui, en fait, ne sont que des résumés (éventuellement de façon abusive sous couvert de vulgarisation) d’éléments lus ailleurs et regroupés en quelques copier-coller à faible valeur ajoutée, car mal compris et mal digérés.

La prochaine victime : l’informatique quantique

Le battage médiatique est constitué de ces redites reprises ad nauseam, car il y a très peu de sources et beaucoup de diffuseurs (comme il y a peu d’agences de presse et beaucoup de chaines de TV…). On voit ce mécanisme encore utilisé actuellement à propos de l’informatique quantique avec des promesses délirantes alors qu’on n’est qu’au tout début de ce domaine radicalement nouveau (voir plus à ce propos ici => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/linformatique-quantique-pour-bientot).

Je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse… Remettez en cause les analyses, y compris la mienne. La bonne attitude sur le plan intellectuel n’est pas de suivre le troupeau mais bien de tirer ses propres conclusions en fonction de votre contexte et de vos contraintes.


L’E-sport est en train de devenir un phénomène de société

Publiée le 20 janvier 2020 sur Linkedin

Avertissement – Je n’ai pas vraiment “rédigé” cet article : j’ai pris des éléments des différentes sources citées à la fin de cet article et je les ai ordonné de façon cohérente. Plus un travail d’édition (beaucoup de copier/coller, un peu de corrections et de reformulations) que de rédaction donc…

Dans l’e-sport, la progression des récompenses reflète la croissance de ce domaine. En 2013, à Sydney, la bourse était de $7000 pour le tournoi d’esport organisé à ce moment-là. Avance rapide jusqu’à aujourd’hui et l’on voit que ce même tournoi de Sydney offre désormais une bourse de $350 000 à se partager entre les participants, une inflation certaine !

L’e-sport est désormais de plus en plus reconnu comme une activité sportive, car il fait appel aux compétences personnelles des joueurs comme le réflexe, l’acuité visuelle, la précision, la stratégie ou la communication — des compétences utilisées dans des sports tels que les échecs, le sport automobile, le tir à l’arc ou les sports collectifs.

Des débuts timides puis fracassants

Les débuts de l’e-sport commencent dès 1990, entre autres grâce au jeu Quake. Ces premiers événements ne sont “que” des rassemblements de plusieurs dizaines de personnes. Ces derniers ramenaient leur propre ordinateur et s’affrontaient en LAN (Local Area Network). Puis avec la sortie d’autres jeux propices à l’e-sport, tels que Starcraft ou encore Trackmania, l’e-sport s’est diversifié sur plusieurs autres styles de jeu.

Les années 90 ont aussi vu l’essor des jeux de combat et des tireurs à la première personne (FPS). Les compétitions opposaient désormais joueur contre joueur au lieu des meilleurs scores. Cependant, c’était un titre de “stratégie en temps réel” qui allait littéralement changer la donne…

Sorti en 1998 pour PC, Starcraft avec son robuste mode multijoueur utilisait Internet pour jouer en ligne et en compétition. Il s’agissait d’un phénomène sans précédent en Corée du Sud. Les tournois Starcraft ont germé et les matchs ont été télévisés sur plusieurs stations. Les joueurs ont commencé à devenir pro, à former des équipes et à récolter des parrainages rémunérés avec des marques, avec des campagnes publicitaires. Ce fut la vraie naissance de l’esport.

La professionnalisation du jeu vidéo au sens large vient ensuite en 1997 avec la création de la Cyberathlete Professional League, revendiquant l’existence d’un système sportif dans lequel des équipes composées de joueurs, auxquelles viennent parfois s’ajouter des informateurs, managers, entraîneurs et sponsors s’entraînent régulièrement sur des jeux dans un but purement compétitif.

L’essor de l’e-sport

La compétition et les rencontres internationales se sont d’abord développées avec des FPS tels que Counter-Strike, entre autres. Mais le progrès du milieu compétitif suivait généralement celui des jeux vidéo : ainsi, en 2008, l’Electronic Sports World Cup a retenu de nouveaux jeux tels que Quake III Arena ou encore TrackMania Nations ESWC. Ainsi en élargissant son panel de jeux, l’e-sport avait davantage de chances de toucher un public plus large.

L’essor de l’e-sport a fait émerger de nouveaux métiers, celui de joueur professionnel ou bien de streamer (d’abord sur Twich, la plateforme pionnière en la matière et désormais sur YouTube). Avec cet élan rassemblant plusieurs millions de personnes, des acteurs majeurs s’intéressent à cette nouvelle discipline.

Mais c’est essentiellement en 2010 que l’on assiste à un véritable progrès dans le domaine compétitif avec l’ajout de jeux à l’e-sport tels que Hearthstone, StarCraft II, FIFA, les nouveaux volets de Call Of Duty et Counter-Strike, Dota 2 ou encore le très prisé League of Legends. De plus, le développement de la diffusion de ces rencontres grâce à des WebTV spécialisées dans ce domaine tels que MilleniumTV, OrigineTV, NetGaming, YouTube ou encore Twitch, a permis d’étendre l’influence de l’e-sport sur internet notamment. Ainsi, en 2014, on a recensé 89 millions de spectateurs (via ses plateformes) réguliers lors de compétitions de grande envergure et pas moins de 117 millions de spectateurs (toujours via ses plateformes) occasionnels.

Ce développement si rapide et efficace est également dû aux sponsors qui financent les rencontres et certaines équipes professionnelles ; on peut citer Intel ou AlienWare entre autres, qui organisent la majorité des rencontres en louant des salles et des stades entiers, en fournissant le matériel, ou encore en offrant la récompense à l’équipe gagnante.

Aujourd’hui, l’e-sport ne cesse d’attirer les amateurs et suscite même l’attention de nombreux journaux qui ne sont d’ordinaire pas spécialisés dans le domaine du jeu vidéo.

Et en France ?

En France, l’e-sport a commencé à faire parler de lui en 2010, avec le progrès des compétitions internationales.

On assiste en 2016 à la création de compétitions nationales telles que la e-ligue 1 sur la série FIFA, projet soutenu notamment par l’éditeur de jeux vidéo Electronic Arts.

Ainsi en 2016, l’e-sport en France a généré un revenu global de 22,4 millions de dollars d’après PayPal, et plus de 27 millions en 2017. L’hexagone est le troisième pays européen en termes d’audience pour l’e-Sport. En 2017, 37 millions de téléspectateurs en Europe regardaient régulièrement les compétitions. De leur côté, les Français étaient plus de 2 millions derrière leur écran. Un chiffre qui pourrait atteindre 2,8 millions en 2019. À titre comparatif, ces audiences sont équivalentes à des programmes télévisuels tels que les Césars ou encore les Victoires de la musique.

Le pays y voit une occasion de se développer dans un secteur en pleine expansion. Annoncée en 2018, la FFF (Fédération Française de Football) a décidé de lancer une équipe de France d’e-Sport.Toujours côté foot, le PSG s’est lancé dans l’E-sport en Octobre 2016 en s’associant avec Webedia, une entreprise spécialisée dans les médias en ligne.

De leurs côtés, les chaînes de télévision et les constructeurs s’activent aussi et y voient une opportunité grandissante. M6 a annoncé en février 2018 une participation minoritaire dans Glory4Gamers ou encore Renault qui a rejoint les rangs de Team Vitality en créant sa propre équipe « Renault Sport Team Vitality ».

La plupart des grands groupes médias français investissent aussi dans le secteur : Webedia en rachetant Oxent (développeur de l’e-Sport platform Tournament), Lagardère Sport avec Team Roccat, Vivendi avec Canal eSport Club.

Une ruée vers l’or au niveau mondial ?

L‘E-sport concerne aussi les jeux mobiles et ainsi Alphabet Inc, le conglomérat détenant Google et ses services, a investi 120 millions de dollars (en janvier 2018) dans une société chinoise, Chushou. C’est une société qui propose une plateforme de streaming de jeux mobiles, et plus particulièrement de jeux compétitifs. Cette dernière a déjà attiré plus de 8 millions de streamers. Leur objectif étant d’aider la plateforme à se développer en Chine et à l’international.

Les recettes de l’e-sport (850 millions de dollars en 2018, estimations) sont estimées à 10 milliards de dollars en 2030. En 2018, plus de 100 millions de dollars ont été distribués aux gagnants des compétitions. Ces chiffres peuvent paraître démentiels pour une discipline encore méconnue du grand public. Cependant, la finale mondiale du jeux-vidéos League of Legends a réussi à remplir un stade olympique, rassemblant ainsi plus de 40.000 personnes. Elle était aussi diffusée en direct et à réuni plus de 60 millions de spectateurs uniques.

Malgré des rémunérations de plus en plus faciles et importantes, les principaux revenus de la majorité des joueurs e-sport restent les plateformes de streamings (YouTube, Twitch) grâce aux dons ou aux publicités.

Certains acteurs déjà présents dans l’e-sport essayent de faciliter l’arrivée de cette discipline. Que ce soit un streamer qui sponsorise un joueur professionnel ou encore une chaîne de télévision qui ne diffuse que de l’E-sport.

L’e-sport étant une discipline naissante, certains points importants à son succès auprès du grand public posent encore problèmes. L’un de ce derniers est le nombre de d’événements organisés par différentes structures, de ce fait il peut y avoir plusieurs champions sur un seul et même jeu. C’est pour le moment le point faible de l’e-sport, il n’existe pas de structure officielle pour le représenter. C’est une des raisons pour lesquelles la fédération mondiale de Jeux Olympiques ne l’a pas encore accepté.

Malgré cela, l’OCA (Comité Olympique Asiatique) a annoncé sa volonté d’intégrer l’E-sport au programme des jeux asiatiques de 2022.

Toutes les disciplines sportives sont concernées ou presque !

On a déjà évoqué le foot et League of Legends qui sont deux piliers du développement de l’e-sport mais, bien sûr, d’autres secteurs sont aussi concernés même si certains prennent un peu le train en marche.

C’est le cas des sports-mécaniques où, en 2019, on a enfin vu un vrai décollage de la discipline. Que ce soit pour le MotoGP, Le Mans ou la Formule Un, des championnats officiels sont organisés et les vraies équipes y engagent des SimRacers super aiguisés. L’argent est au rendez-vous et cela aide à expliquer pourquoi après avoir tardé, le décollage n’en est que plus brutal.

Conclusion : les lignes sont en train de bouger

Il est incontestable que l’e-sport est en train de prendre sa place dans notre société des loisirs et du spectacle. Il est déjà possible de faire carrière, en tant que sportif professionnel, sans jamais aller sur le “vrai” terrain. La compétition est féroce et les meilleurs s’entraînent de façon “effrayante” (Marc Marquez qui est plutôt du genre à être un bosseur et un perfectionniste, a été étonné de voir l’engagement et la précision des meilleurs pilotes participants au championnat MotoGP en e-sport). La croissance est très forte car les sponsors pensent qu’ils ont enfin trouvé la recette magique pour toucher les “jeunes”… Du coup, l’argent coule à flot. Pour combien de temps ?

Alain Lefebvre – Janvier 2020

Sources utilisées pour cet article :

https://www.linkedin.com/pulse/exponential-esports-growth-from-7000-350000-australian-chris-smith/

https://www.geekslands.fr/item/1312-l-essor-de-l-e-sport-dans-le-monde/

https://www.forbes.fr/business/la-revolution-du-e-sport/

https://www.autoblog.com/2019/11/01/esport-racing-series-guide-history/

http://www.jeuxvideo.com/news/772751/google-investit-dans-l-esport-mobile-en-chine.htm

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

https://www.la-croix.com/Sport/Ce-sport-derange-monde-sportif-2017-05-12-1200846649

http://blogs.lecolededesign.com/veille/2018/01/11/lessor-de-le-sport/

https://www.lequipe.fr/Esport/Actualites/Esport-adrien-zerator-nougaret-sponsorise-un-joueur/864342

http://www.gameblog.fr/news/72810-es1-la-chaine-100-esport-a-une-nouvelle-date-de-lancement-et

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

http://www.lepoint.fr/sport/on-espere-que-l-e-sport-prendra-toute-sa-place-au-psg-10-01-2018-2185260_26.php


Les orphelins de leur passé numérique

Publiée sur Linkedin le 27 janvier 2020

C’est récemment que j’ai réalisé ça : on parle beaucoup de big data, de la prééminence de la donnée, y compris au niveau individuel, mais la réalité est tout autre… La réalité, c’est que de plus en plus de gens sont des « orphelins de leur passé numérique » !

J’ai compris cela en voulant migrer le contenu du téléphone de mon épouse, depuis son ancien iPhone qui commençait à accuser le poids des ans vers un Pixel 4 flambant neuf. Tout s’est bien passé et la procédure de migration conçue par Google (il y a même un adaptateur de prise USB pour faire face à tous les cas) est bien faite et efficace… sauf en ce qui concerne l’historique des conversations WhatsApp !

Je me suis penché sur le problème puis j’ai plongé dans ce trou noir et je dois avouer que j’ai eu du mal à en sortir… Rien ne fonctionne, ni même l’utilitaire dr.phone (payé 30 euros), il a fallu que je transfère à la main, morceau par morceau, l’historique de nos échanges afin qu’il ne soit pas perdu, qu’elle puisse le retrouver sur son nouveau téléphone tip-top. Si ça m’a pris tant d’efforts à moi, vous imaginez pour les gens « ordinaires » ?

En effet, en dépit des efforts des GAFAM, chaque migration, chaque passage d’un appareil à l’autre, chaque changement de logiciel et chaque changement de smartphone se passe mal, la plupart du temps : les procédures sont complexes, les gens sont peu enclins à les suivre et les bugs et situations inédites sont encore monnaie courante. Du coup, on a nouveau smartphone tout neuf oui, mais vide la plupart du temps… aie.

Or, nous avons tous des photos, des vidéos et des textes (voir des présentations) que nous voulons garder, absolument. Bien entendu, se pose d’abord un problème de place : les photos que nous prenons à l’occasion sont bien plus nombreuses qu’avant et elles pèsent plus lourd aussi. Même problème pour les vidéos et ainsi de suite (mais, bien sûr, c’est pour ces deux types de contenus que cet aspect se fait le plus sentir). Collectivement, nous produisons toujours plus de contenus chaque année, encore bien plus que ce qui a été produit jusque-là. Mais, de toute cette masse, quelle est la part qui est gâchée, perdue, inaccessible ?

Eh bien il s’avère quelle n’est pas négligeable. Dans cette ère du jetable, du plastique à usage unique, des smartphones qu’on remplace et déclasse pour un oui ou un non (en dépit de leur prix !), notre production numérique est difficile à traiter comme un bien qui est destiné à durer, à rester avec nous, à travers le temps, les âges, les générations.

Dans notre petite famille, nous avons un enregistreur vidéo (un Caméscope, c’est ainsi qu’on appelait cela il n’y a pas encore si longtemps) depuis 1990. Depuis, nous avons systématiquement converti et conservé précieusement ces enregistrements. Nous avons des serveurs Synology configurés en RAID pour cela et nous pratiquons des sauvegardes sur le mode 1-2-3 systématiquement et depuis des années (au passage, je recommande le service Backblaze…). Nous sommes parés pour les situations « normales », mais on ne sait jamais ce qui va menacer votre patrimoine de données, d’images, de vidéos… Nous tenons à ces images et à ces vidéos, nous considérons qu’elles sont une part de nous. Et nous nous apercevons qu’il est toujours plus difficile de les stocker, de les convertir, de les trier et ainsi de suite.

J’imagine que certains doivent avoir les mêmes difficultés que nous, mais que beaucoup d’autres renoncent à tous ces efforts. Nous entrons dans l’ère des orphelins du numérique où nous produisons beaucoup de données, mais où nous en perdons autant à chaque occasion.


Quand la réalité rejoint la fiction

Publiée sur Linkedin le 6 février 2020

Je viens de regarder un documentaire sur Arte : “Des robots et des hommes”. Un contenu sur la robotique, l’IA et les questions sociétales que ces sujets posent… Rien d’exceptionnel, mais j’ai pour habitude de regarder plus ou moins « tout » ce qui passe à ma portée sur ces sujets (et d’être souvent déçu par les banalités et les idées reçues qui y sont ressassées !).

Cependant, cette fois, une séquence a particulièrement retenu mon attention. À partir de 46:30; on y voit une jeune femme qui explique son quotidien au travail à Londres… Depuis dix ans, elle livre des colis (genre Uber Eats) en vélo et explique que depuis ses débuts, les choses ont bien changé : avant, elle avait un manager qu’elle voyait de temps en temps et, désormais, tout ce fait à travers une app, y compris les sanctions !

Voir à https://www.arte.tv/fr/videos/058352-000-A/des-robots-et-des-hommes/

Cette évolution déshumanisée m’a rappelé exactement le contexte d’un roman de SF écrit par Marshall Brain : Mana (voir à https://marshallbrain.com/manna1.htm).

Dans Mana, une chaîne de fast food remplace tous les managers par une application reliée aux employés par un casque audio où elle donne ses ordres. Les employés peuvent et doivent indiquer où ils en sont par un microphone intégré au casque audio. Les humains sont ainsi transformés en quasi-robots qui doivent obéir minute par minute à une application qui trace tout, n’oublie rien et sanctionne au moindre travers.

Il est assez saisissant de voir qu’on en est là, déjà. Et nul besoin d’une AI sophistiquée pour atteindre ce genre de résultat : il suffit d’un programme comme les plateformes de services telles qu’Uber et autres mettent en œuvre depuis des années. Les évolutions les plus radicales ne demandent pas forcément un saut technologique important, il suffit d’intégrer finement ce qui est déjà largement disponible…


Comment reconnaître une mode technique exagérée ?

Publiée sur Linkedin le 9 février 2020

En ce moment, les médias nous expliquent avec force que “l’informatique quantique”, c’est l’avenir et que ça va tout changer…

Les médias n’ont pas peur du ridicule, ils sont là pour faire de l’audience, à tout prix. Comme la nature, les médias ont horreur du vide. Quand la mode précédente commence à s’essouffler (au choix, la Blockchain, la voiture autonome ou encore l’IA), ils en cherchent une autre, n’importe quelle autre du moment que son contenu paraît sexy et accrocheur.

Car la propagande technique a ses règles qu’elle suit rigoureusement. Tout d’abord, pour vendre sa nouvelle mode, elle emploie toujours les mêmes arguments. Ils sont faciles à reconnaître et vous les connaissez déjà. C’est le fameux “c’est tellement important que ça va concerner tous les domaines applicatifs”… en clair, ça sera “tout pour tous”. Cette proposition est absurde et toujours démentie, mais elle joue son rôle. Celui d’allumer les signaux d’alerte dans l’esprit des lecteurs et donc d’attirer leur (faible) attention.

En effet, la grande majorité des gens n’analyse nullement ce qu’il voit passer, ils se contentent de réagir, nuance. Et pour déclencher cette réaction (émotionnelle plutôt que rationnelle, forcément), rien de tel qu’un argument massue s’appuyant sur la peur : tout va changer grâce/à cause de cette technologie, préparez-vous !

Dans le cas de l’informatique quantique, ce serait risible si ça n’était pas désolant de voir que les mêmes ficelles (grossières) sont utilisées encore et encore. Car, soyons sérieux, l’informatique quantique n’en est qu’à son tout début et ne va pas produire des résultats significatifs avant au moins une dizaine d’années. C’est comme si on extrayait un prématuré de sa couveuse en prétendant qu’il allait battre le record du 100 m… ridicule et dangereux.

Les technologies mises en lumière trop tôt souffrent de cette exposition médiatique prématurée. Certes, dans un premier temps, l’argent se met à couler à flots sur les quelques équipes de recherche concernées (notez bien, on parle ici d’équipes de recherche…), mais, quand la déception va arriver (et elle arrive toujours) ces crédits vont se tarir brutalement.

La technologie ainsi malmenée ne va pas disparaître, elle va continuer à évoluer lentement en mode discret, car c’est ainsi que cela fonctionne : les “révolutions en une nuit” mettent vingt ans à maturer discrètement. La biotech ou la nanotechnologie ont été des déceptions, car mises en avant trop tôt, bien trop tôt. Mais depuis qu’elles sont retournées dans l’obscurité, elles continuent à évoluer, à progresser, lentement mais sûrement. Un jour, elles reviendront sur le devant de la scène pour enfin produire leurs effets et changer la donne.

En attendant, apprenez à décoder la propagande et évitez de tomber dans les “pièges à gogos” qui sont continuellement renouvelés.


La discrimination du futur : entre les « pensants »​ et les « lobotomisés »​.

Publiée sur Linkedin le 19 février 2020

Il suffit de regarder la télé 5mn pour en être convaincu (surtout si vous ne l’aviez pas vu depuis longtemps) : les programmes tels qu’ils sont devenus aujourd’hui ne s’adressent qu’aux plus débiles d’entres nous (y compris et surtout les pubs qui atteignent désormais des sommets !).

Le vrai fossé, la vraie discrimination du futur n’est pas entre les races, les gros et les moins gros, les jeunes et les moins jeunes (j’en oublie forcément mais je vous laisse compléter la liste) mais entre ceux qui réfléchissent encore par eux-mêmes (que, par commodités, nous appellerons les « pensants » à partir d’ici) et qui sont forcément une minorité (de plus en plus infime, hélas) et ceux qui ont abdiqué leur cerveaux (ou ce qu’il en reste) et qui s’abreuvent de ces programmes (que ça soit à la TV, sur YouTube ou ailleurs, là encore je ne vais pas faire la liste, vous voyez l’idée). Nous appellerons les membres de cette majorité croissante (hélas), les lobotomisés (ce qui situe assez bien leur état).

Ce fossé existe déjà, il se creuse un peu plus tous les jours (les pensants sont de moins en moins nombreux, les lobotomisés sont de plus en plus débiles) mais ce n’est encore rien par rapport à ce qu’on risque de voir se concrétiser à l’avenir. En effet, imaginez le scénario suivant (qui, on va le voir, n’est même pas exagéré, ni sur le plan technique, ni sur le plan sociétal) : un ou plusieurs des GAFAM finissent par mettre au point et commercialiser des lunettes permettant d’obtenir une « réalité augmentée » permanente tout en restant discrètes (pas un gros machin façon masque de VR) et sachant resté connectées au réseau en toutes circonstances (grâce à la 5G, c’est pas si loin). Eh bien, je pense que ce dispositif (porté en permanence bien sûr) servira principalement aux lobotomisés afin de pouvoir se gaver de leurs « contenus favoris » tout au long de la journée. On peut même imaginer qu’il y aura deux versions de ces lunettes : une, assez coûteuse, où c’est vous qui choisirez ce qui s’affiche et une autre, bien moins cher car « sponsorisée » (par TF1 ou M6, au hasard) où vous n’aurez plus le choix des contenus qui s’affichent (et où, ô surprise, il y aura une tranche de pub supplémentaire…).

Une que ce scénario sera en cours de réalisation, nous pouvons dire adieu à la grande majorité de la population : ils seront perdus, inaccessibles et tout échange intelligible avec eux sera progressivement impossible.

J’exagère, vraiment ?


Toujours plus vite… vers quoi ?

Publiée sur Linkedin le 29 février 2020

Les apôtres de la modernité nous le répètent sans se lasser : tout va de plus en plus vite !

Faut-il les croire ?

Je vous l’avoue, j’ai une position tout à fait opposée : non, je ne pense pas que “tout va toujours plus vite” même et surtout le progrès technique !

J’ai même publié un livre à ce sujet qui démontre la stagnation des principales technologies à la mode. Sur Linkedin, je ne manque jamais de pointer les incohérences de cette nouvelle pensée unique tout comme les autres effets pervers de la propagande hi-tech (la fixation sur l’IA et/ou la Blockchain).

En vérité, à la place du “toujours plus vite”, ce que je constate, c’est plutôt un “toujours les mêmes défauts mais en plus grand nombre” !

Toujours plus de défaillances, d’impasses et de bugs dans la sphère numérique grandissante.

Soyons honnête et, pour le moment, la réalité de l’expérience utilisateur est plus souvent médiocre qu’idyllique dans le monde merveilleux de “la révolution digitale”… En effet, il suffit d’évoquer ces procédures qui passent par des successions de formulaires pour finalement échouer au dernier moment pour différentes raisons (dépassement du temps prévu, rupture réseau, données manquantes ou, le plus souvent, aucune raison évoquée mais un simple message “erreur, réessayer dès que possible” qui met en rage même le plus zen d’entres nous !), ces applications qui captent vos données mais ne vous permettent pas de migrer votre historique quand vous changez de smartphone, ces GPS qui vous font passer par des parcours soit-disant “optimisés” mais absurdes en pratique… dois-je continuer cette liste des (mauvais) exemples des ratés de la “révolution digitale” que nous subissons autant (voire plus que nous en profitons ?

Mais alors, comment expliquer cette unanimité dans vis-à-vis de cette pensée unique (tout va de plus en plus vite) ?

La réponse se trouve peut-être dans les volumes toujours croissants de ce qui nous est accessible…

X10 de contenus, dans tous les domaines

On en parle moins souvent que de l’accélération (supposée mais facile à réfuter) mais ce qui caractérise vraiment notre époque, c’est cette abondance dans les contenus et ce dans tous les domaines ou presque.

Il y a seulement vingt ans, le monde était très différent de celui d’aujourd’hui. Pas vraiment sur le plan du niveau technologique atteint (qui, j’insiste, stagne) mais bien sur le plan de la diversité de l’offre. Regardez autour de vous et vous constatez une incroyable abondance dans les contenus (de distractions puisque nous sommes dans la société des loisirs en plus d’être dans la société du spectacle, l’une étant la conséquence de l’autre d’ailleurs !) et les offres commerciales qui sont disponibles, le plus souvent à un prix abordable en plus.

Pour celles et ceux qui sont assez âgés pour s’en souvenir, on reste ébahis devant l’incroyable augmentation de l’offre accessible. On peut multiplier les exemples : qui peut encore compter le nombre de chaînes de télévision disponibles (inutile, aucune ne vaut la peine d’être regardée !) ?

Pareil pour les chaînes YouTube et les services en ligne. Je suis écrivain et j’ai pu constater que l’offre de livres sur Amazon avait littéralement explosé alors que les gens lisent moins… allez comprendre !

Oui, je pense vraiment que c’est l’abondance bien plus que la vitesse qui caractérise notre époque. Et, face à ce déferlement, chacun reste médusé. Pas étonnant que, faute d’analyse plus approfondie, on finit par “penser” que “tout va toujours plus vite”…


Nous sommes trop nombreux et ça nous entraîne sur une pente dont nous ne voulons pas…

Publiée sur Linkedin le 15 avril 2020

Oui, c’est un peu long comme titre et pourtant, c’est exactement cela… Tout d’abord, nous sommes clairement trop nombreux et, ensuite, cela a des conséquences : cette pente dont nous ne voulons pas et qui pourtant s’impose à nous et nous entraîne.

Pas besoin de trop revenir sur le “nous sommes trop nombreux” mais, si ça n’est pas déjà le cas, je vous conseille de lire ce petit récit que j’ai publié il y a plus d’un an (Un nouveau récit de fiction : « Les terribles trop »…). Une fois ceci posé, que constatons-nous ?

Notre nombre qui augmente en permanence conduit à toujours plus de densité. Cette densité a des conséquences en cascade, on peut le voir en ce moment d’urgence sanitaire mais ce qu’un aspect (même s’il est dramatique et actuellement proéminent). Car cette augmentation se paye avec d’autres croissances à tous les étages : plus d’impôts (lors de la “grippe de Honk Kong de 1969, la pression fiscale en France n’avait rien à voir avec son niveau de 2020…), plus de réglementations (et moins de libertés du coup) et plus de contraintes de toutes natures. Plus la population prend de la place, moins il y a de confort, de sécurité et de liberté pour tous, il faut bien le dire !

Or, en ce moment, ces “terribles trop” ne sont pas assez mentionnés, presque ignorés alors qu’ils sont vraiment à l’origine de nos problèmes (et pas seulement la crise actuelle qui, bien sûr, nous obnubile).


L’époque est favorable aux tartuffes

Publiée sur Linkedin le 20 avril 2020

En ces temps troublés, que voit-on ?

Des tartuffes de tout acabit qui tentent de faire passer des vessies pour des lanternes !

En effet, on ne compte plus les organismes de formations qui, auparavant, crachaient leur venin sur le E-learning et qui, aujourd’hui, le mettent en avant sans aucune vergogne… Pareil pour le télétravail, tous ces petits chefs qui n’en voulaient pas (surtout pour de mauvaises raisons) et qui tournent leurs vestes pour en vanter désormais les mérites…

Inutile de vous donner d’autres exemples, vous avez compris et vous pourriez citer d’autres imposteurs du même ordre. L’époque n’est pas à la vertu, elle est à celui qui se reniera le plus vite !


Le télétravail est une lentille grossissante !

Publiée sur Linkedin le 27 avril 2020

Les managers qui veulent à tout prix “fliquer” leurs collaborateurs qui travaillent à distance sont complètement “à côté de la plaque” : le télétravail agit en fait comme un révélateur. Celles et ceux qui étaient productifs au bureau le seront encore plus ailleurs, à distance, loin des contraintes paralysantes du “tout le monde au même endroit” (réunion chronophages, interruptions “sociales” constantes, etc.). En revanche, celles et ceux qui étaient performants pour “brasser de l’air” dans le contexte hautement social du bureau vont se retrouver fort dépourvus face à un écran, seul et sans public. C’est en cela que les situations de télétravail sont des révélateurs, des lentilles grossissantes qui permettent de départager les bons éléments productifs des “acteurs qui savent juste faire semblant” d’être de bons éléments.

Il en est de même pour le management. Celles et ceux qui insistent pour mettre en place ces dispositifs de surveillance sont du même acabit : conscients de leurs faiblesses en matière d’entraînement et de charisme, ils tentent de compenser en jouant les “petits chefs” et se transforment en “surveillants” car ils sont incapables de jouer pleinement leur rôle.


Ce que j’ai appris en 60 ans

Publiée sur Linkedin le 30 avril 2020

Hier, j’ai eu 60 ans. Je dois avouer que, quand j’avais la vingtaine, cela représentait pour moi un horizon si lointain qu’il paraissait tout à la fois inaccessible et complètement indésirable. Pour tout dire, je n’arrivais pas à me projeter “vieux”. Aujourd’hui bien sûr, j’ai une vision différente et je ne me vois toujours pas “vieux”.

Cependant, ce parcours qui s’est déroulé si vite, a eu le temps de m’apprendre une chose ou deux que je voudrais partager avec vous à travers cet article. Oh, je ne suis pas devenu un parangon de sagesse parce que j’ai atteint 60 ans mais laissons la modestie de côté pour tenter de transmettre ce que la vie m’a appris, jusqu’ici…

1- Apprendre

On ne cesse jamais d’apprendre et, surprise, c’est de plus en plus agréable, désirable même. S’il n’y a qu’une chose à apprendre aux jeunes, c’est ça : l’envie d’apprendre. Avec ça, vous êtes armé pour tous les défis.

2- Transmettre

C’est une pulsion qui s’impose à vous, l’âge venant. Ce que vous avez accumulé (et là, on ne parle pas de richesses mais de connaissances…), vous avez subitement envie de le transmettre, non, besoin de le transmettre. Pour que cela ne soit pas perdu ?

Peut-être, peu importe, la pulsion est là, il vous faut lui obéir.

3- Incertitude

Rien n’est sûr, surtout pas ce qui est annoncé comme certain. Attendez-vous à des déceptions si vous croyez celles et ceux qui vous annoncent des certitudes. Restez serein aussi, rien n’est sûr veut aussi dire que le pire n’est jamais certain… c’est déjà ça !

4- Amour, amitié

“Rien ne compense l’échec au foyer” me disait souvent un vieil ami… ô combien vrai !

Concentrez-vous sur l’essentiel : réussir à maintenir l’amour au sein de votre foyer. Cela semble évident, pourtant nombreux sont celles et ceux qui échouent en se perdant dans des objectifs divers qui ne sont PAS le but de la vie.

Si l’amour est important, ne négligez pas l’amitié qui est source (abondante) de bonnes surprises (et qui, souvent, dure plus longtemps…).

5- Lâcher prise

Je n’ai jamais rien achevé de bon en étant arc-bouté sur ma tâche. “Être à cran” ne vous aidera pas. Apprenez le lâcher prise, le plus tôt possible. D’abord parce que c’est long à maîtriser ensuite parce que ça sert longtemps.

6- Échecs, réussite

“Le succès, c’est d’aller d’échec en échec sans perdre son enthousiasme” (une citation célèbre attribuée à WINSTON CHURCHILL). Soyons clair, j’ai échoué très souvent, bien plus souvent même qu’il n’est confortable de l’avouer !

Mais échouer ne veut pas dire “se tromper”. Tous ces échecs m’ont apporté quelque chose, tous m’ont aidé à bâtir les quelques succès que j’ai pu achever. Sans les (nombreux) premiers, il n’y aurait pas eux les (quelques) seconds.

7- Rester positif

“Pourquoi s’inquiéter ?” dit le sage hindou… Il ne s’agit pas d’être positif à tout prix même au milieu des pires malheurs. Mais il suffit de se rendre compte que la beauté est partout (oui, vraiment partout, il faut juste chercher à la voir…) pour réaliser que nous avons le choix : nous plaindre (sans que cela fasse avancer quoi que ce soit) ou apprécier ce court séjour sur terre pour ce qu’il nous apporte.

8- Regard des autres

Ah si on pouvait se passer du regard des autres !

Mais on peut en fait. C’est lorsqu’on réalise finalement que le regard des autres ne vous apporte rien qu’on peut s’en libérer. Et cette liberté vous rend plus fort et plus heureux. C’est comme toute libération, il n’y a que le premier pas qui coûte…

9- Immuable

C’est comme les certitudes : rien n’est immuable. Riez quand vous entendez “pour toujours”. Aucune situation ne perdure, aucune domination n’est épargnée par le déclin, aucune position n’est acquise “pour toujours”. Libérez-vous de ce genre de boulet.

10- Sens de la vie

Ne cherchez pas le sens de la vie dans la philosophie ou dans l’ésotérisme, vivez-le à travers de profondes gratitudes : transmettre la connaissance, rayonner l’amour de vos proches, percevoir la beauté du monde, le voilà le sens de la vie.

Enfin, un dernier enseignement, très personnel cette fois : j’ai compris que je devais laisser une œuvre pour être tout à fait satisfait de mon passage dans ce monde. Cela paraît prétentieux ou trop ambitieux ou trop vain (c’est là où se libérer du regard des autres est utile…). Peu m’importe, c’est ma pulsion actuelle profonde. Peut-être cette « œuvre » restera inconnue, oubliée avant même d’être lue… peu importe, cela est mon moteur, ma motivation et mon devoir pour le temps qui me reste.


Haro sur le télétravail !

Publiée sur Linkedin le 11 juin 2020

Depuis le début du des confinement, on assiste à une véritable campagne de presse orchestrée contre le télétravail. On peut lire, ça et là, des articles résumant tous les inconvénients du télétravail, les témoignages des victimes (!) du télétravail, les inconvénients du télétravail qu’on a pu constater pendant la période de confinement et ainsi de suite.

En vérité tout cela ressemble fort à une ultime réaction de l’ancien monde face aux bouleversements récents du “nouveau monde” qui est en train de se mettre en place.

Il semble bien qu’une partie du management essaie de s’accrocher à ses anciennes prérogatives et fait tout ce qu’elle peut pour cela, y compris avoir recours à ce genre de campagne de le dénigrement. Cela indique surtout son degré d’affolement vis-à-vis de ce bouleversement que nous avons vécu tous ensemble. Car finalement, le télétravail est la seule bonne chose que l’on peut retirer des quelques mois de confinement que l’on vient de vivre en France.

Mais, comme ce mode de collaboration à distance semble insupportable à certains, rien de mieux que d’essayer de le disqualifier à travers des articles de pleurnicheur des nouvelles pratiques. Mais il n’y a pas que le management qui s’affole, c’est également le cas pour les “papillons de nuit” qui profitaient de leur présence au bureau pour brasser beaucoup d’air mais produire très peu. Avec l’avènement du télétravail, ce sont les premiers à être mis crûment devant leur inefficacité. Pour eux, il est clair qu’il vaudrait mieux revenir aux anciennes pratiques.

Cette ultime tentative de ces réactionnaires est bien la preuve, finalement, qu’il faut intégrer aussi largement que possible le travail à distance et affiner ce mode de collaboration sans présence physique. Qu’on le veuille ou non, qu’on l’apprécie ou pas, c’est un vrai progrès dans des pratiques professionnelles. Et tant pis pour les pleurnicheurs qui regrettent l’ancien monde car ils pouvaient l’exploiter et faire semblant de travailler sans trop se fatiguer.


Pour votre bien, restez à l’écart des modes techniques dans l’informatique…

Publiée sur Linkedin le 15 juin 2020

Je le répète à longueur de chroniques et d’ouvrages (à tel point que je pourrais passer pour un affreux rétrograde !) mais l’intérêt des organisations qui utilisent l’informatique n’est pas de suivre les modes imposées par les acteurs du marché qui, dans un bel ensemble, sont tous d’accord pour mettre en avant une nouvelle lubie tous les quatre ans.

Un exemple ? Pas de problème !

La transformation digitale était annoncée il y a quelques années comme une rupture majeure. Cloud, objets connectés, big data, intelligence artificielle et même les drones devaient devenir des technologies omniprésentes et tout révolutionner. En parallèle, de nouveaux entrants devaient s’imposer sur le marché avec leurs modèles d’affaires alternatifs et bousculer l’ordre établi, désintermédiant les acteurs historiques.

Dans la pratique, il y a bel et bien eu des ruptures sur certains secteurs d’activité comme Tesla dans l’automobile, Space X dans l’aérospatial, Revolut et N26 dans la banque de détail ou encore Netflix et Spotify, qui ont effectivement révolutionné l’industrie de l’Entertainment. Les GAFAM et BATX sont quant à eux devenus les premières capitalisations boursières et ont provoqué de profondes adaptations réglementaires sur le plan fiscal et en matière de protection des données personnelles, qui ont des répercussions sur l’ensemble des secteurs d’activité.

Mais il est clair que cette transformation digitale si elle a bien eu lieu dans quelques secteurs est loin d’avoir provoqué la rupture majeure tout azimut annoncée et répétée sur tous les tons.

En somme les ruptures annoncées se sont produites dans quelques cas emblématiques et mis en avant ad nauseam par les thuriféraires de la trop fameuse transformation digitale (elle aussi bien trop mise en avant !). Donc, on a généralisé quelques exemples exceptionnels en voulant faire croire qu’ils pouvaient s’appliquer à tous dans tous les domaines (ce qui n’était évidemment pas le cas, la suite l’a prouvé).

En réalité, c’est la même chose sur le plan technique : ce que les GAFAMs peuvent faire n’est pas forcément généralisable à toutes les organisations utilisant l’informatique (loin de là !). Un exemple éclairant avec l’IA : les GAFAMs ont tous su mettre en application le machine learning de façon spectaculaire mais, en dehors de ces cas extrêmes, c’est le désert !

On serait bien en mal de citer des organisations « ordinaires » ayant pu produire des résultats extraordinaires avec les dernières techniques de l’IA à la mode… Même IBM s’est planté en voulant commercialiser (trop tôt) son programme Watson auprès des intervenants du système de santé américain…

Et cette précaution ne se limite pas à l’IA, il en est de même pour quasiment tous les domaines à la mode !

Par charité, on évitera de poser les questions qui fâchent comme “mais où sont donc les voitures autonomes qu’on nous avait promises ?”.

Bref, vous l’aurez compris, les modes techniques sont toujours présentées trop tôt et vous avez intérêt à “laisser passer votre tour” afin d’en profiter une fois la maturité arrivée.


La prochaine ère de l’IT ? Une pause !

Publiée sur Linkedin le 18 juin 2020

N’en déplaise aux chantres de la “transformation digitale” (punaise, y en a vraiment marre d’utiliser cette expression !), la prochaine ère de l’IT ne sera PAS orchestrée par les développements fabuleux de l’IA ni par les possibilités formidables de la Blockchain (vous avez remarqué ? On en parle moins en ce moment et c’est pas dommage !).

Non, la prochaine ère de l’IT, c’est de faire une pause, tout simplement.

Oui, notez bien la date et retenez que c’est moi qui vous l’annonce car, pour une fois, la prochaine mode, c’est de calmer tout cela et de se concentrer sur des projets concrets, pratiques, les deux pieds bien ancrés au sol.

Mais qu’est-ce qui me permet de faire une prédiction aussi audacieuse ?

Eh bien, deux éléments. 1- Le machine learning affiche ses limites et 2-la loi de Moore est en train de s’effacer…


Fin de partie pour l’IA, winter is coming

Tout d’abord, le hype autour de l’IA dopée au machine learning est enfin en train de se calmer. C’est The Economist qui vient de siffler la fin de partie avec un dossier spécial consacré : après des années de battage médiatique, beaucoup de gens pensent que l’IA n’a pas réussi à délivrer des résultats à la hauteur des promesses (voir à https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in).

Je ne suis pas surpris puisque ça fait des années que je l’annonce (voir à http://www.alain-lefebvre.com/avenir-de-lia-lhypothese-85/). Ce qui a été surprenant, c’était de voir que, pendant longtemps, nous étions peu à le dire. Maintenant que The Economist vient de publier ce dossier, le hype en matière d’IA va forcément s’atténuer fortement, enfin !

Vous n’êtes pas obligé de me croire mais, en revanche, vous pouvez lire le dossier de The Economist fort bien fait…


Fin de partie pour la loi de Moore

Le NYT en parlait dès 2016 : la loi de Moore qui s’est vérifiée pendant des décennies est en train de s’effacer (lire à https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html).

En fait, c’est plus important qu’il n’y paraît car, qu’on le veuille ou non, qu’on y croit ou pas, les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage.

Gordon Moore, fondateur d’Intel, a observé en 1965 que le nombre de composants pouvant être gravés à la surface d’une tranche de silicium doublait à intervalles réguliers et le ferait dans un avenir prévisible – une idée connue sous le nom de loi de Moore. Credit Paul Sakuma/Associated Press

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Si la loi de Moore est en train de finalement heurter un mur, c’est tout simplement le principal moteur du progrès technique qui est stoppé. Or, pour reparler du machine learning, on s’est vite aperçu que l’entraînement de ces systèmes demandait beaucoup de ressources (vraiment beaucoup) et de plus en plus.

Voyons cet extrait de The Economist (source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem) pour situer les choses :

===

Openai, une firme de recherche basée en Californie, a déclaré que la demande de puissance de traitement avait décollé en 2012, alors que l’excitation autour de l’apprentissage automatique commençait à monter. Elle s’est fortement accélérée. En 2018, la puissance informatique utilisée pour former les grands modèles avait été multipliée par 300000 et doublait tous les trois mois et demi (voir graphique). Il devrait savoir – pour entraîner son propre système «Openai Five», conçu pour battre les humains à «Defense of the Ancients 2», un jeu vidéo populaire, il a mis à l’échelle l’apprentissage automatique «à des niveaux sans précédent», exécutant des milliers de processus sans arrêt pendant plus de dix mois.

Des chiffres exacts sur le niveau de ces coûts sont rares. Mais un article publié en 2019 par des chercheurs de l’Université du Massachusetts à Amherst a estimé que la formation d’une version de «Transformer», un autre grand modèle de langage, pourrait coûter jusqu’à 3 millions de dollars. Jérôme Pesenti, responsable de l’IA sur Facebook, explique qu’une session de formation pour les plus grands modèles peut coûter «des millions de dollars» en consommation d’électricité.

===

La progression de cette exigence dépasse de beaucoup ce que la loi de Moore était capable de compenser en temps normal… Et, désormais, elle ralentit. Vous voyez la collision des situations qui est en train de se dessiner ?

Bref, tout cela nous indique fortement qu’une pause est en train de s’installer. Il faut dire que la crise du Covid19 avait déjà ridiculisé (provisoirement ?) tous les tenants du transhumanisme et de l’immortalité. Cette fois, c’est la pause à venir qui va disqualifier les consultants en mal d’audience qui poussent encore et toujours la “transformation digitale” faute d’avoir quelque chose à dire… Tant mieux, qu’ils se recyclent sur autre chose.


Je veux aller vivre en Théorie

Publiée sur Linkedin le 29 juin 2020

Il est toujours très difficile d’avoir un discours contrariant dans le domaine technique parce que, d’une façon générale, le grand public a une perception “hystérique” de la réalité de l’évolution technique. Une perception déformée si le terme “hystérique” vous parait trop fort.

Que vous soyez craintif ou enthousiaste vis-à-vis des progrès techniques, dans les deux cas vous avez tort. La peur n’évite pas le danger et, si vous avez peur des évolutions techniques, peur de vous faire balayer (par Amazon ou par Uber), eh bien soyez sûr que ça arrivera. Car les évolutions techniques significatives finissent toujours par arriver et produisent des impacts importants. Simplement, ça prend toujours plus de temps qu’annoncé (principe de maturation toujours négligé ou sous-estimé).

Dans le même temps, si vous êtes trop enthousiaste en croyant que ces mêmes progrès techniques vont apporter et permettre, vous tendez le ressort de la déception cuisante qui, inévitablement, viendra. Pourquoi ?

Parce que, avouons-le, on est toujours déçu par la technologie et la vitesse de ses évolutions. Car la technologie requiert des investissements d’infrastructures pour sa mise en place, donc, des investissements importants (pensez à ce qui est en train d’être dépensé pour la mise en place de la 5G… et c’est la même chose tous les dix ans en matière de télécom).

Donc, quand on est face à des besoins de financements massifs, on est toujours obligé de “survendre” pour arriver à faire passer la pilule. Alors, forcément, le retour sur investissement va être long, ne va pas être aussi juteux que prévu et ainsi de suite.

En gros, la technologie ne nous décevrait jamais si tout se passait conformément à la théorie. Mais on sait bien que ce n’est pas le cas, jamais le cas. Comme le disait si justement Jean-Louis Gassée “je veux aller vivre en Théorie parce que tout se passe parfaitement en théorie”.

Mais en pratique, c’est autre chose : il y a des retards, il y a des imprévus, il y a des échecs, il y a des déceptions (voir le projet ITER par exemple). Gardez cela en tête la prochaine fois que vous devrez planifier un projet qui s’appuie sur une innovation technologique…


L’accélération est la nouvelle pensée unique (et c’est une connerie monumentale !).

Publiée sur Linkedin le 1er juillet 2020

On vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous le diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils se sont tellement persuadés que ce soit la vérité qu’ils se la répètent les uns les autres.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ?

Mais ça ne fonctionne pas toujours de la sorte. Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du soleil dans le ciel pour se rendre compte qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, pourtant à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux. Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement alors que la technologie est en train de ralentir.  Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira.

L’état de l’art, dans tous les domaines qui reposent sur la technologie, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on sur ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que la technologie est portée par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir.  C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et que cette solution est d’ordre technique.  Ainsi il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technologie vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu de la technologie. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie.

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) seront dans nos rues aussi rapidement qu’on nous dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi sûre.

Je peux parfois donner l’impression que je nie le progrès technique… Rien n’est plus faux !

Le problème essentiel vient de la façon dont les nouveautés techniques sont présentées au grand public. A chaque fois, la nouvelle technologie à la mode est accompagnée de promesses pharamineuses à grands coups d’adjectifs ronflants (« révolutionnaire » est le terme le plus souvent utilisé). Mais ça ne veut pas dire que c’est forcément un pétard mouillé pour autant. Internet, par exemple, n’a pas tenu toutes les promesses du temps de la bulle des dotcoms, mais il n’en n’a pas moins changé beaucoup de choses (depuis l’ecommerce qui a redéfinit nos pratiques de consommation jusqu’au cloud qui a redéfinit notre façon de gérer l’informatique). Au final, Internet peut être vu comme une déception seulement si vous avez cru à tous les bobards proclamés dans les années quatre-vingt-dix.

Je sais que la technique finit toujours par progresser, presque inexorablement et ce dans quasiment tous les domaines. Mais j’insiste, cette progression prend simplement plus de temps (toujours plus de temps !) que ce qui en est dit.

La technique ralentit, les retours décroissants sont partout et nous allons droit vers une déception majeure.

L’informatique semble être épargnée par cette stagnation mais c’est une apparence : seuls les capacités progressent (vitesse de traitement, affichage, stockage, taille des appareils et efficience électrique) mais pas les fonctionnalités qui restent très limitées. La meilleure preuve c’est que quand il y a une avancée dans ce domaine (IA avec les images ou la reconnaissance vocale), elle est mise en avant bruyamment !

Le progrès technique devrait être boosté en temps de guerre mais c’est l’inverse qui se produit : les militaires sont conservateurs et la recherche de l’innovation décisive est restée vaine lors des précédents conflits, seule la production de masse compte désormais.

Les programmes militaires sont comme ceux du médicaments : ils ralentissent inexorablement, pour un coût toujours plus élevé et sont donc moins nombreux à aboutir.

Dans le domaine spatiale aussi, les progrès sont très décevants (quasiment une absence de progrès en fait). SpaceX performe simplement en étant plus rationnel que les autres acteurs !

Il y a une grande différence entre un programme étudié et un programme opérationnel. Le nombre de projets étudiés et abandonnés est proprement vertigineux (ils sont très visibles dans les domaines spatial, nucléaire et militaire). Car la dernière marche est toujours la plus dure à gravir. Pour celles et ceux que les lois de l’évolution technique intéressent de plus près, j’ai listé celles-ci dans une série d’articles à voir à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-de-linformatique-introduction. Cela concerne surtout l’informatique (mon sujet de prédilection) mais c’est évidemment transposable et applicable aux autres domaines.

La propagande masque la réalité

La propagande est partout et masque la réalité. Deux exemples pour achever de s’en convaincre. Tout d’abord, un article paru sur « Siècle Digital » intitulé « Nos cellules souches squelettiques pourraient régénérer nos os ».

C’est une avancée scientifique importante qu’une équipe de chercheurs de Stanford vient de rapporter. Ils ont découvert les cellules souches squelettiques qui donnent naissance aux os, au cartilage et à l’os spongieux qui héberge la moelle osseuse. Cette découverte pourrait un jour aider les médecins à réparer ou à remplacer le cartilage des articulations et à guérir plus rapidement les os brisés. https://siecledigital.fr/2018/09/27/cellules-souches-squelettiques-aident-os-regenerer/

Et l’article continue sur le même ton avec des promesses faramineuses comme « Un jour, nous ne nous soucierons plus des effets du vieillissement ». Mais sur les étapes à franchir, les conditions pour confirmer cette découverte et un calendrier d’application, rien. L’annonce est jetée aux yeux du public comme si tout cela ne comptait pas et que cet avenir lumineux était déjà à notre porte !

Ensuite, cet autre article, toujours sur « Siècle Digital » :

Des chercheurs ont réussi à créer par hasard une enzyme capable de détruire du plastique. Une découverte qui pourrait contribuer à résoudre le problème de la pollution liée notamment aux bouteilles en plastiques. https://siecledigital.fr/2018/04/18/enzyme-mange-plastique/

Ce second exemple est encore plus pernicieux que le précédent car, cette fois, on sous-entend qu’on n’a même pas besoin de vraiment chercher des solutions : on va même les découvrir par accident !

Et comme toujours, aucune précision sur la mise en œuvre de cette découverte : comment va-t-on produire en masse cet enzyme ? quels seront les effets secondaires ? comment va-t-on collecter ces huit millions de tonnes de plastiques qui se retrouvent chaque année dans les océans ?

Pfuit, des détails tout cela !

Le solutionnisme est une impasse

Le « solutionnisme » frappe les esprits mais ça ne correspond à rien. Le nucléaire (gestion des déchets) est là pour nous montrer qu’il existe des problèmes sans solution et qu’il vaudrait mieux ne pas s’y engager dès le départ.

Les trois piliers de la techno-structure

Notre société repose sur trois piliers : 1- l’appétit de croissance, 2- la technologie omniprésente et 3- la propagande. Laissons de côté l’appétit de croissance déjà bien documenté par ailleurs. Ce dernier est le moteur de notre société, son apport énergétique. La machine est sa trajectoire, le spectacle est son ressenti.

Des grands penseurs du XXe siècle ont attiré notre attention sur les deux derniers piliers : Jacques Ellul pour la machine et Guy Debord pour la société du spectacle. Ellul est le premier à avoir compris que la société moderne était une société technicienne dirigée logiquement par des technocrates. Il explique dans ses livres que pour comprendre ce qu’est devenue notre civilisation, il est plus important de se pencher sur le rôle de la machine, son omniprésence et son infiltration continue que de répéter encore et encore la traditionnelle analyse marxiste sur le rôle du capitalisme…

(…) chaque progrès technique est destiné à résoudre un certain nombre de problèmes. Ou, plus exactement : en face d’un danger, d’une difficulté, (…) on trouve forcément la réponse technique adéquate. Ceci provient de ce que c’est le mouvement même de la technique, mais répond aussi à notre conviction profonde, générale dans les pays développés, que tout peut être ramené à des problèmes techniques.

Le mouvement est alors le suivant : en présence d’un problème social, politique, humain, économique, il faut l’analyser de telle façon qu’il devienne un problème technique (ou un ensemble de problèmes techniques) et à partir de ce moment-là, la technique est l’instrument adéquat pour trouver la solution.

(…) Le système technicien, exalté par la puissance informatique, a échappé définitivement à la volonté directionnelle de l’homme.

(…) La pratique intensive de la télévision anesthésie l’acte réflexif de la conscience et inhibe la parole. Elle fait de la parole un acte résiduel.

Jacques Ellul, dans « Le Bluff Technologique » 1989.

Ce qui compte, ce n’est pas ce qui est vrai, c’est ce qui en est dit !

Si la machine est omniprésente, c’est encore de manière assez subtile. Ce n’est pas le cas de la propagande qui elle, est très visible. C’est le troisième pilier si bien analysé par Guy Debord dans « La société du spectacle ». Dans le flot continue de la propagande, tout devient spectacle et la réalité ne compte plus. Peu importe ce qui est vrai, seul compte l’enrobage, le comment cela est présenté, nuance…

Plus on parle de transparence, moins on sait qui dirige quoi, qui manipule qui, et dans quel but. Guy Debord, dans “La Société du spectacle” (1967).

Ce que vivent les gens et ce qu’ils prennent pour de l’accélération, c’est en fait un abrutissement continu de « nouveautés » qui sont lancées dans le paysage médiatique comme autant d’étoiles filantes qui brillent furieusement pour s’éclipser aussi vite. Il n’y a aucun temps mort, à peine l’une disparaît qu’une autre prend sa place et attire à elle attention et commentaires.

Pas le temps de la réflexion

Le public n’a pas le temps de la réflexion avec un pareil pilonnage. Il est là, fasciné, sans comprendre la véritable portée et l’impact de la nouveauté présentée qu’aussitôt, une autre occupe la scène jusqu’à la prochaine. Peu importe que ces modes éphémères n’apportent ni progrès ni valeurs dans le court terme; peu importe qu’elles soient importantes ou négligeables dans le long terme, elles sont toutes présentées de la même façon.

Vous remarquerez (et ce n’est pas un hasard) que c’est la même technique de saturation qui est utilisée dans les domaines politiques et sociétaux. Cette loi de l’immédiateté et du bourrage de crâne permet de diriger les regards loin des vrais sujets et de noyer le poisson avec une efficacité avérée. Pourquoi donc la technostructure s’en passerait-elle ?

La technique est la nouvelle religion dans la mesure où il faut « croire » pour être « sauvé ». Du coup, elle a son dogme (tout est possible) et son clergé (tous les tenants de la hi-tech sans limites).

Une vérité indicible !

La vérité indicible (indicible, car elle remet en cause le dogme et, dans toutes religions, c’est le tabou absolu !), c’est qu’il n’y a pas d’accélération. Comment cela serait-il possible ?

Si tous les domaines techniques étaient en accélération continue, ils seraient tous capables depuis longtemps, de passer de la découverte à l’application sans plus aucun délai et il n’y a pas besoin d’être spécialiste pour observer que ce n’est évidemment pas le cas.

Ce que nous vivons actuellement est au contraire un ralentissement qui aboutit, au fil du temps, à une stagnation décourageante. Bien entendu, ce ralentissement et cette stagnation sont masqués par le bombardement médiatique qui fait en sorte de perpétuer l’illusion du progrès continu. On est quasiment dans la même situation que dans une longue guerre où la propagande s’efforce de maintenir le moral de la population en rabâchant que « la victoire est proche », que « la lumière est au bout du tunnel », que « l’ennemi est épuisé, son effondrement ne va plus tarder ».

La vérité est qu’il faut se débarrasser des illusions véhiculées par la propagande comme l’horizon fumeux des transhumanistes (si on était encore capable de raisonner sainement, de semblables affirmations feraient rire tout le monde !). Il faut savoir accorder du temps au temps et admettre que les progrès de la technique (les vrais progrès) en demandent beaucoup plus qu’on ne le voudrait. Les hommes aiment voir les résultats de leurs conquêtes. Seule cette rééducation va nous permettre d’évaluer sereinement et rationnellement les différents projets et nous permettre de choisir quels sont ceux qui méritent les allocations de ressources nécessaires. Mais la technostructure ne veut pas que vous soyez responsable de votre destin, ni dans le domaine technique ni dans les autres. C’est pourquoi elle préfère de loin vous faire gober des histoires merveilleuses à priori et incompréhensibles (et fausses) qui vous incitent à laisser à d’autres le poids des décisions impliquantes.


Nucléaire : parlons peu, parlons bien !

Publiée sur Linkedin le 6 juillet 2020

De nos jours, le principal problème c’est que trop de personnes parlent de ce qu’elles ne connaissent pas, vraiment pas. Et c’est particulièrement vrai en matière d’énergie nucléaire.

Pas d’avis autorisé

Je n’en suis pas un spécialiste, je ne peux donc donner un avis autorisé sur la question. En tant “qu’honnête homme” raisonnablement cultivé et instruit des choses techniques, je crois savoir que la production d’énergie s’appuyant sur des centrales à fission nucléaire présente des avantages indéniables mais aussi des (gros) inconvénients tout aussi indéniables. En tant que non-spécialiste, je ne peux donc pas trancher si les avantages l’emportent sur les inconvénients (même si j’ai mon idée là-dessus, je la garde prudemment pour moi…).

Contre-vérité ou bêtise crasse ?

En revanche, ce qui m’irrite profondément, c’est d’entendre encore et toujours les mêmes bêtises répétées avec une régularité déprimante sur le sujet. Pour illustrer mon propos, on va se contenter des deux affirmations qu’on entend tout le temps et qui sont simplement entièrement fausses (et c’est d’autant plus dommage de les entendre proférées par des interlocuteurs présentés comme des “spécialistes” par nos médias généralistes qui ne vérifient rien). Soit ces “spécialistes” ne sont pas compétents et c’est grave, soit ils mentent délibérément et c’est encore plus grave…

Voyons maintenant ces deux affirmations :

  1. le nucléaire ne rejette pas de gaz à effet de serre,
  2. le nucléaire contribue à l’indépendance énergétique nationale.

Le nucléaire et le gaz à effet de serre

Combien de fois avez-vous entendu cela ?

Mais le nucléaire en revanche, comme il ne rejette aucun gaz à effet de serre, nous aide à tenir nos engagements…

Comment peut-on affirmer une chose pareille ?

Il suffit de regarder les immenses tours de condensations des centrales… Qu’en sort-il ?

De la vapeur d’eau. Or, la vapeur d’eau est le tout premier et le plus efficace des gaz à effet de serre, point. Ce n’est pas moi qui l’affirme et c’est facile à vérifier => https://fr.wikipedia.org/wiki/Gaz_%C3%A0_effet_de_serre

L’effet de serre naturel est principalement dû à la vapeur d’eau (pour 0,3 % en volume, soit 55 % de l’effet de serre) et aux nuages (17 % de l’effet de serre), soit environ 72 % dus à H2O et 28 % restants dus essentiellement au CO22. Il a porté la température moyenne, à la surface de la Terre, à +15 °C.

C’est tout de même pas difficile de se renseigner de nos jours. Il suffit de taper “gaz à effet de serre” dans Google pour avoir la réponse immédiatement. Donc, la prochaine fois que vous entendrez le fameux “Mais le nucléaire en revanche, comme il ne rejette aucun gaz à effet de serre…”, vous saurez que ce “spécialiste” est soit incompétent, soit malhonnête.

Le nucléaire et l’indépendance énergétique nationale

La seconde affirmation est encore plus délirante et encore moins supportable si c’était possible !

Qu’on m’explique en quoi importer du pétrole ou importer de l’uranium est différent (sur le plan de l’indépendance énergétique au moins) ?

Pas besoin d’aller plus loin, la France ne produit presque pas d’uranium (pas plus que de pétrole) et est obligée de l’importer (principalement d’Afrique), point.

Très peu d’interlocuteurs compétents

Vous l’aurez compris, on entend tout et surtout n’importe quoi sur tous les sujets mais surtout sur les sujets techniques. Les soit-disant spécialistes compétents sont vraiment rares et ceux qui sont honnêtes encore plus. Vous êtes prévenus.


Où est passé le terrorisme ?

Publiée sur Linkedin le 2 septembre 2020

Je pense que vous l’avez remarqué : le terrorisme a disparu !

Oui, enfin, ne vous réjouissez pas trop vite, il n’a pas vraiment disparu… Simplement, on en parle moins et ça, je suis sûr que vous l’aviez remarqué.

Il n’a pas vraiment disparu, les attentats déjoués existent (mais là, on en parle carrément pas et pour de bonnes raisons…), les attentats réussis aussi mais ils n’ont plus la couverture médiatique passée. Pourquoi donc ?

Eh bien tout simplement parce que notre technostructure (dont les médias font partie) a trouvé mieux pour faire peur aux gens : la crise sanitaire !

Ah ça, mon bon monsieur, quand on met la main sur un levier aussi efficace, on ne va pas se priver, vous pensez… D’où l’actuelle pantalonnade sur les masques aussi absurde que ridicule. On se retrouve dans la situation où l’on exige que les motards portent un masque même sous leur casque intégral… Vous imaginez d’expliquer cela à un enfant ?

Et ce n’est qu’un exemple, les situations ubuesques abondent. Mais ça ne va pas arrêter l’enthousiasme de la technostructure vis-à-vis de cette pression quotidienne disponible à volonté. Faudra-t-il un soulèvement populaire pour y mettre fin ?

Hum, je ne crois pas, non. Si jamais soulèvement populaire il y avait, un bon petit attentat bien sanglant suffirait à mettre tout le monde dans le rang… Vous voyez bien que le terrorisme n’a pas disparu, il est simplement tenu en réserve.


Compliqué, révolution, stratégique…

Publiée sur Linkedin le 17 septembre 2020

Ohlala, ça va être compliqué pour cet athlète… Le commentateur sportif est aux limites de son vocabulaire et on va l’excuser s’il confond « compliqué » avec « difficile ». Après tout, il n’est pas commentateur sportif pour rien (et il y a pire que de commenter l’athlétisme, il y a le football…).

Hélas, trois fois hélas, ce mésemploi de ce terme n’est pas limité à cette catégorie de journalistes, il est en train de se généraliser. Et ce n’est pas le seul glissement sémantique auquel nous assistons : révolution à la place de percée, stratégique à la place d’important et j’en passe, je ne cite ici que les plus courants. Ce n’est pas inhabituel dans une langue vivante qui, comme son nom l’indique, évolue continuellement. Certains termes sont sur employés, galvaudés, détournés… c’est ainsi, pourquoi s’en désoler ?

Eh bien sans doute parce que ces détournements reflètent une posture en faveur du spectaculaire, voire même de l’enflure. Il faut employer des mots qui choquent pour être écouté. Il faut utiliser des termes qui semblent sophistiqués pour être remarqué. D’où l’emploi de « stratégique » (issu du domaine militaire) à tort et à travers alors que « important » voire « primordiale » auraient tout aussi bien fait l’affaire. Avec le suremploi de « révolution », c’est encore plus intéressant, car il s’agit là d’un contresens !

Ainsi, on va entendre parler de « révolution technologique » avec l’arrivée de la 5G alors que cette dernière ne fait rien à l’envers de la 4G, seulement la même chose avec des améliorations de performances à tous les étages… De façon intéressante, la 5G cristallise souvent l’emploi des deux termes en une même phrase, exemple : la 5G est une révolution technologique qu’il est stratégique d’embrasser.

Effectivement, vu sous cet angle, l’emploi correct de la langue française est bien compliqué… ou est-ce plutôt difficile ?


L’informatique est jugée sur ce qui ne fonctionne pas !

Publiée sur Linkedin le 28 septembre 2020

Que ce soit juste ou pas, il faut bien l’admettre, l’informatique des organisations est d’abord et avant tout jugée sur ce qui ne fonctionne pas, point.

On peut toujours rêver de mettre en place des avantages concurrentiels formidables, la réalité est plus prosaïque et elle vous rattrape vite : vos utilisateurs veulent que leurs applications fonctionnent, les bons jours comme les mauvais jours (surtout les mauvais jours en fait !).

Et le “bon” fonctionnement ne se limite pas à répondre présent lors d’une sollicitation technique (en clair, lorsqu’on demande la page d’accueil de l’intranet -par exemple-, celle-ci s’affiche dans un délai raisonnable), il faut aussi que la facilité d’utilisation soit au rendez-vous. Or, l’ergonomie de l’interface utilisateur est un point qui est toujours négligé. Combien de fois se retrouve-t-on sur la page d’une application où l’étape suivante est impossible à atteindre ou que les choix possibles sont trop confus pour être utilisables ?

Surtout aujourd’hui où l’on vous impose de plus en plus de faire toutes vos démarches en ligne (qu’elles soient administratives ou commerciales), le vécu utilisateur s’apparente trop souvent à un “parcours du combattant” qui est stressant et frustrant. Bref, vous l’aurez compris, l’informatique est critique et on a encore l’impression que les décideurs n’ont pas encore tout à fait intégré cette caractéristique majeure.

Pourtant, il n’y a pas besoin d’être un grand visionnaires pour s’apercevoir que, dans notre monde ultra technique, les choses qui ne fonctionnent pas sont plus la règle que l’exception… Que ce soit dans votre voiture (où l’électronique est de plus en plus présente, pas toujours pour le meilleur d’ailleurs, voir à Volkswagen Golf 8 : arrêt provisoire des livraisons à cause d’un bug) ou que ce soit dans votre usage personnel de votre smartphone (application qui déraillent, périphériques bluetooth non-reconnus, j’en passe et des pires…), on en vient à regretter l’époque où on se plaignait de son imprimante (ah, ça n’a pas changé… Why I Believe Printers Were Sent From Hell To Make Us Miserable) !

Bref, nous sommes passés d’une “civilisation de la peine” (où l’effort physique était prédominant) à une “civilisation de la panne” (où la machine qui est sensée nous soulager est trop souvent défaillante, voir « Civilisation de la panne » | Philippe Lestang, le blog). Les décideurs du domaine doivent donc se concentrer sur tous les aspects de la qualité informatique plutôt que d’essayer de coller à la dernière mode technique ou de courir (vainement) après un avantage concurrentiel qui sera (au mieux) bref et coûteux.

C’est ce que j’explique dans mon dernier livre “Vers l’informatique raisonnée” et je suis persuadé que ce recentrage sur la qualité est la tendance lourde de ces prochaines années.


Nos libertés nous sont retirées une à une…

Publiée sur Linkedin le 4 octobre 2020

La décision récente du président Macron d’abolir “l’école à la maison” a été applaudie par les zélotes de l’Education Nationale. Au vu de leurs résultats globaux, je les préférerais plus discrets…

Cette décision est justifiée, selon le président (si j’ai bien compris) parce que les islamistes radicaux (il y a des modérés ?) en profitent pour endoctriner leurs enfants (l’école coranique à domicile, carrément !). Comme toujours, ce sont les gens qui respectent les règles qui sont pénalisés par le comportement de ceux qui ne le font pas.

Soyez sûr que ça ne va rien changer du côté des islamistes : ils agissent dans des quartiers qui sont devenues des zones de non-droit où la Police n’ose plus aller (déjà, rien que cela est hallucinant) et donc, ils ne vont rien changer à leur façon de faire. Mais pour les autres, oui, ça va changer et pas en mieux.

Car, la plupart des français l’ignorait mais, jusque-là, nous avions le choix : mettre ses enfants à l’école (publique ou privé) ou assurer l’éducation soi-même. En effet, c’est l’instruction qui est (était) obligatoire, pas l’école, nuance. Et nous étions de plus en plus nombreux à profiter de cette liberté avec d’excellents résultats sur le plan académique. Nous avons pratiqué “l’éducation en famille” (l’autre nom pour “l’école à la maison”) dès la fin des années 90 et tous nos fils y sont passés pour des périodes plus ou moins longues selon leurs profils et leurs préférences. Nous avons toujours laissé le choix à nos fils pour leur plus grand bien.

Nous avons même mis notre expérience de cette pratique dans un livre “365 jours d’école à la maison” pour en fait profiter le plus grand nombre à l’époque où “l’éducation en famille” était encore peu connue et peu pratiquée. Aujourd’hui, nos fils sont grands et n’en ont plus besoin… est-ce une raison pour s’en détourner maintenant que cette pratique est interdite ?

On pourrait le faire, lâchement. On pourrait se dire “tant que cela ne m’affecte pas, le gouvernement peut bien faire ce qu’il veut”… Mais justement, je pense qu’il s’agit d’une occasion de relever la tête et de dire “non, ça suffit !”. Ce gouvernement, non content de gérer la crise sanitaire avec une incohérence rare (des masques inutiles aux masques obligatoires, allez comprendre !), le voilà qui progresse toujours plus dans la privation de nos libertés. Cela fait trop longtemps que ça dure, mesure après mesure et ce sont toujours les mêmes qui en pâtissent. Croyez-vous vraiment que cela va affecter les islamistes ?

Non mais en revanche, tous les parents qui avaient fait le choix de “l’éducation en famille” risquent de devenir des délinquants. Peu importe ce que vous en pensez, mais ce droit était tout à fait légitime et utile. Plusieurs fois, le gouvernement français avait déjà tenté de supprimer ce choix et, cette fois, grâce aux islamistes, il touche enfin au but.

Doit-on accepter un pareil arbitraire ?

Quand va-t-on enfin réagir face à la restriction de nos libertés ?

Un jour ou l’autre, VOUS serez concernés, inévitablement. Et, à ce moment-là, vous aussi direz “ça suffit !”.


La preuve concrète que les médias nous enfument…

Publiée sur Linkedin le 2 novembre 2020

L’affaire est simple et pourtant énorme : le 20 octobre dernier, Radio France a libéré une bombe qui aurait dû produire des effets dévastateurs… Et pourtant, rien, pas une retombée, pas une reprise. Les autres médias n’ont pas suivi, n’ont pas repris, la bombe a bien explosé mais dans un silence assourdissant comme on dit en pareil cas.

Et quelle était donc cette « bombe » qui aurait dû avoir des effets « énormes » ?

La voici : Présidentielle 1995 : quand le Conseil constitutionnel a manœuvré pour « sauver » le Président Chirac.

En clair, les « sages » du Conseil constitutionnel ont étouffé la fraude à l’élection présidentielle de 1995. Lisez le texte, tout est présenté, tout est expliqué. Roland Dumas en tête (lui-même s’y connaissant bien en fraudes et en manœuvres douteuses !), les sages ont décidé que, pour le bien de l’Etat, il valait mieux qu’ils ne jouent pas leur rôle, point. Je ne vais pas expliquer toute l’affaire, il vaut mieux lire le texte que j’ai mis en lien ci-dessus (ne faisons pas comme les ignorants sur Twitter qui réagissent simplement à la vue d’un titre !).

L’affaire est énorme parce que, justement, le Conseil constitutionnel est censé être l’ultime rempart contre les turpitudes de notre système. Et là, mis à l’épreuve, c’est une faillite totale. Comment après cela avoir confiance dans le système ?

Comment après cela croire que les élections présidentielles suivantes ont pu être « propres et sans tâche » ?

Dans le cadre d’un fonctionnement soi-disant démocratique, c’est gravissime. Pire, le silence des médias fait voler en éclat ce qui nous restait d’illusions sur le système. Car une affaire aussi énorme, aussi importante aurait dû provoquer un scandale retentissant, non ?

Ben non, justement. Le système se protège efficacement. Si ça n’est pas diffusé par les médias, ça n’existe pas. Voilà, c’est aussi simple que cela. Pensez-y la prochaine fois que vous penserez que les institutions démocratiques sont vertueuses, sont là pour nous protéger et que les médias, l’autre pouvoir, est présent pour renforcer toute cette construction à notre avantage.


Après le socialisme rampant voici le socialisme nocif !

Publiée sur Linkedin le 10 novembre 2020

Il suffit d’aller dans un supermarché, ces jours-ci, pour avoir une nouvelle démonstration que, décidément, on marche sur la tête en France…

Certains rayons sont « interdits » sous prétexte d’égalitarisme. Si certains commerçants ne peuvent pas vendre des chaussettes (ou autre biens « non-essentiels »), alors personne ne le peut !

Ah, bravo, bien joué, voilà un vrai progrès, voilà l’égalité qui est respectée !

Notre « génie français » nous permet d’être toujours en avance sur les autres nations. Nous avions déjà inventé le « socialisme rampant » (qui permet d’expliquer notre déclin de ces quarante dernières années) mais, cette fois, nous avons résolument franchi une étape de plus : nous venons d’inventer le « socialisme nocif » que les nostalgiques des pays de l’est doivent nous envier… Une vraie performance qui mériterait une qualification directe en demi-finale des championnats du Monde de la Connerie.

En vérité, nous donnant à voir à tout le monde le fond de la mentalité française la plus mesquine : si je ne peux pas l’avoir alors les autres doivent en être privés aussi… Minable, simplement minable.


Les médias ne sont plus que des chiens de garde de la ligne officielle

Publiée le 15 novembre 2020

On le voit en ce moment et c’est un spectacle édifiant : le tir de barrage contre le documentaire “Hold Up” est unanime et très significatif du rôle embrassé par tous les médias principaux… Ils sont les chiens de garde de la ligne officielle, point.

Ce n’est pas tout à fait nouveau, ça fait presque vingt ans que ça dure : depuis le 9/11, le débat est interdit, ne pas être complètement et aveuglément d’accord avec la ligne officielle est réprouvé, dénoncé, provoque poursuites médiatiques et ostracisme.

Dans le cas présent, il suffit de mettre l’étiquette “complotiste” pour que le sujet de la colère des médias soit aussitôt mis au ban de la société du spectacle, discrédité, moqué et rejeté. Un système où l’ostracisme est devenu la règle en dit beaucoup sur sa fragilité : désormais, aucune contestation n’est tolérée, comme dans le pire des régimes totalitaires. On sent bien un début de panique face à ce documentaire et rien que cela est assez parlant. Si le système était si sûr de sa position, pourquoi tant de haine et cette violence ?

Car oui, ce système est en train de devenir violent avec ses opposants. On a déjà vu avec surprise la violente réaction contre les gilets jaunes pendant les deux dernières années. On aimerait bien qu’une telle résolution martiale soit également mise en œuvre dans les fameuses “zones de non-droit” mais ça, il ne faut pas trop y compter.

Maintenant, ne me faites pas dire ce que je n’ai pas dit : le documentaire “Hold Up” n’est pas exempt de critiques. En particulier, j’ai été ébahi d’entendre les propos totalement délirant de Monique Pinçon-Charlot. Cette “sociologue” est coutumière de ce genre de délire et ne peut résister à chaque fois qu’on lui met un micro sous le nez…

Mais si Hold Up n’était qu’un ramassis de mensonges et d’idioties, pourquoi une réaction aussi forte et aussi unanime (à tel point qu’elle apparaît comme orchestrée…) ?

La vérité est que ce documentaire met quelques “points sur les i” et que ceux-ci sont particulièrement gênants, surtout pour les multiples conflits d’intérêts qui, eux aussi, en disent beaucoup sur la situation actuelle. C’est là tout l’intérêt de Hold Up et en réagissant de façon aussi disproportionnée, les médias n’ont fait qu’attiser la curiosité du public pour ce documentaire. C’est trop tard désormais pour “éteindre le feu”…


Les bonnes raisons d’être optimistes vis-à-vis de l’informatique !

Publiée sur Linkedin le 3 décembre 2020

Alors que ma vie professionnelle est déjà bien avancée, je ne peux que ressentir une forte reconnaissance pour ce secteur d’activité où, finalement, j’aurais accompli toute ma carrière.

En effet, on peut toujours critiquer tout ce qu’on veut mais il y a un moment où il faut savoir reconnaître les bonnes choses et vis-à-vis de l’informatique je ne peux qu’être subjugué devant le chemin parcouru et être très optimiste vis-à-vis de ce que nous promet le futur.

Encore aujourd’hui, je m’émerveille à chaque fois que j’ai l’occasion de participer à une vidéo conférence en constatant que ça fonctionne plutôt bien alors que je sais toutes les prouesses techniques qu’il a été nécessaire d’accomplir pour arriver à ce résultat. Pour les jeunes d’aujourd’hui tout cela fait partie du quotidien habituel et ne génère aucun ébahissement, c’est simplement normal. Pour moi en revanche, il s’agit d’un aboutissement d’années de lutte, d’espoir et de progrès qui se sont finalement concrétisés.

Même s’il m’arrive d’être critique vis-à-vis du battage médiatique en faveur de l’intelligence artificielle, j’utilise avec bonheur les assistants vocaux qui sont désormais à notre disposition presque partout et presque tout le temps et je pilote mon petit monde à la façon du capitaine Picard dans Star Trek lorsqu’il lançait son mot-clef “computer” et que la machine répondait par une note brève, attendant la suite, obéissante et omnisciente. Alexa (ou Siri ou Google Home) n’est pas encore tout à fait de ce niveau-là mais elle progresse en permanence.

Et tout cela sans oublier YouTube que j’utilise à chaque fois que je me demande comment faire telle ou telle tâche (travail manuel, bricolage). Qui aurait imaginé que YouTube deviendrait ainsi (entre autres) un auxiliaire du “do it yourself” ?

Et Netflix ?

Il y a vingt ans, nous rêvions de ne plus avoir à attendre l’arrivée des DVD dans la boîte à lettres (déjà envoyé par Netflix d’ailleurs)… Aujourd’hui, ce rêve est une réalité bien concrète et la “boite à films” fonctionne bien, même avec un accès (relativement) limité au réseau global… Encore une performance extraordinaire qui s’inscrit désormais dans une normalité banale.

Le fait que je sois en train de dicter cet article sur Gdocs (avec encore quelques inévitables corrections et travail d’édition) devrait nous permettre de mesurer le chemin parcouru par le “cloud computing”, dernier avatar en date de l’informatique.

Un chemin parcouru vertigineux et vivifiant

Quand j’ai commencé à travailler dans ce secteur au milieu des années 70, l’informatique centralisée rigide et monolithique était la règle générale et écrasante. Rares étaient les informaticiens qui considéraient la montée de la micro-informatique comme autre chose qu’un jouet pour ado attardé.

J’ai eu la chance de participer à plusieurs vagues techniques qui ont contribué à moderniser cette informatique “rustique”. Je dois dire que j’ai toujours trouvé ce métier passionnant et, quand la passion est là, c’est tout de même plus facile de l’assumer tous les jours. Je plains sincèrement tous ceux qui faisaient (et font encore) un boulot subit uniquement parce qu’il faut bien “manger et payer son loyer”. Avec l’informatique, je ne me suis jamais ennuyé même s’il m’est arrivé de passer par des moments difficiles (une fois, je suis resté 25 heures de suite -pas le choix, fallait que ça marche- pour résoudre un problème technique particulièrement retors mais je suis certain que nous avons tous ce genre d’anecdotes à évoquer !). Aujourd’hui, je n’ai pratiquement que des bons souvenirs à me rappeler et je ne peux qu’être profondément reconnaissant d’avoir fait partie de cette formidable aventure.

Quand j’ai commencé, les cartes perforées étaient encore omniprésentes et le fait de porter sur soi (oui, sur soi !) des capacités de traitements à faire rêver HAL 9000 (ne serait-ce que pour calculer vos efforts pendant votre sortie à vélo) était du ressort de la science-fiction très futuriste. Et pour qui a vécu les différentes versions de Windows et MacOS (depuis les années 80), comment ne pas être ravi de voir un Chromebook être opérationnel en seulement quelques secondes ?

Les héros sont des repères

“Même l’enfer a ses héros” dit l’un des personnages secondaires du film “La 9ème porte” (Polanski). Les héros de l’informatique sont nombreux et certains comme Steve Jobs sont très connus. Pour moi, il y en a un qui se détache de l’horizon et c’est Tim Bernes Lee, le co-inventeur du Web (avec Robert Cailliau). Pourquoi ?

Parce qu’il a eu le courage et la lucidité de résister aux spécialistes qui l’incitaient à centraliser la gestion des liens hypertextes afin d’éviter les erreurs 404 que nous connaissons tous. Avec le recul, on s’aperçoit que cet inconvénient est un prix minime à payer en contrepartie des immenses services qu’à rendu le Web et qu’il va continuer à rendre à l’avenir. Il est d’ailleurs fascinant de constater que le Web avec ses composants relativement rustiques est toujours aussi présent et aussi important dans notre informatique de tous les jours…

Pour moi, Tim Bernes Lee est le “James Watt” des temps modernes : un héros en apparence modeste mais qui eut un impact immense et durable sur l’évolution de la technique (la machine à vapeur pour Watt, le Web pour Bernes Lee).

Le futur est brillant car c’est vous qui allez le définir

On peut ainsi glorifier le passé mais c’est évidemment moins intéressant que de se pencher vers le futur et là, il y a également beaucoup de bonnes choses à venir. Il est évident que les 40 dernières années ont été fascinantes mais, selon moi, les 40 années à venir le seront tout autant.

Tout d’abord, il nous faut admettre que toutes les difficultés que nous affrontons aujourd’hui sont autant de pistes pour les progrès futurs. C’est comme cela que ça s’est passé hier et il y a de bonnes chances que ça recommence pour demain. C’est pour cela que je suis très optimiste sans pour autant être capable de prédire avec précision ce qui va être accompli dans les décennies à venir. Oui, je crois fermement qu’il y a encore plein de (bonnes) choses à faire et que les informaticiens ont encore un brillant avenir devant eux.

Non, les progrès qui vont être nécessairement arriver dans les domaines de la robotique et de l’IA (même si une “intelligence générale” n’est sans doute pas pour demain ni même pour après-demain) ne vont pas rendre inutile le personnel sur le terrain qui, avec son ingéniosité et sa capacité à s’accrocher à un problème jusqu’à trouver une solution satisfaisante, sera toujours indispensable.

Les métiers vont muter, c’est inévitable (où sont désormais les pupitreurs qui étaient si répandus quand j’ai commencé dans le domaine ?) et c’est tout l’enjeu d’une carrière bien menée : restez curieux, restez avides et vous resterez utiles (stay foolish, stay hungry…). Ne vous laissez pas enfermer dans une situation (trop) confortable qui va s’avérer être un piège au fur et à mesure des évolutions qui vont rebattre les cartes et changer la donne (c’est toujours ainsi, c’est la seule chose dont on peut être sûr).

L’informatique reste fascinante parce qu’elle est devenue accessible. Quand elle était centralisée et concentrée sur quelques mainframes, il était difficile d’y contribuer. La micro-informatique a changé cela en profondeur avec les conséquences que l’on sait. Les individus dans un garage ont pu lutter à armes quasiment égales avec les plus grands laboratoires. Un Linus Torvald ou un Larry Page sont des preuves vivantes de ce paradigme.

Aujourd’hui, à l’heure du Cloud Computing ou demain sous le signe de “l’informatique omniprésente” (pervasive computing), ce sera toujours aussi vrai et c’est une opportunité fantastique. Certes, il est désormais un peu tard pour développer l’app qui va réussir à faire son trou dans les app stores quasiment saturées. Mais peut-on imaginer que tous les jeux sont joués ?

Évidemment pas. En matière de confort de l’utilisateur et de facilité d’utilisation de cette informatique présente à tous les étages de nos vies connectées, tout reste à faire. Avec la progression des objets connectés tout autour de nous, il y a aussi énormément à faire.

Sans oublier la sécurité qui va devenir un enjeu majeur où tout le monde sera concerné (c’est déjà le cas mais tout le monde ne l’a pas encore compris…).

Le futur est brillant car il va être défini par vous. Je me réjouis d’avance d’être émerveillé par vos prouesses futures !


Faites du numérique qu’ils disaient !

Publiée sur Linkedin le 1er janvier 2021

Pendant cette année 2020, on a souvent entendu les bonnes âmes exhorter les petits commerçants à se mettre (enfin !) au numérique pour survivre… Comme si ouvrir un site marchand (car, bien souvent, “passer au numérique” n’est qu’une formule à la mode pour vendre sur le Web) était une tâche triviale et une assurance de succès !

En fait, ce n’est ni l’un ni l’autre, loin s’en faut. Tout d’abord, même si l’offre est abondante et relativement mature, elle demande quand même un minimum de compétences techniques pour la mettre en place. Ou alors, il faut abandonner toutes velléités d’indépendances et se résigner à rejoindre une grosse plateforme qui sont les vrais gagnantes de cette période.

Je ne fais pas qu’écrire sur l’évolution de l’informatique à travers les âges et les modes, je la pratique aussi avec assiduité !

L’eLearning et l’eCommerce, pas si facile !

Grâce à l’activité de mon épouse sur www.montessori.fr, j’ai pu explorer les arcanes du e Learning, des LMS et, on y vient, des difficultés à mettre en place un site marchand digne de ce nom. L’année dernière, j’ai mis en place l’extension Woocommerce sur notre site WordPress avec la passerelle Atos/Scelluis permettant de gérer le paiement par carte bancaire.

La mise en place de cette « chaîne de paiement” a demandé beaucoup d’efforts, d’allers et retours et aurait été impossible si je n’avais pas les compétences techniques nécessaires (arrêtons d’imaginer qu’employer WordPress et Woocommerce gomme instantanément tous les obstacles technique car ce n’est tout simplement pas vrai).

Bref, au bout de quelques semaines pénibles, tout ce bazar s’est enfin mis à fonctionner et nous avons pu encaisser nos paiements par carte comme des grands… Nous avons aussi pu constater la pauvreté du “back office” de notre banque qui, tenez-vous bien, ne permet pas d’afficher les paiements reçus autrement que par tranche de 40 jours (et estimez-vous heureux que ça marche ainsi, hein !). Tout cela respirait l’amateurisme et le mépris du client mais comment être surpris quand il s’agit du “glorieux secteur bancaire français que le monde entier nous envie”, n’est-ce pas ?

DSP2 remet tout en cause

Mais voilà, en matière d’informatique, quand ça marche, c’est toujours du provisoire !

Nos “amis” de Scellius nous ont informés qu’il fallait tout refaire à cause de la norme DSP2… Je l’avoue, je ne savais rien de DSP2 jusqu’à ce que Scellius nous explique la volonté de normalisation de l’Union Européenne (voir à https://fr.wikipedia.org/wiki/Directive_sur_les_services_de_paiement#La_Directive_sur_les_services_de_paiements_(DSP_2)) nous obligeait à migrer vers la nouvelle passerelle et donc de refaire tout le travail déjà péniblement accompli. Vouloir renforcer la sécurité des paiements en ligne, qui s’en plaindrait ?

Mais cela n’est pas sans conséquences sur les petits acteurs obligés (une fois de plus) de “faire de l’informatique” alors que ce n’est pas le cœur de leur activité. Ces évolutions perpétuelles, l’instabilité des logiciels et la complexité des solutions (j’insiste, même pour moi qui suis bien placé, je ne manque jamais de m’interroger sur “mais comment font les gens pour s’en sortir avec ça ?”) font que “se mettre au numérique” est facile à dire mais loin d’être facile à faire, surtout dans la durée.

J’ai conscience que ce “témoignage de terrain” n’a rien d’original et que je suis loin d’être le premier (ni le dernier !) à me plaindre cette situation mais en lisant la nouvelle “liste de tâches” imposée par Scelluis, j’ai senti qu’il fallait que je le rédige.

Par “solidarité sainte de l’artisanat” (comme dirait Brassens dans la chanson “Stances à un cambrioleur”) je souhaite bon courage à tous les “petits commerçants” qui vont se lancer dans cette périlleuse aventure : ne vous découragez pas les amis, ne croyez pas les bonnes paroles de ceux qui ne font jamais rien de concret, la route est longue et semée d’embûches, prenez votre temps et cheminez pas à pas.


Un autre discours est possible

Publiée sur Linkedin le 14 février 2021

Je crois qu’il est inutile de rappeler que nous traversons des temps difficiles : la crise sanitaire n’est pas terminée, la crise économique n’attendra pas longtemps avant de prendre le relais et ni l’espoir ni l’optimisme ne sont de mise pour le futur.

De plus, il suffit de regarder autour de soi pour constater un approfondissement des pires tendances de ces dernières années : les médias ne se contentent plus de diffuser des programmes abrutissants (de façon à mettre tous les auditeurs et spectateurs au même niveau, c’est-à-dire tout en bas), ils diffusent également la peur car l’émotion est devenu le moteur de l’opinion publique. Les soit-disant intellectuels sont également déprimants : ils se sont érigés en donneur de leçons méprisants afin de promouvoir les “avancées” les plus désolantes comme l’égalitarisme forcené ou un féminisme absurde (comme l’horrible “écriture inclusive”) où peu de femmes censées doivent pouvoir encore se reconnaître.

On touche le fond ?

Et pourtant, dans cette triste atmosphère, je vous le dis : il est encore possible et nécessaire de sortir de ce cercle vicieux. Les esprits éveillés sont encore nombreux. La montée de la médiocratie n’est pas inéluctable ni irrésistible. Nous devons réagir. Nous devons faire entendre nos voix.

Nous devons promouvoir la pensée éclairée, la culture universelle, la sagesse lucide et le plaisir de vivre. Chacun de vous a le devoir de s’exprimer et de le faire de façon positive.

Commençons ici

Ne laissons pas le terrain être occupé et exploité par les pires diffuseurs de tendances moroses et délétères. Commençons par cet espace. Linkedin peut devenir notre canal d’expression positive. Nous devons montrer qu’une autre voie est possible.

Je n’ai pas besoin de m’étendre, je sais que vous m’avez compris. Les discours les plus courts sont aussi les plus percutants. Disons “non à la médiocrité ambiante”, tous ensemble, enfin. Ainsi, nous déchirerons ce rideau grisâtre qui n’est qu’une fine pellicule vulnérable.

Nous donnerons un espoir à la jeunesse qui n’attend que cela. C’est notre pouvoir, c’est notre devoir.


Le problème avec Thinkerview

Publiée le 15 février 2021

Connaissez-vous la chaîne YouTube Thinkerview ?

Si oui, pas besoin de vous expliquer, sinon, allez voir à https://www.youtube.com/c/thinkerview/videos

Des interviews souvent passionnantes avec un décor neutre, toujours le même. Les personnalités interrogées sont souvent très pertinentes dans leur domaine et peuvent s’exprimer sans fard et sans contraintes (c’est un format long). J’écris “souvent” car j’aimerais bien que ça soit tout le temps le cas, justement. Oh, ce n’est pas le choix des interrogés qui est en cause. De Michel Onfray à Jean-Pierre Petit en passant par Arnaud Montebourg et Yanis Varoufakis (et j’en oublie forcément), nous avons droit à un panel d’experts talentueux et qui savent s’exprimer tout en restant accessibles, le problème n’est pas là. Mais alors, où est le problème ?

Eh bien il se situe au niveau de celui qui interroge. Faussement modeste, on ne le voit jamais mais on l’entend en revanche… trop. Au mieux, ça va donner des questions à rallonges et à tiroirs qui ressemblent à des examens de mémoire. Au pire, ça va être un interrogatoire où il manque que la contrainte physique pour ressembler à l’inquisition.

L’animateur de Thinkerview (qui préfère rester anonyme…) gâche le tableau en étant bien trop partial. Mielleux avec ses favoris et odieux avec ceux qui ne sont pas de son bord.

Un exemple qui illustre bien ce déséquilibre : l’interview de Laurent Obertone (diffusé en direct le 6 novembre 2018). Avec Obertone, pas de pitié, les couteaux sont sortis !

Laurent a eu bien du mérite à garder son calme face au déluge d’interruptions et de questions perfides.

On l’aura compris, notre “procureur” a choisi son camp : celui des bien-pensants-donneurs-de-leçons. Saura-t-on un jour calculer ce que cette engeance nocive aura coûté à la société en termes de reculs essentiels ?

Oui, les bien-pensants et le “politiquement correct” sont des maux qui gangrènent l’espace public depuis trop d’années. Ils censurent avec arrogance tout ce qui ne va pas dans leur sens et font semblant d’être en faveur du débat d’idées alors qu’ils ne supportent pas qu’on ne soient tous pas à genoux devant leur suffisance.

Si encore il s’agissait seulement d’un aveuglement intellectuel mais c’est pire : ces donneurs de leçons sont également les pires exemples de la loi de plomb “faites ce que je dis mais pas ce que je fais”.

Thinkerview aurait pu être un bon exemple de ces contenus qu’on aimerait mettre en avant. Mais l’adage se vérifie une fois de plus : il suffit d’une pomme pourrie pour gâcher le panier.


Incident OVH : un “avant” et un “après” dans l’évolution vers le cloud ?

Publiée sur Linkedin le 11 mars 2021

Inutile d’expliquer ce qui s’est passé dans la nuit du 10 mars : un (presque deux) datacenter d’OVH Cloud est parti en fumée (c’est le cas de le dire !)… Depuis, le débat fait rage sur la question des sauvegardes : certains disent que c’est de la responsabilité des clients alors que d’autres affirment (comme Louis Naugès) que c’est évidemment de la responsabilité de l’opérateur.

On ne va pas trancher ce débat ici et maintenant mais il est significatif de toutes les illusions qu’a engendrée la vague du cloud : tout d’un coup, l’informatique allait rimer avec “magique” alors qu’on était plutôt habitué à l’associer à “tragique”…

En revanche, ce que je crois c’est que cet incident ne va pas tout changer : l’évolution actuelle vers une informatique toute en ligne va se poursuivre. Mais tout comme les chaudières à vapeur (celles à “haute pression” du moins) explosaient de temps en temps à l’époque de la révolution industrielle, le chemin vers le cloud est également semé de quelques embûches et autres désillusions. C’est normal et même sain.

Si vous voulez que votre informatique en ligne soit tout le temps opérationnelle, quoi qu’il arrive, ne vous contentez pas de croire aux promesses de votre fournisseur mais prenez les choses en mains : mettez en place des redondances (oui, ça coûte cher), assurez-vous qu’il y ait des sauvegardes de faite (oui, c’est pénible) et que le personnel soit formé à mettre en place des plans de continuité d’exploitation (oui, c’est contraignant et complexe). L’exploitation, c’est comme la sécurité : c’est avant tout une histoire de personnel formé et motivé.


Avant, j’avais un avis sur tout…

Publiée le 17 mars 2021

Avant, quand j’étais un jeune con (c’était donc il y a un certain temps…), j’avais un avis sur tout, vraiment sur tout !

Et, bien sûr, j’imaginais que cet avis était pertinent, objectif et tout à fait sensé. Non, je n’imaginais pas en fait, je savais que j’avais raison, forcément raison.

Maintenant que je suis un vieux con, je ne suis plus aussi sûr de moi et mes avis sont désormais plus nuancés.

Comment cette évolution s’est-elle produite ?

Pourquoi suis-je désormais plus nuancé ?

Eh bien parce que je me suis aperçu qu’il y avait peu de cas où l’on pouvait avoir un avis définitif, surtout dans les domaines où l’on pas un spécialiste. Aujourd’hui, on assiste plutôt à l’évolution inverse : beaucoup de gens (plus en plus de gens en fait, les réseaux sociaux alimentent cette tendance…) émettent leur opinion bruyamment et même avec véhémence alors que les avis autorisés sont toujours aussi rares.

Il s’avère que cela porte un nom : L’effet Dunning-Kruger.

L’effet Dunning-Kruger, aussi appelé effet de surconfiance, est un biais cognitif par lequel les moins qualifiés dans un domaine surestiment leur compétence.

Je dois dire que, au contraire, ces dernières années m’ont fait comprendre que mes domaines de compétences étaient peu nombreux et, qu’en dehors d’eux, le mieux pour moi était de me taire. Ces vingt dernières années ont été ponctuées d’affaires à grand retentissement mais qui restent “indécidables” au final. Que ce soit le 9/11 en 2001 ou le MH370 en 2014 (pour ne prendre que ces deux exemples-là, bien connus de tous), les théories abondent, nombreux sont ceux qui se sont exprimés mais, en définitive, il est vraiment difficile d’avoir un avis tranché sur ces questions (si on essaye de rester honnête et objectif). C’est pour cela que je les présente comme “indécidables”…

De plus, il nous faut bien admettre que l’immense majorité d’entre nous se contentent de ce qu’il peut voir et lire dans les médias et sur Internet. Presque personne ne se donne la peine d’aller enquêter sur le terrain, d’interroger de vrais témoins et de faire un véritable travail d’investigation, faute de temps et de moyens, évidemment. Mais cette absence devrait nous inciter à plus de recul et de modération, surtout pour les domaines où nous ne sommes pas des spécialistes, j’insiste sur ce point.

Car, quand on est réellement compétent dans un secteur, que constate-t-on ?

Eh bien on voit avec consternation que les médias généralistes rapportent tout et n’importe quoi (surtout n’importe quoi) sur le secteur en question… Cela devrait nous inciter à plus d’humilité quand il s’agit d’une affaire qui ne se situe pas dans notre domaine d’expertise.


Notre histoire de l’informatique est unique et voilà pourquoi !

Publiée sur Linkedin le 14 avril 2021

C’est sans pudeur ni fausse modestie que je l’affirme : notre ouvrage sur l’histoire de l’informatique (“Cow-boys contre chemin de fer : que savez-vous des cinquante ans de l’histoire de l’informatique”, oui, c’est le titre complet !) est le meilleur livre en français sur le sujet !

Bien sûr, il existe tout de même quelques bons livres sur le sujet, mais ils sont surtout en anglais et écrits par des Américains. Les livres en français sont académiques et écrits par des universitaires pour d’autres universitaires… exhaustifs et barbants sont sans doute les qualificatifs les plus polis pour les désigner.

Dans le cas de notre ouvrage, au contraire, nous avons cherché à expliquer comment et pourquoi l’informatique a évolué pendant ces cinquante dernières années afin de devenir le système complexe et tentaculaire que nous connaissons et utilisons tous aujourd’hui. Et nous l’avons fait dans un ton décontracté et en interrogeant de multiples témoins, célèbres ou anonymes qui permettent de rentrer dans les détails des événements cruciaux.

Le résultat fait presque 500 pages (et encore, les illustrations sont “déportées” sur mon site web pour gagner de la place !) et permet de faire le tour de la question, pour ce qui est de l’informatique “moderne” au moins.

Informatique moderne ?

Pourquoi ce focus sur la partie “moderne” de l’histoire de l’informatique et quelle période cela recouvre-t-il ?

Commençons par répondre à la seconde question : notre ouvrage commence avec les années cinquante, au moment où l’ordinateur moderne (complètement électronique) naît aux USA. Nous poursuivons ensuite jusqu’en 2010 (pas plus loin, après c’est encore trop récent pour vraiment faire partie de l’histoire…).

Et nous avons éviter de remonter plus loin justement pour éviter de vous imposer encore une fois les poncifs sur Ada Lovelace et autres précurseurs lointains. Certains tiennent absolument à intégrer la machine de Pascal (la Pascaline de Blaise Pascal) dans l’histoire de l’informatique… Fort bien mais ce n’est pas notre démarche. Certes, il est utile de replacer l’émergence de l’informatique dans les méandres du bouillonnement technique du XXe siècle (et même des précédents), mais cela a déjà été fait de nombreuses fois. Notre but était plutôt de focaliser sur les cinquante dernières années de notre industrie afin d’en retracer les évolutions majeures et d’en comprendre les mécanismes.

Des cow-boys, en informatique ?

Dans cet ouvrage, nous parlerons de cow-boys pour parler d’entreprises, de personnes ou de pratiques qui ne s’embarrassent pas trop avec des procédures strictes ni pour demander une autorisation ou rechercher un consensus. Par opposition, les entreprises/personnes/pratiques « chemin de fer » suivent des procédures précises ainsi qu’un carnet de route défini à l’avance. Cette métaphore est bien évidemment tirée du Far West. Pour aller d’un endroit à un autre, un cow-boy n’a qu’à sauter sur son cheval (et aussi faire des provisions). Il peut changer d’itinéraire en cours de route si besoin est. Une compagnie de chemin de fer, par contre, doit d’abord poser des rails et pour cela planifier la construction de la voie ferrée, obtenir les accords nécessaires, etc. Comparée aux cow-boys, une entreprise de chemins de fer paraît beaucoup plus « sérieuse » et professionnelle — même si, techniquement, tous étaient des professionnels. Même de nos jours, l’expression « cow-boy » (se comporter comme un cow-boy) a une certaine connotation négative.

Dans le Far West, les chemins de fer ont peu à peu supplanté les cow-boys, les gens faisant transporter le bétail de plus en plus par le train. En informatique par contre, les chemins de fer ne supplantent pas toujours les cow-boys, comme nous allons le voir dans cet ouvrage.


Ce que nous apprend le Raptor sur notre présent

Publiée sur Linkedin le 14 mai 2021

J’avoue, je suis un fan de la chaîne YouTube du Raptor !

Si vous ne connaissez pas encore, c’est à découvrir d’urgence…

https://www.youtube.com/c/LeRaptor/videos

OK, c’est grôle mais est-ce que ça nous apprend quelque chose sur notre société et sur notre présent ?

Heureusement, oui et voici quoi…

La dernière en date… accrochez vous, c’est du lourd !

Dans ses vidéos fort bien faites (même si le montage est un peu nerveux et plein de références internes, c’est très travaillé, croyez-moi !), le Raptor expose sans pitié les travers répétés du gouvernement, des gauchistes, des féministes et des médias, le tout étant qualifié de « société des baltringues » (définition du terme « baltringue », par ici). Honnêtement, on ne peut lui donner tort et si vous voulez un recensement précis des dérives absurdes de notre époque, la chaine du Raptor est une bonne source.

Tout cela est déjà intéressant mais il y a plus : ces contenus nous montrent, de façon incontestable, que les médias sont verrouillés dans une course (absurde) au « toujours plus ». Ayant favorisé les émissions les plus abrutissantes et les plus abêtissantes pendant des années (que dis-je, des décennies !), les médias généralistes principaux ne savent plus quoi faire pour continuer à retenir une audience qui s’effritent inexorablement. D’où la tendance à faire pire, encore et encore jusqu’à tomber à des niveaux que personnes ne pouvaient imaginer (hélas, la réalité dépasse toujours la fiction, c’est vérifié une fois de plus).

L’erreur serait de penser qu’il s’agit-là d’une exception (certes malheureuse), d’une aberration qui ne compte pas. Il n’en est rien. Si une Soveig Halloin peut exister et se produire ainsi, c’est parce que le système en place le permet et l’encourage (si on en juge par les applaudissements désolants qui suivent sa « performance »…).

Devant la nullité organisée du gouvernement et des médias, les vidéos du Raptor deviennent une source d’informations crédibles et raisonnables… Eh oui, on en est là.


La seconde crise du logiciel

Publiée sur Linkedin le 18 mai 2021

Cette seconde crise est très différente de la première. Il y a soixante ans, la première crise s’est déclarée quand on s’est rendu compte que le développement des logiciels devenait le goulot d’étranglement de la mise en place des systèmes. Aujourd’hui, cette nouvelle crise ne concerne pas la vitesse de développement, mais la fiabilité des systèmes qui repose sur une part croissante de logiciels.

Une première crise il y a 60 ans

Revenons rapidement sur les causes et les effets de ce qu’on a appelé “la crise du logiciel” dans les années 60 et 70.

Au début des années soixante et avec le lancement de chaque nouvelle machine, le logiciel système fourni par IBM pour accompagner ses ordinateurs augmentait — en taille — d’un facteur dix tous les cinq ans !

En conséquence de cette “enflure”, on a estimé que la part du coût de développement des logiciels de base est passée de 10% en 1960 à 40% en 1965 sur le total du coût de mise en œuvre d’un nouveau système…

C’est ainsi que s’est révélée la première « crise du logiciel » : le nombre d’installations de systèmes augmentait bien plus vite que le nombre de programmeurs formés, le logiciel devenait le  goulot d’étranglement principal qui menaçait de mettre fin à la croissance de cette industrie.

Une première crise qui dure encore

Cette crise ne s’est jamais vraiment tout à fait résorbée, mais le secteur a appris à vivre avec jusqu’à aujourd’hui. La liste d’attente pour les nouvelles applications a toujours été très (trop) longue dans toutes les organisations reposant sur l’informatique et c’est aussi la raison du développement du “shadow IT” : les départements lassés de devoir attendre leurs applications se sont souvent mis à les développer par eux-mêmes avec des outils NoCode.

Une nouvelle crise, tu es sûr ?

Aujourd’hui, tout le monde est en train de réaliser que le logiciel est un élément essentiel dans les systèmes modernes. Le premier à l’avoir affirmé est Marc Andreessen dans son célèbre article “le logiciel mange le monde” en 2011 (lire à Why Software Is Eating the World). Et, effectivement, tous les systèmes développés désormais contiennent systématiquement une part de logiciel, une part de plus en plus importante.

Après la version optimiste contenue dans l’article d’Andreessen, il est temps de passer à la version réaliste : le logiciel est de nouveau en crise parce que sa généralisation démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…), mais, cette fois, la nature même de ces bugs est différente.

La toujours délicate intégration de systèmes

En effet, il ne s’agit plus simplement d’ordinateurs isolés ou fonctionnant en réseau… Cette fois, on touche du doigt la limite induite par la toujours délicate intégration de systèmes. Pour commencer, ces logiciels s’exécutent dans des contextes où les tests et les corrections sont difficiles à réaliser à cause de la nature même des systèmes embarqués (allez donc traquer un bug qui ne se manifeste que dans certaines conditions d’un avion en plein vol…). Ensuite, les systèmes en question ne sont pas des éléments isolés (comme le sont les ordinateurs, qu’ils soient en réseau ou non), mais bien des éléments profondément dépendants des autres systèmes qui les entourent et les alimentent en données et mesures. Enfin, les organisations qui développent ces logiciels ne sont pas spécialisées en informatique, mais font cela en plus de leur domaine d’expertise habituel. Tout cela explique, au moins en partie, pourquoi ces bugs sont si fréquents, si bloquants et si difficiles (et coûteux !) à corriger.

Une situation qui est significative d’un nouveau contexte

J’écris “en partie” car je pense que cette situation est significative d’un nouveau contexte. Il ne s’agit pas d’un épiphénomène qui apparaît brusquement pour disparaître une fois qu’on en aura pris la mesure. Je crois au contraire que c’est juste le début de nos difficultés en la matière. Il est possible, voire probable, que ce type de logiciel ne soit jamais totalement fiabilisé (tout comme il reste toujours des bugs dans nos programmes habituels). Dans le secteur informatique, on s’est adapté à cette réalité souvent pénible, quelquefois douloureuse, mais qu’on sait inamovible. Dans les secteurs industriels cités, en revanche, je doute qu’on s’attendait à une telle non-fiabilité et qu’on n’ait pas encore réalisé qu’elle était quasi-impossible à améliorer radicalement.

La situation ne va donc pas s’améliorer, mais va empirer et le logiciel va devenir le facteur bloquant de l’évolution vers le toujours plus d’intégration et de fonctions intelligentes tout comme il a représenté le goulot d’étranglement des débuts de l’informatique.


Qui sont les conspirationnistes ?

Publiée sur Linkedin le 2 juin 2021

Il suffit d’écouter les médias quelques heures pour s’en convaincre : les conspirationnistes sont parmi nous !

Ils sont partout, ils sont dangereux, ne les écoutez pas, dénoncez-les !

Le statut de conspirationniste arrive vite, il suffit de dévier un tant soit peu de la ligne officielle et là, c’est terminé : vous êtes désigné, exclu, ostracisé. Et cela peut arriver à tout le monde, vraiment tout le monde. Un exemple ?

Facile, Luc Montagnier. Vous avez beau avoir été un grand personnage très en vue, adulé même (dame, c’est pas si souvent qu’on peut se targuer d’avoir un prix nobel de médecine, découvreur du SIDA quand même !), on vous fera tomber de votre piédestal sans pitié si, aidé par votre notoriété, il vous viendrait à l’idée de promouvoir des idées suspectes.

Or, justement, c’est ce qu’a fait Luc Montagnier au tout début de la crise sanitaire : en avril 2020, Luc Montagnier émet l’hypothèse que le coronavirus 2 du syndrome respiratoire aigu sévère à l’origine de la pandémie de Covid-19, est “sorti d’un laboratoire chinois avec de l’ADN de VIH”.

Aussitôt, c’est l’unanimité dans les médias : Montagnier est pointé du doigt, descendu plus bas que terre, ostracisé définitivement. Les plus indulgents expliquent que le grand scientifique est désormais gâteux… ça se comprend, vu son âge, n’est-ce pas ?

Mais il suffit d’écouter une interview récente de Luc Montagnier pour constater, passez-moi l’expression, qu’il a encore toute sa tête.

Bref, c’était clair : le virus à l’origine de la crise sanitaire que nous vivons tous depuis le début de 2020 est d’origine animale exclusivement et ceux qui disent autre chose doivent être réduit au silence, point. Exit Luc Montagnier, “on ne peut pas être et avoir été”…

Ce qui était vrai hier…

Et puis, depuis quelques semaines, une nouvelle musique se fait entendre. Finalement, peut-être que le virus se serait échappé du laboratoire P4 de Wuhan… peut-être bien après tout.

“Ah mais ça change tout” me direz-vous, “on va donc réhabiliter Luc Montagnier du coup, non ?”. Non. Si vous avez été catalogué conspirationniste, vous le restez, même si votre thèse devient possible voire probable. Et cela doit être ainsi si on veut que l’actuel terrorisme intellectuel continue de fonctionner.

Vous êtes prévenus : vous n’avez pas le droit de dévier de la ligne officielle. La ligne officielle, elle, peut varier en revanche… Mais ce n’est pas la même chose, ça reste la ligne officielle… respect.


Abrutissement et illusion, les deux pôles de notre technostructure

Publiée sur Linkedin le 15 juin 2021

En ce moment, difficile d’échapper au matraquage de la coupe d’europe de football… Difficile aussi d’imaginer un sport plus nul apprécié on ne sait pourquoi par la lie de l’humanité (qui prouve, en cet instant, qu’elle est devenue majoritaire !).

Nombreux sont ceux qui suivent les championnats de foot simplement « pour faire comme tout le monde » (n’oublions pas que la pulsion d’intégration est un puissant moteur à l’œuvre en permanence dans l’immense majorité des cas… On imagine les ravages dans le cas des « supporters » !).

Cela fait des décennies que ça dure : le peuple réclame du pain et des jeux, alors on lui donne de la nourriture industrielle et du football. Après tout, comment ne pas admettre que le peuple n’a que ce qu’il mérite ?

Les médias complices encouragent la tendance. Tout ce qui permet d’accentuer l’abrutissement général est bon pour eux. Et n’allez pas croire que c’est lié à la crise sanitaire (dont on nous fait croire qu’elle est en train de se terminer… plus dure sera la chute !).

Inutile d’insister sur le côté abrutissant de ces grandes manifestations populaires, il suffit de voir comment les médias se ruent sur l’affaire pour comprendre qu’on est bien face à un phénomène monté de toutes pièces et soigneusement entretenu afin de continuer à en récolter les fruits (une populace docile qui canalise son ressentiment sur “l’adversaire” au lieu de s’en prendre à ses bourreaux… chapeau l’artiste !).

L’illusion du savoir

Voyons maintenant l’autre versant de la manipulation : l’illusion. En effet, contrairement à ce que vous font croire les médias, il est difficile d’avoir un avis pertinent sur les questions techniques de notre temps (en revanche, avoir une opinion est toujours assez facile : il suffit de se laisser influencer par le torrent des médias et penser ensuite qu’il s’agit de votre propre déduction… mais peut-on encore parler de penser dans ce cas ?). Un exemple récent (juin 2021) l’illustre assez bien : la sortie d’un documentaire sur les éoliennes (Éoliennes : du rêve aux réalités) a illustré jusqu’à la caricature le semblant de débat qui fait rage dès qu’il s’agit d’un sujet à caractère technique.

Les partisans des éoliennes et leurs adversaires se sont affrontés sur le terrain des arrières-pensées (à qui profite le boom des éoliennes et, de l’autre côté, qui sont les lobbies qui ont financé ce documentaire et pourquoi ?) mais pas sur les vraies questions techniques qui elles ont été laissées de côté (“le public n’y comprend rien de toute façon !”).

Il faut bien l’admettre, les questions techniques demandent un vrai approfondissement avant de pouvoir émettre un avis éclairé, éviter les idées reçues et les non-sens les plus communs sur telle ou telle question. Le débit effarant des médias nous fait croire que nous sommes informés sur ces sujets mais rien n’est plus faux : ce que les médias déversent n’a quasiment aucune valeur car il s’agit le plus souvent des idées reçues les plus banales sur chaque domaine (exemple : le nucléaire n’émet aucun gaz à effet de serre…).

Pour aller au-delà de ce premier niveau d’ignorance (qui est en fait pire que la vraie ignorance puisque le public a l’impression de savoir alors qu’il ne sait rien…), il faut passer du temps et s’investir dans le domaine concerné. Cela demande des efforts et cela rend humble, tout le contraire de la tendance actuelle. En effet, la fausse connaissance est un biais désormais clairement identifié (car il apparaît de plus en plus fréquemment) et cela porte même un nom : l’effet Dunning-Kruger, aussi appelé effet de surconfiance.

Le citoyen de base n’a ni le temps ni l’envie de consacrer des mois d’étude avant d’émettre un avis sur un sujet. Les élus non plus d’ailleurs, c’est pour cela que dans notre société hyper-technicienne, les avis techniques sont pré-mâchés et pré-digérés par les intervenants qui y ont le plus d’intérêts afin que les décideurs n’aient plus qu’à signer, surtout si la question bénéficie d’un effet de mode qui aura été soigneusement lancé et entretenu par ces mêmes lobbies. On ne compte plus les domaines qui ont ainsi été traités de cette manière : médicaments, pesticides, énergie, défense, etc.

Donc, même si on tente de vous faire croire que l’homme moderne est bien au fait de son époque, laissez vos illusions : notre monde dominé par la technique est complexe et seuls les techniciens qui œuvrent au niveau de la conception et de la mise en place des systèmes en ont une compréhension réelle (et encore !)…

Abrutissement et illusion

C’est ainsi que fonctionne notre société désormais : d’un côté, on va abrutir le bon peuple avec des grandes messes au contenu vidé de sens. De l’autre, on va faire croire au pékin de base qu’il est informé sur les questions de notre temps et que son opinion a de la valeur. Les écrans de fumée sont efficaces, dormez tranquilles braves gens !


Le grand écart

Publiée sur Linkedin le 21 juin 2021

Deux peuples, un écart entre les deux qui s’agrandit, qui devient béant. Une incompréhension fondamentale les éloigne encore.

Pour ceux qui font partie des soumis, les rebelles sont simplement des râleurs qui se révoltent contre tout et pour un rien. Ce sont surtout des emmerdeurs qui retardent le retour vers un monde “normal”… S’il le faut, il faudra les forcer, point.

Pour ceux qui font partie de cette toute petite minorité de “rebelles”, c’est l’étourdissement. Comment se fait-il que cette majorité molle se laisse faire avec une telle facilité ?

Comment se fait-il qu’ils acceptent tous l’inacceptable encore et encore ?

Comment peuvent-ils réclamer l’accès à des vaccins sur lesquels on ne sait rien, où le recul est inexistant et dont l’efficacité est, au mieux douteuse, au pire carrément toxique ?

Voilà un peuple hébété, rendu passif et consentant par des années d’une télévision abrutissante et qui n’arrive plus à en décrocher. Voici des gens qui font preuve d’une discipline incroyable en portant des masques (inutiles) en toutes circonstances (y compris seuls dans leurs voitures !). Voilà une minorité qui n’abdique pas, qui réfléchit encore, qui n’accepte pas tout sans poser des questions (légitimes), qui discute et refuse tout de même face à des abus évidents et répétés. Voilà une minorité pointée du doigt qui, à elle seule, maintient l’honneur de l’humanité à bout de bras.

On a déjà vu cela dans le passé (De Gaulle lors de Juin 1940) mais je n’imaginais pas que cela été aussi dur à vivre, aussi lourd à porter. Comment avoir encore foi en mes semblables quand je constate qu’ils avalent des anneries qui ferait rire mon cheval si j’en avais un !

Je ne sais pas comment vous vivez cela mais moi, j’ai du mal. Si vous faites partie des soumis, j’imagine que ça va, vous avez confiance dans ce qu’on vous dit et vous pensez sans doute que ce cauchemar va bientôt se terminer. Si vous faites partie des rebelles (peu nombreux, rappel), vous savez que ce cauchemar commence à peine.

Courage, c’est la nuit qu’il est beau de croire à la lumière.


Le monde actuel a commencé avec le 9/11

Publiée le 2 septembre 2021

Vous vous souvenez du 9/11 ?

Non, le but de cet “article” n’est pas de polémiquer une fois de plus sur les causes, les mensonges et les non-dits de cet événement majeur (une très bonne récapitulation peut se lire à https://www.voltairenet.org/article213844.html), mais plutôt de se souvenir que notre monde actuel a effectivement commencé là, tout simplement.

Oui, songez-y, notre société a vraiment débuté avec cet événement et son traitement médiatique. Tout d’un coup, un fait avec des contours brumeux devenait indiscutable, c’est-à-dire qu’on ne devait PAS le discuter, sous aucun prétexte, d’aucune manière, point.

L’imprudent qui osait remettre en cause la doxa (même avec précaution) était aussitôt ridiculisé et ostracisé… ça ne vous rappelle rien ?

Nous sommes désormais dans un contexte sociétal où il faut croire. Il ne s’agit plus de débattre de faits, il faut simplement avaler la version officielle pour la ressortir le moment venu avec la plus parfaite exactitude, sinon gare !

Aujourd’hui, on vous traite de “complotistes” comme jadis on jetait l’anathème en vous traitant d’hérétique… rien n’a changé finalement. C’était bien la peine de se moquer des communistes et de leur rigidité mentale (souvenez-vous de la fameuse “ligne du parti”…) si c’était pour l’adopter aussi complètement quelques dizaines d’années après.

Je crois tout de même que le plus troublant dans cette “évolution”, c’est la proéminence de la “croyance” : croire en ceci, croire en cela, ne rien remettre en cause, tout admettre du moment que ça vient de l’autorité… assez surprenant non quand on songe qu’on est censé être en plein XXIème siècle ?

Finalement, le 9/11 a enfanté son lot de crises que nous avons encaissé sans broncher, crescendo : les subprimes de 2008, la crise sanitaire actuelle… Tout cela n’est possible qu’avec l’assentiment de la majorité. C’est bien pour cela que la “fabrique du consentement” est devenue la mission N°1 des médias.

Si nous voulons retrouver notre liberté (et d’abord et avant tout notre liberté de penser !), il faut nous libérer de cette entrave : n’écoutez plus les médias, plus du tout.


La loi du “mur de la complexité”

Publiée sur Linkedin le 26 novembre 2021

Le fameux télescope spatial James Webb (JWST pour James Webb Space Telescope) va enfin être lancé, bientôt… Enfin, si tout va bien !

Car, depuis les lointains débuts de ce successeur du non-moins fameux télescope Hubble, les retards et les surcoûts se sont multipliés dans des proportions ahurissantes !

Revenons d’abord sur la genèse de ce projet. En 1989, le directeur du Space Telescope Science Institute, le centre chargé des opérations du télescope spatial Hubble, initie une réflexion sur le télescope qui devra prendre la relève de celui-ci vers 2005 (2005 !).

Entretemps, le prix de cette merveille est passé de 500 millions de dollars en 1996 à 9,7 milliards de dollars. Et chaque jour de retard ajoute un million de dollars à la facture.

Ces retards, d’ailleurs, se poursuivent. La date de lancement prévue la plus récente est le 22 décembre. Il s’agit d’un report, annoncé le 22 novembre, du 18 décembre. Mais au moins, la “chose” est maintenant sur le site de lancement.

Hubble lui aussi avait coûté cher : le coût du projet a atteint 2 milliards de dollars en 1990 (au moment de sa mise en orbite), faisant du télescope Hubble l’instrument scientifique le plus coûteux de tous les temps… Jusqu’à ce que son successeur batte le record !

Il était initialement prévu que le télescope Hubble ait une durée de vie de quinze ans mais, à ce jour, il fonctionne toujours (soit déjà 31 ans de services opérationnels !). On ne peut qu’espérer que le JWST soit aussi endurant…

OK, tout cela est intéressant mais les retards et les surcoûts sont monnaie courante quand il s’agit de projets techniques sophistiqués, non ?

Justement, c’est bien là que je voudrais attirer votre attention : n’y aurait-il pas une limite à ce que nous pouvons encaisser comme complexité ?

EPR et F35, entre autres

Et les exemples qui vont dans ce sens se multiplient sans que nous semblions en prendre conscience. Je pense en particulier à l’EPR et au F35. C’est comme si la “loi des rendements décroissants” s’appliquait aussi à l’escalade de la complexité.

Tout se passe comme si on n’était incapable de comprendre que nos progrès croissants (et bien réels) dans la maitrise technique ne pouvaient pas forcément se traduire dans des mises en oeuvre toujours plus grandes, toujours plus complexes.

Prenons comme exemple les projets de développement des armes modernes. Non seulement les programmes d’armement sont de plus en plus coûteux, mais aussi, et surtout ils prennent de plus en plus de temps (ce qui explique d’ailleurs qu’ils demandent de plus en plus d’argent). Le “démonstrateur Rafale A” vole le 4 juillet 1986 et le programme est effectivement lancé le 26 janvier 1988. Les premiers exemplaires sont livrés à partir du 18 mai 2001 (armée de l’air) et entrent en service en 2002 dans la Marine, soit quinze ans de développement alors qu’il n’en avait fallu que huit pour les programmes précédents (Mirage F1 et Mirage 2000).

Ces délais à rallonge ne sont pas propres à l’aviation ni même au contexte français. Du côté des chars d’assaut, non seulement le char Leclerc a coûté bien plus cher que son prédécesseur l’AMX 30, mais il a également demandé beaucoup, beaucoup, beaucoup plus de temps pour être mis au point et surtout livré.

Du côté des Américains, c’est encore pire : les chasseurs à réaction dévorent toujours plus de budgets et demandent toujours plus de temps à être étudiés, construits et livrés aux unités opérationnelles. Dans ce domaine, les tout derniers programmes F22 et F35 frôlent la caricature dans des proportions énormes. Le F16 n’avait demandé que quatre ans pour être conçu alors que le F22 en réclama quinze !

Le programme F35 en particulier est une réponse au programme F22 qui était considéré trop coûteux. Le F35 devait apporter la solution en étant multirôles, c’est-à-dire le même avion pour les trois armes (Air Force, Navy et Marines).  Mais il s’est avéré que le cahier des charges était bien trop complexe pour arriver à combiner les exigences de l’Air Force, de la Navy et du corps des Marines en un seul appareil capable de satisfaire les spécificités si diverses de la gigantesque armée américaine. Résultat, le projet a été grevé par de multiples incompatibilités, a coûté bien plus cher que prévu et n’a toujours pas atteint un niveau opérationnel satisfaisant.

Bon, c’était effectivement relativement facile de montrer le sur-place des projets militaires (surtout avec le F35 qui est une cible facile vue que ses déboires sont permanents !), mais on va maintenant pointer un secteur où ce sur-place est bien moins connu : les médicaments.

Les médicaments sous perfusion !

Voilà encore un domaine exemplaire : beaucoup d’argent et de moyens sont disponibles et pourtant, les résultats se font de plus en plus rares, comme si la technique ralentissait (tiens, tiens…). Dans le cadre des médicaments, le phénomène est tellement évident qu’il a même donné lieu à une « loi », la loi Eroom. Voir à https://en.wikipedia.org/wiki/Eroom%27s_law

La loi d’Eroom fait observer que la découverte et la mise en production de nouveaux médicaments devient plus lente et plus coûteuse avec le temps, malgré les améliorations techniques (criblage à haut débit, biotech, chimie combinatoire et conception de médicaments), une tendance observée dans les années 1980. Le coût de développement d’un nouveau médicament double à peu près tous les neuf ans (ajusté en fonction de l’inflation).

Le nom Eroom est l’inverse de la loi de Moore bien connue dans le domaine des composants électroniques. Ce nom a été choisi afin de souligner l’effet miroir (inversé donc !) entre le milieu des médicaments et celui des composants.

Le fait que la découverte de nouveaux médicaments ralentit progressivement depuis des décennies (voir le schéma ci-dessous) est une bonne illustration de la loi des retours dégressifs.

Un secteur qui peine à trouver un second souffle

Tous les médicaments que nous utilisons aujourd’hui ont été découverts dans les années cinquante, à l’âge d’or des médicaments chimiques. Depuis, en dépit d’efforts colossaux, ce sont toujours les mêmes principes actifs qui sont déclinés à l’infini sous des packagings différents (à l’exemple de la molécule paracétamol vendue sous des dizaines d’appellations commerciales diverses), car les affaires restent les affaires, hein !

Autre exemple : une dose de Nusinersen, médicament moderne produit aux États-Unis pour soigner l’amyotrophie spinale [une maladie héréditaire qui atrophie les muscles], est vendue 70 000 euros. Son développement a duré dix ans et coûté plus d’un milliard de dollars.

Depuis 1980, aucune famille d’antibiotiques n’a vu le jour. Les nouveaux traitements ne sont que des modifications de composés connus.

Lisez Supériorité !

On pourrait ainsi multiplier les exemples, mais il me paraît plus intéressant de donner le mot de la fin à Arthur C. Clarke avec sa nouvelle “Supériorité” qui prouve que la guerre est une mauvaise période pour tenter d’innover et d’obtenir un avantage décisif.

« Supériorité » est une nouvelle de science-fiction de l’écrivain britannique Arthur C. Clarke, publiée pour la première fois en 1951. Elle décrit une course aux armements et montre comment le côté le plus avancé sur le plan technologique peut être vaincu, en dépit de sa supériorité apparente, par ses propres faiblesses organisationnelles et sa volonté de se débarrasser des anciennes technologies sans avoir complètement perfectionné la nouvelle. Pendant ce temps, l’ennemi construisait régulièrement un arsenal d’armes beaucoup plus important, certes plus primitif, mais surtout plus fiable. Cette histoire était au programme d’un cours de design industriel au Massachusetts Institute of Technology.

Source https://en.wikipedia.org/wiki/Superiority_(short_story).

Le mur de la complexité

Tout cela va peut-être finir par nous faire comprendre qu’il existe bien un mur de la complexité tout comme on admet l’existence du “mur du son” que l’aviation civile n’essaye même plus de franchir (car on connaît désormais les coûts et les conséquences techniques de la capacité supersonique). Ici, la bonne attitude est de savoir calibrer son ambition de façon à frôler ce nouveau mur sans risque de s’y fracasser (délais, surcoûts).

Tout cela, je l’ai déjà expliqué en long et en large dans mon livre récent “Le fait technique” mais le pré-bilan du JWST me donnait l’occasion d’enfoncer le clou une fois de plus !

Il faut donc privilégier les projets plus modestes (moins ambitieux) mais plus accessibles et plus faciles à mettre en place avec succès. Mais ce genre de leçon est-il compatible avec la mentalité du “toujours plus” propre à la psychologie humaine ?


Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Publiée sur Linkedin le 6 décembre 2021

Eh oui, comme le précise le titre de cet article, une période “extraordinaire” ne rime pas forcément avec “formidable”. Après tout, les guerres et les grandes catastrophes sont, elles aussi, des événements extraordinaires…

Une crise sanitaire ? Où ça ?

Bref, notre présent est dominé par les tenants et aboutissants de ce qu’il convient d’appeler la “crise sanitaire” mais qui est, en réalité, une crise de société très profonde. Durant ces derniers mois, nous avons constaté, souvent avec effarement, que beaucoup de règles qu’on croyait bien établies ont été balayées, oubliées, contredites et même interdites !

L’obligation de soigner, le débat contradictoire, la prudence scientifique, le droit à une pensée libre et le droit de l’exprimer, entre autres… Tout cela serait de l’histoire ancienne (jusqu’à ce qu’on nous explique que, en fait, ça n’a jamais existé…) face à une “urgence sanitaire” qui nous contraint à respecter des ordres absurdes et contradictoires, le tout sans broncher svp.

La réalité (et la brutalité) des faits oblige à reconnaître que nos gouvernants sont en guerre ouverte contre nous et, encore un élément extraordinaire, qu’une grande partie de la population (une large majorité) ne semble pas s’en rendre compte.

Ceci dit, avant d’aller plus loin sur ce triste présent, il faut se remémorer quelques épisodes d’un passé relativement récent pour s’apercevoir que nos gouvernants agissent contre nos intérêts depuis un certain temps déjà. Et s’ils le peuvent, c’est principalement grâce (ou à cause) de la passivité des gens. Passivité qui, de plus, est largement encouragée et entretenue, nous y reviendrons.

Une longue période de déceptions

Les vingt dernières années ont été lourdes de revers de toutes les sortes et d’amères déceptions. Que ce soit en France, au niveau européen ou américain, les gouvernants se sont évertués à nous mentir et à nous flouer, encore et encore. Et tout cela dans la plus parfaite impunité (pourquoi se priver après tout ?).

On pourrait revenir sur les attentats du 9/11 ou sur la conduite de la seconde guerre en Irak (ou ce qui s’est passé en Libye) mais je crois quand même que le plus marquant et le plus déplorable reste tout de même le traitement de la crise de 2008. Pour faire court, contentons-nous de rappeler qu’il s’agit d’une crise mondiale qui a été causée uniquement et entièrement par l’avidité sans borne des banquiers (une simplification, certes, mais nécessaire pour un article forcément limité). Les dégâts et les victimes ont été innombrables et qu’a-t-on fait ?

Eh bien, vous comprenez, on a sauvé les banquiers, hein… Il faut savoir respecter certaines priorités, n’est-ce pas ?

Selon moi, c’est vraiment là qu’on (nous, nous tous en tant que peuple) a perdu le contrôle et que les gouvernants ont réalisé qu’ils pouvaient tout se permettre, que ça passait sans problème. Depuis, les mensonges et les scandales (qui ont toujours existé, bien sûr) sont allés crescendo dans l’indifférence générale. Il y a bien des lanceurs d’alertes et des journalistes d’investigation mais qui les écoutent ?

Personne ou presque parce que la population est totalement anesthésiée. Et si c’était bien cela qu’on nous avait fait subir, une anesthésie générale ?

Et si tout cela était le résultat d’années de préparation ?

Personnellement, cela fait des années que je tente d’alerter sur la baisse générale du niveau intellectuel que je constate autour de moi et que je dénonce le rôle des médias dans cette affaire. J’ai toujours été frappé par l’absence de réaction face à ce phénomène, même de la part de ceux que j’estimais (encore) épargnés.

Donc, on peut s’étonner de la docilité des gens mais on peut aussi admettre que le travail de fond réalisé par les médias dans ce sens pendant ces dernières décennies a fini par porter ses fruits. En effet, comment nier que la promotion et la diffusion systématique des contenus les plus abrutissants soit en constante augmentation dans toutes les principales chaînes de TV et de radio ?

Auparavant, on avait des animateurs un peu beaufs (genre Patrick Sébastien) mais ça ne suffisait pas, il fallait aller à plusieurs crans au-dessus avec des animateurs carrément les plus vils (genre Cyril Hanouna). Les programmes de télé-réalités sont devenus tellement prisés que même les services comme Netflix ou Prime Vidéo en proposent !

Toute cette évolution négative (toujours abaisser le niveau, jamais le relever) a forcément produit des effets et on peut les constater en voyant nos ados se régaler des vidéos les plus débiles sur YouTube ou Tik-Tok. Si encore ce n’était visible que chez les ados mais tout le monde est touché, aucune tranche d’âge n’est épargnée, le mal est fait et il est généralisé.

Mais comme le labeur des médias ne suffisait pas tout à fait, nos bourreaux ont ajouté la force des algorithmes. On constate avec stupéfaction que Google (avec YouTube), Facebook et Linkedin censurent à tout va depuis quelques mois et avec une efficacité digne d’éloges. L’expression dissidente est étouffée avec une précision et une vitesse que l’ancien politburo soviétique n’aurait jamais pu espérer !

La crise sanitaire ou un test à (très) grande échelle

Ce que nous vivons depuis presque deux ans s’apparente de moins en moins à une crise sanitaire sérieuse à cause d’une épidémie foudroyante et super-dangereuse mais bien à une expérience de contrôle des populations (propagande, censure, coercition) dont les résultats dépassent les espérances les plus folles de ses promoteurs.

Comment imaginer qu’on allait pouvoir, si facilement, remplacer toutes les démarches scientifiques (qu’on croyait naïvement comme bien implantées… ah !) par des injonctions primaires de type “taisez-vous et croyez-nous”… et ça marche !

Comment pouvait-on imaginer qu’on allait pouvoir, si facilement, remplacer tous les débats contradictoires par l’ostracisme et le respect de la “ligne du parti” sans discussion d’aucune sorte ?

Ah ça si Staline et Mao sont en train de nous observer en ce moment, nul doute qu’ils doivent être en train d’applaudir avec admiration !

Un procès de Nuremberg, vous y croyez ?

On peut toujours espérer qu’on finira par organiser un méga-procès de Nuremberg de l’ère moderne où tous les truqueurs et tous leurs collabos serviles (journalistes et médecins qui ont marché dans cette combine toute honte bue) seront jugés, condamnés et punis de ce qu’ils viennent de nous faire subir (et ce n’est pas terminé, hélas) mais, franchement, j’y crois de moins en moins.

Tant que la bêtise et le conformisme à tout prix régneront, cette ambiance délétère continuera. Et, quelque part, je comprends ceux qui nous oppriment : pourquoi se priver, ce troupeau a choisi sa servitude, qu’il se fasse tondre puisqu’il est d’accord !

Le pire n’est jamais sûr

On dit que c’est la perte de l’espoir qui finit par tuer le naufragé… Et si c’était la perte de son âme qui égarait le peuple ?

Avec pour seuls horizons des distractions dépourvues de sens et une consommation exacerbée mais frustrante, les corrompus qui tentent de nous égarer ont presque réussi à nous perdre, effectivement. Mais tout espoir est-il perdu ?

Non, évidemment non. Même aux plus sombres heures de notre histoire, il y a toujours eu un sursaut qui nous a permis de repartir. Pour cela, l’engagement de la majorité n’est pas nécessaire. Il suffit à quelques-uns d’impulser le mouvement pour que le reste suive, tôt ou tard. La faible lumière de la résistance débouchera sur une aube glorieuse. Il faut y croire et agir car “c’est la nuit qu’il est beau de croire à la lumière”.


Un coupable de complaisance !

Publiée sur Linkedin le 11 décembre 2021

En ce moment, on entend une nouvelle petite musique qui montre que le vent est en train de tourner. Et vers quoi souffle le vent désormais ?

Eh bien, on s’est trouvé un coupable de complaisance qui arrange tout le monde. Il s’agit de Jean-François Delfraissy qui, en quelques semaines, est passé de respectable à gâteux.

Quelque part, je devrais me réjouir :  Jean-François Delfraissy ne fait pas exactement partie des personnes pour lesquelles j’ai de la sympathie. Mais le désigner à la vindicte populaire me paraît tout à fait en ligne avec les mensonges et manipulations donc on nous abreuve depuis le début de cette crise.

Le plus drôle si j’ose dire c’est que c’est Martin Blachier désigne désormais Jean-François Delfraissy comme le responsable de tous nos maux et comme incapable de conduire la politique crise sanitaire, comme s’il en avait été capable depuis le début !

En France, on est coutumier de l’emploi de ce coupable de complaisance, souvenez-vous de l’affaire du sang contaminé. Pas un seul politique n’a été sérieusement inquiété, bien sûr !

Que Delfraissy soit démis de ses fonctions et je ne vais certainement pas pleurer mais je considère qu’il ne doit pas être le seul à payer les pots cassés.  En effet, les coupables dans cette affaire sont nombreux. À commencer par Martin Blachier, justement, qui ne s’est pas privé de dire tout et son contraire depuis le début de sa présence médiatique dans le cadre de cette crise.

Mais soyons clair, Blachier et Delfraissy sont du menu fretin par rapport aux vrais responsables de cette situation calamiteuse.  En particulier j’aimerais bien réserver une place de choix pour notre ministre de la Santé, le formidable Olivier Véran.

On n’oubliera pas non plus tous ces journalistes serviles qui ont porté le message de ce gouvernement en guerre contre son propre peuple. Non, rassurez-vous, quand Delfraissy sera oublié depuis longtemps, nous, nous n’aurons rien oublié et rien pardonné.


La question principale : à quelle vitesse ce Metaverse va-t-il arriver ?

Publiée sur Linkedin le 12 décembre 2021

La question à laquelle on doit répondre aujourd’hui c’est surtout “à quelle vitesse ce Metaverse va-t-il arriver ?”. C’est la question principale tout simplement parce que c’est celle à laquelle on peut essayer de répondre, alors que l’autre question principale qu’on imagine assez facilement ce serait plutôt “à quoi va ressembler ce Metaverse qu’on nous annonce aujourd’hui ?”.

Donc, la question de la vitesse d’apparition reste bien la principale aujourd’hui tout simplement parce que c’est celle qui nous impose de réagir et de nous positionner vis-à-vis de ce nouveau phénomène décrit par tous comme étant structurant pour le futur de l’informatique au sens large (the next big thing).

Sur ce sujet, il y a donc deux écoles qui s’affrontent. Une qui prétend que cela va arriver vite, dès l’année prochaine ou presque. Et une autre qui dit que ça va être plus long, que ça va prendre des années avant d’avoir une concrétisation bien réelle c’est qui (et amusants de d’utiliser l’adjectif bien réel dans un domaine où tout est virtuel.

On peut aussi imaginer que les deux écoles de pensée ont raison dès le début puisque quelque chose va effectivement arriver relativement vite mais que la forme finale, la forme effective elle, prendra des années pour trouver son chemin, se concrétiser et rallier les utilisateurs massivement.

Ceux qui pensent que le Metaverse va se concrétiser rapidement mettent en avant l’exemple de Meta (la société, maison mère de Facebook) qui a investi lourdement et qui commence à présenter ses premières briques comme Horizon Worlds. Alors justement parlons-en de cette soit-disant première brique et, clairement, si ce n’était pas Meta qui était derrière cette réalisation, eh bien on serait simplement tordu de rire à la vue de cette première réalisation tant elle est grotesque et éloignée de ce qu’on pourrait imaginer pour un usage professionnel.

Que le Metaverse prenne des années pour se concrétiser et trouver sa forme finale n’est pas surprenant et n’est pas inédit dans l’histoire technique. Si on reprend l’histoire du web, celui-ci a beaucoup évolué entre sa première forme, qu’on peut situer en 1994, et celle qu’on connaît aujourd’hui.

Cette évolution s’est faite graduellement, avec des étapes importantes, comme au début des années 2000 avec le protocole Ajax mais, fondamentalement, dès le début, le web ressemblait déjà à ce qu’il est aujourd’hui. Pour le Metaverse en revanche, c’est beaucoup plus difficile de dire à quoi il va ressembler dès aujourd’hui. Car nous nous situons encore aujourd’hui dans la période qui ressemble à celle qui a précédé l’avènement du web et où l’on parlait encore des “autoroutes de l’information”. Sans que personne n’ait été capable de donner une définition claire est utilisable de ce que pourrait être ces fameuses autoroutes de l’information et à ce à quoi elles allaient servir.

Donc, laissons là pour le moment la question de “à quoi va ressembler le Metaverse” pour nous concentrer sur la rapidité éventuelle de son apparition.

Cette question de la rapidité de réalisation d’une innovation majeure m’intéresse particulièrement parce qu’elle est au centre de mon travail depuis des années. En effet, à travers des livres, des articles, des conférences et des webinaires, j’essaye d’expliquer que les innovations, les vraies innovations, les vraies ruptures, prennent du temps, beaucoup de temps, toujours plus de temps que ce qu’on est prêt à admettre.

Il est logique et naturel qu’on ait du mal évaluer correctement la durée nécessaire car tu nous pousse à croire que, pour reprendre une expression déjà très utilisée, “c’est déjà demain”. La propagande technique cherche continuellement à nous faire croire que tout va très vite et même notre enthousiasme naturel nous pousse à croire et même à désirer que, effectivement, ces progrès annoncés, nous allons pouvoir en tirer parti très rapidement.

Mais une analyse objective de la situation et de ses perspectives nous oblige à comprendre qu’il faudra des années d’efforts, d’essais et d’erreurs avant que la bonne forme du Metaverse puisse finalement apparaître et devenir disponible pour le plus grand nombre. Sans oublier, bien évidemment, les moyens nécessaires pour en profiter. Car rappelons que cet univers virtuel, pour le moment spéculatif, va demander des interfaces très spéciales afin de permettre et de renforcer l’immersion.

Bref, vous l’aurez compris, une fois de plus, je me situe fermement du côté de ceux qui vous disent que cela va prendre du temps et qu’il faut garder de s’enthousiasmer trop rapidement à propos de ce concept qui n’est encore, justement, qu’un concept.


Les fraudes hi-tech et ce qu’elles nous révèlent…

Publiée le 14 décembre 2021 sur Linkedin

Les utopies techniques ont de l’avenir

On peut s’escrimer à longueur d’articles et de livres (comme je l’ai fait dans mon ouvrage « le fait technique« ) à expliquer le côté absurde des utopies techniques, ça restera vain. Tout d’abord parce que les biais cognitifs sont difficiles à surmonter, mais aussi parce que la propagande solutionniste a une “force de frappe” (avec la complicité des médias) bien plus importante que les commentateurs raisonnables qui tentent de faire la part des choses (et on a pu le mesurer douloureusement lors de la terrible crise sanitaire, où nous sommes restés englués de longs, très longs mois).

Donc, oui, les entités (gouvernements, entreprises, gourous autoproclamés, etc.) qui servent et qui se servent de la propagande technique vont continuer à mentir et à délirer impunément pendant longtemps puisque ça marche : audience et crédits pour eux, dénigrement pour les autres (les commentateurs raisonnables).

Si, comme je le prétends, la propagande technique excessive est toxique, c’est qu’elle devrait avoir des effets mesurables, non ?

Justement oui, et dans ce cadre, je vous propose d’évoquer les fraudes techniques qui se transforment inévitablement en scandales financiers retentissants. Non, il ne s’agit pas d’évoquer les bricolages minables d’un Madoff en 2001 ou les innombrables scandales politiques qu’on ne sait plus dénombrer tellement ils sont fréquents. Intéressons-nous plutôt à la recrudescence récente des fraudes hi-tech afin de comprendre ce qu’elles révèlent sur notre époque.

D’Enron à Wirecard

Les fraudes à grande échelle venant d’entreprises réputées ne sont pas un phénomène nouveau. Il y a eu l’énorme scandale Enron en 2001 (voir à https://fr.wikipedia.org/wiki/Enron) et bien d’autres auparavant, avec de très nombreux cas de comptes bidonnés (d’Oracle en 1991 à Worldcom en 2002, voir à https://fr.wikipedia.org/wiki/WorldCom). Plus proche de nous, il y a eu la surprenante affaire Wirecard en 2020 (voir à https://fr.wikipedia.org/wiki/Wirecard) qui a démontré que même les Allemands n’hésitaient pas à frauder quand l’occasion leur était donnée. Mais ça, on le sait depuis la gigantesque affaire du dieselgate de Volkwagen (voir à https://fr.wikipedia.org/wiki/Affaire_Volkswagen).

Puisqu’on évoque des peuples soi-disant vertueux, n’oublions pas nos amis japonais qui ne sont jamais les derniers à se retrouver honteux devant leurs malversations diverses : Toshiba en 2015, Mitsubishi Motors en 2016 et j’en oublie certainement plein d’autres !

Du côté de la hi-tech

Ce qui est nouveau, c’est le caractère technique des scandales récents (à part Wirecard et encore…). Il s’agit essentiellement de mensonges sur les performances techniques de produits mis en avant, pas sur le trucage des comptes comme avec l’affaire WeWork et autres ainsi qu’on en avait l’habitude.

Cette fois, il ne s’agit pas d’entrepreneurs trop optimistes sur leur capacité à vendre leur dernière trouvaille, il s’agit de la trouvaille elle-même qui n’est que du vent et ça, c’est (relativement) nouveau.

Ces dernières années et dans ce cadre, nous avons eu l’affaire de Theranos (avec Elizabeth Holmes, voir à https://korii.slate.fr/biz/vilains-du-net-theranos-elizabeth-holmes-scandale-silicon-valley-medecine-mensonge), celle de OneCoin avec la “crypto-queen” bulgare Ruja Ignatova (aujourd’hui toujours en fuite, voir à https://fr.wikipedia.org/wiki/OneCoin), les robots de livraison soi-disant autonomes de Kiwibots (voir à https://siecledigital.fr/2019/09/03/les-robots-kiwibots-etaient-pilotes-par-des-colombiens-sous-payes/) et enfin récemment Nikola Corp. (voir à https://www.novethic.fr/actualite/finance-durable/isr-rse/nikola-motor-l-autre-tesla-s-effondre-en-bourse-sur-fond-de-promesses-douteuses-149032.html) avec leurs camions électriques, mais, hélas, dépourvus de moteur (filmés en train de dévaler une colline, ça aide quand on n’a pas de moteur !!).

Revenons rapidement sur le cas Wirecard. Même s’il ne s’agit pas d’une fraude technique en soi, il y a tout de même une composante hi-tech dans cette affaire. Le PDG de Wirecard (Markus Braun) aimait mettre en avant le caractère innovant de son approche avec, disait-il, une utilisation intensive de logiciels IA de type machine learning… Bien entendu, quand son château de cartes s’est écroulé, son soi-disant recours au machine learning est apparu pour ce qu’il était : un rideau de fumée. Il n’y avait pas d’usage de l’IA à Wirecard autrement que dans les prétentions du PDG.

Fake it until you make it

Tout cela commence à faire beaucoup. Il semblerait que la pression permanente exercée sur les entrepreneurs les pousse de plus en plus à annoncer des résultats inatteignables et à faire semblant de les avoir atteints par tous les moyens (le fameux « fake it until you make it », soit “faites semblant jusqu’à ce que vous y arriviez pour de bon”). Mais dans les cas que nous venons de lister, il semble que la perspective d’y arriver après avoir beaucoup essayé soit même absente…

Les individus nommés ici ont un comportement pour le moins étonnant : ils démarrent quelque chose d’où une personne sensée sait qu’elle ne pourra pas s’en sortir. C’est une chose de monter une gigantesque arnaque où l’on disparaît dans la nature après avoir plumé quelques pigeons (ou de nombreux pigeons, au choix), mais lorsque votre visage est affiché dans tous les magazines de business et que l’on vous présente comme le nouveau Steve Jobs au féminin (ça a été le cas pour Elizabeth Holmes), vous savez que vous n’aurez nulle part où vous cacher (encore que, Ruja Ignatova y est bien arrivé, elle !). Ces comportements quasi-suicidaires sont-ils de plus en plus fréquents ou est-ce l’évolution globale de notre société qui leur permet d’apparaître et de prospérer (au moins pour un temps) ?

Portrait type du menteur technologique

On se retrouve avec différents profils de menteurs techniques avec ces histoires. Voici une typologie dressée sur le tas :

– Nous avons tout d’abord le classique « Fake it ’till you make it » déjà évoqué : des entrepreneurs qui ont peut-être plus de pression ces temps-ci pour offrir des résultats spectaculaires et qui peuvent bidonner des résultats pour gagner du temps. Exemple type : Elon Musk qui aime beaucoup promettre, mais qui oublie rapidement ses promesses (sauf que Tesla a un vrai produit et est finalement devenu profitable). Ou même Bill Gates (qui a promis un BASIC pour l’Altaïr 8800 lors des débuts historiques de Microsoft alors qu’ils ne l’avaient pas encore écrit).

– Nous avons ensuite les modèles économiques bancals du style WeWork. Rien d’illégal dans la mesure où ça ne semble déranger personne (sauf que WeWork a fait perdre pas mal d’argent à pas mal de gens…).

– Nous avons aussi les traditionnels exploiteurs de buzz, comme toutes les compagnies soi-disant d’IA qui n’ont rien à faire avec l’IA sauf dans leur discours. Admettons néanmoins que cette forme de promotion suivie de la commercialisation de produits médiocres ait toujours existé.

– Et enfin (je l’ai gardé en dernier !), nous avons le redoutable « Fake it, period » (je fais semblant, point barre) : les véritables arnaques du style Theranos, OneCoin ou Nikola Corps. Peut-être bien que ces personnages hauts en couleur sont des cas cliniques qui ont toujours existé, mais qui, pas de chance (sauf pour eux), trouvent peut-être des investisseurs plus réceptifs ces temps-ci et c’est bien cela le problème.

Que peut-on en déduire ?

Comment expliquer que des pareils profils et des comportements du type “fake it, period” puissent faire illusion (au moins pour une période) dans notre contexte de capitalisme débridé ?

Il a certes la pression permanente sur les entrepreneurs pour annoncer du grandiose, mais il y a aussi des investisseurs qui sont prêts à croire n’importe quoi sans vraiment d’esprit critique et sans analyse sérieuse (surtout sur le plan technique) de ce qui leur est présenté : leur fameuse “due diligence” se résume trop à vérifier que les slides soient percutants et que le business plan soit alléchant, peu importe que tout cela soit tissé avec des liens éthérés.

Mais si encore il ne s’agissait que de financiers trop avides. Dans le cas de Nikola Corp., par exemple, il semble bien que General Motors se soit associée (dans tous les sens du terme) à cette start-up avec enthousiasme, mais sans vraiment vérifier ce qui leur était dit, y compris sur le plan technique qui est pourtant censé être leur point fort…

Les menteurs sont récompensés aux dépens des entrepreneurs honnêtes

Un tel laisser-aller a des conséquences catastrophiques pour tout le monde et d’abord pour ceux qui s’efforcent de rester honnêtes : ils sont refusés, repoussés, n’arrivent pas à attirer l’attention, car les menteurs pathologiques leur volent la vedette.

Avec une perversion endémique de ce type, on en arrive à encourager le mensonge et à décourager l’honnêteté. Qui sont les responsables ?

Tout d’abord les médias qui veulent toujours du sensationnel et ne peuvent se contenter d’améliorations incrémentales (alors que la technique évolue toujours pas à pas). Ensuite les financiers qui sont trop gourmands et qui vont plutôt se tourner vers ceux qui promettent la lune, peu importe que ça soit inaccessible puisqu’ils (les investisseurs des premiers tours) seront sortis du capital de la start-up au moment de l’introduction en bourse et avant que le scandale n’explose… le bon vieux “après moi le déluge” de Louis XV est toujours d’actualité.

Rien à attendre des médias

On le voit, les médias sont juste capables de relayer le hype du moment, sans aucune analyse ni vérification. Ce qui est important à retenir, ce sont les biais mentaux qu’il nous faut corriger sans cesse afin de garder une vision juste (ou, au moins, aussi juste que possible) de l’évolution technique à l’avenir. Répétons une fois de plus qu’il faut être patients à court terme et optimistes à long terme (un peu comme les investissements en bourse en fait !). Armés de ces principes, vous saurez faire le tri entre les modes sans fondements (ou mises en avant trop tôt) et les tendances solides.


La danse médiatique sans fin ni sens

Publiée sur Linkedin le 19 décembre 2021

La vague médiatique en faveur du tout nouveau métaverse nous apprend au moins une chose : la danse des médias ne s’arrête jamais, est continuellement renouvelée même quand la nouvelle musique n’est encore tout à fait composée ni que les danseurs soient capables d’exécuter les pas encore en cours de création…

En effet, la notion même de métaverse n’est pas encore claire que déjà les trompettes de la renommée sonnent et annoncent qu’il s’agit de la nouvelle grande affaire !

Peu importe que sa forme soit encore en définition, ni que son avènement soit encore lointain, la messe est dite, prosternez-vous, le métaverse est l’avenir, point.

Ici aussi, les rares esprits encore éveillés (une espèce rare pendant cette époque de folie collective…), auront remarqué qu’on disait aussi cela pour les récentes modes précédentes. Souvenez-vous, il y a quatre ans, c’était l’IA et la Blockchain qui devait tout redéfinir. Puis, quand la Blockchain a tardé à délivrer ses promesses (c’est toujours le cas d’ailleurs), le discours central de la propagande techno s’est recentré sur les cryptomonnaies et, dernièrement, sur les NFT.

On constate semblable mouvement du côté de l’IA qui est désormais moins mise en avant mais, rassurez-vous, la bulle médiatique a toujours du neuf en magasin : l’IA tarde à faire son big bang ?

Mais ce n’est pas grave puisque nous avons les ordinateurs quantiques qui eux, promettent de tout changer !

Peu importe que cette nouvelle informatique quantique soit encore à des années (à des décennies en fait…) de connaître un début de réalisation concrète, son triomphe certain est déjà proclamé. Et c’est ainsi encore et encore… Comment se fait-il que cette danse sans fin et sans sens ne nous ait pas déjà tous dégoûté ?

D’abord, il faut admettre que des forces puissantes sont à l’œuvre. D’un côté, nous avons l’industrie électronique/informatique qui a besoin d’attention (un peu) et de financements (beaucoup !). De l’autre, nous avons l’industrie médiatique qui a simplement besoin d’attention (beaucoup !). Ces deux-là ont forgé une alliance objective qui donne des résultats formidables depuis quarante ans. Donc, pas question de changer la recette, ma bonne dame !

Mais voilà, le processus s’est emballé et, désormais, la musique est déconnectée de la danse et plus personne n’y comprend rien. Aucune importance, le but n’est pas de faire comprendre, le but est simplement de faire admettre : voilà la nouvelle mode, adorez-la, point.

Vu comme cela, on comprend mieux les derniers développements qui affectent notre société. Car les techniques de ce bourrage de cranes techno sont désormais reprises par les autres pans de la propagande. Vae victis.


Avec le Web3, nouvel enfumage à l’horizon !

Publiée sur Linkedin le 7 janvier 2022

Le Web3 ? Qu’est-ce que c’est encore que ça ?

Eh bien, personne ne sait vraiment ce qu’est ou pourrait être le Web3 sinon qu’il n’a rien à voir avec le Web 3.0 mis en avant (sans succès) par Tim Berners Lee. En gros, les promoteurs du Web3 promettent un Web renouvelé et débarrassé de ses tares (comprendre la prééminence des GAFAM) grâce à un fonctionnement décentralisé s’appuyant sur des Blockchains…

Le problème avec cette promesse, c’est qu’elle repose sur des éléments très instables (les crypto-monnaies comme le Bitcoin) et très perfectibles (comme les blockchains justement !). Pas tout à fait le meilleur candidat possible pour faire vraiment mieux et plus équitable que le Web 2.0. L’argument principal des promoteurs du Web3 est qu’il sera décentralisé et, ainsi, échappera au contrôle des acteurs dominants… En fait, cet argument cache simplement leurs volontés de devenir les nouveaux acteurs dominants et de profiter de ce pouvoir pour se comporter en terrains conquis (je ne suis pas le seul à le dire, lisez donc cet article https://www.lemondeinformatique.fr/actualites/lire-web3-ou-la-chimere-de-l-internet-du-futur-85285).

Tous les acteurs ont un agenda

Tout cela m’évoque furieusement les années 90 où Oracle dénonçait les pratiques abusives d’IBM et incitait les clients à quitter big blue pour se réfugier au sein du “gentil rouge”… Aujourd’hui, je doute que les clients qui subissent les pratiques commerciales du “gentil rouge” puissent vraiment faire la différence avec le temps où il subissait le joug d’IBM !

Tous ses acteurs ont un agenda (tous !) : les gros veulent rester au sommet (Mark Zuckerberg veut se réinventer avec Meta pour ne pas chuter), les petits veulent y grimper pour admirer la vue… C’est l’éternel histoire du monde, ne vous laissez pas abuser par les promesses des promoteurs du Web3. Au lieu de raconter des histoires, je préférerais les voir s’occuper des performances lamentables des blockchains (et consommer moins d’énergie stupidement aussi pendant qu’on y est !), pour commencer avant de nous promettre de l’appliquer à tout le Web et toute l’informatique (il faut reconnaître cela : ces jeunes loups du Web3 sont ambitieux) !

Pour se convaincre que la Blockchain n’est pas encore à niveau pour se généraliser, il suffit de lire cet article : https://www.usenix.org/publications/loginonline/web3-fraud

Bref, on l’aura compris, le Web3 n’est pas l’avenir de l’informatique ni du Web mais une combine de plus pour recycler encore plus de crypto-monnaies bidons.


Il est temps de lire « Le monde sans fin »​

Publiée sur Linkedin le 3 février 2022

Le livre à lire en ce moment n’est certainement pas celui de telle ou tel candidat(e) à l’élection présidentielle (qui sont souvent des ouvrages d’une grande médiocrité), non.

En revanche, vous ne perdrez pas votre temps en vous penchant sur une BD, oui, une BD… Celle de Christophe Blain (Scénario, Dessin) et de Jean-Marc Jancovici (Scénario) : Le monde sans fin.

Cet ouvrage est volumineux (192 pages) mais se lit assez vite car il est très bien fait : pédagogique, amusant même et « right to the point » comme dirait Iso Yamura. On n’est pas forcément d’accord avec tout (je ne partage pas l’enthousiasme et l’optimisme de Jean-Marc Jancovici sur le nucléaire) mais il faut reconnaitre que ce livre met des gros points sur des gros i et c’était nécessaire. Ce n’est pas qu’un livre sur le climat, l’écologie ou même l’énergie, pas seulement. Selon moi, c’est l’ouvrage idéal pour mesurer ce qu’est devenue notre société moderne depuis qu’elle a embrassé le machinisme (l’utilisation des machines à tous les étages). Tout comme comme j’ai essayé de l’illustrer dans « Le Fait technique » (voir à http://www.alain-lefebvre.com/un-nouveau-livre-le-fait-technique/), Blain et Jancovici nous montrent (avec brio) sur quoi repose notre monde et comment il a évolué en deux cent ans.

Rien que pour cela, c’est un livre incontournable, surtout pour les enfants !

Je l’ai donné à lire à mon fils de 13 ans et son premier commentaire a été « hé, c’est bien mieux que la SVT ! » (SVT : sciences de la vie et de la Terre, une matière scolaire actuelle). Donc, je vous recommande ce livre sans restriction : c’est bon pour toute la famille !

Alors, bien sûr, ce livre interroge sur notre avenir : continuer à faire semblant (greenwashing, croissance verte et autres balivernes) va nous envoyer droit dans le mur et cela va occasionner des dégâts, des victimes, beaucoup de douleurs… Alors, comment éviter cela et trouver une issue acceptable ?

Le livre offre quelques pistes et c’est déjà pas mal. La principale serait de passer à une génération de responsables conscients des enjeux et prêts à faire des vrais efforts, pas seulement des discours… On les cherche encore !


Ce grand embrasement qui vient

Publiée sur Linkedin le 12 mai 2022

Lorsque j’ai rédigé et publié mon livre “Cette révolte qui ne viendra pas”, c’était d’abord pour répondre et démentir le texte “cette insurrection qui vient” dont les arguments ne m’avaient pas convaincu. Dans “Révolte”, j’explique que l’insurrection est quasiment impossible du fait du verrouillage du système par les médias et par le faible niveau général de la population (que la technostructure cherche toujours à abaisser avec une efficacité certaine !).

Je n’ai toujours pas changé d’avis : des embryons de révolte même modeste le mouvement des gilets jaunes sont combattus par le pouvoir en place avec une violence disproportionnée (et délibérée) afin de décourager explicitement toute amorce de tentative dans ce domaine.

Mais je pense que les conditions sont en train de changer et qu’elles vont déboucher sur ce que j’appelle “le grand embrasement”. Alors, attention, je n’emploi pas les termes “révoltes” et “insurrections” dans ce cas précis : révolte et/ou insurrection suppose que le groupe à sa tête a un minimum de projet politique en réserve (même très flou) en cas de succès.

Là, ça ne sera pas le cas, pas du tout. Le grand embrasement sera un déchaînement de violence aveugle et sans discernement qui affectera tout le monde sans distinction. Ce n’est pas un scénario souhaitable, loin s’en faut mais à force de tuer dans l’œuf tous les mouvements de protestation légitime, on aboutira à ce dénouement malheureux.

Imaginez ce qui se passe en ce moment au Sri Lanka mais puissance dix et dans notre contrée… Gagné, voilà à quoi va ressembler le grand embrasement !

OK, c’est pas terrible mais comment en être certain ?

On ne peut pas en être certain, “le pire n’est jamais sûr” comme le dit fort justement un dicton populaire mais nous avons une série de signaux faibles qui montre que les choses sont en train d’évoluer, que des craquements se font entendre et que cela annonce des conséquences sinistres.

Mais quels sont ses signaux faibles annonciateurs de la catastrophe ?

Eh bien ils sont divers, éparpillés et pas toujours faciles à comprendre et à relier mais ils ont tous un point commun important : le rejet de la technostructure dans son ensemble. Et ce rejet va se transformer en une haine qu’il sera impossible d’endiguer, d’où le terme d’embrasement.

Quelques exemples : des tours de communications 5G incendiées, des câbles de fibres optiques sabotés ou des étudiants fraîchement diplômés qui rejettent le jeu de dupes que leur propose le système (voir à https://youtu.be/SUOVOC2Kd50 ça vaut le coup de les entendre : “Plus de courage en 7 minutes que les 5 dernières années de politique française”). Ces exemples peuvent vous sembler anecdotiques et peu importants. Détrompez-vous, ils sont les signes extérieurs, et encore timides, d’une colère qui va croissante. Cette colère enfle, se répand et elle est jus-ti-fiée. La technostructure abandonne le peuple à son triste sort et le peuple va finir par se rebiffer. Cela ne va pas se produire d’une façon organisée et encore moins raisonnable mais cela va arriver.

On le voit partout : services publics qui désertent, déserts médicaux, formalités en ligne obligatoires, règles administratives qui changent sans cesse et se complexifient jusqu’à l’absurde et même répression vexatoire (comment prendre autrement ces radars placés vicieusement pour faire du chiffre ?).

Boris Vian avait dit “le devoir de chaque citoyen français et de trouver le fonctionnaire qui s’occupe de son cas et de l’égorger”… J’ai peur que cette prédiction finisse par devenir une terrible réalité !

Cette technostructure arrogante et déconnectée semble vouloir tout faire pour pousser les gens à bout et c’est effectivement ce qui est en train de se produire. Cela va encore prendre du temps avant l’explosion finale. Combien ?

Je ne sais pas, le timing est toujours la prévision la plus difficile à produire mais je suis désormais persuadé que ça arrivera et ce n’est pas une bonne nouvelle, pour personne.


Comment disparaît une mode technique -Web3- et pourquoi c’est totalement justifié dans le cas présent

Publiée sur Linkedin le 24 juin 2022

Aussi incroyable que cela puisse paraître mais en dépit de tout ce qu’on a pu apprendre à leurs sujets, le Metaverse et le Web3 sont encore des termes à la mode aujourd’hui. Le cas du Metaverse est facile à régler (c’est trop tôt, faut lui laisser du temps, point). En revanche, le “phénomène” du Web3 est tellement délirant qu’il mérite qu’on s’y penche.

Commençons par revenir sur la mécanique des modes techniques…

D’où venons-nous ?

La propagande tech ne s’arrête jamais !

Il y a dix ans, la mode était sur les apps mobiles, il y a cinq ans sur l’IA et ainsi de suite.

Que s’est-il passé depuis ?

Les mobiles apps se sont généralisées effectivement donc ça ne pouvait plus être un “sujet de mode”, point barre.

L’IA a pris le relais avec des effets démos spectaculaires (et ici, “l’effet démo” a vraiment joué à fond !) mais on s’est progressivement aperçus que ces avancées (bien réelles et importantes) n’étaient pas faciles à généraliser. Il y a eu quelques tentatives de commercialisation à grande échelle (IBM surtout et Google dans une moindre mesure ou plus discrètement au moins) mais qui se sont toutes soldées par des échecs retentissants. Les seules à avoir vraiment bénéficiées de “l’effet IA” se sont les startups qui ont collé cette étiquette à leur business plan afin de lever de l’argent plus facilement (avec au moins 40% de fake complet, le tout attesté par des études sérieuses).

Donc on est resté longtemps dans le domaine de la “promesse pour très bientôt” mais ça, ça ne tient pas dix ans : on est désormais dans la phase où l’IA n’est plus vraiment un sujet chaud mais seulement un sujet d’arrière-plan dont on sent bien qu’il reviendra à un moment sur le devant de la scène (mais quand ?).

Que s’est-il passé ensuite ?

La nature a horreur du vide et la propagande tech aussi !

La crypto était déjà plus ou moins à la mode depuis 2018 quand la valeur du Bitcoin passait certains seuils. Puis, les NFT sont apparus suivis par la vente de Beeple qui a été comme un coup de tonnerre dans un ciel bleu…

À partir de là, les médias se sont emparés du phénomène qui s’est un peu détaché du statut de “truc bizarre et risqué compris seulement par les geeks” pour prendre des allures plus intéressantes d’une possible “nouvelle ruée vers l’or” déjà plus alléchante.

Mais la vraie bascule est arrivée avec le “moment Meta” quand Zuck s’est lancé dans la course au Metaverse comme Kennedy dans la course vers la lune (aux débuts des années soixante).

Le moment Meta – stupeur et incompréhension !

L’annonce de Facebook devenant Meta a représenté un événement majeur dont on a pas encore mesuré toutes les conséquences. Mais cela a certainement propulsé du jour au lendemain un nouveau buzzword : le Metaverse !

La propagande s’en emparé, les médias s’en sont emparés, les consultants, les analystes et les commentateurs s’en sont emparés mais également les petits malins comprenant que c’était désormais une étiquette qui faisait vendre (comme avec l’IA)…

Stupeur d’abord car c’était effectivement une perspective nouvelle (même si elle a des racines culturelles profondes) et formidable qui s’ouvrait (passer de “je surfe le web” à “je suis dans l’Internet”, c’est quand même quelque chose !).

Incompréhension car, comme toujours, la dimension temporelle a été volontairement oubliée. Zuck n’a jamais promis le Metaverse pour demain ou alors, c’est un “demain lointain” (voire vraiment lointain).

Souvenons-nous que quand Kennedy lança la course vers la Lune, il se donnait un horizon à presque dix ans… Le pari a été tenu mais de justesse !

Le Web3 pointe le bout de son nez

Suite au succès (relatif et en trompe-l’oeil) des NFT, les petits malins de la crypto se sont dit que le moment était bon pour, à leur tour, pousser leur concept disruptif et ce fut l’entrée en scène du Web3.

On est donc passé d’une situation où la propagande tech commençait à manquer de sujets (l’IA s’usait un peu) à un quasi trop plein avec Metaverse et Web3 en même temps !

Le nouveau cocktail a bien fonctionné et certains se sont même convaincu que l’un n’allait pas sans l’autre (rien n’est plus faux mais passons). La propagande est contente, elle a de nouveau du “grain à moudre” et s’en donne à coeur joie !

Ce qui ne va pas avec le Metaverse…

Ici, c’est simple : il y a un décalage bien trop grand entre les attentes et le temps qui va être nécessaire pour que le concept commence à produire quelques résultats significatifs. Et ce décalage ne se chiffre pas en mois mais en années voire en décennies… rédhibitoire !

Le fait que tous les imposteurs (comme The Sandbox) se soient emparés du mot-clé ne change rien à la rupture qui s’annonce inéluctable : arrivera un moment où le buzzword ne fera plus recette car sa concrétisation aura trop tardée, point (quand ? En septembre 2022, en même temps que l’effondrement de la crypto).

Ce qui ne va pas avec le Web3

Ici, c’est pire car rien ne va droit avec le web3 !

Rappelons que le Web3 n’est pas un vrai concept mais plutôt un habillage habile autour de la crypto pour justifier et inciter à consommer toujours plus de crypto afin de profiter d’une chimérique et jamais atteinte “décentralisation” (entre autres promesses).

Le Web3 est un écran de fumée qui, évidemment, n’a pas résisté à l’épreuve du temps : toutes les promesses (toutes !) de la crypto, de la blockchain, des NFT, de la DeFi, des smart-contract et des DAO se sont toutes avérées être des espoirs déçus dans le meilleur des cas ou des mensonges grossiers le plus souvent. Pas une seule promesse ou espoir dans ce domaine n’a été contredit par l’épreuve du temps et des tests concrets sur le terrain (comme ces soit-disant blockchain capables de proposer des meilleurs performances que les traditionnelles Bitcoin ou Ethereum et qui se sont effondrées systématiquement dès qu’on a tenté de les solliciter de façon un peu sérieuse… sic transit gloria mundi!).

Nous avons eu assez de démonstrations édifiantes, il est temps d’admettre que le Web3 n’est pas autre chose qu’une façade vite faite, mal faite pour la crypto qui, après tout, n’est elle qu’un piège à gogos avides et crédules (ces gens croient dur comme comme fer à la théorie du “plus grand imbécile » -il y en aura toujours un autre pour payer plus cher que moi ce que je viens d’acheter- sans réaliser que les prochains “plus grands imbéciles”, c’est justement eux !).

Mais si tout cela n’était qu’écran de fumée et piège à gogos, ce ne serait pas encore trop grave. Car il y a pire !

La crypto sert aussi les intérêts des pires criminels du moment. En effet, sans le Bitcoin, le ransomware serait une activité moins facile à “monétiser”. Pièges à gogos et ransomware, c’est tout ?

Non, il faut aussi ajouter le blanchiment d’argent (encore une activité criminelle) au “palmarès” de la crypto => Binance accusé d’avoir blanchi plus de 2 milliards de dollars.

N’en jetez plus, la coupe est pleine !

Quand je vois qu’il y a encore des articles qui paraissent en ce moment pour déclarer que le Web3 est “la prochaine évolution du Web” et que c’est une “révolution”, je me demande si on partage les mêmes sources…

Pourtant, rien n’est caché et il suffit d’aller sur https://web3isgoinggreat.com/ pour mesurer l’ampleur nocive du soi-disant phénomène révolutionnaire. Et on le sait depuis un moment en plus !

Il suffit de regarder et d’écouter cette vidéo (Line goes up- the real problem with NFTs) pour comprendre à quoi on a affaire :

Cette vidéo est très complète et très dense (et très exacte !), il n’est donc pas inutile de la visionner plusieurs fois… pour bien comprendre tous les tenants et aboutissants de cette fraude (car, une fois qu’on a compris, autant appeler les choses par leur nom, non ?).

Bref, on l’aura compris, le Web3 est concept bancal, frauduleux et qui ne résistera pas au prochain crash majeur de la crypto qui devrait arriver lors de l’automne 2022. On est déjà) entré dans le “crypto-winter” mais ce n’est encore rien par rapport à ce qui va arriver à la rentrée : cette fois, l’effondrement sera massif, les “valeurs” du Bitcoin et de l’Ether vont reculer de plusieurs années et la remontée qui s’ensuivra sera longue. De quoi calmer pour un bon moment tous les espoirs d’une “ruée vers l’or” qui n’a jamais existé que pour quelques “happy few” qui ont habillement provoqué ce battage et en ont profité (et eux seuls, des noms ? Facile, Andreessen-Horowitz par exemple).

Du crypto-winter au crypto-crash

A partir de là, Le Web3 quittera pour de bon la catégorie “buzzword” pour rejoindre les poubelles de l’histoire comme un terme infamant qui aura marqué plus qu’une déception : une manipulation mensongère de bout en bout (tout comme Terranos ou Nikolas Motors).

Attention, la crypto ne va PAS disparaître pour autant même après avoir pris une grosse claque (et oui, ça va être une très grosse claque !). Il y a trop de gens (malfaisants) qui ont intérêt à ce que ça continue, même sur un mode mineur. Les criminels du ransomware vont simplement demander plus de Bitcoin pour compenser la baisse du cours, tout simplement.

Et ensuite, que va-t-il se passer ?

Eh bien, comme d’habitude : ces modes déchues (Web3 et Metaverse) vont être remplacées par d’autres et tout continuera. La propagande va débiter ses promesses absurdes sur un nouvel horizon radieux et il se trouvera toujours assez de monde pour vouloir y croire.

Pour ce qui est du Metaverse, ça reviendra (éventuellement sous un autre nom d’ailleurs) car ici le fond est bien réel mais comme ça réclame du temps, il faudra juste être patient.


Crypto : de la bulle spéculative à la bulle d’illusions !

Publiée sur Linkedin le 28 juillet 2022

Si vous suivez l’actualité des cryptomonnaies en ce moment, vous avez pu constater une curieuse distorsion de la réalité : alors que nous sommes entrés dans une phase qu’on peut qualifier “d’hiver de la crypto” où ce domaine va enfin sortir (mais pas sans dégâts) de sa spirale spéculative pour aller vers une grosse correction (dans tous les sens du terme !), on voit encore passer des titres d’articles du genre “le web3 est une trop belle opportunité pour la laisser passer…”. Je dois dire que ce genre de titre m’irritait déjà il y a six mois mais aujourd’hui, comment est-il encore possible d’écrire cela ?

Je me dis que, forcément, l’auteur de l’article ne vit pas dans le même monde que moi, qu’il n’a pas accès aux mêmes sources ou alors, qu’il est prisonnier d’une boucle temporelle qui lui impose six mois de retard par rapport à nous… ça ne peut être que cela, non ?

Ce n’est pas moi qui ait inventé l’expression “crypto winter” (https://cryptoweek.fr/crypto-winter-2022-quand-bitcoin-sera-t-il-en-bas), les pros du domaine sont déjà capables d’en identifier plusieurs (hiver) et de dire fièrement “celui-là est moins terrible qu’en 2017”…

Récapitulatif d’une descente aux enfers…

Pour comprendre l’écart entre la situation actuelle et les illusions du dernier carré des fans de crypto, il faut revenir (brièvement) sur les épisodes précédents (voir aussi https://www.linkedin.com/pulse/comment-dispara%C3%AEt-une-mode-technique-web3-et-cest-dans-lefebvre/), accrochez-vous, ça va secouer !

  • Le 13 février 2022, quatre agences de cryptographie ont acheté des publicités du Super Bowl : Coinbase, FTX, eToro et Crypto.com. Coinbase est devenue l’une des applications les plus téléchargées après la diffusion de leur publicité. On peut dire que c’est l’instant précis du sommet qui précède le déclin…
  • Le 4 avril, Bitmex est devenue la première agence de cryptographie à annoncer des licenciements, licenciant 25 % de ses employés.
  • Le 3 mai, la Réserve fédérale a relevé les taux d’intérêt de 0,5 %, déclenchant une large liquidation sur le marché. En huit jours, Bitcoin a chuté de 27% à un peu plus de 29 000 dollars et Ether a chuté de 33,5% à environ 1 960 dollars. Le NASDAQ a chuté de 12,5 % au cours des cinq jours suivant l’annonce.
  • Le 9 mai 2022, les jetons Luna ont fait la une des journaux après que l’UST a commencé à casser son ancrage au dollar américain. Au cours de la semaine suivante, le prix de l’UST a plongé à 10 cents, tandis que Luna est tombé à « pratiquement zéro », contre un sommet historique de 119,51 $. Avant le crash, Luna était l’une des dix plus grandes cryptomonnaies du marché. L’effondrement a anéanti près de 45 milliards de dollars de capitalisation boursière en une semaine.
  • Le 10 mai, Coinbase, avec des actions en baisse de près de 80 % par rapport à leur sommet, a annoncé qu’en cas de faillite, les gens perdraient leurs fonds. Le PDG a annoncé plus tard qu’ils ne couraient aucun risque de faillite.
  • Le 13 mai, Terraform Labs a temporairement interrompu la blockchain Terra en réponse à la baisse des prix de l’UST et de la Luna. Malgré les tentatives de la société pour stabiliser UST et Luna via ses réserves de bitcoins et d’autres crypto-monnaies de la Luna Foundation Guard, l’arrimage 1:1 de l’UST à l’USD ne s’est pas matérialisé. Au 16 mai 2022, les analystes de la blockchain affirment que l’utilisation des réserves de bitcoins de LFG reste encore largement incertaine.
  • Le 12 juin, Celsius Network, un échange cryptographique, a annoncé l’arrêt de tous les retraits et transferts. Le Bitcoin a chuté de 15% le lendemain à près de 22 500 dollars et Ether est tombé à 1 200 dollars. Une vague de licenciements d’autres agences de cryptographie a accompagné cela, notamment de Crypto.com et Coinbase.
  • Le 13 juin 2022, le stablecoin algorithmique de Tron, USDD, a perdu son ancrage au dollar américain.
  • Le 17 juin, Bitcoin est tombé en dessous de 20 000 dollars pour la première fois depuis décembre 2020 et Ether est tombé en dessous de 1 000 dollars pour la première fois depuis janvier 2021.
  • Le 17 juin, Babel Finance, un prêteur crypto basé à Hong Kong, a gelé les retraits.
  • Le 23 juin, CoinFlex a suspendu les retraits après qu’une contrepartie, qu’elle a nommée plus tard Roger Ver, a rencontré des problèmes de liquidité et n’a pas remboursé un appel de marge stable de 47 millions de dollars.
  • Le 27 juin, Three Arrows Capital, un fonds spéculatif de cryptomonnaies, a fait défaut sur un prêt de 670 millions de dollars de Voyager Digital, un courtier en cryptomonnaies.
  • Le 30 juin, FTX a annoncé qu’elle pourrait acquérir BlockFi, une entreprise de cryptographie qui avait licencié 20 % de son personnel.
  • À la fin du mois de juin, de nombreuses agences de cryptographie ont commencé à repenser leurs dépenses alors que leurs fonds commençaient à diminuer.
  • Le 2 juillet, Three Arrows Capital a déclaré faillite.
  • Le 4 juillet, Vauld, un prêteur de crypto basé à Singapour soutenu par Coinbase et Peter Thiel, a interrompu les retraits et les échanges sur sa plateforme.
  • Le 5 juillet, eToro a mis fin à son accord de société d’acquisition à vocation spéciale (SPAC) et a licencié 6 % de ses effectifs.
  • Le 5 juillet, le courtier en cryptographie Voyager Digital a déposé son bilan en vertu du chapitre 11.
  • Le 6 juillet, Genesis Trading a révélé qu’elle avait été exposée dans la faillite de Three Arrows Capital.
  • Le 8 juillet, Blockchain.com a annoncé à ses actionnaires qu’elle faisait face à une perte potentielle de 270 millions de dollars sur les prêts accordés à Three Arrows Capital.
  • Le 11 juillet, il a été annoncé que les mineurs de crypto au Texas avaient temporairement fermé leurs portes car une vague de chaleur intense a mis à rude épreuve le réseau énergétique.
  • Le 11 juillet, le Conseil de stabilité financière (FSB) a déclaré que la crypto « doit faire l’objet d’une réglementation et d’une surveillance efficaces proportionnelles aux risques qu’elles posent ».
  • Le 12 juillet, un dossier déposé auprès du tribunal américain des faillites du sud de New York par des avocats représentant les créanciers de Three Arrows Capital a déclaré que la localisation actuelle des fondateurs de la société était inconnue.
  • Le 14 juillet, Celcius Network a déclaré faillite.
  • Le 19 juillet, SkyBridge Capital a gelé les retraits.
  • Le 20 juillet, Vauld a déposé une demande de protection contre les créanciers, l’équivalent de la faillite aux États-Unis.
  • Le 20 juillet, Zipmex, une bourse d’Asie du Sud-Est, a gelé les retraits.
  • Le 25 juillet, Coinbase a fait l’objet d’une enquête de la SEC pour avoir potentiellement menti à ses clients. Cela a entraîné une baisse de 21 % de leur stock le lendemain.
  • En juillet 2022, Bitcoin et Ether étaient en baisse de plus de 60 % par rapport à leur pic.

Source : https://en.wikipedia.org/wiki/Cryptocurrency_bubble#2020%E2%80%932021_boom_and_2021%E2%80%932022_crash

Vous avez tout lu ? Bravo !

Vers le bain de sang !

Bon, que le Bitcoin ou l’Ether (l’Ether est le nom du coin qui est basée sur la blockchain Ethereum) connaissent des variations de leurs cours, rien de plus normal : ce sont les éléments principaux de cette bulle spéculative, c’est donc dans l’ordre des choses. Que des start-up spécialisées fassent faillite à cause de ces variations, c’est tout à fait normal également. Mais que des plateformes “d’échanges” gèlent les transactions et empêchent les retraits des clients, voilà qui est déjà plus significatif, non ?

Cela prouve tout simplement et sans aucune ambiguïté que les acteurs de ce “marché” sont entrés en mode “panique” : le sauve qui peut général est décrété et personne de sérieux dans le milieu croit que la phase finale du crash puisse encore être évitée.

Ces derniers mois, nous avons franchi successivement les paliers de -20% puis -50% (les paliers habituels quand une bulle spéculative est en train d’exploser… ce qui peut prendre des mois, voir les bulles précédentes…), reste le dernier, à -80% qui lui est vraiment synonyme de “bain de sang”.

Les baleines sont pressées

Le franchissement de ce palier est prévu entre septembre et octobre de cette année et les “baleines” (c’est ainsi que l’on surnomme les gros détenteurs de crypto… ceux qui, depuis le début, manipulent le marché à leur seul profit) savent que le compteur tourne et qu’il faut sortir du marché (vendre leur crypto) maintenant !

C’est pour cela que la propagande évoque des rebonds et des hivers finalement pas si terribles : il faut entretenir l’illusion que cette crise n’est pas si grave et que le meilleur est encore à venir. Le dernier chapitre du battage médiatique met un fort accent sur les cycles, que maintenant c’est le moment de construire sagement sans bruit : « bear market is a time to build »…

Il suffit que les baleines arrivent à convaincre un lot suffisant de “crédules/avides” (le dernier lot des “plus grands imbéciles”, également appelée “théorie du plus grand fou” ou “théorie du survivant”) pour sortir du marché sans trop de casse. Et je constate que c’est en train de marcher. Et que c’est pour cela qu’on voit autant d’articles sur les cryptomonnaies en ce moment : la propagande tente de relancer la machine une dernière fois (pour faciliter la sortie du marché des baleines… après, advienne que pourra !). C’est un discours simple mais bien ciblé qui glorifie les « believers », ceux qui tiennent bon et qui sont encore des “holders” (des idiots utiles plutôt…).

Une bulle d’illusions, ça existe !

Nous sommes passés d’une bulle spéculative à une bulle d’illusions : ceux qui prétendent encore que la “crypto c’est super” ou que le “web3 c’est l’avenir” sont soit profondément malhonnêtes, soit profondément idiots. Je penche plutôt pour la seconde solution (les malhonnêtes existent mais ils sont moins nombreux) : le dernier carré des fans de crypto est en plein déni de réalité. Attendons le bain de sang afin de voir s’ils sont toujours dans l’enthousiasme…

La crypto va rester

Même un palier à -80% ne va pas “tuer” la crypto (ne serait-ce que pour permettre aux pirates de faire payer leurs ransomwares !) : certains coins vont disparaître (il y en a trop pour qu’il en soit autrement) mais le Bitcoin et l’Ether sont là pour rester, même à des niveaux historiquement bas. Puis, ils vont remonter, progressivement et une nouvelle bulle spéculative va se former. Cela peut prendre deux ans ou plus mais c’est ainsi que ça se passe, hélas.

Épilogue : les leçons qu’on peut/doit tirer de tout cela…

Tout d’abord, il nous faut admettre une bonne fois pour toute que la propagande technique existe, qu’elle s’est emparée des médias et tente (avec un certain succès, voire même un succès certain !) de nous imposer des modes (et peu importe son contenu technique, réel ou supposé) tous les deux/trois ans.

Ensuite, il faut reconnaître que cette mode technique, qui reposait sur peu de choses (le web3) et dont toutes les promesses ont été systématiquement démontées, a tout de même réussie à s’imposer et à occuper une bonne partie de l’espace médiatique avec des “experts” nous expliquant régulièrement et très sérieusement pourquoi nous devions accepter que cette nouveauté fragile et mal assemblée représentait l’avenir de l’informatique sans l’ombre d’un doute.

Nous devons donc nous interroger sur notre crédulité ou, au moins, sur le poids que fait peser la propagande sur les canaux d’informations techniques qui n’en sont presque plus. En effet, comment continuer à considérer que ces canaux ont la moindre crédibilité sur le plan technique puisqu’ils se sont évertués pendant deux ans à nous faire prendre des vessies pour des lanternes ?

Enfin, les leçons du passé ne servent pas à grand-chose. Sinon, comment comprendre qu’il ait fallu tant de temps pour reconnaître ce qu’était le web3 : une bulle spéculative de plus. Pourtant, des bulles spéculatives, on en a vu passer et, à chaque fois, tout le monde a dit “plus jamais ça !” (vous avez remarqué combien cette expression “plus jamais ça” n’atteint jamais son but ?). On savait les caractéristiques d’une bulle, il était facile d’appliquer les critères sur la nouvelle venue et pourtant, rien ou presque. Seuls quelques rares témoins ont dénoncé la situation, les autres ont préféré croire que, cette fois, “to the moon” était une promesse solide et non pas un piège à gogos.

Notre crise sanitaire à nous

Finalement, nous aussi nous avons eu notre “crise sanitaire” dans notre domaine hi-tech !

Avec quasiment le même cirque comme le défilé des faux-experts racontant n’importe quoi mais étant écoutés religieusement. Où tous les comportements sains qui auraient évité cet égarement ont sauté, les uns après les autres : bon sens, discernement, intelligence et scepticisme raisonné. Au lieu du bon sens on a eu l’avidité crédule, au lieu du discernement on a eu l’aveuglement enthousiaste, au lieu de l’intelligence on a eu la folie de la “ruée vers l’or” et au lieu du scepticisme raisonné on a eu le dogmatisme indiscutable de “c’est l’avenir, admettez-le”.

Cet épisode met aussi en exergue nos comportements humains (trop humain !) les moins reluisants : on préfère les gains rapides et faciles à l’effort de longue durée, on préfère écouter les marchands de promesses, même s’ils sont délirants, plutôt que d’entendre les avertissements des (vrais) experts modérés et prudents. Enfin, on préfère l’illusion souriante à la dure réalité même quand les faits sont sous notre nez. Triste et significatif à la fois.

Cette crise de la hi-tech n’est pas terminée et va encore causer des dégâts. Cet épilogue est sévère mais il est juste : la débâcle du web3 ne va épargner personne, tout le monde va y perdre quelque chose (et ce n’est pas forcément de l’argent), l’espoir, la fois dans l’évolution technique, la réputation de sérieux des uns et des autres et ainsi de suite.

Le fact-checking se pratique peu dans le domaine technique mais si l’épisode web3 doit servir à quelque chose, ça doit être au moins à cela : vérifiez, vérifiez, vérifiez.


L’illusion d’un “grand soir” des protocoles du web 3

Publiée sur Linkedin le 3 août 2022

Article rédigé en collaboration avec Pascal Blachier.

Suite à https://www.linkedin.com/pulse/crypto-de-la-bulle-sp%C3%A9culative-%C3%A0-dillusions-alain-lefebvre/, il manquait un complément… le voici !

Certains laissent entendre qu’un jour ce serait le “grand soir” de l’avènement d’un web 3 immersif et bienveillant grâce à l’interopérabilité de tous les codes sources de 3DS – et des GAFAM, tant qu’on y est – qui renonceraient à leur pouvoir et leurs modèles économique miraculeusement parce qu’ils auraient atteint la grâce de l’éveil vers un état supérieur de conscience !

Croire en cela, c’est avoir la foi en la techno et la toute puissance de l’intelligence humaine sans tenir compte de ce qui s’est effectivement passé pendant les quarante dernières années de l’évolution de l’informatique !

Le mouvement open source, le bon exemple…

Il y a eu quelques cas où des protocoles et des standards ouverts et transparents ont effectivement triomphé et ça s’appelle communément le mouvement open source (pour simplifier). Précisons évidemment que, pendant sa “marche triomphale”, le mouvement open source n’a jamais bénéficié d’un coup de pouce des grands acteurs de l’époque qui auraient bénévolement abandonné tel ou tel pan des éléments qui aidaient à leur domination…

C’est même clairement l’inverse puisque tous les codes open source qui se sont avérés plus novateurs ou efficaces que les codes propriétaires ont été pillés sans aucun scrupules et constituent aujourd’hui le cœur des principaux systèmes. Cela va du noyau aux IHM, en passant par les piles TCP/IP, les compilateurs, interpréteurs et environnements de développement. A tel point qu’aujourd’hui, les mêmes personnes travaillent simultanément ou successivement sur des codes ouverts et des codes propriétaires, des codes libres et des codes commerciaux, pour des entreprises privées ou des ONG.

Ni indépendant, ni décentralisé !

La vérité actuelle est bien moins rose que ce que veulent la présenter les (quelques) promoteurs du web 3 qui restent encore actifs : le web 3, tel qu’il fonctionne actuellement, n’est ni indépendant ni décentralisé, eh oui !

Pour réaliser combien cette affirmation (le web 3 est décentralisé et indépendant) ne résiste pas à l’examen, il faut entrer un peu dans la technique… Suivez-moi, ça va bien se passer !

La nécessité de passer par des APIs

Le web 3 n’est pas décentralisé. Et ce n’est pas nous qui le disons !

Étant donné que la plupart des ordinateurs personnels n’exécutent pas de nœud Bitcoin et ne conservent donc pas une copie complète de la blockchain localement, ils ont besoin d’un autre moyen d’accéder aux données des “grands livres” (les différentes blockchain : Bitcoin, Ethereum, etc.). Cet “autre moyen”, ce sont les interfaces de programmation d’applications (API) : des bibliothèques de code spécialisé qui offrent des raccourcis pratiques pour extraire des données d’une blockchain donnée.

Infura et Alchemy sont les deux principaux fournisseurs de ces API, comme le souligne Moxie Marlinspike. Les soi-disant “applications décentralisées” (les fameuses dApps), comme Mirror, OpenSea et Zora, s’appuient sur ces systèmes pour récupérer les données des blockchains publiques (via des appels d’API). Ce sont ni plus ni moins que des intermédiaires.

Fire the middleman!

Une fois de plus, on nous rejoue la chanson du Web qui va supprimer les intermédiaires (cette fois, ce serait le web 3 dans ce rôle fumeux) et cette promesse ne fait que dissimuler un changement d’intermédiaires… Comme à chaque fois.

Cette dépendance aux API d’Infura ou d’Alchemy est générale. Elle se vérifie pour la plupart des sites qui vous demandent de vous connecter avec un bouton “connecter votre portefeuille” par opposition à un nom d’utilisateur et un mot de passe, et pour les portefeuilles en ligne comme MetaMask, qui existent à la fois en tant que sites web dédiés et extensions complémentaires pour les navigateurs Internet. Ils fonctionnent tous sur le web 2 auquel nous sommes déjà habitués.

Décentralisé, vraiment ?

Ensuite, sur la question de la soi-disant décentralisation du web 3, on peut dire sans exagérer que le mensonge est grossier. Le web 3 commence avec toute notre infrastructure existante. On a donc toujours besoin du routage et du DNS, on a toujours besoin d’un serveur (qu’il soit dans le cloud ou pas), on a toujours besoin de stockage et on a toujours un calcul distribué entre le navigateur et le serveur. On n’a donc déjà supprimé aucun des gardiens du système distribué conventionnel, ce qui montre que les affirmations d’une décentralisation sans gardiens sont fausses, tout simplement.

Roll back ou hard fork ?

Enfin, quand vous lisez sans cesse que tout ce qui est dans la blockchain (sans préciser de quelle blockchain il s’agit, le plus souvent…) est inaltérable, sachez que c’est faux et qu’Ethereum en a fait la démonstration éclatante en procédant à un “roll back” en 2019 (les fans d’Ethereum préfère parler de “hard fork” pour cette opération mais ça revient au même)… Pas mal pour un système qui est censé resté immuable quoi qu’il arrive !

Un enfumage comme rarement !

Alors si tout ceci est vrai, pourquoi ce battage médiatique en faveur du web 3 ?

Parce que c’est l’aveuglement habituel qui accompagne une “ruée vers l’or”. Peu importe que cet or soit faux ou absent, le mot d’ordre est lancé et il enflamme le peu de cerveau qui reste aux gogos.

Dans son état actuel (c’est-à-dire s’appuyant sur Ethereum), le web 3 est une escroquerie, un édifice technologique qui est plus qu’inutile comme le découvrira rapidement toute personne qui tentera de déployer une application réelle. On est toujours dans la chimère des rêves surexploités sur la technologie blockchain, perpétuellement à la recherche du problème de demain pour justifier un investissement aujourd’hui (le paradoxe habituel de la solution à la recherche de son problème). C’est le discours traditionnel des charlatans, sauf que cette fois-ci, il est poussé par les plus grands investisseurs du monde qui ont de gros sacs de jetons (NFT et crypto monnaies) à placer. D’où le claironnage d’une nouvelle ruée vers l’or…

Profitons-en pour tordre le cou à une autre idée reçue aussi absurde que risible : Les promoteurs du web 3 ne veulent pas “rendre le pouvoir au peuple”, ils le veulent simplement pour eux !

Ces nouveaux entrants ambitieux rêvent de remplacer les GAFAM dans leur position dominante et c’est ainsi depuis des décennies. Quelquefois, ils vont jusqu’à l’avouer comme Nikil Viswanathan, le patron d’Alchemy qui dit « en tant qu’entreprise, j’aimerais avoir des points de verrouillages propriétaires”… Il n’y a que les naïfs et les doux rêveurs pour croire que le web 3 va être la libération tant attendue.

Décentralisé ne veut pas dire gratuit !

Un autre problème récurrent avec le web 3 et tout ce qui est soi-disant “décentralisé” : la question des coûts n’est jamais abordée, comme si tout cela était gratuit bien sûr !

Un exemple : IPFS (le système de fichiers distribués). Le stockage a un coût mais, bizarrement, ce n’est jamais abordé par les promoteurs des dApps comme si ce n’était pas important. Pourtant, si un nœud IPFS est hébergé sur AWS (par exemple), je doute fort que ça soit gratuitement… En revanche, quand vous devez payer des “gas fee” (lors d’une transaction en Bitcoin ou en Ether), vous vous rendez compte que tout cela (toute cette plomberie soi-disant décentralisée) coûte fort cher en plus d’être très lent !

Tous ceux qui mettent en avant le web 3 en disant “c’est l’avenir et ça va tout changer” (affirmation classique) sont soit incompétents (et c’est grave) soit malhonnêtes (et c’est encore plus grave !). Que quiconque puisse considérer cela comme l’épine dorsale informatique d’un nouvel Internet mondial est plus que risible.

La combo qui fonctionne à tous les coups : ignorance+fainéantise !

Il est frappant de voir tomber une à une toutes les défenses de bon sens, de pertinence et d’efficacité. Elles s’effondrent devant les assauts des marchands qui exploitent le combo « ignorance+fainéantise » activable dans chaque être humain (l’arnaque la plus récente, celle de “Crypto Gouv” est très significative de l’efficacité de cette combo…). On pourrait même trouver des liens entre le mythe du progrès permanent, la startup nation, l’orgueil et l’égoïsme. Les cavaliers de l’apocalypse appelés par les péchés capitaux. Biblique.

En effet, on retombe rapidement dans nos malheurs du moment. Et la fabrique du consentement a bien fonctionné pour nous inculquer les fausses certitudes du zéro papier, puis du dématérialisé (puisque c’est numérique, pas de support physique), puis du tout gratuit (forcément, puisque c’est virtuel). Alors qu’en fait c’est tout le contraire à la fois en termes physiques (voir les rapports du Shift Project) et en termes de pouvoir et de libertés (voir par exemple les alertes de la Quadrature du Net).

Après avoir observé les quelques décennies de vie du Léviathan informatique, fils de la fée électricité et de l’algèbre, nous nous garderons bien de prédire l’avenir avec certitude.

En ce qui concerne la blockchain, qui présente indéniablement toutes les caractéristiques d’une technologie de rupture, après la hype, la consécration ultime serait celle de la généralisation des usages. Et pour l’instant, le Gartner constate que cela ne sert vraiment que pour le trading de cryptomonnaie. Ce qui n’est assurément pas un progrès de la civilisation…

Le web 3 annonce une crise de l’informatique…

Il ne restera sans doute pas grand-chose du web 3 sinon un avertissement : comme un soir d’été, les nuages noirs s’accumulent annonçant l’orage qui vient…

En ce moment, nous vivons une période de “plateaux” qui est en train de durer. Le marché informatique n’est pas habitué à ça, il est habitué à la croissance à deux chiffres. Or, tout se combine pour provoquer ce ralentissement, un gros ralentissement. Même la loi de Moore qui a été fidèlement respectée pendant toutes ces décennies nous fait faux-bond désormais, c’est la panique !

En conséquence, le marché tout entier, comme un seul homme, est prêt à tout pour retrouver cette chère croissance dont il est devenu dépendant. Et si c’est sous la forme du web 3, pourquoi pas, hein !

Le web 3 s’est dégonflé ? Vite, il faut mettre autre chose en avant : réalité augmentée (RA), réalité virtuelle (RV), n’importe quoi du moment que les gens se mettent à acheter, massivement.

Ici, le mot-clé est massivement. Les précédentes phases de croissance ont été des mouvements de forte croissance : le boom du PC, la vague du smartphone, ça représentait de sacrés volumes !

Et, comme le disait fort justement Scott McNealy (l’un des fondateurs de Sun Microsystems) : “volume is everything” (il en savait quelque chose puisqu’il avait constaté que les PC avaient supplanté ses chères stations Sun en dépit de leur infériorité technique). Un peu comme Staline avait dit “le Vatican, combien de divisions ?”, le volume compte plus que la sophistication technique.

Or la RA et la RV en dehors du fait que, oui, c’est l’avenir (ou, du moins, un des aspects de l’avenir), non, ce ne sont sans doute pas des marchés de masse comme l’ont été le PC puis le smartphone avant eux…

La crise est donc en train de se mettre en place au grand dam des responsables qui appellent à grands cris l’arrivée de la “next big thing” (ici, on l’aura compris, le mot qui compte est “big”) afin de relancer les ventes. Vu ainsi, le web 3 n’est qu’un épiphénomène d’un mouvement plus souterrain mais plus puissant : le mode plateau nous apporte une crise (dans notre domaine hi-tech) comme on n’en a pas eu depuis les années 80…


La “next big thing” attendue par le marché… N’aura pas lieu !

Publiée sur Linkedin le 30 août 2022

Article rédigé en coopération avec mon “complice” : Fred Cavazza (lien vers son article).

Le marché informatique tout entier est actuellement dans une situation “particulière”… En effet, les modes techniques actuelles n’ont pas permis pas de relancer la croissance pour diverses raisons : le Metaverse ou les ordinateurs quantiques sont trop distants dans le temps (cela commencera à être vraiment des réalités concrètes dans dix/quinze ans… bien trop loin pour réellement influer sur la situation présente !) et le Web3 voit son aura se dégonfler au fur et mesure que l’on constate que ses promesses ne sont pas tenues (aucune !).

La dernière version de la courbe d’adoption technologique du Gartner reflète ainsi parfaitement la situation : une saturation de technologies émergentes et une absence de technologies matures.

Habituellement, je ne suis pas un grand fan du Gartner (qui se contente d’indiquer d’où vient le vent mais ne nous dit rien sur sa nature ni sur sa force…) mais là, je trouve très significatif que le célèbre cabinet soit en manque d’inspiration pour ce qui va arriver, lui si prompt à donner écho à n’importe quelle mode technique (n’importe quoi du moment que ça mousse !). Il semble donc que l’avenir s’ouvre sur un grand vide, ce qui est tout à fait inédit dans notre secteur.

La raison principale de cette retombée de soufflé, c’est que la croissance (technique et économique, la seconde dépendant de la première) est en panne. Voyons ensemble pourquoi la croissance est en berne et que pourrait-être la “next big thing” qui relancerait enfin la machine (si elle existe à court terme !) ?

Une phase dite de plateau

Le marché est donc actuellement dans une phase de “plateau” et cela ne peut s’éterniser sans dégénérer en une crise majeure. Car cela fait cinquante ans que le marché informatique s’est habitué à une croissance de 10 à 15% par an et c’est le genre d’habitude qu’on ne quitte pas volontiers !

Un tabouret à 3 pieds !

La formidable étendue de cette croissance spectaculaire reposait sur 3 pieds comme un modeste tabouret en bois (comparable à celui qu’utilisait votre voisin fermier pour traire ses vaches…) !

Ces 3 pieds (ou piliers) étaient les suivants : progrès techniques (s’exprimant principalement par la fameuse “loi de Moore”, nous y reviendrons), volumes (les volumes de ventes, rien en dessous du million n’est pris en compte ici !) et croissance (chaque année est mieux que la précédente et on va ainsi de record en record).

Des volumes impressionnants

Volume is everything” disait Scott McNealy (un des 4 fondateurs de Sun Microsystem). C’est par les volumes que Sun a battu ses concurrents sur le marché des stations de travail mais ce sont les volumes de ventes des PC (haut de gamme, capable de concurrencer une station de travail sur le plan technique mais pour bien moins cher) qui, finalement, eurent raison de la santé florissante de Sun à la fin des années 90.

Dès 1981, les ventes du BBC Micro (fabriqué par Acorn) dépassent le million d’unités. Apparu un an plus tard, le Commodore 64 va lui inonder le marché avec 17 millions d’unités (au total et au niveau mondial). En 2001, 125 millions d’ordinateurs personnels ont été vendus en comparaison des 48 000 en 1977. Plus de 500 millions d’ordinateurs étaient utilisés en 2002 et plus d’un milliard d’ordinateurs personnels ont été vendus dans le monde depuis le milieu des années 1970 (depuis, ces chiffres ont encore progressé, évidemment). Ce sont là des chiffres impressionnants mais ce n’est rien à côté de ce qu’on a eu avec la seconde vague, celles des smartphones…

En effet, dès 2011, les ventes annuelles de téléphones mobiles atteignent 1,6 milliard d’unités !

Voilà de quoi on parle quand on évoque la notion de volumes dans le marché informatique… En conséquence, avec des locomotives pareilles, le marché informatique dans son ensemble est devenu un super géant qui pèse de tout son poids (considérable désormais) sur l’économie mondiale. En 2017, le marché mondial global des technologies et services mobiles représentait 4,5 % du PIB mondial soit 3 600 milliard de dollars.

Bien entendu, il y a des variations selon les années : certaines sont meilleures que d’autres mais, d’une façon générale, la croissance dont a bénéficié le marché informatique pendant toutes ces décennies ferait envie à n’importe quel secteur industriel (même et y compris pendants les années de “recul”…) !

Exemple : après son recul de 1,1% en 2020, le marché mondial des services IT a retrouvé son dynamisme. IDC estime qu’il a dépassé 1,1 billion de dollars en 2021, en hausse de 3,4% à taux de change constant. Le cabinet d’étude se montre optimiste sur les perspectives. Il prévoit que le marché continuera de se développer en 2023 et 2024 avec une croissance annuelle comprise entre 3,8% et 4,0%.

Les progrès de l’électronique, locomotive cachée de tout le reste !

En vérité, cette croissance continue et formidable (deux caractéristiques importantes) venait surtout des progrès de l’électronique qui ont toujours été le moteur principal de cette dynamique. En effet, la régularité “miraculeuse” des progrès techniques garantissait que l’année suivante allait permettre de faire et de commercialiser des produits encore jamais vu jusque-là. Il faut se remémorer que la loi de Moore exprime les progrès en densification des circuits électroniques de base (et pas autre chose…). Cela se traduisait par des circuits plus petits, prenant moins de place et consommant moins d’énergie années après années. Même sans gain de performance associé, cette miniaturisation était déjà source de progrès fabuleux. Mais il s’est avéré que réduire la taille avait des conséquences à tous les étages : moins de distance entre les composants, ça veut dire des trajets plus courts pour les électrons et donc des échanges plus rapides. La course à la réduction des dimensions s’est ainsi poursuivie pendant des décennies principalement parce qu’elle induisait des bénéfices en cascades.

Des réalisations de plus en plus époustouflantes ont été atteintes et dépassées, l’écart entre les pistes se chiffrait en dizaines de nanomètres (ce qui était déjà fou rien que d’y penser !) et cela ne s’est pas arrêté là : on a fini par franchir le seuil de 10 nm et de descendre encore. A ce niveau, l’écart entre les pistes à fondre est tellement étroit qu’il faut avoir recours à des techniques de gravure qui dépassent la lumière ordinaire (photolithographie) : les machines permettant de dessiner les pistes des circuits ont fini par s’appuyer sur des faisceaux d’électron pour outrepasser les limites d’épaisseurs de la lumière blanche.

Mais là, quand même, la barrière s’est révélée de plus en plus ardue à dépasser et les avancées techniques de plus en plus difficiles à atteindre. Dans la zone des moins de dix nm, les progrès se sont sérieusement ralentis. Même Intel qui menait la charge jusque-là a commencé à caler. TSMC a réussi à faire un peu mieux mais sans pour autant pouvoir reprendre le rythme précédent : de ralentissement en ralentissement, la fameuse “loi de Moore” a fini par connaître un sérieux coup d’arrêt dernièrement.

Un plateau dans plusieurs domaines : CPU, GPU, mémoire, écrans, telco… La consommation électrique est ici le facteur limitant : il va falloir apprendre à faire mieux avec moins (optimiser les performances tout en réduisant la conso). D’où la « mode » des SoC personnalisés par Apple (A et M), Google (dans les Pixel) ou Microsoft (dans ses Surface). Même Google s’y met à son tour pour YouTube.

Le fait de dire “la loi de Moore ne se vérifie plus” se heurte toujours à un scepticisme forcené tellement les gens se sont habitués à sa permanence. Il faut dire que la fin de la loi de Moore a été annoncée de nombreuses fois et toujours contredite… à force, on a fini par croire qu’elle était immuable !

Même les témoignages des plus grands experts tombent à plat face à ceux qui ne veulent pas entendre que oui, cette fois, il est justifié de remettre en cause la loi de Moore. Et pourtant, des témoignages convaincants, on en a des tas :  début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s’agissait plus d’un déclin progressif que d’une mort subite.

De plus, il faut souligner que le respect de la loi de Moore était de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971.

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock qui stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût moyen d’une usine augmente d’au moins 13 % par an et atteint désormais 16 milliards de dollars. Ici, on touche du doigt les effets de la loi des retours décroissants.

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore.

L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)

Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.

Le plateau s’exprime partout

Le phénomène de plateau ne se résume pas à un coup d’arrêt “théorique” de la loi de Moore (mais rien que cela est déjà un tremblement de terre de grande ampleur !) : cela se fait déjà sentir au niveau des smartphones qui ne jouent plus leur rôle de locomotive du marché. Ils présentent des progrès techniques moindres, des différences fonctionnelles qui s’amenuisent (le Nothing Phone 1 était censé révolutionner le marché des smartphones, mais au final ressemble terriblement aux autres smartphones) et cet « atterrissage » se traduit par des ventes encore solides (marché de renouvellement) mais qui ne croissent plus. De l’autre côté du spectre, les modes techniques récentes ont fait long feu : le web3 est, au mieux, une bouffée d’optimisme délirante ou, au pire, un empilement de mensonges grossiers pour vendre plus de crypto. Le metaverse est une tendance bien plus sérieuse (que le web3) mais elle est distante : s’il faudra attendre dix ans pour avoir un début de concrétisation (les progrès en AR, VR et MR sont réels, mais lents), le marché ne va pas patienter autant, il veut une rupture pour l’année prochaine.

Le mode plateau est déjà une réalité

On peut se rendre compte que nous sommes en mode plateau depuis déjà quelques années grâce à des indices variés mais convergents. Un exemple : la crise du logiciel qui touche les secteurs industriels traditionnels.

Le logiciel est au cœur de cette crise parce que sa généralisation (y compris et surtout auprès de nouveaux acteurs qui ne sont pas habitués, culturellement, à le manipuler…) démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…) mais que ce soit désormais le cas de “nouveaux acteurs” est tout à fait significatif.

Le mode plateau traduit simplement un bout de cycle : les techniques sur lesquelles nous nous appuyons sont matures (y compris dans l’expression de leurs défauts avec leurs conséquences comme on le voit dans la “crise du logiciel” évoquée) et ne permettent plus de faire un “grand bond en avant”. Nous sommes d’accord, le mode plateau s’est installé et produit ses effets. La question du moment (pour sortir de cette situation) est donc : quelle sera la prochaine rupture technologique (rupture majeure comme le smartphone, ou rupture mineure comme les wearables) qui permettra de “relancer la machine” ?

Les candidats pressentis sont à côté de la plaque !

Les candidats ne manquent pas au titre envié de “next big thing” mais ils ont tous du mal à correspondre aux critères. En particulier au critère “big”… Les précédents succès de l’informatique se sont traduits par des raz-de-marée de volumes, d’argent et de nouveaux utilisateurs : PC, smartphone, cloud…

Si on considère la réalité augmentée, la réalité virtuelle, les jumeaux numériques ou même les ordinateurs quantiques (qui eux, tout comme le métaverse, ne sont pas encore pour demain…), on peut être enthousiaste sur leur potentiel respectif mais il est difficile de croire qu’il s’agit là effectivement de “marchés de masse” (comme lorsqu’on annonçait l’avènement de l’IoT il y a 5 ans) !

Or, c’est justement ce dont a besoin le marché informatique dans son ensemble : une nouvelle planche de salut qui apporterait volumes, argent et utilisateurs (sans oublier les nouveaux usages), pas de quelques niches, certes hi-tech et excitante si vous êtes intéressé, mais qui ne va concerner qu’une part réduite du marché mondial.

Une crise profonde (et durable ?)

Preuve s’il en était besoin que la crise est profonde, les politiques s’invitent dans le débat et interviennent comme ils ont l’habitude de le faire : via des subventions. Les états-unis, en premier lieu, sont particulièrement inquiets du déclin relatif d’Intel et de la montée en puissance de TSMC. D’où cette initiative du “Chips Act” pour relocaliser la fabrication des puces sur le sol américain. Ceci dit, ce n’est pas une subvention, aussi énorme soit-elle, qui va sauver la situation et relancer la machine : les entreprises américaines ont rangé bien vite les coupes de champagne après la très attendue ratification du Chips and Science Act, un coup de pouce de 52 milliards de dollars à la production de semi-conducteurs aux États-Unis.

Micron, champion des puces mémoires, avait proclamé investir 40 milliards de dollars dans le pays d’ici 2030 le jour de la signature, le 10 août. Le lendemain, la société a admis qu’elle réduirait ses investissements significativement en 2023 à cause de la récession qui guette. Le jour de l’adoption du texte par le Congrès, c’est Intel qui a déclaré réduire de 4 milliards de dollars ses investissements en 2022.

Le retour au monde d’avant : une chimère ?

Peut-être que ce retour à la croissance éternelle n’est qu’une chimère. Peut-être que l’équipement et les usages numériques sont arrivés à maturité. Dans ce cas, la véritable rupture se situe plus au niveau de la dynamique du marché : renouvellement et non plus conquête. Ceci implique une approche radicalement différente, car pour gagner 1% de part de marché (ou 1M € de CA), il va falloir le prendre à quelqu’un d’autre.

Les autres secteurs économiques sont habitués à cette situation, l’informatique, moins. Le changement de situation qui s’annonce va être vécu par beaucoup comme un véritable séisme !

Bien sûr, beaucoup vont se dire “pourquoi croire des oiseaux de mauvaise augure qui annoncent des lendemains qui déchantent (c’est à la mode, même le président s’y met !) ?”. C’est naturel, après avoir vécu une période dorée qui semblait devoir durer toujours, on ne croit pas facilement que ça va s’arrêter tout simplement parce qu’on ne veut pas que ça s’arrête !

Depuis deux ans, j’écris sur ce sujet et j’avertis sur le mode plateau et, tout ce que j’ai récolté, ce sont quelques moqueries à propos de la fin de la loi de Moore… Aujourd’hui, c’est plus difficile à nier et le reste en découle.

Pour en savoir plus sur les conséquences de cette nouvelle ère, je vous invite à lire l’article de Fred Cavazza : La « Next Big Thing » se heurte à l’impératif d’un numérique plus responsable.

Une nouvelle ère

Il y a et il y aura de nombreuses « next things » (VR, wearables, etc.), mais pas de « next big thing » avant au moins quelques années. Changer d’époque est toujours quelque chose de spécial mais là, c’est clair que ça va se sentir !

Dans les années soixante-dix, quand il y a eu le premier choc pétrolier qui a sonné la fin des “trente glorieuses”, il était alors difficile d’anticiper l’ampleur des changements qui s’annonçaient et que nous vivons encore actuellement. Eh bien, c’est notre tour, le marché de l’informatique est en train de vivre la fin de sa période “quarante glorieuses” (on en a profité plutôt quarante ans que trente, d’où la modification de l’appellation…). L’arrêt de la loi de Moore est plus ou moins l’équivalent du premier choc pétrolier et il va avoir au moins autant de conséquences. Nous devons donc raisonner et agir autrement dorénavant.

La croissance régulière et les progrès techniques automatiques, tout cela, c’est en partie terminé. Acceptons-le et agissons en fonction en allant vers une informatique plus raisonnée.

Publié dans La terrible vérité | Laisser un commentaire

Faut-il se débarrasser des services des GAFAM ?

Non, il ne s’agit pas d’un énième article anti-Amazon ou anti-Jeff Bezos sous prétexte que ce serait un milliardaire et donc, forcément, un salopard. Je suis client d’Amazon depuis la fin des années 90, d’abord d’Amazon.com et maintenant principalement d’Amazon.fr. Et, en tant que client, j’ai toujours été particulièrement satisfait du niveau de services et pas seulement dans le cadre de la facilité de commandes et de la rapidité de livraison, mais également pour tout ce qui concerne les retours et les litiges (rares).

Donc, non, il ne s’agit pas d’Amazon, cible facile des gauchistes bien pensants qui préfèrent sûrement se faire maltraiter par la Fnac (une longue tradition de mépris du client !). Mais alors, de quoi s’agit-il ?

Eh bien de notre fragilité (et même de notre vulnérabilité) vis-à-vis de ces services dominants : Amazon en effet mais aussi et surtout Facebook, Twitter, Google (ne serait-ce qu’à travers Gmail) et Linkedin.

Deux mésaventures récentes (une pour moi, une pour un de mes fils) m’ont convaincu qu’il fallait « réduire son exposition » aux Gafam tant qu’on pouvait encore le faire. Car, à chaque fois que vous avez besoin de faire appel à leurs « supports techniques », c’est un cauchemar de procédures de type labyrinthe sans fin qui découragerait n’importe qui (et bonne chance pour arriver à avoir un humain dans la boucle !).

C’est pourquoi j’ai décidé de fermer mon compte Twitter (une très mauvaise expérience que j’avais tenté dernièrement) et mon compte Facebook (que j’avais réactivé pour pouvoir me servir de mon masque de VR Quest 2… Les comptes Oculus n’ont plus cours, une façon peu subtile de vous contraindre à utiliser Facebook). Je garde encore Gmail, Amazon et Linkedin pour le moment mais tous, clairement, sont désormais « sous surveillance ».

De plus, en dehors des aspects techniques débilitants qui devraient vous suffire à prendre la fuite, la censure exercée par ces services (en particulier YouTube et Linkedin) dont on n’a pu se rendre compte lors des crises récentes (crise sanitaire et crise ukrainienne) doit être une raison de plus de reprendre notre liberté tant que c’est encore possible.

Publié dans Anecdotes IT, La terrible vérité | Laisser un commentaire

Une lecture monumentale et édifiante : Mémoires de guerre de Winston Churchill (tome 1 & 2).

Après avoir essayé de lire les mémoires de guerre de Charles de Gaule (édifiantes mais pas enthousiasmantes !), j’ai tenté celles de Churchill avec plus de succès et de plaisir !

Les tomes 1 & 2.

Voilà une lecture qui m’a occupé pendant ces derniers mois et, comme toujours quand cela se termine, je ressens une certaine nostalgie de ne plus avoir (et pouvoir) partager mon petit déjeuner avec les récits équipes de Winston…

Commençons par expliquer, pourquoi (selon moi) les mémoires du vieux lion britannique sont plus agréables à lire que celle du « grand Charles » ?
Eh bien, c’est toujours délicat d’expliquer une préférence personnelle subjective, d’autant que les deux ouvrages portent sur la même époque et relatent plus ou moins les mêmes péripéties… Mais l’écriture de Winston est plus alerte, moins « empesée » que celle du grand français et ça fait toute la différence.

Et puis, il y a le travail de l’éditeur sur cette version française de ces célèbres mémoires : l’équipe de Texto a réalisé un vrai travail qui apporte une valeur ajoutée incontestable. Les très nombreuses notes de lecture apportent un éclairage utile et même une modération bienvenue de la faconde du fameux premier ministre. En effet, bien souvent, ces notes permettent de « rectifier » les propos trop optimistes ou même d’indiquer quand et pourquoi Winston pratique l’auto-censure sélective. C’est rare qu’un ouvrage de cette ampleur (et même de cette renommée) soit ainsi « amélioré » par un travail d’édition de fond mais là, c’est bien le cas pour notre plus grand bénéfice.

Tout au long des deux tomes, on est touché de voir avec quelle constance (pour ne pas dire « avec quel acharnement »…) le vieux lion tente de faire avancer ses idées et lutte pour être sur tous les terrains, quelquefois au mépris du danger. On le voit aussi lutter contre la maladie, y succomber et guérir pour repartir au combat comme si de rien n’était. Plus que simplement un ouvrage d’Histoire (ce qu’il est, en plus), ces mémoires sont un témoignage prenant d’un personnage clé d’une période troublée.

Bref, vous l’aurez compris, pour avoir une vue plus précise de la seconde guerre mondiale et de ces acteurs (y compris Staline !), je ne peux que recommander ces deux tomes, vous ne pouvez être déçu.

Publié dans Livres | Laisser un commentaire

Gordon Moore, le géant a replié ses ailes…

Gordon Moore vient de mourrir. Ce type était un géant, tout simplement !
Co-fondateur d’Intel (déjà, hein…), il est aussi à l’origine de la fameuse « loi de Moore » qui a eu une importance primordiale dans le développement de l’informatique moderne.

Pour évoquer Gordon et sa loi, je vous propose ici un extrait de mon dernier livre « La crise de l’IT des années 2020 et comment s’en sortir« .

====

Mon image préférée de Gordon Moore…

La loi de Moore a été exprimée pour la première fois en 1965 dans le magazine Electronics par Gordon E. Moore, alors ingénieur de Fairchild Semiconductor (Moore allait ensuite devenir un des trois fondateurs d’Intel). Constatant que la “complexité des semi-conducteurs proposés en entrée de gamme” doublait tous les ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement nommée “loi de Moore” ou, compte tenu de l’ajustement ultérieur, “première loi de Moore”. En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes) sur une puce de silicium double tous les deux ans. Bien qu’il ne s’agisse pas d’une loi physique, mais seulement d’une extrapolation empirique, cette prédiction s’est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de plus en plus petites et de moins en moins coûteuses tout en devenant de plus en plus rapides et puissantes (extraits issus de Loi de Moore sur Wikipédia).

On le voit, l’énoncé de la “loi” ne comporte pas de mention sur la puissance ou sur la vitesse des composants, mais seulement sur la densité des transistors qu’on peut rassembler au sein d’un microprocesseur. L’augmentation de la vitesse et/ou de la puissance n’est qu’une conséquence de l’augmentation de la densité. 

Une explication lumineuse par Gordon Moore lui-même : Si vous examinez la vitesse des processeurs des années 1970 à 2009, puis à nouveau en 2010, on pourrait penser que la loi a atteint sa limite ou s’approche de la limite. Dans les années 1970, les vitesses de traitement allaient de 740 kHz à 8 MHz (remarquez que le 740 est le kHz, ce qui correspond au kilo hertz, tandis que le 8 correspond au mégahertz). Entre 2000 et 2009, la différence de vitesse n’a pas vraiment évolué, les vitesses allant de 1,3 GHz à 2,8 GHz, ce qui suggère que les vitesses ont à peine doublé en 10 ans. C’est parce que nous examinons les vitesses et non le nombre de transistors. En 2000, le nombre de transistors dans les CPU s’élevait à environ 37,5 millions, tandis qu’en 2009, le nombre de transistors atteignait 904 millions ; c’est pourquoi il est plus juste d’appliquer la loi aux transistors qu’à la vitesse.

La fin annoncée par Gordon Moore lui-même

Lors de l’Intel Developer Forum de septembre 2007, Gordon Moore a prédit que sa loi de doublement du nombre de transistors dans une puce tous les deux ans ne serait plus valide dans dix à quinze ans (on y est !). En effet, l’industrie approche de plus en plus des limites physiques de la microélectronique, où les transistors ne seront plus constitués que de quelques atomes et l’isolant entre eux. 

En février 2016, la confirmation tombe : la fin de la loi de Moore est annoncée par l’International Technology Roadmap for Semiconductors (ITRS) qui entérine officiellement l’abandon de cette loi, le rythme n’étant tout simplement plus tenable.

Cela faisait déjà quelques années que la cadence ralentissait. À force de graver des composants électroniques toujours plus fins, année après année, passant du micro au nano, de l’échelle du cheveu à celle des bactéries, l’industrie de la microélectronique a fini par atteindre l’atome (en 50 ans, les transistors ont vu leur taille divisée par 2 000…). 

En effet, pour que la densité du transistor augmente, la taille des transistors doit diminuer. Étant donné qu’il existe une limite à la taille des transistors, l’applicabilité de la loi de Moore est limitée. De plus, la loi de Moore étant une loi exponentielle, les nombres se multiplient rapidement et nous pourrions donc atteindre la limite physique assez soudainement.

En 2018, seuls trois industriels au monde étaient encore en lice pour graver des composants électroniques de 7 nm (nanomètres) : Intel, Samsung et TSMC, le fournisseur taïwanais d’Apple.

Plus difficile, mais aussi plus cher !

Il devenait de plus en plus difficile de fabriquer des transistors de plus en plus petits. Pendant des années, l’industrie des puces a réussi à contourner ces obstacles physiques. Mais le progrès est devenu de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971. 

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock, stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans, car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût d’une usine augmente d’au moins 13 % par an et attendra 16 milliards de dollars ou plus d’ici 2022. Ici, on touche du doigt les effets de la loi des retours décroissants.

Le débat fait encore rage

OK, ces éléments semblent être convaincants pourtant, le débat fait encore rage : entre Nvidia qui confirme que la loi de Moore ne se vérifie plus et Intel qui prétend qu’elle est toujours valable tout en admettant un fort ralentissement, qui faut-il croire ?

Début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. On peut donc dire qu’il s’agissait plus d’un déclin progressif que d’une mort subite.

Pourtant, si on prend la définition de cette “loi” au pied de la lettre, un fort ralentissement équivaut à ce qu’elle soit effectivement caduque puisque la loi de Moore est basée sur un rythme précis de progrès techniques (100% tous les deux ans). Ensuite, le fait que TSMC et Intel soient passés en dessous de 10nm nous rapproche inéluctablement d’un mur infranchissable… Allez-vous encore prétendre que la loi de Moore va toujours se vérifier quand on en sera à 1 ou 2 nm ?

Le mur est là

Non, évidemment. On réalise que les limites physiques vont s’imposer et que “le mur” va imposer une halte durable à cette façon de progresser. Certes, une nouvelle voie est en train de s’ouvrir en matière de densification des composants en passant en 3D (en les empilant les uns sur les autres) plutôt que de se contenter de les aligner les uns à côté des autres… Mais cette nouvelle technique va réclamer du temps pour parfaire sa mise au point et permettre la production en volume. Comparaison n’est pas raison, dit-on, mais si on se penche sur les promesses des nanotubes de carbone, on réalise que, depuis 2005 jusqu’à aujourd’hui, on n’est toujours pas capables de produire ce nouveau matériau en volume à des coûts acceptables… ça fait réfléchir !

Donc, il ne faut sans doute pas trop attendre que la production en 3D des composants électroniques permette de relancer la loi de Moore comme par magie…

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre, mais peut-être pas au rythme auquel nous avait habitué la loi de Moore. 

Publié dans Anecdotes IT, documentaires IT, Informatique | Laisser un commentaire

Documentaires sur le sport-auto à voir !

Trouvé sur Youtube, je vous propose d’abord ce long documentaire sur Villeneuve et Pironi qui revient en détail sur cette rivalité qui a « mal tournée »…

https://youtu.be/lr66HApuhXI

Ensuite, ce retour sur les début de l’écurie Ligier en F1. On voit Laffite bien diminué par l’âge mais c’est ainsi…

https://youtu.be/UuCNLW0zMpc

Publié dans Sport-auto | Laisser un commentaire

Une séance d’enduro à West Mecapark

Avec mon fils Val, nous avons pu profiter d’une séance d’enduro mémorable dans le riche et vaste domaine de West Mecapark en Vendée.

Nous avions déjà découvert ce complexe dédié aux sports-mécaniques (qui est en pleine expansion) lors d’une séance de Mini-GP en août 2022. On avait déjà pu s’éclater dans cette discipline à Cholet (en juillet 2021) puis sur le circuit de karting de Mecapark en août dernier.

Avec les MiniGP sur le circuit de Karting de West Mecapark.

Cette fois, on voulait goûter à quelque chose de différent. En août, le gérant de West Meccapark nous avait fait part de ses projets d’expansion et en particulier des différents parcours tout-terrain qu’il allait aménager. Maintenant que c’est chose faite, il était temps d’en profiter !

Le plan du site avec, en jaune, le nouveau parcours « enduro » que nous avons pu découvrir…

Pour bien faire les choses, j’avais demandé à pouvoir louer des motos spéciales et nous nous sommes pointer avec juste nos casques et nos bottes, le reste de l’équipement à été mis à notre disposition en cette occasion.
Les motos étaient des 300cc 2T d’enduro de marque Beta et GasGas et, clairement, il s’agit de superbes machines !

En plus, elles étaient carrément toutes neuves et bien réglées, ce qui ne gâche rien. Ce sont des motos coûteuses (entre 9000 et 11000€, prix catalogue) mais qui sont vraiment taillées pour cet usage jusque dans les moindres détails.

Elles sont bien plus puissante que la 125YZ que j’avais utilisé en Floride et, tout à la fois, bien plus facile à emmener. Bon, comme l’YZ, elles sont hautes sur pattes mais très souples, très bien suspendues et la réponse moteur est immédiate tout en restant maitrisable, un régal !

Les pistes du parcours enduro de West Mecapark sont nombreuses et variées. On trouve de tout : des chemins roulants (mais avec des grosses flaques d’eau dont certaines sont carrément profondes !), des montées et des descentes faciles et d’autres disons moins faciles… On s’est amusé un moment sur un plateau avec des petits talus et c’était super.

Il suffit pour s’en convaincre de voir nos sourires ci-dessous :

Cette photo statique a été prise après notre joyeuse séance, ce qui explique les nombreuses traces de boues !

Merci à West Mecapark pour l’accueil chaleureux, les conseils avisés, l’encadrement professionnel et l’équipement au top (mention spéciale pour les motos dont on s’est séparé à regret…). Vous l’aurez compris, on a adoré cette séance d’enduro très réussie et on n’a qu’une envie : c’est d’y retourner !

Publié dans Enjoy the ride | Laisser un commentaire

Le féminisme selon Bill Burr

Si vous ne connaissez pas encore Bill Burr, il faut vite réparer cette lacune : c’est un vétéran du « stand up » qui a fait sa place sur ce secteur très concurrentiel.

OK, Bill utilise beaucoup de « fuck », « fucking » et « shit », c’est clair. Certains vous diront que Bill Burr n’est pas seulement « grossier » mais même complètement infréquentable : ces positions le classe dans la « fachosphère » par les insupportables bien-pensants. En effet, Bill Burr s’en prend au wokisme, aux gros, aux féministes et à tous les faibles qui font plonger notre civilisation dans l’égalitarisme paralysant.

J’avoue, je suis très fan de ce « comique » et je me moque qu’il soit « intouchable » par les gauchistes de tout poil. Il s’agit d’un véritable maitre du stand up avec un vrai talent mais aussi avec des effets très travaillés… Un exemple ?
Facile, regardez donc cet extrait où il propose sa solution au problème de la surpopulation : couler les navires de croisière !
Il faut regarder à partir de 5’43 pour apprécier la subtilité de son jeu de scène :

Mais il faut savoir aller au-delà de langage, disons « fleuri » pour écouter ce que Bill Burr dit sur le sujet du féminisme (un de ses sujets favoris…). Car, surprise, Bill s’avère être un critique intéressant du mouvement féministe et ce dernier gagnerait à appliquer ses conseils (mais oui !).

Par exemple, dans cet extrait, il explique que ce sont les femmes qui ont provoqué l’échec de la WNBA :

Tout est dit (et bien dit, merci Bill !).

Publié dans La terrible vérité, Mort aux cons | Laisser un commentaire

Le SimRacing a bien évolué ces dernières années !

Ces dernières semaines, j’ai beaucoup roulé et avec différentes simulations. J’ai aussi regardé beaucoup de vidéos sur YouTube à propos du SimRacing et, après tout cela, je suis bien obligé de reconnaitre que ce domaine a pas mal évolué depuis que j’ai arrêté de mettre à jour mon livre sur ce sujet…

Redécouvrir certaines simulations

Tout d’abord, parlons des simulations que j’ai pratiqué dernièrement. Normalement, je me consacre désormais à Automobilista 2 (AMS2) que je trouve de plus en plus aboutie (voir à ce propos ici et ). Certes, il lui reste encore quelques progrès à faire en matière de ressentis par rapport à rFactor 2 mais cette dernière est de moins en moins fiable : il lui arrive même de planter en restant ouverte sans aucune activité !

Donc, je n’utilise quasiment plus rFactor 2 alors que j’étais le premier à lui reconnaitre des qualités qu’on aimerait bien trouver ailleurs !

Bref, comme je ne veux pas tomber dans la monoculture (ni dans ce domaine ni dans un autre !), je me suis penché sur des simulations que je n’avais pas utilisé depuis un bon moment… J’avais déjà revisité iRacing il y a quelques mois (voir ici), il était temps de balayer plus large.

PCARS2, quelques bugs qui gâchent l’expérience.

Et donc, j’ai commencé par PCARS2. Pour moi, le seul intérêt de PCARS2 (on évitera d’évoquer la ratage monumental de PCARS3…), c’est de pouvoir tourner sur le circuit du Mans version 1971 avec les protos de cette époque (avec, en particulier, la 917 LH !). Avec cette combinaison, PCARS2 est vraiment plaisant car très réussi graphiquement et correct sur le plan du ressenti.

Hélas, les bugs graphique, le lag de temps en temps et des comportements incompréhensibles (exemple : la puissance de ma 917 s’est quasiment évanouie après un arrêt ravitaillement aux stands !) gâchent globalement l’expérience.

Retour sur Assetto Corsa qui le mérite bien

Après cela, je suis revenu sur Assetto Corsa que j’avais négligé pendant longtemps. Et je constate que c’est ce titre qui est désormais la plateforme de choix des moddeurs, que ce soit pour des mods gratuites ou payantes (payware). Sur le site de RaceDepartment, il y a un choix proprement incroyable, que ce soit pour des voitures, des tracés ou des extensions (utiles ou frivoles).
Et sur le plan des voitures, je ne peux que vous recommander cette mod tout bonnement incroyable : la Formula RSS 1970 V8 (en vérité la toute première March -la 701– utilisée lors de la saison 70 par Stewart, Amon, Andretti, Siffert et Peterson – et je dois en oublier !).

Alors, OK, c’est une mod payante mais alors, quel ressenti, quel énorme pied on prend à son volant !
Cette vidéo de GPLaps vous le racontera mieux moi :

Et, au moins, Assetto Corsa ne plante pas, même après des heures d’utilisation (suivez mon regard…).

AMS2 reste ma préférée

Bon, je suis heureux d’avoir pu faire ce tour d’horizon et d’avoir ainsi pu me « renouveler » avant de reprendre mon utilisation intensive d’AMS2 qui reste ma simulation préférée. Ce n’est pas une question de ressenti au volant (certaines voitures de rFactor2 et d’Assetto Corsa donnent de bien meilleurs résultats) ou de précision des tracés (encore que, sur ce plan, je ne trouve pas que iRacing, rFactor 2 ou Assetto Corsa fassent mieux) mais plutôt d’une appréciation globale : AMS2 a tout ce qu’on peut vouloir (surtout pour moi qui suis fan de voitures « vintage » !); évolue souvent (et toujours dans le bon sens) et se révèle être très fiable.

La catégorie GT1 d’AMS2 est tout simplement fantastique !

Les Indycars de la saison 95 sont également à savourer…

Du côté du matos…

Du côté des volants, il semble que ça bouge pas mal depuis deux ans. Désormais, le DirectDrive est en train de se banaliser (mais je n’en ai pas encore un car je suis assez satisfait de mon ensemble Fanatec… La mise à jour peut attendre encore un peu !).
Dans ce domaine, je constate qu’il y a des chaines YouTubes qui sont spécialisées dans ce créneau… Là aussi, j’ai une recommandation à vous faire : découvrez la chaine de Sam et Flo. C’est bien fait, souvent drôle et on y apprend beaucoup (et des choses utiles en plus…).

Bref, le SimRacing est en train de se transformer grâce à sa popularité (gagnée « grâce » aux confinements !) et on ne va pas s’en plaindre même s’il y a des dérives (inévitables).

Publié dans récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

Le bilan après 5 saisons de la série Netflix sur la F1, « Drive To Survive »…

Cela fait déjà cinq saisons que « Drive to Survive » nous offre une récapitulation de ce qui s’est passé lors de la saison de F1 précédente juste avant que la nouvelle saison ne débute…

Lors de la première saison (il y a cinq ans, donc), « Drive to Survive » a été un événement !
Le succès a été immédiat et, disons-le, mérité. Cette nouvelle série avait eu le génie d’offrir une vision de la F1 prenante et même captivante : bien mieux à regarder qu’à suivre la « vraie » saison qui offrait son habituel cortège de courses insipides. La série opta pour un angle original et intéressant : choisir quelques écuries et faire vivre la course de l’intérieur grâce à des gros plans sur le muret des stands ou à bord des voitures elles-mêmes.

L’arrivée de « Drive to Survive » a été vécue comme une divine surprise positive aussi bien pour Netflix que pour la F1.

L’impact de cette première saison a été tel que les grosses écuries comme Ferrari ou Mercedes décidèrent de participer à la saison 2 (parmi les « big guns », seule Red Bull avait accepté de participer à la saison 1). Tous les observateurs du monde du sport-auto se sont aperçus de l’effet promotionnel indéniable de cette série auprès du grand public, contribuant à faire connaitre la F1 sous un jour très favorable.

Très vite, il y eu un effet d’entrainement : certaines des autres disciplines des sports mécaniques ont voulu avoir elles aussi, leur série dédiée. L’imitation est la forme la plus sincère de flatterie dit-on… Mais aucun des « copycats » n’a eu le même succès ou le même impact que « Drive to Survive ».

Dès la seconde saison, la série était auréolée d’un halo de succès mais les choses se sont vite gâtées, hélas. Au fil des années, même l’admirateur le plus béat de cette série Netflix ne pouvait s’empêcher d’être gêné par des dérives de plus en plus évidentes. C’est que « Drive to Survive » n’est pas une série documentaire au sens stricte du terme : c’est quasiment un contenu fictionel qui fait la part belle aux séquences « travaillées et embellies » : son moteur modifiés, commentaires radio ajoutés, polémiques mineures montées en épingle et ainsi de suite.

Avec la saison 5, on atteint désormais un sommet : « Drive to Survive » est devenue l’illustration emblématique de la prédiction de Guy Debord… Le vrai (les séquences des courses sur la piste) devient un moment du faux (toutes les séquences recrées afin de faire croire que les caméras de  Netflix étaient omniprésentes en permanence). Car c’est un triste constat qu’on est obligé de faire : tous les commentaires sont douteux, toutes les séquences exclusives (comme les réunions au sein des écuries pour décider qui va avoir un volant la saison prochaine…) sont des recréations et l’ensemble du « show » n’est plus autant plaisant que lors de sa découverte (plus du tout en fait).

Il y a donc une usure qui est palpable et certaine. Mais ce n’est pas tout, même Netflix elle-même est victime de l’effet « Drive to Survive » qu’elle tente de décliner sur d’autres sports.
La série consacrée au golf professionnel (Full Swing) est un ratage monumental !

Franchement, si j’étais un amateur de golf (ce qui n’est pas le cas), je me sentirais insulté par cette daube…

Je pense qu’il y a là une tendance significative : « Full Swing » tente de séduire un public jeune et principalement américain… Donc, on lui donne à voir ce qu’on (Netflix) pense qu’il va apprécier et c’est simplement lamentable. Les séries documentaires (et pas seulement celles sur le sport) sont de plus en plus spectaculaires et de moins en moins profondes (la substance cède le pas à l’apparence), ce n’est pas un hasard, c’est un choix, c’est une tendance qui reflète l’état de notre monde actuel.

 

Publié dans Courses, Sport-auto | Laisser un commentaire

L’évolution de la technique moto depuis les années 70 à nos jours…

Bien entendu, impossible d’être exhaustif sur un sujet technique aussi vaste !

Donc, dans cette vidéo de 24 minutes, je me suis contenter d’aborder quelques points qui me tiennent à coeur : quels ont été les points marquants de cette évolution technique depuis les années ?
Quels sont les éléments qu’il nous faudrit avoir pour renforcer encore (ou retrouver !) le plaisir de rouler sur des engins aussi particulier ?

Une fois achevée, je réalise qu’il y a encore bien des points à aborder, bien des choses à dire !
Mais j’ai déjà été très bavard sur celle-ci, la suite une autre fois…

Publié dans Enjoy the ride | Laisser un commentaire

Revue de mes casques (moto) en vidéo

Allez, encore sur le sujet des casques, décidément !

Pour mémoire, voici les articles sur le même sujet de ce blog, rassemblés dans un post récent : la quête du casque idéal

J’en parle dans la vidéo ci-dessous, alors voici un article qui fait ((bien) le point sur les différents systèmes de fermeture de la jugulaire

Bon, même si cette vidéo est plutôt longue, je suis loin d’avoir épuisé le sujet !

Petit complément : ce tableau des « notes » que j’ai attribué à mes différents casques sur les critères qui comptent pour moi…

Bien entendu, cette grille est « injuste » pour les casques ouverts qui sont défavorisés sur certains critères (ouverture écran et bruit). Donc, à prendre avec des pincettes bien sûr…

 

Publié dans casques moto, Ce blog, Enjoy the ride | Laisser un commentaire

Un nouveau livre : La crise de l’IT des années 2020 et comment s’en sortir !

Je viens de publier un nouveau livre que je vous présente dans la vidéo ci-dessous :

Et voici le texte de présentation du livre disponible sur Amazon dans les formats papier et numérique…

===

En cette fin 2022, le numérique est en crise. Une période qui rappelle autant la grande dépression vécue par le monde de l’informatique des années 90 que la bulle Internet de 2001.

Certes, on observe un effet de contagion boursier qui pousse toutes les entreprises de la Tech à licencier les employés qu’ils avaient encore du mal à recruter il y a à peine six mois. Mais cette explication n’est pas suffisante. La crise du numérique est aussi structurelle et correspond à une exagération de ces modes qui s’enchaînent sans fournir les résultats escomptés.

L’IT est coutumière de ces effets démos. Presque toujours, il en sort quelque chose, longtemps après, une fois que la poussière est retombée sur les meubles et que les esprits se sont calmés.

Mais il est dur de se raisonner en cette fin 2022 où les tendances se succèdent, toutes porteuses de trop belles histoires dans un monde trop sombre et dans lequel le rêve fait office de refuge au manque de perspectives.

Pourtant, dans ce brouillard technologique encombré de modes, de mythes et de poncifs le décideur a le devoir d’apprendre à décoder la situation. C’est pour cela que vous vous imprégniez des écrits d’Alain Lefebvre.

L’informatique offre-t-elle sans cesse plus de puissance de calcul ? L’IA en est-elle à son apogée comme le prétendent nos exégètes de LinkedIn, ou au contraire à l’aube d’un futur hiver ? Le Web3, la blockchain et les cryptos seront-ils les sauveurs de la modernité ou des innovations qui finiront dans la même décharge que celles de Google ? Serons-nous perdus dans le Metaverse, à moins que ce soit lui qui se fourvoie en chemin ? … Alain, au fil des chapitres, pourfend les mythes, démonte les contes de fées.

Autant prévenir le lecteur, la réalité est plus complexe que la fiction. Le monde n’est pas manichéen, il est « dialogique », écrirait Edgar Morin. Pour mieux le comprendre, des explications poussées sont nécessaires, c’est ce qu’Alain Lefebvre nous offre ici.

En fin de compte, une fois que les décideurs auront réussi à décrypter les véritables enjeux des technologies, ils pourront faire progresser leurs entreprises vers la seule démarche qui vaille. Une approche apaisée et expurgée des fantasmes, celle de l’informatique raisonnée proposée par l’auteur.

Répondre aux questions… et tordre le cou aux idées reçues !

Dans cet ouvrage, nous allons nous efforcer de répondre aux questions qui restent en suspens après cette introduction ravageuse :

  • La fin de la loi de Moore, est-ce bien certain ?
  • Pourquoi ne faut-il rien attendre (pas de Next Big Thing à l’horizon) des modes techniques actuelles ?
  • Que va-t-il se passer désormais dans ce nouveau contexte ?

Pour répondre au mieux à ces questions légitimes, nous allons en profiter pour effectuer un tour d’horizon technique de ce qui a occupé (et occupe encore dans certains cas) l’actualité technique de ces dernières années : IA, Web3, Metaverse et ordinateurs quantiques, pour ne citer que les plus évidents. Enfin, on terminera en s’interrogeant sur les excès qui nous ont conduits dans cette impasse et de la meilleure façon d’en sortir.

Publié dans Informatique, Livres, Mes livres | Laisser un commentaire

Pourquoi avoir créer un compte sur Twitter ?

Je suis resté à l’écart de Twitter pendant toutes ces années et ce n’est pas la récente prise de contrôle par Elon Musk qui m’a fait changer d’avis…

Mais voilà, je viens de recevoir une invitation pour participer à un « Twitter Space » : Web3 simple illusion ou véritable révolution ?

Et, bien entendu, je vais y jouer le rôle du sceptique !

Seulement pour cela, il fallait avoir un compte Twitter… Nécessité fait loi, j’ai franchi le pas.

Publié dans Ce blog, divers | Laisser un commentaire

Les motos que j’aimerais essayer…

Dans mon parcours de motard, j’ai eu l’occasion d’essayer de nombreuses machines. Tellement nombreuses d’ailleurs que je pense qu’il sera bien plus rapide de faire la liste des motos qu’il me reste à essayer. Ceci dit, ai-je envie d’essayer toutes les machines possibles ?

Evidemment non. Certaines m’attirent, d’autres pas du tout. Donc, dans ce post, on va se concentrer seulement sur celles qui me donnent envie aujourd’hui. En juillet 2017 (le temps passe vite !), j’avais déjà rédigé cette même liste mais, de façon intéressante, cinq ans après, cette liste n’est plus exactement la même… Voyons cela ensemble.

En 2017, ma liste de souhaits comprenait les motos suivantes :

  1. Yamaha XS1100 (1979)
  2. Triumph Trident (1969)
  3. Honda CX500 (1978)
  4. BMW R90S (1974)
  5. Yamaha RD350 (1973)
  6. KTM 390 Duke
  7. Triumph Daytona (1966)
  8. KTM 400 Enduro (1976)
  9. Suzuki T500 (1972)
  10. Yamaha TX750 (1973)

Commençons par énumérer celles qui sautent de ma liste réactualisée : la Yamaha XS1100, la Yamaha RD350, la BMW R90S, la Triumph Daytona et la KTM 400 enduro.

La XS1100 parce qu’elle est lourde et que les machines lourdes me font réagir négativement désormais. La RD350 parce que c’est une petite nerveuse et je n’ai plus l’envie de jouer du sélecteur continuellement pour « rester dans les tours »… La R90S parce que j’ai déjà essayé des BMW de cette période et de cette cylindrée (la case est cochée donc), la Triumph Daytona parce que c’est une erreur de la liste précédente (!) et la KTM 400 parce que je n’ai plus l’énergie nécessaire pour maitriser longtemps un tel monstre… Voilà, la liste est nettoyée, que reste-t-il ?

  1. Triumph Trident (1969)
  2. Honda CX500 (1978)
  3. KTM 390 Duke
  4. Suzuki T500 (1972)
  5. Yamaha TX750 (1973)

De la Triumph Trident (ou de la BSA Rocket III et, oui, je sais, il ne s’agit pas tout à fait de la même machine…), je n’attend pas grand-chose… Mais, quand même, par curiosité, j’aimerais pouvoir rouler avec, même très peu, pour « voir ». Ceci dit, rien que sur le côté « look », on peut dire que les anglais se sont loupés dans les grandes largeurs : alors que la CB 750 Honda respire la modernité (pour l’époque !), la Trident ou la Rocket III font vieillottes, pour ne pas dire pire !

mouais...

La Honda CX500 (avec son esthétique « massive »…) est une moto qui m’a toujours intrigué et, en fait, la VT500 qui lui a succédé aussi. Voici bien deux machines que j’aimerais essayer pour voir comment Honda a dosé ses ingrédients pour proposer une moyenne cylindrée « idéale »…

Je n’ai jamais pu essayer la moindre KTM (ni aucune Laverda d’ailleurs !), donc, n’importe laquelle ferait l’affaire pour avoir une impression de ce que cela fait de rouler en « katoche »…

Dans un tout autre domaine, la Suzuki T500 représente le deux temps « raisonnable » à l’époque où ce n’était pas encore une préoccupation. Donc, forcément, je suis intrigué par la bête et souhaiterais en savoir plus sur ce que peut faire cet engin qui a été très prisé en son temps…

Enfin, on en arrive à ma préférée : la Yamaha TX750, celle qui a eu un destin contrarié. Oui, celle-ci, j’aimerais vraiment la sentir vibrer parce que, justement, parait qu’elle ne vibre pas du tout (et ça donne envie de vérifier, forcément !). C’est le premier twin japonais avec balanciers d’équilibrage mais ses concepteurs ne s’attendaient pas à ce que les motards européens tirent dessus comme des bêtes !

Pour conclure, ajoutons au moins une moto à cette liste hétéroclite : une Norton !

Là encore, il s’agit d’une marque que je n’ai jamais pu approcher, même de loin. Alors, essayer une Commando, ça ne se refuserait pas !

 

Publié dans Enjoy the ride | Laisser un commentaire

Une vidéo sur la démarche de réglages pour le SimRacing

Souvent considéré comme intimidant, le domaine des réglages d’une voiture de course n’est, en fait, pas si compliqué si on applique une démarche et un peu de bon sens.

C’est ce que je me suis efforcé de vous proposer dans cette vidéo (assez longue, j’en conviens) qui vous permettra de faire vos premiers pas dans ce domaine et de progresser très vite par la suite…

Les articles à lire en complément :

Les fondamentaux du pilotage sur circuit… chapitre 7

Une démarche de réglages pour le SimRacing, chapitre 8

Publié dans Ce blog | Laisser un commentaire

Etudions l’évolution de la F1 des années 70/90 grâce à Automobilista 2

J’avais déjà exploré un peu cette avenue avec Assetto Corsa où j’ai pu comparer les dernières F1 à moteur avant et les première avec le moteur en position centrale… à revoir à « Tu te prend pour Fangio ? » ou la simulation permet de revisiter les voitures les plus célèbres de l’Histoire du sport-auto.

Aujourd’hui, je vous propose d’aller plus loin dans cette quête et d’utiliser Automobilista 2 afin de mesurer les différences de performances des F1 au fil des ans. En fait, on va se limiter ici à la fin des années 60 pour aller jusqu’à la fin des années 90 et ça sera déjà pas mal. Comparaison n’est pas raison dit-on fort justement mais on va tout de même tenter de poser des bases identiques afin que nos chiffres puissent indiquer une tendance.

Tout d’abord, le circuit. J’ai choisi Silverstone dans sa version « 1975 » avec sa fameuse chicane à Woodcote avant la ligne de départ/arrivée mise en place après le monstrueux crash du GP de 1973 où Jody Scheckter a réussi à décimer le peloton !

Voilà à quoi ressemble ce tracé traditionnel qui n’existe plus désormais :

Le Silverstone de ces années-là est un tracé rapide mais pas tout à fait autant que Monza ou Zeltewg (c’est comme cela qu’on appelait l’ancien tracé du Red Bull Ring…). La chicane de Woodcote est intéressante car bien dessinée : pas trop lente ni trop rapide. Cela m’a paru être un tracé approprié pour évaluer (rapidement) les F1 de ces époques.

Donc, toutes les voitures testées ci-dessous l’ont été sur ce tracé. Et aussi, toutes avaient du carburant afin de pouvoir parcourir dix tours de circuit et étaient laissées avec le setup de base (celui qu’on trouve dans Automobilista 2). Le but n’étant pas de signer une performance mais d’avoir des données comparables…

Avec chaque voiture, je me contentais d’effectuer trois tours lancés et retenais le meilleur chrono de ces trois tours. Bref, ces conditions expliquent pourquoi vous allez trouver que mes chronos sont plutôt « lents » par rapport au potentiel réel de chaque voiture…

La Brabham BT26 de 1969/70.

On commence avec cette BT26 des saisons 69/70 avec 1’28″5 comme meilleur temps des trois tours lancés. Clairement, le pilotage ici est obligatoirement très coulé car la BT26 n’aime pas être brutalisée, on doit la respecter !

La Brabham BT44 de 1974/75.

Avec la BT44, on sent déjà le changement : il y a plus (bien plus !) d’appuis et la voiture accepte qu’on attaque un peu. Du coup, 1’23″2, ça fait quand même plus de cinq secondes moins en l’espace de 4/5 ans, ça cause !

La Brabham BT46B (la fameuse « fan-car ») de 1978.

La Brabham « aspirateur » en demande encore plus et le chrono s’en ressent : 1’16″9 !
Cette fois, on a gagné plus de sept secondes en l’espace de quatre ans… ça commence à faire sérieux !
Par rapport à la BT26, ça fait déjà plus de douze secondes au tour de gagné… un gouffre !
Et le rythme de la progression des performances est impressionnant : on va de plus en plus vite au fil des ans… Forcément, il fallait faire « quelque chose » !
Ceci dit, la voiture reste « pilotable » et on n’a pas -encore- l’impression que ses performances dépassent vos capacités à les exploiter.

La McLaren MP4/1 de 1983.

En 1983, premier coup d’arrêt brutal de la réglementation technique : terminées les wing-cars, voilà les fonds plats obligatoires… Du coup, avec 1’15″9, on a juste gagné une seconde en cinq ans !
Il faut comprendre que laisser les wing-cars se développer sans limite, c’était rendre la plupart des circuits totalement inutilisables rapidement.
Pourtant, même avec une réduction d’appui radicale (passer de l’effet de sol au fond plat, c’était bien quelque chose de radical !), je trouve que la voiture reste (est) intéressante à piloter et plutôt équilibrée.

McLaren MP4/2C de 1986.

Avec la McLaren de 1986, on sent le souffle du turbo : l’arrivée de la puissance en sortie de virage conditionne assez largement votre pilotage (qui, du coup, est quand même bien plus délicat que pour les générations précédentes).

L’apport de puissance bien réel permet de boucler un tour en 1’10″1, soit presque six secondes de mieux que la version 1983… de nouveau, l’écart s’est accru.

La McLaren MP4/4 de 1988.

La version 1988 est la dernière année du « tout turbo » est les restrictions au niveau pression du turbo se font sentir… le pilotage est plus facile (la voiture a progressé en tenue de route aussi…) mais le gain est moindre : moins de deux secondes de gain par rapport à 1986 (meilleur tour en 1’09″5). Avec cette génération de voiture, il faut privilégier un pilotage basé sur l’attaque plutôt que la fluidité : ce qui vous rendait rapide avec la BT44 fait que vous êtes lent avec la MP4/4. A partir de là, la bascule dans le style et l’efficacité est nette. Or, un pilote comme moi est bien plus à l’aise avec les voitures « low grip » (où la fluidité est récompensée) qu’avec ces voitures « hi grip » où il ne faut pas hésiter à « envoyer » pour faire un temps correct.

La McLaren MP4/7A de 1992.

L’impression déjà ressentie avec la MP4/4 de 1988 est encore nettement accentuée avec la version 1991/92 (MP4/7) : le moteur atmosphérique est bien moins brutal que le turbo et le grip général de la voiture a encore nettement progressé, d’où la nécessité d’une attaque à outrance pour avancer pas trop lentement. Avec cette voiture, j’ai bouclé mon meilleur temps (toujours seulement trois tours lancés) en 1’06″6, soit quasiment trois secondes de mieux qu’en 1988. Et ça nous met à plus de dix secondes de mieux que la BT46B (la voiture aspirateur) qui a été bannie dès sa première course car trop performante…
Avec ce niveau de performances, le circuit de Silverstone (dans sa version 1975) commence à montrer ses limites : pas assez de gros freinages, pas assez d’endroits sélectifs où il faut « doser ».

La McLaren MP4/12 de 1997.

Dernière voiture de ce test comparatif, la McLaren MP4/12 de 1997. Cette fois, la progression de la performance n’a pas lieu par rapport à la génération précédente (1991/92) car la réglementation technique a subie un nouveau coup d’arrêt après les accidents de Senna (Imola 94) et Wendlinger (Monaco 94). Le pouvoir sportif a banni tous les systèmes électroniques (qui avaient connus un pic avec la saison 1993) et a raboté autant que possible les dispositifs aérodynamiques pour tenter de ralentir les voitures.

Ces restrictions ont eu un effet (avec 1’07″6, mon meilleur temps est quand même en régression par rapport à la McLaren MP4/7) mais, au volant, ce n’est quand même pas convaincant : la MP4/12 me donne l’impression d’être un vrai « tapis volant » et je n’arrive pas à m’exprimer avec ce type de voiture : trop performante pour moi.

Aller au-delà de cette MP4/12 n’avait pas beaucoup de sens car le tracé de Silverstone dans sa version 1975 commence alors à sérieusement dater : il n’y a plus que deux vrais freinages avec les F1 post-90 et on comprend que pour un certain type de voiture, il faut un certain type de circuit.

C’est là tout le problème des voitures modernes : elles sont tellement performantes que la moindre ligne droite doit être aussitôt tronçonnée pour éviter d’accrocher de trop grandes vitesses…

Sinon, que peut-on déduire de cet exercice (qui a ses limites bien sûr) ?
Tout d’abord que les progrès techniques incessants permettent de toujours aller plus vite sur un tour (quelle surprise !) mais aussi qu’on constate un vrai ralentissement de la progression (qui, toutefois, ne cesse pas) à partir de l’instauration du fond plat : les records sont toujours battus mais moins vite et de façon moins spectaculaire que lors de la décennie 70.

Ensuite, passé la période turbo, même avec le fond plat, les progrès techniques transforment les voitures qui demandent alors un pilotage qui n’a plus rien à voir avec le « pilotage subtil » qui prévalait. Donc, si vous appréciez les voitures « vintages », ne soyez pas étonnés d’être peu compétitifs sur les voitures modernes (surtout les monoplaces !). Mon fils Justin qui a 13 ans est systématiquement plus rapide que moi sur les voitures modernes alors que c’est l’inverse quand on se confronte sur des voitures « anciennes »…

Publié dans Ce blog | Laisser un commentaire

Les fondamentaux du pilotage sur circuit… chapitre 7

Ceci est la reprise du chapitre 7 de mon livre sur le SimRacing que je publie ici afin de compléter une vidéo sur ce sujet (les réglages de la voiture) que j’ai publié sur YouTube…

============

7- Le pilotage d’une voiture de course…

L’importance du contexte pour orienter les réglages

Tout d’abord, il est important de comprendre qu’on va toujours orienter la démarche de réglages en fonction du contexte et de l’objectif visé. Le contexte est très variable puisqu’on ne va pas régler la voiture de la même façon si l’on est dans une séance de qualifications ou si on la prépare pour la course, si il s’agit d’une course sprint ou de longue distance, selon la météo, la catégorie (et donc le type, la construction et même l’architecture générale de la voiture en question) et encore d’autres paramètres que nous passerons en revue un peu plus loin. On le voit, l’enveloppe des réglages en fonction du contexte est déjà très vaste et complexe !

Mais, en plus de l’importance de l’environnement à prendre en compte, il faut aussi et surtout tenir compte de l’objectif à atteindre… En effet, il serait naïf de penser qu’on va régler la voiture uniquement dans l’optique de la rendre plus performante car alors, on n’arriverait à rien de concret. Car, en fin de compte, la performance potentielle ne veut rien dire, seule compte vraiment la performance réelle dans un contexte donné. Et l’élément N° 1 de ce contexte, c’est le pilote lui-même, celui qui est au volant et qui doit être en mesure d’exploiter tout ce potentiel pour être performant en piste… Une fois qu’on a compris cela, on sait qu’il est inutile de confier la voiture la « meilleure possible » en théorie si celle-ci n’est pas adaptée à son pilote.

En pratique, on sait bien qu’une voiture réglée pour être facile à conduire va être emmenée bien plus rapidement par son pilote que la même réglée uniquement dans une optique de performance pure, mais difficile à contrôler par ce même pilote. C’est pour cette raison que les ingénieurs acceptent d’ajouter de l’appui aérodynamique si le pilote se plaint de la stabilité de sa monture au freinage même en sachant que cela va réduire la vitesse de pointe : le gain de confiance ainsi obtenu va immédiatement se traduire par de meilleurs temps au tour alors que, en théorie, on aura un peu réduit la performance optimale de l’engin…

Tout cela pour dire qu’on règle toujours en ayant ces deux impératifs en tête :

1— rendre la voiture « facile à conduire » afin qu’elle soit bien exploitée par son pilote,

2 — adapter la voiture aux contraintes du moment (type d’épreuve, type de tracé, etc.).

Les réglages pour faciliter le pilotage, pas pour masquer les lacunes de ce dernier

Donc, la notion de performance optimale théorique n’entre jamais en ligne de compte puisque c’est bien là le moyen le plus sûr de se fourvoyer. C’est aussi pour cette raison que les réglages sont bien quelque de chose de très personnel. Même si le pilote le plus rapide de votre ligue partage ses fichiers de réglages avec vous, ce n’est pas forcément cela qui va vous faire aller plus vite si ces derniers ne sont pas adaptés à votre pilotage.

De plus, il est critique de comprendre comment votre pilotage peut influencer le comportement de votre voiture pour appliquer les bons réglages qui vont optimiser votre voiture et non pas masquer une mauvaise pratique de votre part. Un exemple pour illustrer cette autre façon de se fourvoyer…

Mettons que vous avez décelé une nette tendance au sous-virage en entrée de virage. On peut facilement combattre et corriger cette tendance en changeant la répartition du freinage (en ajoutant plus de freins sur le train arrière en l’occurrence), mais est-ce bien la bonne solution à appliquer ?

Et si ce sous-virage n’avait pas plutôt pour origine une volonté excessive du pilote de « rentrer fort » (trop fort !) dans le virage ?

En effet, si vous avez tendance à freiner très tard et très loin dans le virage, vous allez sans doute trouver que la voiture est plutôt sous-vireuse alors que son équilibre est bon quand on la pilote de façon « normale »…

Sous-virage et survirage sont des notions qui reviennent tout le temps quand on décrit l’attitude d’une voiture de course et qu’il est important de comprendre une bonne fois pour toutes si on veut savoir décrire et analyser le comportement de sa voiture dans une situation donnée.

Pour faire simple, contentons-nous de cette définition : le sous-virage, c’est quand le train avant de la voiture glisse… La trajectoire s’élargit vers l’extérieur du virage. Le survirage, c’est lorsque le train arrière se met à glisser… Le nez de la voiture se met alors à pivoter vers l’intérieur du virage.

Le but des réglages est d’obtenir un bon équilibre entre ces deux tendances qu’on va retrouver tour à tour selon le type de virage, l’usure des pneus et d’autres paramètres. Aucune voiture n’est fondamentalement sous-vireuse ou survireuse, car les réglages permettent toujours de combattre ces tendances ou, au moins, de les amoindrir fortement.

Certains pilotes détestent piloter une voiture avec une tendance sous-vireuse alors que pour d’autres, ce sera exactement l’inverse. Une fois de plus, c’est là qu’on voit qu’on règle une voiture en fonction des préférences de son pilote. Le but est que le pilote soit « confortable » au volant afin qu’il puisse donner le meilleur de lui-même et non qu’il soit obligé d’affronter sa voiture (comme disent les Américains : you race the track, you don’t race your car… soit, à peu de choses près, « vous luttez contre le circuit, pas contre votre voiture »).

Bien évidemment, le comportement en entrée de virage va aussi et surtout dépendre de l’équilibre de la répartition du freinage… Avec une prépondérance sur l’avant, la voiture va être plutôt sous-vireuse alors qu’avec plus de freins sur le train arrière, la même voiture va se révéler plutôt survireuse…

Le type de la voiture va aussi peser : une traction avant sera plutôt sous-vireuse au moment de la remise des gaz alors qu’une voiture avec beaucoup de poids à l’arrière comme une Porsche sera plutôt survireuse en entrée de virage… Et on rencontre une grande diversité de cas !

Donc, ce qui est dit plus haut est basé sur une voiture qui est déjà équilibrée sur le plan de la répartition du freinage (on reparle de cette question un peu plus loin)… Sinon, commencez par vous pencher sur ce point !

Puisque c’est le ressenti du pilote qui va déterminer les changements à apporter, il est important de ne pas se tromper et de ne pas se retrouver à combattre une tendance de la voiture qui, en fait, n’existe pas vraiment… Donc, vous devez toujours vous interroger quand vous êtes confronté à un comportement qui vous gêne : n’est-ce pas dû à moi plutôt ?

Et si je me plaçais là au moment de freiner, ne serait-ce pas différent ?

C’est aussi à ce niveau que les très bons pilotes font la différence : ils ne vont pas confondre comportement réel de la voiture avec leurs fautes de pilotage qui induisent telle ou telle réaction gênante ou parasite. Et ne vont donc pas chercher à corriger un phénomène qui n’existe pas quand on pilote « comme il faut ». Cette restriction n’est pas contradictoire avec la règle maintes fois répétée qui veut que les réglages soient déterminés par le feeling et les préférences du pilote. Cette règle n’est évidemment valable que si et seulement si le pilote en question est capable de déceler une vraie tendance au sous-virage (ou au survirage) dans telle ou telle situation et non une réaction marginale due aux lacunes de son pilotage… Car on ne doit intervenir sur les réglages que quand et où c’est nécessaire : bidouiller dans les réglages à tort et à travers est la meilleure façon de vous perdre en chemin et d’arriver à un résultat médiocre.

D’où la nécessité de tourner de manière régulière pendant ces essais afin de bien pouvoir comparer les effets des réglages et ne pas confondre une amélioration (ou une détérioration) avec un changement de rythme de votre part. On voit ici que notre approfondissement de la culture du sport auto passe aussi par une digression sur quelques fondamentaux du pilotage, cela permettra de continuer sur de bonnes bases avant de vraiment parler de la démarche de réglages…

Pilotage, quelques notions de base…

Le pilotage est « un art simple et tout d’exécution »… Les actions possibles sont limitées : accélérer, freiner et braquer (on doit aussi ajouter « changer de vitesse », mais cette action peut être incluse avec « accélérer » ou « freiner » selon les cas…). Des trois, c’est la première qui compte le plus (c’est-à-dire, qui a le plus d’influence sur votre performance ainsi que sur le comportement de votre voiture) car plus longtemps vous restez en phase d’accélération et plus vous allez vite, au moins en théorie. Le pilotage, c’est le timing — précis — de ces trois actions.

Les résistances à l’avancement sont le vent (les forces aérodynamiques) et le volant (à travers le braquage des roues avant) : souvenez-vous qu’on a souvent tendance à trop braquer. Donc, pour aller vite, on va chercher à être plus souvent en train d’accélérer que de freiner et on va essayer de minimiser ses actions sur le volant… Vu comme cela, cela paraît assez simple, non ?

Négocier un virage comprend les quatre phases suivantes : avant le point de braquage (associé à la zone de freinage la plupart du temps), le point de braquage, le point de corde (aussi appelé « apex ») et le point de sortie. C’est dans ces quatre phases que l’on va enchaîner les actions suivantes : se placer à l’extérieur du virage, freiner, s’inscrire dans le virage en braquant, prendre une trajectoire qui permet de plonger à l’intérieur du virage et de rejoindre le point de corde, et enfin accélérer et débraquer pour s’extraire du virage et rejoindre le point de sortie à l’extérieur.

La trajectoire idéale se résume toujours à « extérieur-intérieur-extérieur » pour les virages simples. C’est un peu plus compliqué dans les enchaînements car il faut souvent sacrifier un peu le premier virage afin de préserver un bon placement pour le second.

Pilotage seul ou en peloton, pareil ou différent ?

C’est très différent : rouler seul est beaucoup plus facile que de rouler en paquet. Cela signifie aussi qu’il y aura deux modes de pilotage : seul où l’on cherche à gagner du temps en tirant ses trajectoires au maximum et en groupe (ou en peloton) où l’on cherche à gagner des places et à protéger sa position. Selon les cas, les trajectoires, les manœuvres, mais aussi les chronos (on est plus lent en course qu’en essais généralement) vont varier sensiblement.

Rouler en groupe est très éprouvant pour les nerfs (mais très excitant aussi !) et je vous recommande de toujours porter votre regard au-delà de votre adversaire immédiat — même si c’est difficile —, pourquoi ?

Si ce concurrent se sort, il y a de bonnes chances que vous le suiviez ou que vous l’accrochiez si votre regard est trop focalisé sur lui. Ce qui nous conduit à la question classique « comment fait-on pour doubler ? »…

Doubler : de la méthode, svp !

Déjà, il faut bien connaître le circuit et ses points clés car il y a toujours des endroits plus favorables que d’autres aux dépassements (et même certains endroits où il ne faut absolument PAS tenter un dépassement !). Ensuite, il faut observer son adversaire sans se coller à lui (voir plus haut) afin de repérer les endroits où il est moins rapide que vous. Enfin, il faut préparer sa manœuvre bien à l’avance : un ou deux tours pour repérer et choisir l’endroit de l’attaque, un demi-tour pour prendre de l’élan (on a laissé un peu de distance et on fonce à nouveau pour combler l’écart) et enfin, porter son attaque de façon irrésistible.

Ce dernier point est important : quand on s’est décidé et qu’on s’est préparé, à l’endroit choisi, il faut y aller sans hésitation et en y mettant le paquet. Une attaque qui échoue (et souvent dans le bac à graviers en plus…) c’est une attaque mal préparée, mais surtout mal exécutée.

Pour finir, retenez cette ligne directrice : aux essais, on fonce alors qu’en course, on gère !

En course, le chrono compte, mais pas tant que cela (à moins d’être vraiment lent), la régularité prime puisqu’il suffit d’une sortie de route, même légère, pour effacer tous les records… Enfin, pour aller vite, la clé ce n’est pas l’attaque, c’est l’aisance. Donc, travaillez en priorité votre facilité de pilotage, le reste viendra tout seul.

Un gouffre qu’on mesure en secondes…

Il faut savoir être patient et méthodique car, disons-le, c’est très délicat d’aller vraiment très vite !

Il y a un monde entre un tour de piste en une minute et quarante secondes (par exemple) et le même tour de ce circuit en 1’35.

Pour rentrer dans ce cercle magique des ultimes fractions de temps au tour, il faut maîtriser la machine, l’environnement et appliquer une série de gestes rapides et précis que l’on doit exécuter sans précipitation…

Vision et vitesse de défilement

Tout le secret tient dans la « vision » que l’on a des choses et de la vitesse interne (dans votre cervelle !) de défilement des gestes et des événements. Plus cette vitesse interne est basse et plus, en retour, on a la possibilité d’aller vite car on dispose du temps nécessaire pour exécuter les gestes et prendre les décisions. Il s’agit là du fameux « piloter lentement » théorisé par Stewart et affiné par Lauda. Sans atteindre la maîtrise de ces deux pilotes d’exception, j’ai pu, quelquefois, sentir ce sommet de sensation qui vous fait aller plus vite que vous ne le pensiez possible.

J’ai remarqué que le stress du pilotage provenait de la « charge de travail » (l’ensemble des gestes à accomplir dans un ordre et un temps donné). Plus la charge de travail est élevée et plus le pilotage est ardu. Dans cette situation, si on veut aller plus vite, on se met à « surpiloter » (ce qui se traduit par des glissades, des écarts de trajectoires ce qui aboutit à des pertes de temps) car nos capacités d’analyses et de décisions sont déjà saturées (c’est ce que l’on appelle la « surcharge cognitive » dans le jargon des pédagogues…).

C’est ici qu’intervient encore la notion de vitesse de défilement. Si vous êtes capable de visualiser à l’avance (d’anticiper donc) ce que vous avez à faire, vous êtes alors plus serein pour choisir le bon moment pour accomplir le prochain geste et le faire avec plus de précision, d’autorité, de maîtrise. Il y a un écart gigantesque en termes d’efficacité entre une manœuvre (freiner puis braquer) exécutée avec calme, et la même faite en « mode panique »…

Pilotage à l’instinct ?

C’est principalement dans l’accroissement de cette capacité à accepter la « charge de travail » que votre pilotage va progresser. Cela peut éventuellement surprendre d’afficher ainsi une approche aussi « intellectuelle » du pilotage alors que cette discipline peut paraître comme un exercice essentiellement instinctif. Je crois au contraire que la part d’instinct doit être réduite (toutefois, elle ne peut être complètement effacée) et qu’il faut être capable de comprendre et ressentir ce que l’on fait et pourquoi on le fait. Selon moi, c’est seulement ainsi qu’on peut réellement progresser et aller tout à la fois plus vite, mais aussi plus sûrement.

Faible inertie sur ses trois axes

Grossièrement, un véhicule va osciller autour de trois axes en réaction aux forces qu’il subit : l’axe de roulis, l’axe de tangage et l’axe de lacet.

Sur l’axe de roulis, votre voiture de course va se balancer vers la gauche ou vers la droite en fonction de la force centrifuge. Typiquement, dans un virage à gauche, l’engin va se pencher sur la droite (comme un voilier qui prend du gîte sous le vent de travers…). Sur l’axe de tangage, lors du freinage, l’engin va piquer du nez vers le sol alors que pendant l’accélération, le nez va plutôt pointer vers le ciel (représentation évidemment exagérée, mais c’est pour me faire comprendre…). Enfin, l’axe de lacet, c’est le plus spectaculaire, mais, en fait, il résulte seulement des forces exercées sur les deux autres axes. Le mouvement de lacet qui va affecter votre voiture en virage va provoquer une glissade du train avant (la voiture pivote autour d’un axe qui traverse votre châssis du haut vers le bas) ou du train arrière, c’est tout pour la théorie.

Par rapport à une voiture de tourisme, la voiture de course a des réactions très vives, montre peu d’inertie, présente des mouvements d’ampleur limitée sur les axes de tangage et de roulis et est particulièrement sensible au niveau de l’axe de lacet.

De l’importance du débraquage…

En pratique, c’est surtout autour de l’axe de lacet qu’on va sentir les réactions de sa voiture aux sollicitations des commandes (volant, frein et accélérateur). Car une voiture de course est suffisamment raide pour que les sensations de tangage et de roulis soient très réduites (mais pas complètement absentes, évidemment) par rapport à une voiture de tourisme ou même une GT.

Ce comportement va être très variable selon le type de voiture de course considérée : une monoplace aura des réactions plus vives et bien moins d’inertie qu’une grosse GT. C’est aussi très sensible selon l’époque de la voiture en question : un proto des années soixante-dix va être beaucoup moins incisif en entrée de virage qu’une monoplace des années 2000 et ainsi de suite. D’ailleurs tous les comportements décrits dans cette section sont à modérer selon le type de voiture de course considérée, à vous d’en tenir compte…

Voilà un point clé et il est bon d’insister un peu dessus : le pilotage d’une voiture de course « ancienne » est très différent de celui des engins modernes…

Pour être tout à fait clair, avec une voiture « historique », rien ne sert de faire le « freinage de la mort » et d’arriver en vrac dans le virage, rater le point de corde et ne pas être en position de réaccélérer au bon moment et au bon endroit. Les quelques centièmes de secondes grignotés dans ce freinage limite se solderont par de gros dixièmes de secondes laissés sur place au moment de sortir du virage…
Au contraire, le pilotage des autos récentes est très agressif dans les phases d’entrée du virage (freinage et braquage) car la rigidité du châssis, l’appui aérodynamique et les progrès des pneus le permettent.

Pour prendre l’exemple d’une monoplace moderne (l’archétype de la voiture de course), dès que vous tournez le volant, la monoplace s’inscrit aussitôt dans la direction voulue et s’enroule autour de l’axe de lacet pour faire pivoter le train arrière ce qui va accentuer encore sa capacité à tourner dans le sens du virage (d’où le terme de « survirage » qu’on emploie pour désigner ce comportement). Si le survirage n’est pas excessif (et c’est le cas la plupart du temps car c’est là le comportement naturel d’une monoplace bien réglée), il suffit de débraquer le volant et d’accélérer progressivement pour s’extraire normalement et rapidement du virage que l’on vient d’entamer.

Si, au contraire, le survirage est important, il faut réagir rapidement en contre-braquant afin d’enrayer la tendance au pivotement et rester sur la trajectoire voulue. Dans le petit monde du pilotage, on fait toute une histoire autour de ce geste-là : le contre-braquage. Comme je viens de l’écrire, contre-braquer est nécessaire pour combattre la tendance au pivotement de l’engin autour de son axe de lacet et qui vient de la glissade du train arrière. Si on laisse faire ce pivotement sans réagir, ça finit toujours en tête-à-queue, d’où la nécessité de combattre cette tendance fatale en contre-braquant et le faisant à temps. Ce geste (tourner le volant rapidement dans le sens inverse du virage) permet de contrôler l’ampleur du pivotement et donc de limiter les effets de la glissade du train arrière. On parle alors de dérapage contrôlé. Contrôlé sans doute, mais pas efficace : le contre-braquage induit forcément un élargissement de la trajectoire, ce qui se traduit par un écart par rapport à la trajectoire idéale, donc un amoindrissement de la vitesse de passage en virage.

Disons-le tout net : ce n’est pas votre capacité à savoir contre-braquer qui fait de vous un bon pilote même si c’est ce geste précisément qui fait fantasmer tous ceux qui rêvent de pilotage sans pouvoir le pratiquer (on n’est quasiment jamais en situation d’avoir à le faire sur une route ouverte au volant d’une voiture de tourisme). Ceci dit, bien savoir contre-braquer n’est pas si simple car, dans tous les cas, il faut savoir doser l’ampleur et le timing de ce geste : pas assez et/ou trop tard et le pivotement continue jusqu’à la perte de contrôle, trop et/ou trop tôt et votre trajectoire s’élargit de façon exagérée (d’où une perte de temps importante) voire occasionne une perte de contrôle à travers le fameux « coup de raquette » où la voiture réagit avec violence dans l’autre sens…

Il y a autour du contre-braquage le même type de fascination que pour le « genou par terre » en moto et, comme tous, j’y ai été sensible. Tout cela pour dire que le geste de débraquer volontairement en sortie de virage est encore plus important que le contre-braquage bien que beaucoup moins connu.

Savoir débraquer (quand et comment appliquer ce geste) est important pour deux raisons déjà évoquées (mais je pense qu’il faut insister) :

En dehors des freins et du poids du véhicule, il y a deux choses qui s’opposent à l’avancement : la résistance de l’air et le braquage des roues directrices (les roues avant donc). La résistance de l’air, on ne peut rien y faire (du moins au niveau du pilotage) alors il faut éviter de braquer les roues plus que nécessaire.

À chaque fois qu’on tourne le volant, on impose des contraintes au châssis et celui-ci réagit soit en digérant l’énergie reçue, soit en évacuant cette énergie par une glissade. Dans les deux cas, on y perd. Si on veut retrouver la stabilité du châssis, il faut remettre les roues droites le plus tôt possible.

La plupart des pilotes vont débraquer naturellement, en accompagnant la trajectoire de leur engin qui s’élargit vers l’extérieur du virage. Ce n’est pas suffisant. En fait, dès le point de corde atteint, il faut s’efforcer de débraquer au plus tôt (à condition que la trajectoire suivie soit bonne… Sinon, on va simplement élargir trop tôt ce qui va obliger à couper les gaz et n’est pas du tout efficace !) de façon à remettre la voiture dans la meilleure situation pour passer la puissance au sol sans perte d’énergie. C’est ainsi qu’on sort rapidement des virages et qu’on gagne vraiment du temps. La vérité, c’est que débraquer est un geste « offensif » (permettant d’aller plus vite) alors que contre-braquer est seulement un geste « défensif » (permettant d’éviter de sortir de la piste)…

Sans oublier le freinage dégressif !

Même s’il vaut mieux soigner la sortie de virage que son entrée, la bonne maîtrise du freinage est forcément à considérer comme importante du fait de l’importance « tactique » du freinage : c’est le plus souvent lors des freinages que l’on double ses adversaires… Ou qu’on leur résiste !

L’amorce du freinage est un geste physique particulier parce qu’on y met toute sa puissance (et cet aspect physique du freinage est particulièrement prégnant dans le monde réel !). Mais, évidemment, on ne peut rester appuyé comme une brute sur la pédale de frein tout le long du freinage sous peine de bloquer ses roues et de tirer tout droit dans le bac à graviers (une roue bloquée n’a plus aucun pouvoir directeur). Il faut donc relâcher progressivement la pression sur la pédale lorsque l’on approche le point de blocage des roues (c’est ce que l’ABS réalise automatiquement pour vous). Tant que vous freinez en ligne droite, le blocage des roues intervient assez tard et vous pouvez donc conserver une grande pression sur la pédale de frein. Mais dès qu’on commence à braquer le volant, tout change… Pourquoi donc ?

Parce qu’on ne peut pas demander à la fois aux pneus leur adhérence maximale dans le sens longitudinal (direction de la contrainte sur chaque pneu lors de la phase de freinage, en ligne droite s’entend…) et en même temps en redemander pour le sens latéral (direction de la contrainte sur chaque pneu — en particulier les pneus du train avant — au moment où l’on inscrit la voiture dans le virage). À 100 %, c’est soit l’un ou soit l’autre. Si on veut exploiter le potentiel d’adhérence du pneu en virage, il ne faut pas que la demande venant du freinage « consomme » tout le grip disponible !

En revanche, si on dose convenablement, on peut aller très loin dans le freinage tout en conservant un bon pouvoir directeur au train avant… Donc, dès qu’on commence à toucher au volant, il faut aussi commencer à relâcher la pression sur les freins sinon, on en demande trop aux pneus qui vont se bloquer, forcément.

Pour éviter cela, on va mettre en pratique la technique du « fil volant/pied » : penser que notre pied droit (lorsqu’il freine), est relié par un fil au point bas du volant (6 h), et que braquer (tourner le volant) provoque immédiatement un freinage moins puissant car il soulève un peu le fil. L’action de braquage et le freinage sont en effet réalisés dans le même timing, pour un freinage et un virage idéal.

Le fait de réduire la puissance du freinage va aussi réduire — un peu — l’attitude « en piqué » (train avant enfoncé, train arrière délesté) du châssis et, ce faisant, réduire les risques de perte d’adhérence du train arrière au moment du braquage, un point important pour garder une voiture « maîtrisable »…

Démonstration évidente et principe facile à énoncer, mais le freinage dégressif est terriblement difficile à réussir quand vous freinez tard. Si vous freinez en prenant de la marge, alors, pas de problème, vous allez le réussir votre freinage dégressif car vous vous rendez vite compte que, si vous ne diminuez pas la puissance de freinage de votre voiture, vous allez vous retrouver à l’arrêt avant même le virage !

En revanche, en retardant votre freinage à la dernière extrémité, vous avez moins de temps pour vous ralentir ET vous arrivez plus vite sur le virage… Et c’est là que se révèle le caractère complètement antinaturel de la manœuvre !

En effet, on vous demande de freiner très fort puis de moins en moins alors que vous êtes toujours trop vite pour passer ce sacré virage qui vous saute à la figure. Difficile de faire accepter ça à votre mental en pleine panique qui lui est bien conscient de la survitesse et veut pallier d’abord à cela… Et c’est à ce moment que vous voulez lui suggérer de relâcher la pédale ?

C’est à cause de cette contradiction que j’affirme que le freinage dégressif est une manœuvre antinaturelle. Mais, même si c’est difficile, c’est quand même ce qu’il faut faire pour freiner tard et correctement. De plus, les voitures modernes sont capables de supporter de rester en phase de freinage assez loin dans le virage (quasiment jusqu’au point de corde pour les monoplaces) alors que cette pratique était interdite sur les voitures anciennes (en gros, toutes les voitures de course d’avant le milieu des années soixante-dix et c’est encore plus vrai pour les GT et les protos que pour les monoplaces) qui offraient bien moins d’adhérence. Donc, le pilotage « moderne » impose d’exploiter son freinage loin en profondeur et fait partie intégrante de la phase « entrée de virage ».

Et le talon/pointe ?

Puisqu’on en est à parler des gestes principaux du pilotage, difficile de ne pas évoquer le fameux (sacro-saint même pour certains !) talon/pointe. Là aussi, l’importance de ce geste diminue sur les voitures les plus récentes qui sont de plus en plus souvent équipées d’une boîte de vitesses robotisée qui automatise complètement ce geste délicat… Tout de même, de quoi s’agit-il ?

C’est une manœuvre qui consiste à donner un coup de gaz entre chaque vitesse au rétrogradage pour éviter que le régime moteur ne chute trop et que les roues arrières ne se bloquent au moment où vous rembrayez (souvent confondue avec le double débrayage qui lui n’est nécessaire que sur des boîtes de camion !). En effet, au moment du freinage, vous levez le pied de la pédale d’accélérateur et vous laissez donc chuter le régime moteur le temps que vous changiez de rapport (par exemple descendre de 4e en 3e). Vous avez besoin de votre pied droit pour appuyer sur la pédale de frein et du pied gauche pour enfoncer celle d’embrayage. Mais, au moment où vous relâchez l’embrayage, vous remettez en liaison l’arbre moteur avec les roues propulsives. Et, comme le régime moteur est tombé au plus bas, vous risquez de provoquer une situation où la différence de vitesse de rotation entre les roues et le moteur est trop importante pour être absorbé sans conséquence. En effet : même si vous exécutez le changement de vitesse très rapidement, le régime moteur n’attend pas que vous ayez fini votre manœuvre pour s’effondrer si vous lui coupez l’alimentation. En levant votre pied de l’accélérateur, le régime tombe d’autant plus vite que les moteurs de course ont très peu d’inertie (le volant moteur est allégé afin de diminuer son inertie et donc de favoriser les montées en régime…).

Cette différence entre le régime moteur et la vitesse de rotation effective des roues propulsives se traduit le plus souvent par un blocage des roues le temps que le moteur encaisse la différence et remonte en régime pour être en phase avec le rapport enclenché.

De plus, n’oublions pas que lors du freinage, le transfert de masse sur le train avant réduit l’adhérence du train arrière, ce qui accentue encore les risques de blocages de roues à ce niveau si le rétrogradage est mal exécuté…

Pour éviter ces blocages intempestifs qui arrivent au plus mauvais moment (nous sommes en plein freinage, ne l’oubliez pas !) les moniteurs des écoles de pilotage recommandent (que dis-je, exigent !) que vous donniez un petit coup de gaz juste avant de relâcher l’embrayage afin de remettre le moteur en régime et en phase avec le rapport que vous venez de rentrer. Oui, mais, comment fait-on pour donner ce coup de gaz puisqu’on a le pied droit occupé par la pédale de freins et qu’on ne va certainement pas la laisser pour passer, même brièvement, sur l’accélérateur ?

Bonne question, très bonne question, je vois avec plaisir que vous suivez !

Et bien, voilà pourquoi on appelle cette manœuvre le « talon/pointe » : alors que vous continuez d’appuyer sur la pédale de frein avec la pointe du pied droit, le talon lui pivote vers la droite et est ainsi capable de donner un bref appui sur la pédale d’accélérateur… Ben voyons, c’est si simple !

Rappelons que ce même pied droit doit déjà appuyer fortement sur la pédale de frein et voilà qu’on lui demande aussi, dans une contorsion délicate, de pratiquer des petites pressions sur la pédale d’à côté au même moment, mais avec un timing précis et bref. Essayez donc de faire deux choses à la fois avec le même membre tout en appliquant deux intensités différentes et vous m’en direz des nouvelles…

Surtout que, pour pouvoir appliquer une grande force avec la plante du pied, il faut que le talon soit bien calé, pas en train de survoler une autre pédale attendant le moment adéquat pour l’effleurer brièvement (et de façon répétée si vous rentrez plusieurs rapports… Oui, sinon ce n’est pas assez drôle !). On n’imagine pas au départ qu’un pilote doit aussi être un brillant contorsionniste, n’est-ce pas ?

Évidemment, le talon/pointe est — presque — impossible à exécuter tel quel. Comme d’habitude, la chose en question porte mal son nom car ce n’est pas avec le talon qu’on va donner le coup de gaz, mais avec la partie droite de la plante du pied… Explications :

On ne pose pas son pied droit en plein sur la pédale de frein, mais plutôt sur le bord droit de la pédale tout en rapprochant son genou droit de son genou gauche (comme si on voulait se retenir d’une envie pressante et malvenue !). Au moment où on veut donner le coup de gaz fatidique, on écarte simplement (et vivement) le genou droit vers le bord droit de la coque provoquant ainsi un pivotement du pied dont le bord va alors venir appuyer légèrement sur la pédale voisine, celles des gaz justement, C.Q.F.D.

On aborde là encore un autre domaine où les voitures de course diffèrent radicalement des voitures de série : la disposition des pédales. Dans une voiture de série, il y a un écart suffisant entre la pédale de frein et la pédale d’accélérateur afin d’éviter les fausses manœuvres. Mais, évidemment, cet écart rend encore plus difficile l’exécution de ce fameux talon/pointe. Sur les voitures à vocation sportive (comme les Porsche par exemple), c’est un peu différent dans la mesure où l’écart est moindre justement pour ne pas trop pénaliser cette manœuvre emblématique. C’est aussi à ça que les passionnés reconnaissent une vraie voiture de sport. Montre-moi ton pédalier et je te dirais si t’as une vraie sportive pour les purs ou simplement une caisse de frime…

Sur une vraie voiture de course, tout concourt à rendre aisé le talon pointe : les pédales sont très proches et comme la pédale de frein est très dure, elle ne va pas s’enfoncer trop sous l’effort et ainsi rester à peu près au même niveau que l’accélérateur (et éviter l’effet d’escalier qui corse encore la chose sur les voitures de série).

Les voitures équipées d’une boîte robotisée sont également dotées d’un calculateur couplé à l’injection du moteur qui va donner ce coup de gaz libérateur au rétrogradage (ça porte même un nom, c’est l’autoblip) et qui évite de devoir se compliquer la vie avec le talon/pointe. Vous pouvez ainsi consacrer toute votre concentration à rentrer les rapports au bon endroit et à bien doser votre freinage dégressif…

Un épisode qui résume tout

Pour finir cette longue digression sur le pilotage et ses différents gestes, je vous invite à revivre avec moi un épisode vécu fin 2000 à bord d’une Ferrari Modena Challenge (une vraie, lors d’un stage sur le circuit du Luc) qui résume bien l’importance de ce que l’on vient de voir : la primeur de la sortie de virage, le geste du débraquage, la difficulté du freinage dégressif et les multiples sensations qui vous submergent à bord d’une voiture de course !

C’est lors de cette course aux chronos que je me suis vraiment mis à attaquer avec la Modena et à travailler un de mes points faibles : la gestion des longs freinages. Car c’est une critique récurrente que me faisait le moniteur : pas assez dégressifs tes gros freinages, Lefebvre. Et le circuit du Luc disposait d’un endroit idéal pour mettre en pratique le freinage dégressif : un virage serré à 90° après une longue ligne droite qui se terminait par une descente. L’entrée du virage était bien droite, pas de difficulté parasite à cet endroit, il fallait simplement bien exécuter son freinage sans blocage afin de ne pas louper le point de corde qui était bien visible.

La seule réelle difficulté c’était que, pour aller vraiment vite, il fallait freiner le plus tard possible afin de rester à fond longtemps dans la ligne droite. On arrivait donc à fond de six pour passer en seconde en 150m et s’inscrire doucement et proprement dans ce virage à angle droit. C’était vraiment là que le freinage dégressif était indispensable car la moindre amorce de blocage des roues avant mettait aussitôt la voiture en sous-virage et alors, adieu le point de corde !

Ces quelques deux/trois secondes que durait cette séquence étaient vraiment paroxystiques : foncer à presque 250 km/h vers ce qui ressemble à une impasse et, au passage d’un repère bien précis, se jeter tout d’un coup sur les freins avec toute la puissance disponible dans votre jambe droite (même si le pied gauche était libéré de l’embrayage, je ne freinais pas du pied gauche comme on le fait en kart car ce n’est pas le même feeling). Rester arc-bouté sur les freins un long moment (en tout cas, c’est l’impression que cela donne, mais le freinage lui-même dure à peine deux secondes) tout en rentrant les rapports à coups de palettes. J’attaque une fois de plus cette séquence critique : le V8 de la Modena hurle comme jamais et le calculateur envoi les coups de gaz du rétrogradage à des régimes que je n’ai pas encore entendus jusque-là. Ce doit être une bonne indication de la violence de l’effort que je réclame à toute la machine.

Le moteur hurle, l’habitacle tremble et cette impasse se rapproche toujours aussi vite alors que j’ai déjà pénétré dans la zone de fin de freinage. C’est maintenant qu’il faudrait commencer à vraiment réduire la pression sur la pédale car l’ABS « couine » et se manifeste de plus en plus fort.

Les fois précédentes, c’est précisément à ce moment-là que j’ai loupé la manœuvre alors, pour une fois au moins, il faut que je me force à bien faire même si le désir de ralentissement est encore très fort. Il FAUT que je réduise la pression sur les freins… Maintenant !

Et, miraculeusement, comme une tempête qui s’évanouit après avoir mugi furieusement, la Modena se calme et accepte de s’inscrire sur la bonne trajectoire. Elle pivote vers le point de corde alors que les vibrations s’affaiblissent et que le moteur retrouve un régime normal. À peine ai-je frôlé le vibreur avec la roue intérieure que je peux lâcher complètement les freins et reprendre l’accélérateur afin de m’extraire de ce virage en coin et me relancer dans l’autre grande ligne droite. C’est fait, c’est gagné, j’ai enfin réussi un vrai bon freinage !

Publié dans Ce blog | Laisser un commentaire

Une démarche de réglages pour le SimRacing, chapitre 8

Ceci est la reprise du chapitre 8 de mon livre sur le SimRacing que je publie ici afin de compléter une vidéo sur ce sujet (les réglages de la voiture) que j’ai publié sur YouTube…

============

Réglages : comment ça se passe dans le monde réel ?

Tout d’abord, disons-le tout net, dans leur grande majorité, les pilotes n’entendent pas grand-chose aux réglages et laissent cela à leur équipe… Choquant ?
Pas du tout, c’est même tout à fait logique !

Dans les équipes de pointes des catégories les plus prestigieuses du sport automobile, les moyens mis en œuvre sont si sophistiqués qu’il est bien plus rationnel de laisser les décisions aux spécialistes qui sont payés pour cela plutôt qu’au pilote qui a déjà bien assez à faire pour optimiser son pilotage.

Aujourd’hui, sur les prototypes courant au Mans, il y a même des capteurs lasers afin de mesurer en temps réel la garde au sol de la voiture tout le long du circuit (afin de pouvoir intégrer ces mesures dans la télémétrie car les variations de la garde au sol sont des indicateurs très significatifs du comportement de la voiture, de l’importance des transferts de masse et de ces changements d’attitudes). Auparavant, pour mesurer cette même garde au sol (sur au moins 4 points), on se contentait de mesurer le débattement des suspensions. Mais, désormais, on veut pouvoir régler ce paramètre au millimètre près et il faut alors tenir compte de la déformation des pneus… D’où l’emploi de ces capteurs qui sont évidemment bien plus coûteux, mais aussi beaucoup plus précis.

Dans ces équipes bien structurées, on trouve non seulement un ingénieur de piste pour chaque voiture, mais même un préposé à la télémétrie dont le rôle est d’éplucher et d’analyser les relevés afin de ne présenter que les informations pertinentes à l’ingénieur de piste et au pilote, celles qui permettent de bien orienter les décisions. Dans ce cadre, le rôle du pilote n’est pas nul, bien au contraire car il doit pouvoir donner un retour d’informations aussi précis que possible afin de confirmer ou d’infirmer ce que disent les rapports de télémétrie (et si le pilote ne va pas dans le sens de la télémétrie, l’équipe se doit de comprendre les raisons de cette distorsion… Car, in fine, seul compte vraiment le feeling du pilote puisqu’on règle la voiture pour lui !).

Donc, les équipes n’attendent pas du pilote qu’il donne des ordres du genre « je veux deux degrés de plus au carrossage du train arrière », mais plutôt qu’il donne des indications précises sur le comportement de la voiture dans telle ou telle courbe afin que les techniciens spécialisés en charge puissent décider de la modification à appliquer sur les suspensions, les ailerons, les rapports de boîte ou la pression des pneus… Et ce n’est pas une situation nouvelle : quand il était chez Brabham en 1978 et 79, les dialogues entre Niki Lauda et Gordon Murray (le designer de Brabham à cette époque) se limitaient à ce genre d’échanges… Niki indiquait ce qui lui plaisait ou ce qui le gênait en termes simples et Gordon proposait des solutions. L’équipe attend donc de son pilote des indications claires sur l’amélioration du comportement (ou sa dégradation) après qu’elle ait effectué des modifications ou lors de test de nouvelles pièces. Cet exemple avec Niki Lauda est important à rappeler car, à l’époque, Niki était justement considéré comme très bon en réglages…

Pour les catégories inférieures, la situation est plus ou moins la même : peu de pilotes font eux-mêmes leurs réglages (ou, tout du moins, se contentent de modifier les quelques réglages de base et/ou ceux qui sont facilement accessibles), mais là c’est pour d’autres raisons… Certaines disciplines imposent un châssis identique et limitent (voire interdisent) drastiquement les réglages possibles (pour limiter les coûts et niveler les différences entre les pilotes « techniciens » et les autres). Dans d’autres cas, c’est tout simplement la voiture employée qui limite l’ampleur des réglages possibles. Par exemple, dans la Porsche Cup, on ne peut changer l’étagement de la boîte de vitesses parce que les 997 GT3 « cup » ne le permettent tout simplement pas.

C’était important de le préciser car cela vous évitera d’avoir des complexes !
Vous n’y connaissez rien et vous n’y comprenez rien ?
Ce n’est pas grave, c’est le cas de la plupart des pilotes !

Comme dans le film « Days of thunder » où Cole Trickle (joué par Tom Cruise) avoue à son chef mécanicien qu’il « n’y connaît rien en voiture de course… Je suis idiot et j’ai pas de vocabulaire. Ajoute une cale ou retire une cale, c’est du chinois pour moi ! ». Ce à quoi le chef mécano (joué par Robert Duval) rétorque « eh bien c’est que tu en sais autant que la plupart des pilotes que j’ai vu passer ! ».

Cette sophistication des réglages est relativement récente dans l’histoire du sport automobile. Dans les années soixante, on se contentait d’ajuster la voiture sur les paramètres principaux (rapports de boîte de vitesse, barres antiroulis, différentiel), mais on ne touchait pratiquement pas à la géométrie de suspension de toute la saison… Ron Tauraunac (associé de Jack Brabham dans l’écurie éponyme) raconte lors d’une interview réalisée à l’occasion de la sortie de « Grand Prix Legends » qu’il était impressionné par la fidélité avec laquelle tous les réglages possibles avaient été reproduits sur la Brabham-Repco championne du Monde en 1966 et 67… Avant d’ajouter « mais vous savez, à l’époque, on touchait rarement à tout cela… » !

Les réglages de base définis à l’atelier

Toujours pour décrire ce qui se passe dans le monde réel, les équipes n’arrivent pas sur les circuits avec des voitures « vierges »… Une bonne partie des réglages a déjà été définie à l’atelier en se basant sur l’expérience des années passées, la connaissance du circuit à venir (caractéristiques principales) et ce qu’on sait déjà de la voiture (connaissance acquise lors des essais d’avant saison et/ou au cours de la saison). Désormais dans les « top teams », une partie de ces réglages de base sont également calculés grâce à des logiciels de simulation (tiens, tiens !) de plus en plus précis (une pratique qui s’est généralisée en F1 et qui sert même à l’entraînement des pilotes, par exemple pour découvrir un nouveau tracé).

Du coup, en s’appuyant sur cette base déjà assez fouillée, l’équipe n’a plus qu’à affiner et optimiser des réglages qui sont déjà proches de l’optimum avant même d’avoir parcouru un mètre sur le vrai circuit. Si on devait définir les réglages de base à l’occasion même du meeting, le week-end de course n’y suffirait pas.

Bref, une fois sur place, l’ingénieur de piste et le pilote se concentrent sur le choix des pneus, les pressions et l’optimisation des ultimes réglages en fonction des conditions (météo ou autres) et des circonstances (stratégie de course, timing des arrêts aux stands).

Tout cela pour dire que ce n’est pas dans les stands à l’occasion d’une vraie course que l’on va redéfinir la géométrie des suspensions, tester de nouvelles pièces ou changer radicalement la répartition du poids : on n’a pas assez de temps pour procéder à ces opérations qui demandent des manipulations compliquées. Ce genre d’interventions, on ne le fait que lorsqu’on est obligé de le faire : si le pilote a eu un accrochage ou une sortie de route lors des essais et qu’il faut, par exemple, changer le fond plat qui est endommagé (et les mécanos vont alors y travailler une partie de la nuit plutôt que d’aller dormir tranquillement…).

Donc, on l’a compris, pour ce qui est des réglages, la majeure partie est déjà fixée avant même le début de l’épreuve et on se contente d’affiner ces choix sans pouvoir les remettre en cause radicalement. D’où l’importance d’être intégré à une bonne équipe où ce travail préalable sera mieux fait et plus en profondeur par rapport aux teams « débutants » (on réalise mieux également l’importance des essais d’avant-saison qui permettent de découvrir et de comprendre le fonctionnement de la voiture, connaissance qui va conditionner par la suite le choix des réglages de base utilisés tout au long de la saison).

8- Une démarche de réglages

La démarche théorique et l’ordre des réglages

OK, on a bien compris comment ça se passait dans le monde réel, mais faisons abstraction de cette réalité et imaginons que nous venons de recevoir une voiture « neuve » sur un circuit inconnu lors d’essais d’intersaison, vas-tu enfin nous dire par quoi il faut commencer ?
Mais bien entendu, il suffit de demander !

Pour ne plus vous faire attendre une minute de plus, voici l’ordre des réglages que l’on va respecter en théorie :

  1. choisir l’étagement de la boîte de vitesses,
  2. déterminer la charge aérodynamique maximale,
  3. ajuster le comportement de la voiture en virage par la « raideur à la roue » et le différentiel,
  4. finir par l’affinage divers de réglages secondaires selon le tracé.

On va revenir en détail sur chacune de ces étapes, mais il y a, au préalable, deux règles d’Or à connaître et respecter :

1— on ne change qu’un paramètre à la fois,

2— le feeling du pilote est important, mais le verdict du chronomètre l’est tout autant…

La règle « un paramètre à la fois » semble évidente, mais elle est pourtant difficile à respecter en pratique : se contenter de procéder à un seul ajustement à la fois pour le tester et le valider (ou le rejeter) est terriblement chronophage (ça prend un temps fou !) et fastidieux. Pourtant, si vous faites deux changements en même temps et que le résultat est mitigé, vous ne pourrez pas savoir d’où vient ce qui cloche et vous devrez recommencer à zéro… D’où une perte de temps encore plus grande, CQFD.

La règle N° 2 est moins primordiale, mais importante tout de même : il y a des cas où deux réglages différents sont ressentis de la même façon par le pilote (deux options aérodynamiques par exemple). Dans ce cas, c’est le chrono et lui seul qui permet de savoir quel est le réglage à privilégier. Ceci dit et je tiens à le redire, on cherche d’abord et avant tout à régler la voiture dans le sens du confort de pilotage (et donc des préférences de celui qui est au volant). Et donc, entre deux options équivalentes au niveau du chrono, on va toujours préférer celle où le pilote est le plus à l’aise.

Voyons maintenant l’ordre du travail de réglage secteur par secteur. On peut le résumer ainsi :

  • En premier, on va d’abord déterminer l’étagement de la boîte de vitesses afin d’avoir une base de travail correcte ;
  • En second, on va déterminer la configuration aérodynamique afin de travailler la performance ;
  • Ensuite, on va ajuster le comportement dynamique de la voiture afin de l’adapter aux préférences de son pilote ;
  • Et enfin, on termine par les réglages mineurs qui permettent de gratter les derniers dixièmes de secondes une fois que le gros du travail aura été fait et bien fait.

Évidemment, on s’aperçoit vite que cette liste est très théorique car l’ordre des domaines à passer en revue n’est pas immuable : il s’agit plus d’une boucle récursive que d’une liste séquentielle…

Puisque la configuration aérodynamique va avoir un impact sur la vitesse de pointe, il est fréquent qu’une fois la quantité d’appui fixée, on va devoir redéfinir la démultiplication finale (ainsi éventuellement que les rapports supérieurs de la boîte de vitesses) pour retrouver un ratio optimum correspondant à cette configuration aérodynamique (on adapte la démultiplication en fonction de l’appui voulu plutôt que le contraire, même si on commence tout de même par les rapports de boîte car, sans un étagement de base acceptable, on ne peut pas tourner correctement…).

Un — L’étagement des rapports de boîte.

On va donc forcément commencer par adapter l’étagement des rapports de la boîte de vitesses et ajuster la démultiplication finale (qui conditionne la vitesse de pointe). Une fois ceci à peu près correctement en place, on peut commencer à travailler sur les autres aspects. Mais puisqu’on en parle, autant creuser la question jusqu’au bout : qu’est-ce que c’est qu’un étagement correct des rapports de boîte ?L’étagement, c’est l’éloignement des rapports les uns avec les autres. Une boîte de vitesse de type « course » présente généralement un étagement plutôt serré (les rapports sont proches les uns des autres et donc réclament des changements de vitesse fréquents). Ceci dit, on sait qu’on a un étagement correct si le virage le plus lent du circuit peut être négocié dans de bonnes conditions (déterminé par la plage de régime moteur utilisable) en première (ou en seconde si le virage le plus lent est tout de même trop rapide pour être négocié en première, ce rapport sera alors dédié à un démarrage rapide pour bien s’arracher de la grille de départ) et si la vitesse de pointe est atteinte au régime maximum pile au bout de la principale ligne droite de ce tracé (c’est-à-dire juste avant d’aborder le freinage suivant). Si le premier et le dernier rapport sont utilisables aux endroits respectivement le plus lent et le plus rapide du circuit, alors on sait qu’on a un étagement correct et qu’on peut passer à la suite avec confiance.

Cela ne veut pas dire qu’on ne sera pas obligé d’y revenir par la suite pour d’ultimes ajustements (par exemple, on peut délibérément altérer l’écart entre deux rapports afin de permettre de prendre tel virage en 3e pour des questions de confort de pilotage alors que l’étagement théorique commande de laisser le même écart progressif entre chaque rapport).

Deux — La configuration aérodynamique

Sur les voitures de course modernes, la configuration aérodynamique est le paramètre qui a le plus d’influence sur la vitesse de passage en virage et donc sur la performance globale. L’utilisation de gros appuis grâce aux ailerons proéminents est une révolution intellectuelle qui s’est produite au passage des années soixante aux années soixante-dix. On connaissait déjà l’importance de la finesse aérodynamique sur les voitures de course dans les années soixante (et même avant), mais peu était fait pour accentuer la déportance car la vitesse de pointe en ligne droite semblait le seul critère à soigner. Il était clair que l’ajout de gros appendices aérodynamiques allait ralentir la voiture en ligne droite et c’est ce que voulaient éviter les ingénieurs de cette époque. Le rôle de l’aérodynamique n’était pas ignoré par les techniciens de ces époques puisque les Mercedes qui ont participé aux 24 heures du Mans 1955 étaient équipés d’un aérofrein actionné par hydraulique très visible et très spectaculaire. Simplement, l’atout de la déportance n’était pas encore compris dans toute son importance…

Pourtant, il a suffi de vouloir améliorer la stabilité d’une voiture rétive pour s’apercevoir que l’utilisation de gros appuis aérodynamiques était un choix vertueux dans quasiment tous les cas… En effet, si vous pouvez accélérer plus tôt en sortie d’une courbe qui conditionne une grande ligne droite, vous avez toutes les chances d’atteindre une meilleure vitesse de pointe avec une voiture « chargée » qu’avec une voiture « fine » qui oblige à attendre d’être bien en ligne avant d’appuyer à fond sur la pédale de droite, bien que la seconde soit théoriquement plus rapide en pointe que la première !

Il en résulte que les temps au tour sont souvent meilleurs avec de l’appui que sans. Plus le tracé sera sinueux, plus l’appui sera prépondérant. Et comme les circuits très rapides sont en voie de disparition (même la grande ligne droite légendaire des Hunaudières du circuit du Mans est aujourd’hui tronçonnée par deux chicanes…), la logique du choix d’une charge aérodynamique importante est de nos jours systématique.

Dans ce cadre, le travail de l’équipe va donc être de déterminer quelle est la charge maximale utilisable pour le tracé en question (il n’y a que sur des circuits très lents, comme Monaco par exemple, qu’on va braquer les ailerons au maximum) puis de son équilibre entre l’avant et l’arrière.

Sur les voitures de course modernes, l’adhérence issue des appuis aérodynamiques est potentiellement bien plus importante que celle qu’on peut obtenir par les réglages des suspensions (dans le jargon du milieu, on parle de « grip aérodynamique » et de « grip mécanique » pour différencier les deux domaines). Bien sûr, selon les cas, la balance entre les deux domaines peut varier sensiblement : sur une monoplace, voiture légère et hérissée d’ailerons, le grip aérodynamique sera vraiment beaucoup plus important que le grip mécanique alors que dans le cas d’une GT, voiture lourde et moins bien dotée au niveau des appendices aérodynamiques, le grip mécanique va reprendre de l’importance.

Une voiture bien raide pour optimiser les écoulements d’air
Et, en conséquence, on aura même tendance à régler les suspensions d’une monoplace au plus raide pour minimiser les variations d’attitudes (roulis et tangage) afin de perturber le moins possible le flux aérodynamique qui passe sous la voiture et qui, via le diffuseur qui est situé au bout du fond plat, génère l’essentiel de la déportance obtenue sur les monoplaces modernes. La limite à cette raideur sera déterminée par les réactions de la voiture (et à ce que peut en supporter le pilote tout en gardant le contrôle) au passage des bosses et va donc varier largement selon le profil du tracé.

Ce distinguo entre grip mécanique et grip aérodynamique va aussi influencer notre façon d’agir pour influencer le comportement de la voiture selon sa typologie. Sur une voiture typée « aéro », on va agir en priorité sur l’équilibre des appuis pour corriger une tendance au survirage alors que dans les autres cas, c’est plutôt au niveau des barres antiroulis qu’on va agir (bien sûr, une combinaison des deux solutions est aussi souvent utilisée). Une fois encore, il s’agit là d’indications théoriques puisque cela va aussi dépendre des caractéristiques du circuit : sur un circuit doté uniquement de courbes rapides, c’est évidemment l’aérodynamique qui va peser le plus alors que sur un circuit « lent », les réglages purement « mécaniques » du châssis vont prendre le dessus, même dans le cas d’une monoplace. On l’aura compris, ici la théorie est secondaire et reste juste valable à titre indicatif puisque les circonstances sont primordiales et commandent nos choix (variation météo, type d’épreuve — endurance ou sprint —, tactique dictée par une situation particulière et ainsi de suite).

Pour finir sur le choix des charges aérodynamiques et leur équilibre, j’ajouterai qu’on va privilégier des appuis plus importants que nécessaire si on souhaite garder une voiture facile à piloter en début de course (où la charge d’essence est importante) et lorsque les pneus seront usés. Là encore, c’est le feeling du pilote qui aura le dernier mot et qui vous fera choisir une configuration un poil moins performante sur un tour, mais plus efficace sur la durée d’une course…

Trois — Ajuster le comportement dynamique de la voiture

Ici, on quitte le domaine de la performance potentielle pour entrer dans le comportement pratique. Il ne s’agit plus de grands choix qui vont déterminer la capacité de la voiture à atteindre sa vitesse de pointe en ligne droite ou en courbe, mais bien de se pencher sur la manière dont réagit l’engin dans tel ou tel virage, de sa stabilité au freinage et de sa tendance au moment de la remise des gaz… Bref, tout ce qui va permettre au pilote de boucler les meilleurs temps au tour en fonction de sa capacité à placer aisément la voiture là où il le veut et non de devoir la combattre (ou de « subir » la trajectoire) pour y arriver.

Dans ce but, on va procéder aux retouches permettant de corriger l’attitude de notre monture là où c’est important. Car, bien entendu, tous les petits défauts de comportement de la voiture n’ont pas le même poids… Il sera bien plus payant de vous permettre de ne pas avoir à couper les gaz avant cette grande courbe rapide que de combattre cette petite tendance au sous-virage à l’entrée de l’épingle la plus lente du circuit. Si l’un est contradictoire avec l’autre, on va toujours privilégier le secteur le plus rapide du circuit car c’est là qu’on y perd (ou qu’on y gagne) le plus de temps.

Les principaux réglages qui ont de l’influence sur le comportement dynamique (en dehors de la charge et de l’équilibre aérodynamique qui sont censés êtres définis à la section précédente) sont l’amortissement (ou la « raideur à la roue » pour reprendre un terme de Soheil) et les réglages du différentiel. Comme d’habitude, le choix de tel ou tel réglage va dépendre de la situation à traiter… On va plutôt agir sur l’amortissement pour combattre une tendance au sous-virage en entrée de virage alors qu’on va plutôt se pencher sur le différentiel si ce sous-virage intervient en sortie de virage et ainsi de suite.

Régler l’amortissement
Au niveau de la suspension, on peut intervenir dans deux domaines : la géométrie et l’amortissement.

Les réglages de géométrie concernent surtout le carrossage (traité un peu plus loin), mais aussi la chasse ou la pince (des notions qu’on abordera plus tard… Une chose à la fois !). En pratique, on intervient relativement peu sur la géométrie de la suspension alors qu’on a beaucoup à faire sur l’amortissement…

Les réglages d’amortissement vont déterminer « la raideur à la roue » et ce paramètre a une grande importance sur le comportement dynamique de la voiture. Comme expliqué plus haut, le réglage d’amortissement va permettre d’optimiser le « grip mécanique » de votre voiture et pour cela, on va intervenir sur trois niveaux avec :

  1. les ressorts,
  2. les amortisseurs,
  3. les barres antiroulis.

Pour ce qui est de la méthode, on va aussi traiter ces trois niveaux dans cet ordre : d’abord définir la dureté des ressorts, ensuite celle des amortisseurs et enfin celle des barres antiroulis.

Quatre — Affiner les derniers réglages

Une fois que les grands secteurs des réglages auront été passés en revue et fixés les uns après les autres, on peut s’attaquer aux derniers détails, ceux qui ne sont pas prioritaires, mais qui permettent de grappiller encore un peu de temps et/ou d’assurer une bonne fiabilité à la voiture.

C’est donc en conclusion de notre tour d’horizon qu’on va se pencher sur des éléments tels que les écopes de refroidissement des freins ou l’ouverture des radiateurs (eau et huile) du moteur. Ici, on va chercher à garder les ouvertures les plus réduites possible (afin de réduire la traînée aérodynamique et donc d’améliorer — un peu — la vitesse de pointe) tout en se maintenant dans les températures de fonctionnement optimales. Bien entendu, si ces températures ne sont manifestement pas correctes, on ne va pas attendre la fin des essais pour modifier ces ouvertures car on va se retrouver avec un moteur trop chaud (risque de serrage) ou des freins trop froids (et pas d’efficacité au freinage) et là, on va vite s’apercevoir que ce gros problème ne peut pas attendre.

Ici, je parle bien d’affinage de dernière minute, quand on n’a plus rien d’autre d’important à traiter.

Et les pneus, tu as oublié les pneus ?

C’est vrai, on n’en a pas encore parlé jusque-là alors qu’il s’agit du maillon majeur du rendement de la voiture !

Tous les ingénieurs et tous les pilotes vous le confirmeront : on peut gagner quelques dixièmes en ajustant tel ou tel paramètre censé être important, mais on va gagner des secondes entières en passant d’un pneu peu adapté à la piste à un autre qui lui est pile ce qu’il faut… Donc, c’est bien vrai, les pneus bénéficient d’une attention de tous les instants car non seulement ils conditionnent la performance réelle de la voiture, mais, en plus, leurs températures de fonctionnement en disent long sur l’équilibre et le rendement de celle-ci.
Donc, il serait absurde de vouloir placer les pneus à telle ou telle place dans une séquence de réglages vu qu’on s’en occupe tout le temps !

Le but premier est d’obtenir que les pneus montent vite en température et restent dans une plage de fonctionnement optimale. Cette plage idéale varie selon le type de voiture, mais on peut dire qu’elle se situe entre 80 et 100°. Pour cela, on va intervenir sur trois paramètres : la pression, les réglages de géométrie (comme le carrossage) de la suspension et la raideur de cette suspension.

La pression est ajustée en permanence car la « bonne pression » n’existe pas une bonne fois pour toutes : celle-ci va être fonction de la température de la piste qui elle dépend de la température extérieure et de l’ensoleillement, le tout pouvant varier toute la journée. On surveille les températures et on fait varier la pression car c’est ainsi qu’on obtient le plus facilement et le plus rapidement les ajustements voulus.

La question du carrossage
Les relevés de température se font toujours à trois endroits de la bande de roulement d’un même pneu : sur le bord extérieur, au milieu et sur le bord intérieur. Pourquoi à ces trois endroits ?

Pour deux raisons :

1— si la température du milieu est plus basse que celle du bord extérieur, on sait tout de suite que l’enveloppe n’est pas assez gonflée. Si la température du milieu est plus haute que les deux autres, c’est le contraire : enveloppe trop gonflée (encore qu’il y a quelques cas où on va vouloir obtenir ce type de distorsion, mais dans des proportions acceptables).

2— les différences de températures sur ces trois endroits nous indiquent si la géométrie de la suspension est bien réglée ou non.

La bonne logique voudrait qu’on ait toujours des températures allant en croissant du bord extérieur au bord intérieur. Car si en théorie le pneu doit reposer le plus à plat possible sur la piste, en pratique, il vaut mieux qu’il soit un peu incliné (avec le bord haut vers l’intérieur de la voiture) pour fonctionner correctement. Cette inclinaison est définie par un réglage particulier de la géométrie de la suspension appelé carrossage.

Les suspensions des voitures de course modernes sont toutes basées sur les doubles triangles superposés qui permettent d’obtenir un parallélogramme ou la variation des axes est minime lors du mouvement (quand la suspension s’enfonce ou se détend). Minime, mais pas nulle. Même si la suspension est réglée pour que le pneu reste bien à plat au repos, il n’en sera pas de même quand la suspension va bouger. Et c’est encore plus vrai pour le train avant qui, en plus, est directeur. Le braquage des roues induit aussi une variation de géométrie qui influe sur la position de la bande de roulement par rapport au sol.

Pour cette raison, on va régler la suspension avec un peu de carrossage négatif (et donc, au repos, le pneu ne sera pas tout à fait à plat, mais ce n’est pas au repos que ça nous intéresse…) pour pallier ces mouvements, mais pas seulement… On sait aussi que pour obtenir un bon fonctionnement du pneu (pour sa montée en température notamment), il vaut mieux que le bord extérieur soit un peu décalé en hauteur par rapport au bord intérieur.

Du coup, le bord intérieur est toujours un peu plus chaud que le bord extérieur et c’est normal qu’il en soit ainsi. C’est aussi parce que le train avant est directeur et donc va avoir des variations de géométrie plus importantes que le train arrière qu’on applique un réglage de carrossage plus accentué au premier qu’au second. Ces réglages sont importants, mais on n’y touche pas trop souvent car une fois qu’on a trouvé le bon réglage pour une dimension de pneu donné, il n’y a pas raison de revenir dessus.

Souvent, ce sont les manufacturiers de pneus qui vont indiquer les réglages de carrossage qu’ils recommandent pour leurs produits (variable principalement selon les dimensions des pneus en question), une raison de plus de suivre ces indications et de ne pas les remettre en cause sauf exception.

Les températures de pneus sont de bons indicateurs de ce qui se passe sur la voiture. Même si vous trouvez que l’équilibre est bon, une température trop élevée sur le train avant ou le train arrière indique certainement que les contraintes sont trop importantes sur le train en question et qu’il faut chercher à rééquilibrer ces contraintes… Sinon, les pneus concernés vont s’user bien plus vite que prévu à votre grand dommage (ceci dit, il est normal que le train arrière soit un peu plus chaud que le train avant) !

À l’inverse des températures trop faibles signifient que le train avant ou arrière ne travaille pas assez, signe d’un déséquilibre qui n’est pas forcément sensible au volant.

La question de la répartition du freinage

La tentation est grande d’utiliser la répartition du freinage comme un réglage « dynamique » (c’est-à-dire intervenant directement sur le comportement de la voiture). Ainsi, si la voiture a tendance à sous-virer en entrée de virage, déplacer — un peu — la répartition du freinage sur l’arrière va effectivement aider la voiture à « pivoter » juste au bon moment…

Mais comme me l’a expliqué Soheil Ayari (car j’avais tendance à utiliser ce « truc », j’avoue !) « ce n’est pas efficace de faire comme cela »… Si le comportement dynamique de la voiture n’est pas satisfaisant, il y a plus et mieux à faire sur l’amortissement que de « tricher » avec la répartition de freinage !

On joue sur la répartition du freinage uniquement pour éviter qu’un des trains (avant ou arrière) bloque avant l’autre. Dans l’idéal, quand on atteint la limite d’adhérence longitudinale des pneus, les quatre roues doivent se bloquer en même temps (quand on roule droit bien sûr). C’est à ça et à ça seulement que doit servir ce réglage.

Un panorama très diversifié
En conclusion de ce panorama des réglages dans le monde réel, il faut néanmoins réaffirmer que la théorie n’est qu’une base de départ à peaufiner, car en pratique l’adaptation aux circonstances – type de circuit, état du revêtement, météo du jour – est souvent prépondérante pour obtenir des réglages optimaux. Nous avons également vu que les variables à prendre en compte étaient très nombreuses et ceci amoindrit la valeur des règles générales (vu le nombre des cas d’exceptions). Et encore, nous nous sommes contentés d’évoquer le cadre de la course sur circuits routiers « traditionnels »… Le monde des rallyes ou celui des courses sur ovales sont presque totalement différents !

Par exemple, pour les ovales, on va systématiquement appliquer des réglages asymétriques alors qu’on ne le fait jamais (ou quasiment jamais) sur circuit routier. Dans ce cadre, ce n’est pas seulement le train avant qui est réglé différemment du train arrière, mais aussi le côté droit qui diffère du côté gauche… Quand on découvre cet aspect pour la première fois, ça fait un vrai choc culturel !

Publié dans Livre Simracing, récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

Nouveau livre : La terrible vérité – Petites chroniques sur la grande dualité

Oui, encore un nouveau livre !

Cette fois, il ne s’agit « que » d’une compilation de mes chroniques. Voici un extrait de l’introduction…

La couverture du livre.

Pourquoi “la terrible vérité” ?

Au départ, l’idée était simple : dénoncer par des chroniques courtes les travers insupportables de la vie quotidienne à notre époque ainsi que les mensonges grossiers qu’on nous impose.

C’est ainsi que de 2001 à 2022, j’ai rédigé ces chroniques plus ou moins régulièrement et les publiais sur mon blog personnel (www.alain-lefebvre.com) et sur Linkedin. Une audience s’est construite et mes chroniques se sont nourries des réactions et même des contributions de ce petit public.

Aujourd’hui, j’ai repris ces textes après un tri afin de ne garder que les plus significatifs. Laissons de côté le contexte qui a servit de prétexte au sujet de chaque chronique, d’une façon générale, les situations évoquées ont relativement peu évoluées 5, 6 ou 8 ans après (voire plus !). Dans le post scriptum de chacune, je tente de faire le point sur ce qui est dépassé et sur ce qui est encore valable.

Souvent, c’est la même question qui revient : pourquoi le monde où nous vivons (la société des hommes) est-il comme il est ?

Si j’avais un ton politiquement correct, j’écrirais que c’est à cause d’une dualité malheureuse : d’un côté des gens (nombreux) qui ne réfléchissent pas assez et de l’autre d’autres gens (un cercle plus restreint) qui profitent de la situation.

Mais je préfére décrire les situations telles que je les perçois et vous verrez que ces chroniques ne s’encombrent ni des conventions, ni d’une politesse excessive. Je pense donc que les cons sont une nuisance et que la bêtise devrait être pénalisée au lieu d’être excusée (comme trop souvent aujourd’hui).

Cet ouvrage tente donc de répondre à la grande question suivante : le monde est-il ainsi à cause des cons ou à cause des salauds ?

Les plus perspicaces d’entres vous auront déjà compris que les deux groupes ont chacun leur part dans ce résultat…

Afin d’en faciliter la lecture, j’ai classé ces chroniques selon les thèmes suivants :

Thème N°1 : soyez irresponsable ou “dormez tranquille, brave gens”.

Thème N°2 : les médias ou comment le contre-pouvoir est devenu LE pouvoir.

Thème N°3 : modes et traditions ou pourquoi les gens ont-ils un comportement moutonnier ?

Thème N°4 : la classe politique ou “ces évenements nous dépasse, feignons d’en être les organisateurs”.

Thème N°5 : triste époque ou comment arrivent-ils à supporter cet “enfer urbain” ?

Thème N°6 : les cons ou pourquoi sont-ils si nombreux ?

En plus de ces six thèmes, j’ai ajouté un septième “hors thème” pour y caser les quelques textes supplémentaires que je voulais garder mais qui ne pouvaient se rattacher à aucun des thèmes déjà listés.

Et ce n’est pas encore fini !

Car j’ai encore ajouté une autre partie après ces six thèmes : mes chroniques publiées sur Linkedin. Certaines abordent des thèmes techniques plutôt que sociétaux mais j’ai pensé qu’elles pouvaient tout de même vous intéresser…

Publié dans Livres, Mes livres | Laisser un commentaire