La “next big thing” attendue par le marché… N’aura pas lieu !

Article rédigé en coopération avec mon “complice” : Fred Cavazza (lien vers son article).

Le marché informatique tout entier est actuellement dans une situation “particulière”… En effet, les modes techniques actuelles n’ont pas permis pas de relancer la croissance pour diverses raisons : le Metaverse ou les ordinateurs quantiques sont trop distants dans le temps (cela commencera à être vraiment des réalités concrètes dans dix/quinze ans… bien trop loin pour réellement influer sur la situation présente !) et le Web3 voit son aura se dégonfler au fur et mesure que l’on constate que ses promesses ne sont pas tenues (aucune !).

La dernière version de la courbe d’adoption technologique du Gartner reflète ainsi parfaitement la situation : une saturation de technologies émergentes et une absence de technologies matures.

Habituellement, je ne suis pas un grand fan du Gartner (qui se contente d’indiquer d’où vient le vent mais ne nous dit rien sur sa nature ni sur sa force…) mais là, je trouve très significatif que le célèbre cabinet soit en manque d’inspiration pour ce qui va arriver, lui si prompt à donner écho à n’importe quelle mode technique (n’importe quoi du moment que ça mousse !). Il semble donc que l’avenir s’ouvre sur un grand vide, ce qui est tout à fait inédit dans notre secteur.

La raison principale de cette retombée de soufflé, c’est que la croissance (technique et économique, la seconde dépendant de la première) est en panne. Voyons ensemble pourquoi la croissance est en berne et que pourrait-être la “next big thing” qui relancerait enfin la machine (si elle existe à court terme !) ?

Une phase dite de plateau

Le marché est donc actuellement dans une phase de “plateau” et cela ne peut s’éterniser sans dégénérer en une crise majeure. Car cela fait cinquante ans que le marché informatique s’est habitué à une croissance de 10 à 15% par an et c’est le genre d’habitude qu’on ne quitte pas volontiers !

Un tabouret à 3 pieds !

La formidable étendue de cette croissance spectaculaire reposait sur 3 pieds comme un modeste tabouret en bois (comparable à celui qu’utilisait votre voisin fermier pour traire ses vaches…) !

Ces 3 pieds (ou piliers) étaient les suivants : progrès techniques (s’exprimant principalement par la fameuse “loi de Moore”, nous y reviendrons), volumes (les volumes de ventes, rien en dessous du million n’est pris en compte ici !) et croissance (chaque année est mieux que la précédente et on va ainsi de record en record).

Voilà ce qui symbolise le mieux le marché informatique moderne : un tabouret à trois pieds !

Des volumes impressionnants

Volume is everything” disait Scott McNealy (un des 4 fondateurs de Sun Microsystem). C’est par les volumes que Sun a battu ses concurrents sur le marché des stations de travail mais ce sont les volumes de ventes des PC (haut de gamme, capable de concurrencer une station de travail sur le plan technique mais pour bien moins cher) qui, finalement, eurent raison de la santé florissante de Sun à la fin des années 90.

Dès 1981, les ventes du BBC Micro (fabriqué par Acorn) dépassent le million d’unités. Apparu un an plus tard, le Commodore 64 va lui inonder le marché avec 17 millions d’unités (au total et au niveau mondial). En 2001, 125 millions d’ordinateurs personnels ont été vendus en comparaison des 48 000 en 1977. Plus de 500 millions d’ordinateurs étaient utilisés en 2002 et plus d’un milliard d’ordinateurs personnels ont été vendus dans le monde depuis le milieu des années 1970 (depuis, ces chiffres ont encore progressé, évidemment). Ce sont là des chiffres impressionnants mais ce n’est rien à côté de ce qu’on a eu avec la seconde vague, celles des smartphones…

En effet, dès 2011, les ventes annuelles de téléphones mobiles atteignent 1,6 milliard d’unités !

Voilà de quoi on parle quand on évoque la notion de volumes dans le marché informatique… En conséquence, avec des locomotives pareilles, le marché informatique dans son ensemble est devenu un super géant qui pèse de tout son poids (considérable désormais) sur l’économie mondiale. En 2017, le marché mondial global des technologies et services mobiles représentait 4,5 % du PIB mondial soit 3 600 milliard de dollars.

Bien entendu, il y a des variations selon les années : certaines sont meilleures que d’autres mais, d’une façon générale, la croissance dont a bénéficié le marché informatique pendant toutes ces décennies ferait envie à n’importe quel secteur industriel (même et y compris pendants les années de “recul”…) !

Exemple : après son recul de 1,1% en 2020, le marché mondial des services IT a retrouvé son dynamisme. IDC estime qu’il a dépassé 1,1 billion de dollars en 2021, en hausse de 3,4% à taux de change constant. Le cabinet d’étude se montre optimiste sur les perspectives. Il prévoit que le marché continuera de se développer en 2023 et 2024 avec une croissance annuelle comprise entre 3,8% et 4,0%.

Les progrès de l’électronique, locomotive cachée de tout le reste !

En vérité, cette croissance continue et formidable (deux caractéristiques importantes) venait surtout des progrès de l’électronique qui ont toujours été le moteur principal de cette dynamique. En effet, la régularité “miraculeuse” des progrès techniques garantissait que l’année suivante allait permettre de faire et de commercialiser des produits encore jamais vu jusque-là. Il faut se remémorer que la loi de Moore exprime les progrès en densification des circuits électroniques de base (et pas autre chose…). Cela se traduisait par des circuits plus petits, prenant moins de place et consommant moins d’énergie années après années. Même sans gain de performance associé, cette miniaturisation était déjà source de progrès fabuleux. Mais il s’est avéré que réduire la taille avait des conséquences à tous les étages : moins de distance entre les composants, ça veut dire des trajets plus courts pour les électrons et donc des échanges plus rapides. La course à la réduction des dimensions s’est ainsi poursuivie pendant des décennies principalement parce qu’elle induisait des bénéfices en cascades.

Des réalisations de plus en plus époustouflantes ont été atteintes et dépassées, l’écart entre les pistes se chiffrait en dizaines de nanomètres (ce qui était déjà fou rien que d’y penser !) et cela ne s’est pas arrêté là : on a fini par franchir le seuil de 10 nm et de descendre encore. A ce niveau, l’écart entre les pistes à fondre est tellement étroit qu’il faut avoir recours à des techniques de gravure qui dépassent la lumière ordinaire (photolithographie) : les machines permettant de dessiner les pistes des circuits ont fini par s’appuyer sur des faisceaux d’électron pour outrepasser les limites d’épaisseurs de la lumière blanche.

Mais là, quand même, la barrière s’est révélée de plus en plus ardue à dépasser et les avancées techniques de plus en plus difficiles à atteindre. Dans la zone des moins de dix nm, les progrès se sont sérieusement ralentis. Même Intel qui menait la charge jusque-là a commencé à caler. TSMC a réussi à faire un peu mieux mais sans pour autant pouvoir reprendre le rythme précédent : de ralentissement en ralentissement, la fameuse “loi de Moore” a fini par connaître un sérieux coup d’arrêt dernièrement.

Un graphique qui illustre le ralentissement de la tendance décrite par la loi de Moore. © John Hennessy / David Patterson

Un plateau dans plusieurs domaines : CPU, GPU, mémoire, écrans, telco… La consommation électrique est ici le facteur limitant : il va falloir apprendre à faire mieux avec moins (optimiser les performances tout en réduisant la conso). D’où la « mode » des SoC personnalisés par Apple (A et M), Google (dans les Pixel) ou Microsoft (dans ses Surface). Même Google s’y met à son tour pour YouTube.

Le fait de dire “la loi de Moore ne se vérifie plus” se heurte toujours à un scepticisme forcené tellement les gens se sont habitués à sa permanence. Il faut dire que la fin de la loi de Moore a été annoncée de nombreuses fois et toujours contredite… à force, on a fini par croire qu’elle était immuable !

Même les témoignages des plus grands experts tombent à plat face à ceux qui ne veulent pas entendre que oui, cette fois, il est justifié de remettre en cause la loi de Moore. Et pourtant, des témoignages convaincants, on en a des tas :  début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s’agissait plus d’un déclin progressif que d’une mort subite.

De plus, il faut souligner que le respect de la loi de Moore était de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971.

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock qui stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût moyen d’une usine augmente d’au moins 13 % par an et atteint désormais 16 milliards de dollars. Ici, on touche du doigt les effets de la loi des retours décroissants.

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore.

L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)

Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.

Le plateau s’exprime partout

Le phénomène de plateau ne se résume pas à un coup d’arrêt “théorique” de la loi de Moore (mais rien que cela est déjà un tremblement de terre de grande ampleur !) : cela se fait déjà sentir au niveau des smartphones qui ne jouent plus leur rôle de locomotive du marché. Ils présentent des progrès techniques moindres, des différences fonctionnelles qui s’amenuisent (le Nothing Phone 1 était censé révolutionner le marché des smartphones, mais au final ressemble terriblement aux autres smartphones) et cet « atterrissage » se traduit par des ventes encore solides (marché de renouvellement) mais qui ne croissent plus. De l’autre côté du spectre, les modes techniques récentes ont fait long feu : le web3 est, au mieux, une bouffée d’optimisme délirante ou, au pire, un empilement de mensonges grossiers pour vendre plus de crypto. Le metaverse est une tendance bien plus sérieuse (que le web3) mais elle est distante : s’il faudra attendre dix ans pour avoir un début de concrétisation (les progrès en AR, VR et MR sont réels, mais lents), le marché ne va pas patienter autant, il veut une rupture pour l’année prochaine.

Le mode plateau est déjà une réalité

On peut se rendre compte que nous sommes en mode plateau depuis déjà quelques années grâce à des indices variés mais convergents. Un exemple : la crise du logiciel qui touche les secteurs industriels traditionnels.

Le logiciel est au cœur de cette crise parce que sa généralisation (y compris et surtout auprès de nouveaux acteurs qui ne sont pas habitués, culturellement, à le manipuler…) démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…) mais que ce soit désormais le cas de “nouveaux acteurs” est tout à fait significatif.

Le mode plateau traduit simplement un bout de cycle : les techniques sur lesquelles nous nous appuyons sont matures (y compris dans l’expression de leurs défauts avec leurs conséquences comme on le voit dans la “crise du logiciel” évoquée) et ne permettent plus de faire un “grand bond en avant”. Nous sommes d’accord, le mode plateau s’est installé et produit ses effets. La question du moment (pour sortir de cette situation) est donc : quelle sera la prochaine rupture technologique (rupture majeure comme le smartphone, ou rupture mineure comme les wearables) qui permettra de “relancer la machine” ?

Les candidats pressentis sont à côté de la plaque !

Les candidats ne manquent pas au titre envié de “next big thing” mais ils ont tous du mal à correspondre aux critères. En particulier au critère “big”… Les précédents succès de l’informatique se sont traduits par des raz-de-marée de volumes, d’argent et de nouveaux utilisateurs : PC, smartphone, cloud…

Si on considère la réalité augmentée, la réalité virtuelle, les jumeaux numériques ou même les ordinateurs quantiques (qui eux, tout comme le métaverse, ne sont pas encore pour demain…), on peut être enthousiaste sur leur potentiel respectif mais il est difficile de croire qu’il s’agit là effectivement de “marchés de masse” (comme lorsqu’on annonçait l’avènement de l’IoT il y a 5 ans) !

Or, c’est justement ce dont a besoin le marché informatique dans son ensemble : une nouvelle planche de salut qui apporterait volumes, argent et utilisateurs (sans oublier les nouveaux usages), pas de quelques niches, certes hi-tech et excitante si vous êtes intéressé, mais qui ne va concerner qu’une part réduite du marché mondial.

Une crise profonde (et durable ?)

Preuve s’il en était besoin que la crise est profonde, les politiques s’invitent dans le débat et interviennent comme ils ont l’habitude de le faire : via des subventions. Les états-unis, en premier lieu, sont particulièrement inquiets du déclin relatif d’Intel et de la montée en puissance de TSMC. D’où cette initiative du “Chips Act” pour relocaliser la fabrication des puces sur le sol américain. Ceci dit, ce n’est pas une subvention, aussi énorme soit-elle, qui va sauver la situation et relancer la machine : les entreprises américaines ont rangé bien vite les coupes de champagne après la très attendue ratification du Chips and Science Act, un coup de pouce de 52 milliards de dollars à la production de semi-conducteurs aux États-Unis.

Micron, champion des puces mémoires, avait proclamé investir 40 milliards de dollars dans le pays d’ici 2030 le jour de la signature, le 10 août. Le lendemain, la société a admis qu’elle réduirait ses investissements significativement en 2023 à cause de la récession qui guette. Le jour de l’adoption du texte par le Congrès, c’est Intel qui a déclaré réduire de 4 milliards de dollars ses investissements en 2022.

Le retour au monde d’avant : une chimère ?

Peut-être que ce retour à la croissance éternelle n’est qu’une chimère. Peut-être que l’équipement et les usages numériques sont arrivés à maturité. Dans ce cas, la véritable rupture se situe plus au niveau de la dynamique du marché : renouvellement et non plus conquête. Ceci implique une approche radicalement différente, car pour gagner 1% de part de marché (ou 1M € de CA), il va falloir le prendre à quelqu’un d’autre.

Les autres secteurs économiques sont habitués à cette situation, l’informatique, moins. Le changement de situation qui s’annonce va être vécu par beaucoup comme un véritable séisme !

Bien sûr, beaucoup vont se dire “pourquoi croire des oiseaux de mauvaise augure qui annoncent des lendemains qui déchantent (c’est à la mode, même le président s’y met !) ?”. C’est naturel, après avoir vécu une période dorée qui semblait devoir durer toujours, on ne croit pas facilement que ça va s’arrêter tout simplement parce qu’on ne veut pas que ça s’arrête !

Depuis deux ans, j’écris sur ce sujet et j’avertis sur le mode plateau et, tout ce que j’ai récolté, ce sont quelques moqueries à propos de la fin de la loi de Moore… Aujourd’hui, c’est plus difficile à nier et le reste en découle.

Pour en savoir plus sur les conséquences de cette nouvelle ère, je vous invite à lire l’article de Fred Cavazza : La « Next Big Thing » se heurte à l’impératif d’un numérique plus responsable.

Une nouvelle ère

Il y a et il y aura de nombreuses « next things » (VR, wearables, etc.), mais pas de « next big thing » avant au moins quelques années. Changer d’époque est toujours quelque chose de spécial mais là, c’est clair que ça va se sentir !

Dans les années soixante-dix, quand il y a eu le premier choc pétrolier qui a sonné la fin des “trente glorieuses”, il était alors difficile d’anticiper l’ampleur des changements qui s’annonçaient et que nous vivons encore actuellement. Eh bien, c’est notre tour, le marché de l’informatique est en train de vivre la fin de sa période “quarante glorieuses” (on en a profité plutôt quarante ans que trente, d’où la modification de l’appellation…). L’arrêt de la loi de Moore est plus ou moins l’équivalent du premier choc pétrolier et il va avoir au moins autant de conséquences. Nous devons donc raisonner et agir autrement dorénavant.

La croissance régulière et les progrès techniques automatiques, tout cela, c’est en partie terminé. Acceptons-le et agissons en fonction en allant vers une informatique plus raisonnée.

Publié dans Informatique, La terrible vérité | Laisser un commentaire

Automobilista 2 est sur la bonne pente !

Alors que la très attendue version 1.4 est prévue pour ce week-end, il est temps de faire le point sur cette simulation pas assez connue qui est pourtant en train de s’imposer comme la meilleure du lot (bien entendue, tout ici est question d’opinion…).

Les courses sur ovales arrivent !

De puis des mois, Automobilista 2 (AMS2) progresse en permanence tant dans le contenu offert que sur la fidélité de la simulation. Le rendu graphique est bien meilleur que celui de rFactor2 car AMS2 utilise le moteur graphique de Project Cars 2. Mais, rassurez-vous, au nouveau feeling au volant, ça n’a rien à voir !

En particulier, je suis bluffé par la gestion des freins : montée en température, fading si trop chaud, etc. Clairement, c’est rare de voir cela. Pareil au niveau des réglages : les voitures réagissent beaucoup aux changements de réglages et dans le sens logique (pour autant que je puisse en juger). Le modding est interdit mais l’abondance de l’offre de base compense presque complètement cette limite.

AMS2 a un positionnement particulier qu’il faut comprendre et assumer dès le départ : cette simulation s’intéresse aux voitures du passé (voire carrément vintage). Donc, si vous voulez rouler avec le tout dernier cri des différentes catégories actuelles, voyez ailleurs.

Pour juger de la qualité d’une simulation, il y a deux tests incontournables : les IA et le multiplayers. Au niveau des IA, je n’ai pas peur d’affirmer qu’AMS2 propose ce qui se fait de mieux actuellement (surtout quand on compare avec Assetto Corsa !). Les IA se comportent de façon logique et prévisible (et, important, ne vous sortent pas sans raison) mais elles ne font pas de cadeaux : si vous entrez trop fort que vous élargissez, boum, vous perdez une place ou deux, normal !

Le mode multiplayers est plus dur à juger car il n’est pas assez populaire : il est difficile de trouver des courses bien remplies dans la catégorie qui vous intéresse (c’est un peu toujours les mêmes qu’on retrouve, genre GT3…). Mais j’ai tout de même pu mener quelques tests satisfaisants tout en n’étant pas encore tout à fait au niveau iRacing sur ce plan (iRacing, qu’on aime pu qu’on déteste, c’est toujours le top en multiplayers).

Bref, je vous encourage à découvrir cette simulation si ce n’est pas déjà fait, je suis certain que vous allez éprouver une bonne surprise !

Publié dans Ce blog, récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

CRISE CLIMATIQUE ET ÉNERGÉTIQUE : REGARDER LA VÉRITÉ EN FACE – Jean-Baptiste Fressoz

Aujourd’hui, je vous recommande cette vidéo YouTube.

Alors, oui, c’est un format long mais ça vaut la peine de regarder chaque minute. Je ne connaissais pas Jean-Baptiste FRESSOZ mais il s’exprime très bien, est très clair et démonte les idées reçues avec allant. J’adore quand les idées reçues sont remises en place : il y a tant à faire sur ce plan !

Bref, vous l’aurez compris, sur ce sujet de la transition énergétique mais sur d’autres encore (son balayage de l’évolution technique est rare et très juste), cette vidéo est à voir en priorité.

Publié dans conférences | Laisser un commentaire

Crypto : de la bulle spéculative à la bulle d’illusions !

Source image https://www.courrierinternational.com/article/finance-le-bitcoin-une-illusion-dangereuse

Si vous suivez l’actualité des cryptomonnaies en ce moment, vous avez pu constater une curieuse distorsion de la réalité : alors que nous sommes entrés dans une phase qu’on peut qualifier “d’hiver de la crypto” où ce domaine va enfin sortir (mais pas sans dégâts) de sa spirale spéculative pour aller vers une grosse correction (dans tous les sens du terme !), on voit encore passer des titres d’articles du genre “le web3 est une trop belle opportunité pour la laisser passer…”. Je dois dire que ce genre de titre m’irritait déjà il y a six mois mais aujourd’hui, comment est-il encore possible d’écrire cela ?

Je me dis que, forcément, l’auteur de l’article ne vit pas dans le même monde que moi, qu’il n’a pas accès aux mêmes sources ou alors, qu’il est prisonnier d’une boucle temporelle qui lui impose six mois de retard par rapport à nous… ça ne peut être que cela, non ?

Ce n’est pas moi qui ait inventé l’expression “crypto winter” (https://cryptoweek.fr/crypto-winter-2022-quand-bitcoin-sera-t-il-en-bas), les pros du domaine sont déjà capables d’en identifier plusieurs (hiver) et de dire fièrement “celui-là est moins terrible qu’en 2017”…

Récapitulatif d’une descente aux enfers…

Pour comprendre l’écart entre la situation actuelle et les illusions du dernier carré des fans de crypto, il faut revenir (brièvement) sur les épisodes précédents (voir aussi https://www.linkedin.com/pulse/comment-dispara%C3%AEt-une-mode-technique-web3-et-cest-dans-lefebvre/), accrochez-vous, ça va secouer !

  • Le 13 février 2022, quatre agences de cryptographie ont acheté des publicités du Super Bowl : Coinbase, FTX, eToro et Crypto.com. Coinbase est devenue l’une des applications les plus téléchargées après la diffusion de leur publicité. On peut dire que c’est l’instant précis du sommet qui précède le déclin…
  • Le 4 avril, Bitmex est devenue la première agence de cryptographie à annoncer des licenciements, licenciant 25 % de ses employés.
  • Le 3 mai, la Réserve fédérale a relevé les taux d’intérêt de 0,5 %, déclenchant une large liquidation sur le marché. En huit jours, Bitcoin a chuté de 27% à un peu plus de 29 000 dollars et Ether a chuté de 33,5% à environ 1 960 dollars. Le NASDAQ a chuté de 12,5 % au cours des cinq jours suivant l’annonce.
  • Le 9 mai 2022, les jetons Luna ont fait la une des journaux après que l’UST a commencé à casser son ancrage au dollar américain. Au cours de la semaine suivante, le prix de l’UST a plongé à 10 cents, tandis que Luna est tombé à « pratiquement zéro », contre un sommet historique de 119,51 $. Avant le crash, Luna était l’une des dix plus grandes cryptomonnaies du marché. L’effondrement a anéanti près de 45 milliards de dollars de capitalisation boursière en une semaine.
  • Le 10 mai, Coinbase, avec des actions en baisse de près de 80 % par rapport à leur sommet, a annoncé qu’en cas de faillite, les gens perdraient leurs fonds. Le PDG a annoncé plus tard qu’ils ne couraient aucun risque de faillite.
  • Le 13 mai, Terraform Labs a temporairement interrompu la blockchain Terra en réponse à la baisse des prix de l’UST et de la Luna. Malgré les tentatives de la société pour stabiliser UST et Luna via ses réserves de bitcoins et d’autres crypto-monnaies de la Luna Foundation Guard, l’arrimage 1:1 de l’UST à l’USD ne s’est pas matérialisé. Au 16 mai 2022, les analystes de la blockchain affirment que l’utilisation des réserves de bitcoins de LFG reste encore largement incertaine.
  • Le 12 juin, Celsius Network, un échange cryptographique, a annoncé l’arrêt de tous les retraits et transferts. Le Bitcoin a chuté de 15% le lendemain à près de 22 500 dollars et Ether est tombé à 1 200 dollars. Une vague de licenciements d’autres agences de cryptographie a accompagné cela, notamment de Crypto.com et Coinbase.
  • Le 13 juin 2022, le stablecoin algorithmique de Tron, USDD, a perdu son ancrage au dollar américain.
  • Le 17 juin, Bitcoin est tombé en dessous de 20 000 dollars pour la première fois depuis décembre 2020 et Ether est tombé en dessous de 1 000 dollars pour la première fois depuis janvier 2021.
  • Le 17 juin, Babel Finance, un prêteur crypto basé à Hong Kong, a gelé les retraits.
  • Le 23 juin, CoinFlex a suspendu les retraits après qu’une contrepartie, qu’elle a nommée plus tard Roger Ver, a rencontré des problèmes de liquidité et n’a pas remboursé un appel de marge stable de 47 millions de dollars.
  • Le 27 juin, Three Arrows Capital, un fonds spéculatif de cryptomonnaies, a fait défaut sur un prêt de 670 millions de dollars de Voyager Digital, un courtier en cryptomonnaies.
  • Le 30 juin, FTX a annoncé qu’elle pourrait acquérir BlockFi, une entreprise de cryptographie qui avait licencié 20 % de son personnel.
  • À la fin du mois de juin, de nombreuses agences de cryptographie ont commencé à repenser leurs dépenses alors que leurs fonds commençaient à diminuer.
  • Le 2 juillet, Three Arrows Capital a déclaré faillite.
  • Le 4 juillet, Vauld, un prêteur de crypto basé à Singapour soutenu par Coinbase et Peter Thiel, a interrompu les retraits et les échanges sur sa plateforme.
  • Le 5 juillet, eToro a mis fin à son accord de société d’acquisition à vocation spéciale (SPAC) et a licencié 6 % de ses effectifs.
  • Le 5 juillet, le courtier en cryptographie Voyager Digital a déposé son bilan en vertu du chapitre 11.
  • Le 6 juillet, Genesis Trading a révélé qu’elle avait été exposée dans la faillite de Three Arrows Capital.
  • Le 8 juillet, Blockchain.com a annoncé à ses actionnaires qu’elle faisait face à une perte potentielle de 270 millions de dollars sur les prêts accordés à Three Arrows Capital.
  • Le 11 juillet, il a été annoncé que les mineurs de crypto au Texas avaient temporairement fermé leurs portes car une vague de chaleur intense a mis à rude épreuve le réseau énergétique.
  • Le 11 juillet, le Conseil de stabilité financière (FSB) a déclaré que la crypto « doit faire l’objet d’une réglementation et d’une surveillance efficaces proportionnelles aux risques qu’elles posent ».
  • Le 12 juillet, un dossier déposé auprès du tribunal américain des faillites du sud de New York par des avocats représentant les créanciers de Three Arrows Capital a déclaré que la localisation actuelle des fondateurs de la société était inconnue.
  • Le 14 juillet, Celcius Network a déclaré faillite.
  • Le 19 juillet, SkyBridge Capital a gelé les retraits.
  • Le 20 juillet, Vauld a déposé une demande de protection contre les créanciers, l’équivalent de la faillite aux États-Unis.
  • Le 20 juillet, Zipmex, une bourse d’Asie du Sud-Est, a gelé les retraits.
  • Le 25 juillet, Coinbase a fait l’objet d’une enquête de la SEC pour avoir potentiellement menti à ses clients. Cela a entraîné une baisse de 21 % de leur stock le lendemain.
  • En juillet 2022, Bitcoin et Ether étaient en baisse de plus de 60 % par rapport à leur pic.

Source : https://en.wikipedia.org/wiki/Cryptocurrency_bubble#2020%E2%80%932021_boom_and_2021%E2%80%932022_crash

Vous avez tout lu ? Bravo !

Vers le bain de sang !

Bon, que le Bitcoin ou l’Ether (l’Ether est le nom du coin qui est basée sur la blockchain Ethereum) connaissent des variations de leurs cours, rien de plus normal : ce sont les éléments principaux de cette bulle spéculative, c’est donc dans l’ordre des choses. Que des start-up spécialisées fassent faillite à cause de ces variations, c’est tout à fait normal également. Mais que des plateformes “d’échanges” gèlent les transactions et empêchent les retraits des clients, voilà qui est déjà plus significatif, non ?

Cela prouve tout simplement et sans aucune ambiguïté que les acteurs de ce “marché” sont entrés en mode “panique” : le sauve qui peut général est décrété et personne de sérieux dans le milieu croit que la phase finale du crash puisse encore être évitée.

Ces derniers mois, nous avons franchi successivement les paliers de -20% puis -50% (les paliers habituels quand une bulle spéculative est en train d’exploser… ce qui peut prendre des mois, voir les bulles précédentes…), reste le dernier, à -80% qui lui est vraiment synonyme de “bain de sang”. 

Les baleines sont pressées

Le franchissement de ce palier est prévu entre septembre et octobre de cette année et les “baleines” (c’est ainsi que l’on surnomme les gros détenteurs de crypto… ceux qui, depuis le début, manipulent le marché à leur seul profit) savent que le compteur tourne et qu’il faut sortir du marché (vendre leur crypto) maintenant !

C’est pour cela que la propagande évoque des rebonds et des hivers finalement pas si terribles : il faut entretenir l’illusion que cette crise n’est pas si grave et que le meilleur est encore à venir. Le dernier chapitre du battage médiatique met un fort accent sur les cycles, que maintenant c’est le moment de construire sagement sans bruit : « bear market is a time to build »…

Il suffit que les baleines arrivent à convaincre un lot suffisant de “crédules/avides” (le dernier lot des “plus grands imbéciles”, également appelée “théorie du plus grand fou” ou “théorie du survivant”) pour sortir du marché sans trop de casse. Et je constate que c’est en train de marcher. Et que c’est pour cela qu’on voit autant d’articles sur les cryptomonnaies en ce moment : la propagande tente de relancer la machine une dernière fois (pour faciliter la sortie du marché des baleines… après, advienne que pourra !). C’est un discours simple mais bien ciblé qui glorifie les « believers », ceux qui tiennent bon et qui sont encore des “holders” (des idiots utiles plutôt…).

Une bulle d’illusions, ça existe !

Nous sommes passés d’une bulle spéculative à une bulle d’illusions : ceux qui prétendent encore que la “crypto c’est super” ou que le “web3 c’est l’avenir” sont soit profondément malhonnêtes, soit profondément idiots. Je penche plutôt pour la seconde solution (les malhonnêtes existent mais ils sont moins nombreux) : le dernier carré des fans de crypto est en plein déni de réalité. Attendons le bain de sang afin de voir s’ils sont toujours dans l’enthousiasme…

La crypto va rester

Même un palier à -80% ne va pas “tuer” la crypto (ne serait-ce que pour permettre aux pirates de faire payer leurs ransomwares !) : certains coins vont disparaître (il y en a trop pour qu’il en soit autrement) mais le Bitcoin et l’Ether sont là pour rester, même à des niveaux historiquement bas. Puis, ils vont remonter, progressivement et une nouvelle bulle spéculative va se former. Cela peut prendre deux ans ou plus mais c’est ainsi que ça se passe, hélas.

Épilogue : les leçons qu’on peut/doit tirer de tout cela…

Tout d’abord, il nous faut admettre une bonne fois pour toute que la propagande technique existe, qu’elle s’est emparée des médias et tente (avec un certain succès, voire même un succès certain !) de nous imposer des modes (et peu importe son contenu technique, réel ou supposé) tous les deux/trois ans.

Ensuite, il faut reconnaître que cette mode technique, qui reposait sur peu de choses (le web3) et dont toutes les promesses ont été systématiquement démontées, a tout de même réussie à s’imposer et à occuper une bonne partie de l’espace médiatique avec des “experts” nous expliquant régulièrement et très sérieusement pourquoi nous devions accepter que cette nouveauté fragile et mal assemblée représentait l’avenir de l’informatique sans l’ombre d’un doute.

Nous devons donc nous interroger sur notre crédulité ou, au moins, sur le poids que fait peser la propagande sur les canaux d’informations techniques qui n’en sont presque plus. En effet, comment continuer à considérer que ces canaux ont la moindre crédibilité sur le plan technique puisqu’ils se sont évertués pendant deux ans à nous faire prendre des vessies pour des lanternes ?

Enfin, les leçons du passé ne servent pas à grand-chose. Sinon, comment comprendre qu’il ait fallu tant de temps pour reconnaître ce qu’était le web3 : une bulle spéculative de plus. Pourtant,des bulles spéculatives, on en a vu passer et, à chaque fois, tout le monde a dit “plus jamais ça !” (vous avez remarqué combien cette expression “plus jamais ça” n’atteint jamais son but ?). On savait les caractéristiques d’une bulle, il était facile d’appliquer les critères sur la nouvelle venue et pourtant, rien ou presque. Seuls quelques rares témoins ont dénoncé la situation, les autres ont préféré croire que, cette fois, “to the moon” était une promesse solide et non pas un piège à gogos.

Notre crise sanitaire à nous

Finalement, nous aussi nous avons eu notre “crise sanitaire” dans notre domaine hi-tech !

Avec quasiment le même cirque comme le défilé des faux-experts racontant n’importe quoi mais étant écoutés religieusement. Où tous les comportements sains qui auraient évité cet égarement ont sauté, les uns après les autres : bon sens, discernement, intelligence et scepticisme raisonné. Au lieu du bon sens on a eu l’avidité crédule, au lieu du discernement on a eu l’aveuglement enthousiaste, au lieu de l’intelligence on a eu la folie de la “ruée vers l’or” et au lieu du scepticisme raisonné on a eu le dogmatisme indiscutable de “c’est l’avenir, admettez-le”.

Cet épisode met aussi en exergue nos comportements humains (trop humain !) les moins reluisants : on préfère les gains rapides et faciles à l’effort de longue durée, on préfère écouter les marchands de promesses, même s’ils sont délirants, plutôt que d’entendre les avertissements des (vrais) experts modérés et prudents. Enfin, on préfère l’illusion souriante à la dure réalité même quand les faits sont sous notre nez. Triste et significatif à la fois.

Cette crise de la hi-tech n’est pas terminée et va encore causer des dégâts. Cet épilogue est sévère mais il est juste : la débacle du web3 ne va épargner personne, tout le monde va y perdre quelque chose (et ce n’est pas forcément de l’argent), l’espoir, la fois dans l’évolution technique, la réputation de sérieux des uns et des autres et ainsi de suite. 

Le fact-checking se pratique peu dans le domaine technique mais si l’épisode web3 doit servir à quelque chose, ça doit être au moins à cela : vérifiez, vérifiez, vérifiez. 

Publié dans La terrible vérité, Références IT | Laisser un commentaire

Plaidoyer pour une moto légère…

En relisant quelques exemplaires de ma collection de Moto Journal, je m’aperçois que, au fil des essais et des années, il y a un débat qui revient régulièrement dans ces pages et qui n’a jamais été tranché (par les essayeurs de cet hebdomadaire) : vaut-il mieux une moto de grosse cylindrée (puissante mais lourde) ou une moto plus légère (mais qui va être agile) ?

Ce débat existe encore aujourd’hui même si les motos moyennes de notre époque ont tendance à prendre du poids de façon inquiétante (des 350 qui pèse 200 kgs, j’aurais jamais cru cela possible !).  Ce matin, nouvelle sortie et nouvelle occasion d’évaluer cette question car, pour une fois, je laissais ma Z1000 et ma XS750 dans mon hangar afin de me concentrer sur ma Honda CB500 (faut bien qu’elle roule elle aussi !).

L’auteur lors de son tout premier contact avec la CB500..

Je sors la moto assez tôt (8H30) afin de profiter de la température encore relativement clémente (24° environ), ça compte en ce moment. La CB démarre du premier coup, contente qu’on se penche enfin sur elle !

Je m’équipe (all the gears, all the time) et je choisis un casque que j’utilise rarement : le Shark Nano (qui va confirmer à cette occasion ce que je pense : cela pu être un casque tout à fait excellent mais le verrouillage de la visière est trop fragile…).

Dès les premiers tours de roues, je réalise (ce que j’avais un peu oublié) que cette moto a un avantage énorme sur les deux autres (la Z1000 et la XS750) : sa légèreté.

Cette légèreté rend tout plus facile : la machine tolère toutes les approximations et permet de rouler vraiment décontracté. Alors qu’avec les « grosses », il faut toujours garder en tête que leur inertie te guette toujours au passage d’un geste mal exécuté ou d’une évaluation un poil optimiste. On doit toujours être sur ses gardes avec les grosses, pas avec la CB500 qui te murmure « roule tranquille, je m’occupe du reste… ».
On a tendance à l’oublier mais la masse joue un rôle permanent dans la dynamique d’un véhicule : au freinage, à l’accélération, dans les courbes, etc. C’est encore plus vrai avec un engin à deux roues qui est continuellement sur un équilibre précaire et dont le centre de gravité varie en même temps que la position de son pilote… ça fait beaucoup de paramètres à prendre en compte. Et l’importance de tout cela est évidemment multiplié par le poids à faire bouger, à arrêter, à redresser et ainsi de suite.

Voilà pourquoi il y a une telle différence entre une « grosse moto » et une moto plus petite. La petite va compenser largement son manque de puissance par une agilité bien supérieure mais nous ne sommes pas bien « câblés » en tenir compte à sa juste valeur : nous avons tendance à nous focaliser sur la puissance moteur et la manière dont elle est délivrée car c’est là que se situe la plus grande réserve de sensations… Or, nous roulons à moto précisément pour les sensations !

Donc, pour apprécier l’agilité et ce qu’elle apporte à la performance et à l’agrément de conduite, il faut rouler en « appuyant » un peu… Quand on roule pépère, la différence en faveur de l’agilité s’amenuise, forcément. Or, rouler de façon appuyée, ça ne peut se faire que lors d’un « track day » sur circuit. Lors de notre stage à Carole, je n’avais aucune difficulté à maintenir une grosse 1000 Suzuki derrière ma plus modeste Honda 600 CBR justement grâce à cet avantage d’agilité qui était déterminant sur un circuit relativement court comme Carole…

Je prends la nouvelle route que j’avais repérée auparavant et la magie opère à plein : la route est ombragée, la température est agréable, j’ai le vent qui rend mon blouson supportable dès 100 km/h, tout va bien.

La différence avec un trajet en voiture me saute aux yeux encore plus que d’habitude : alors qu’au volant, on cherche à « effacer » la route pour « passer à autre chose le plus vite possible » (on ne prend pas le volant pour se balader mais pour remplir un but, comme aller ravitailler par exemple), la moto au contraire t’incite à « parcourir pour de bon » le chemin. Rouler à moto est une puissante incitation à être dans l’instant présent pour de vrai, en immersion totale.

Or, être dans « l’instant présent » est ce qui peut nous arriver de mieux au quotidien. Quand je suis dans l’instant présent (quand j’y suis vraiment), je suis heureux, rien de négatif ne peut m’arriver et je savoure la moindre sensation complètement, totalement.

Du coup, les sens sont en éveil et on se surprend à percevoir des éléments qui seraient passés inaperçus autrement. Ici, c’est l’odeur de foin coupé, un peu plus loin, c’est une trace d’humidité qui signale que le champ d’à côté est en train d’être arrosé. D’ailleurs, en passant, tu peux sentir si l’agriculteur s’est contenté d’utiliser de l’eau basique ou s’il a ajouté un peu d’engrais à cette eau… tu le sens, tu le sais.

Je serpente sur cette route qui se révèle encore plus intéressante et agréable que ce que j’en supposais en la traçant sur Gmaps… Même si la CB500 m’incite à « ouvrir » et aller dans les hauts régimes, je me contente d’enrouler tranquillement, appréciant chaque virage (le coup de gaz pour s’en sortir au mieux après avoir placé la moto au centimètre près, c’est tout à fait jouissif), chaque montée, chaque descente, attentif à « lire » la route pour ne pas me faire surprendre par une plaque d’humidité ou des gravillons (y a les deux pile dans un virage bien ombragé pour que tu ne puisse les voir !). J’arrive à un croisement où s’affairent des gendarmes : deux camionnettes se sont percutées (pas de blessés apparemment) et ils s’occupent de remettre la route en circulation. Au signal du pandore, je passe et continue ma route. J’arrive enfin à Grosbreuil et, à partir de là, c’est ma boucle de retour habituelle.

Une fois dans mon hangar, je défais mon casque et mon blouson avec une grande satisfaction : j’ai adoré cette sortie. A cette occasion, la CB500 s’est grandement revalorisée. Certes, elle ne t’offrira jamais le « grunt » de la Z1000 quand tu ouvres les gaz à bas régime et que le moteur gronde en déroulant son couple (j’adore cette sensation !) mais cette moto se manie quasiment comme un vélo (et donc t’offre la sensation de liberté que tu peux ressentir au guidon d’un vélo) et ça, c’est totalement inaccessible à la Z1000 à cause de son poids et de sa longueur.

Que faut-il préférer ?

En fait, les deux sont des plaisirs différents et il n’y en a pas un supérieur à l’autre. Il faut pouvoir apprécier les deux en fonction de l’humeur et des circonstances. La moto est comme la gastronomie : ce n’est pas un plat unique mais une variété de saveurs qui permet de ne jamais se lasser.

 

Publié dans Enjoy the ride | Laisser un commentaire

Essai d’une Yamaha XS750 de 1978… La vintage qui était (trop) en avance sur son temps !

Depuis le début de l’année 2022, j’ai une moto de route de plus : une Yamaha XS750 Custom de 1978.

J’ai ajouté un carénage Hugon qui était le standard de l’époque…

Je vous propose ici un petit tour d’horizon de mes impressions et sensations avec cette machine. Pas un essai complet, je laisse cela à d’autres. Mais cette moto mérite bien qu’on en parle, suivez le guide !

Un peu d’histoire…

Cette moto a d’abord été présenté en 1976. C’est la machine qui va permettre à la marque de tourner la page de la TX750 qui a été un échec retentissant (pour cause de fiabilité insuffisante). Cette fois, Yamaha est persuadé d’avoir tout fait bien, d’avoir appris ses leçons et fait ses devoirs : la XS750 ressemble à une synthèse de ce que devrait être une moto moderne et idéale !

La première version.

Rien ne manque : moteur multicylindres (mais ce n’est PAS un quatre cylindres pour garder un peu d’originalité), transmission par cardan, roues alliage, trois freins à disque, etc., etc.Hélas, les motards de l’époque veulent des sportives et la XS ne l’est pas assez face à la Suzuki GS750 sortie au même moment (qui elle, rencontra un franc succès).

Pourquoi cette moto pour moi ?

Tout comme la Suzuki GS750 que j’ai eu il y a quelques années, la XS750 m’avait « tapé dans l’oeil » quand j’étais jeune et j’ai toujours eu envie, ensuite, d’en avoir une, un jour…

Et lorsque l’occasion s’est présentée, je n’ai pas hésité : un modèle en bon état (je dirais même en vraiment bon état, quasiment état concours !), avec quelques aménagements intelligents (un guidon plus classique que l’original) et, aussi, le modèle Custom, bien plus rare que le modèle habituel.

J’ai ajouté ma petite touche en y adaptant un carénage Hugon trouvé (lui aussi en bon état !) sur le BonCoin. Ce carénage fait aussi partie des souvenirs de l’époque que je voulais pouvoir tester. Bon, alors, qu’est-ce que ça donne tout cela une fois en 2022 ?

Tout d’abord, il faut savoir où on met les pieds : une moto qui a plus de trente ans est une vintage, même si elle est en excellent état !
Ne vous attendez pas à retrouver les mêmes prestations ni le même comportement qu’avec les motos récentes (ça parait évident mais je crois qu’il faut tout de même insister…). Je vous recommande de lire cet article à ce propos :

Ce que j’ai appris en roulant avec une “vintage”…

Ma XS est plutôt dans le genre « bien élevée, civilisée ». La prise en main est donc facile. Le moteur est très progressif et la partie cycle ne réserve pas de surprise (comprendre « pas de mauvaise surprise »…). Au début, je trouvais que la moto engageait un peu en entrée de virage mais, une fois les pneus changés (pour des Avon au profil bien rond), ce petit défaut a disparu et la XS a un comportement très sain en toutes circonstances (aux vitesses raisonnables, évidemment…).

C’est à ce genre de détail qu’on voit combien une moto est un engin très spécifique. Avec une voiture, il faut vraiment qu’un composant soit défectueux (dans le chassis ou les trains roulants) pour qu’on se rendre compte que « quelque chose » va de travers. Avec une moto, le moindre truc se sent tout de suite !
Simplement changer de pneus et le feeling est tout de suite dix fois meilleur. Pas possible d’avoir ce genre de retour avec une voiture (ou alors, c’est une vraie voiture de course, hyper-sensible elle aussi).

Le moteur est vraiment la pièce maitresse de cette machine : il est super souple (il accepte de reprendre à très bas régime sans rechigner ni cogner) et bien plein. Dès qu’on ouvre un peu, le couple se manifeste tout de suite (pas besoin de monter dans les tours) et la montée en régime est très linéaire tout en étant riche en sensations (important !). Le moteur est vivant mais il ne vibre pas trop (juste un peu « pour faire sentir sa présence » !), seul le bruit est assez particulier : c’est un trois cylindre (calé à 120°), on aime ou on aime pas… Je n’ai pas été trop séduit par ce bruit en fait. Il y a aussi quelques bruits mécaniques (la transmission ?) qu’on peut percevoir à faible vitesse mais rien de rédhibitoire.

La boite se fait oublier, tout comme la transmission : si on ne sait pas que c’est un cardan, on croit vraiment avoir à faire à une transmission par chaine tellement c’est souple, bravo !

La moto est confortable grâce à la bonne position (guidon bien cintré), la selle correcte, les suspensions correctes également (les amortisseurs arrières sont récents et ce ne sont pas ceux d’origine) et le carénage protège bien mais pas trop : il ne faut pas que toutes les sensations soient gommées, ça doit rester de la moto !

De façon un peu surprenante, même le freinage est bon. Certes, ce n’est pas le mordant des motos modernes mais ça reste tout à fait correct car il (le dispositif de freinage) est encore entièrement d’origine. Il y a quelques vibrations lors des phases de freinage (sans doute un des disques avant qui doit être un peu voilé) mais ça reste supportable et même pas vraiment gênant. Seul bémol, le levier de freins avant est trop éloigné de la poignée, faut vraiment aller le chercher pour l’attraper.

En fait, les seuls vrais défaut de cette machine se manifestent à l’arrêt !
En effet, elle est haute sur pattes et, du coup, difficile à manœuvrer et difficile à mettre sur la béquille centrale. C’est dommage parce que ça dénote une négligence dans la conception. Ma Z100 qui est pourtant plus lourde et plus longue est plus facile à manœuvrer parce que, justement, elle est un poil plus basse (et ça fait toute la différence).

La XS méritait bien une photo »dynamique » !

Bilan : une moto bien sous tous rapports mais…

Mais, on attend plus que cela, surtout de la part d’une vintage !
En fait, cette machine n’est pas vraiment critiquable mais on reste sur ça faim, il manque un petit quelque chose, une personnalité plus marquée (là où le bruit du 3 cylindres a échoué par exemple), un trait de caractère qui sort du lot, quelque chose de spécial quoi !

Mais ça, il n’y a pas. Les Japonais ont bien travaillé, de leur point de vue, c’est parfait. Mais de notre point de vue, ça reste encore insuffisant pour s’y attacher vraiment. A son époque, cette moto était une bonne GT, fiable, confortable et endurante sans doute mais les motards se sont tournés vers des machines plus aguicheuses. Yamaha a compris la leçon et s’est mise à produire des 4 cylindres à son tour, certaines très réussies comme la FJ1100, la XJ900 ou la FZR750 (j’ai eu l’occasion de rouler avec ces trois motos…).

Publié dans Ce blog, Enjoy the ride | 3 commentaires

Abrutissement généralisé : voilà où nous en sommes (et c’est pas réjouissant !).

LCI affichait la même chose… ce n’est donc même pas une « erreur » propre à BMF-TV !

Sur ce blog, j’ai souvent dénoncé l’effondrement du niveau général et j’ai eu souvent aussi l’impression de « prêcher dans le désert »… Petits rappels :

Cette révolte qui ne viendra pas : section 3- Le niveau du citoyen moyen

Baisse du niveau : quand il est triste d’avoir raison…

Le test SAT prouve que le niveau a baissé…

Baisse du niveau, une preuve de plus…

Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Bonne nouvelle : nous sommes désormais plus nombreux à dénoncer ce terrible glissement vers le bas. Mauvaise nouvelle : le niveau actuel est encore plus bas que je ne pouvais l’imaginer !

Transformer les citoyens en consommateurs… tout un programme !

Commençons par la bonne nouvelle tout de même. Jean-Paul Brighelli vient de publier un nouveau livre qui fait suite à son best-seller « La fabrique du crêtin » où il dénonçait déjà la faillite de l’Education Nationale. Et, dernièrement, les (tristes) faits lui ont donné raison car, lors des examens de fin d’année scolaire, on s’est rendu compte qu’une bonne partie des élèves de 3ème pro ne savait pas la signification du mot « ludique »… véridique !

Dans ce nouvel ouvrage, dès l’introduction, l’auteur expose sa thèse : la faillite de l’Education Nationale n’est pas un accident ou un concours de circonstances qui se déroule depuis des décennies. C’est en vérité un processus délibéré visant à transformer les citoyens en consommateurs, ni plus, ni moins. Des consommateurs bien abrutis, cela va sans dire, puisqu’ils doivent accepter d’acheter (et réclamer !) des produits frelatés et nocifs pour leurs santé.

Tout le monde approuve le plan !

Les gouvernants sont d’accord avec plan puisque des consommateurs abrutis sont plus faciles à diriger que des citoyens responsables et éventuellement revendicatifs. Si on pouvait se glisser dans le palais de l’Elysée, je suis sûr qu’il ne faudra pas longtemps avant d’entendre des propos édifiants… genre (propos fictifs bien sûr !) :

Conseiller – Les gens intelligents ne vont jamais croire cela, Président !

Président – Aucune importance, les cons vont le croire eux et ils sont bien plus nombreux…

Ils sont bien plus nombreux, on a fait ce qu’il fallait pour cela !

Les médias sont d’accord avec plan puisqu’ils ont juste à accompagner et amplifier le mouvement avec des contenus abêtissants qui sont plus faciles (et économiques) à produire que ceux qui pourraient hausser le niveau.

Enfin et c’est le plus triste, les « gens » sont d’accord avec ce plan puisqu’ils se comportent exactement comme on l’attend d’un troupeau bien docile : depuis l’affaire du sang contaminé jusqu’à la toute récente « crise sanitaire », on a pu voir le peuple (ou ce qu’il en reste) tout accepter avec une passivité qui laisse pantois.

De la servitude volontaire à la passivité consentie

Bien après La Boétie et son « Discours de la servitude Volontaire » (1576 !), on peut s’interroger sur cette « passivité consentie » qui frappe tant de nos contemporains.

Moralité : il est trop tard pour sauver ces « gens ». Concentrez-vous sur vous, vous êtes les derniers survivants de l’espèce, les autres sont déjà perdus.

Publié dans La terrible vérité | Un commentaire

Toutes les guerres sont des guerres longues

Voilà ce qu’écrivait The Economist cette semaine pour finalement admettre que la guerre en Ukraine allait durer…

La guerre typique est courte. Depuis 1815, la durée médiane des guerres entre États est d’un peu plus de trois mois, calcule Paul Poast de l’université de Chicago. En 2003, l’Amérique a renversé le gouvernement irakien en seulement 20 jours. Le conflit que l’Arménie et l’Azerbaïdjan ont combattu sur le territoire du Haut-Karabakh en 2020 s’est terminé en 44. Pourtant, l’invasion de l’Ukraine par la Russie est entrée dans son cinquième mois et ne montre aucun signe de fin. « Je crains que nous n’ayons besoin de nous armer pour une longue guerre », a écrit Boris Johnson, le Premier ministre britannique, à la mi-juin. Jens Stoltenberg, secrétaire général de l’Otan, a fait écho à son avertissement : « Nous devons nous préparer au fait que cela pourrait prendre des années.

Il se trouve que je crois tout le contraire de ce qui est affirmé au début de ce texte : il n’y a PAS de guerre courte !

Et croire que le conflit Ukrainien dure depuis février 2022, c’est faire complètement l’impasse sur le fait qu’il a commencé en 2014…

Quand on examine l’Histoire, on s’aperçoit que les guerres courtes sont les exceptions et les guerres longues la règle. On peut ainsi multiplier les exemples tels que la Seconde Guerre Mondiale est un prolongement de la Première et ainsi de suite. La fameuse « Guerre de Cent ans » n’a pas été un conflit intense et ininterrompu pendant un siècle, il y a eu des périodes d’accalmies mais, même pendant ces périodes, les conditions du conflit étaient toujours présentes d’où sa durée.

Pour illustrer cette fatalité, je vous propose un extrait de mon livre « La guerre des Froes » où le personnage principal explique que tous les conflits sont des guerres d’attrition (ou d’usure) et que le mythe de la « bataille décisive » est une illusion coûteuse.

31 décembre 2336

À linitiative de lattaché culturel du consulat, Franck Ilkor, les différentes factions des rebelles se sont réunies pour se coordonner. Une fois tout le monde en place dans un théâtre, Ilkor monta sur scène, où une tribune avait été aménagée, et prit la parole.

Nobles délégués, vous n’êtes pas des clandestins, vous n’êtes pas des rebelles, vous êtes des révolutionnaires!

Cest vous le fer de lance de la nouvelle société qui naitra sur Froes II et qui sera le modèle à suivre pour toutes les colonies. Ce nest pas simplement votre monde qui vous regarde, mais tout lunivers connu!

Jai pris linitiative de cette réunion secrète, la dernière de ce genre, pour nous coordonner avant le grand affrontement qui sannonce

Oui, et ce nest pas la première initiative que prend notre allié inattendu!

Qui vous a permis de diffuser cette vidéo de revendication qui nous désigne au congrès terrien?

Nous sommes encore loin d’être prêts pour autre chose que des actions ponctuelles et clandestines

Détrompez-vous, on n’en est plus là. Si le congrès a été un peu long à la détente, je savais grâce à mes sources sur Terre que les corporations avaient déjà compris quil ne sagissait pas de simples piratesMieux vaut avoir lavantage dans cette guerre, qui est aussi un affrontement psychologique relayé par les médias.

Tout cela, cest très joli, mais que propose Ilkor?

Une bataille rangée dans lespace?

Laissons parler le général McLaren, le seul ici qui ait lexpérience du combat militaire, le seul qui sache de quoi on parle quand il sagit de guerre

Le général en question se leva, monta à la tribune sanglé dans une vareuse sobre qui faisait penser à un uniforme du passé.

Nous navons pas de flotte, nous navons pas darmée et nous navons pas de cadres pour la commander si nous arrivions à en lever une. Tout ce que nous avons, ce sont quelques vaisseaux marchands habilement maquillés mais sans arme, menés par des pilotes audacieux, mais sans grande expérience et encore moins de discipline. Quand la Terre alignera une flotte digne de ce nom, nous ne pourrons résister. Cest aussi simple que cela.

Un murmure parcourut la salle suite à lexposé du général. Seul Ilkor semblait serein, comme si c’était justement le discours quil attendait

Jai bien compris lexposé de votre général, nobles délégués. Jai bien compris quil pensait que nos forces étaient insuffisantes pour battre celles den face et, sûrement en cela, il a raison.

Mais contrairement à ce quil pense, ce nest pas important. Un général, cest un homme de terrain et qui ne voit pas plus loin que son terrain. Et ce terrain justement, cest le champ de bataille, le « théâtre des opérations » comme disent les plus modernes. Et ces gens-là veulent simplement gagner la bataille, à tout prix éventuellement. Or, ce nest justement pas ce qui compte. Peu importe que vous remportiez une bataille, voire plusieurs, ce nest pas ainsi quon gagne une guerre. Or, les généraux pensent au contraire que rien dautre ne compte, quil faut absolument gagner la bataille, de même que la suivante et ainsi de suite. Mais, en vérité, cet état desprit ne vous mène nulle part sinon dans une guerre sans fin. Je le répète, ce nest pas de gagner le prochain affrontement de vaisseaux ou de troupes qui va vous donner votre indépendance, au contraire!

Chaque bataille rudement menée vous éloigne toujours plus de cet objectif final. Chaque affrontement vous affaiblit et vous finissez par ne plus pouvoir mener ni supporter aucun combat et cest la fin. Certes, votre adversaire est affaibli aussi, mais comme il était plus fort au départ, il restera toujours plus fort, jusqu’à être en position de vous dicter ses conditions. Et cest ça quil faut éviter à tout prix. Et cest pour cela que ce ne sont pas des généraux bornés qui peuvent faire triompher votre cause, alors que moi, je le peux.

Moi, je sais comment mener une guerre parce que cest précisément ça qui est important : mener la guerre et non pas gagner des batailles. Cest très différent et il y a très peu de gens en mesure de le comprendre. Les batailles sont des éléments du parcours, quil faut gérer soigneusement, mais sans jamais perdre de vue le parcours lui-même.

Je vais vous livrer ici et maintenant le secret dune guerre bien menée, nobles délégués, le secret qui donne la clé de la victoire, la vraie victoire, la victoire finale, celle où le chef d’État ennemi vous demande vos conditions, pas celle où le général vaincu vous remet son épée sur un champ de bataille boueux et ravagé. Ce secret tient en deux éléments. Le premier est que la notion de bataille décisive est un mythe. Oui, je sais que les généraux de toutes les époques nont eu que cela à la bouche, mais cest un mensonge, comme toutes les promesses trop vendues. La bataille décisive est toujours censée être la prochaine, celle qui est bout du chemin, celle où il ne reste plus quun effort pour lobtenir. Et pour N raisons, elle se dérobe toujours, ladversaire même défait sarrange toujours pour revenir sur le tapis.

Parce que la terrible vérité est quil ny a pas de guerre courte, toutes les guerres sont longues. Une guerre courte, cest un malentendu, une erreur et plus sûrement une vue de lesprit, ça narrive simplement jamais. Une guerre, une vraie, cest une lutte à mort, ce nest pas une compétition sportive avec des règles et un adversaire qui joue fair-play, cest une tempête qui ne connait pas dapaisement et qui enfle toujours plus, dévorant tout sur son passage.

Et cest le second élément du secret : toutes les guerres sont des guerres dattrition. Toutes les guerres sont longues, très longues, toujours plus longues quenvisagé et se terminent toujours de la même façon : un des deux adversaires est trop épuisé pour continuer et demande merci, point. Toujours, ça finit toujours comme cela. Pas par une défaite soudaine et désastreuse, mais par une accumulation lente et douloureuse d’événements contraires et coûteux. Cest ça qui finit par vous perdre : le fait de comprendre trop tard quune guerre coûte trop cher et que vous naviez pas les moyens.

Rassurez-vous, personne na les moyens et seuls ceux qui lont compris sen sortent mieux, en remportant le morceau au final. Pas grâce à la force de votre armée ou à lhabileté de vos généraux, mais parce que vous aviez compris quune guerre est une épreuve au long terme, quil faut la gérer ainsi, dès le premier jour, dès la première bataille. Il ne faut pas viser les succès ponctuels, ce sont des mirages, seul importe le décompte final. Une victoire qui vous a coûté cher vous affaiblit plus quune défaite bien gérée. Cest tellement éloigné de la mentalité des militaires que vous nen trouverez aucun prêt à se comporter ainsi. Ils ne veulent pas gérer laffrontement, ils veulent juste se battre parce quils ne connaissent que cela.

Or, ce nest pas dans les combats quon peut gagner le plus, mais cest bien là, en revanche, quon peut perdre beaucoup. La guerre ne se mène pas seulement sur les champs de bataille et cest ignorer cela qui conduit à la défaite. Il faut soccuper de lapprovisionnement, du soin des blessés, il faut mettre en place une économie de guerre, il faut sattacher le soutien des populations et, surtout, il faut en savoir plus que son adversaire nen sait sur lui-même.

La vraie bataille qui compte, cest celle de lombre, celle de lintelligence. Rien ne sert davoir une armée ou une flotte forte si vous ne savez pas où et comment lutiliser. Peu importe que vous soyez plus faible sur le papier si vous savez vous placer là où votre infériorité est effacée, là où le nombre compte moins, là où vous avez tout à gagner et peu à perdre. Cest ça que lintelligence va nous apporter sur un plateau avec très peu deffort. Laissez votre adversaire se tromper de combat, de chemin et dobjectif. Laissez-le lancer de coûteux programmes afin de se doter dun futur éventuel avantage technique, laissez-le senferrer dans ses propres erreurs, laissez-le triompher dans des batailles sans véritables enjeux, laissez-lui croire à sa victoire jusquau moment où vous serez en position pour révéler votre vraie valeur.

La Terre vient déjà de sengager sur cette pente en lançant la construction dune escadre de vaisseaux de guerre. Cette flotte va lui coûter cher alors que son économie est déjà affectée par linterruption du flux de nos ressources. La supériorité de la Terre repose sur les flux qui lui arrivent des colonies. Sans nous, la Terre est démunie, sans ressources et sans capacité à mener une guerre longue. Si cette escadre ne produit pas rapidement des victoires éclatantes, vous verrez que les médias terriens vont se déchainer contre le congrès… ça sera le début de la fin pour eux.

La salle était subjuguée par ce discours bien articulé. Les délégués se regardaient, conscients quun chef venait d’émerger. Finalement, lun deux prit la parole

Je crois exprimer le sentiment général en vous remerciant pour votre discours galvanisant!

Nous voulons tous agir intelligemment. Nous voulons tous être conduits par un chef ayant une vision claire de ce quil faut faire. Nous voulons tous vaincre la Terre et devenir indépendants.

Conduisez-nous à la victoire, exposez votre plan, nous vous suivrons!

Merci pour votre confiance. Nous allons mener un combat asymétrique qui va dérouter la flotte terrienne. Cest dans lespace que tout va se jouer et cest là que nous allons les user, les perdre et finalement les battre. À force de perdre des escadres en voulant nous anéantir, le congrès va vite crier « pouce » et demander nos conditions.

Grâce aux sources que jai sur Terre, nous aurons toujours un coup davance. Nous devons préparer une flotte de vaisseaux qui va dérouter ladversaire, lui imposer de lourdes pertes quand il ne sy attendra pas. Mais le tout avec une économie de moyens qui nous assurera le soutien des populations et la capacité à durer. Jusqu’à la victoire!

Jusqu’à la victoire!

Jusqu’à la victoire, oui!!

La salle n’était plus que cris enthousiastes; tous répétaient « jusqu’à la victoire » en souriant, en s’étreignant. Ilkor regardait ces hommes avec satisfaction : il venait de remporter la première victoire, la plus importante, les unir tous dans un seul but, sous sa direction

Publié dans Ce blog, La terrible vérité, Mes livres | Laisser un commentaire

La quête du casque idéal

Comme vous avez peut-être pu le remarquer en parcourant les pages de ce site, j’aime les casques !

J’en parle ici http://www.alain-lefebvre.com/deux-casques-sur-un-capot/, ici http://www.alain-lefebvre.com/mes-impressions-sur-le-arai-chaser-v/, ici http://www.alain-lefebvre.com/bell-bullitt-mon-avis-et-impressions/ et là http://www.alain-lefebvre.com/comment-ameliorer-le-bell-bullit/ et enfin ici http://www.alain-lefebvre.com/plus-de-400-e-pour-un-casque-jet-est-ce-raisonnable/ (et je dois en oublier, forcément !).

J’en ai pas mal, on pourrait même penser que je les collectionne (ce qui, avouons-le, n’est pas tout à fait faux !)… Mais, en fait, je cherche le casque idéal (sans le trouver bien sûr !), c’est comme une quête que je vais vous expliquer (brièvement) ici et maintenant.

Une quête forcément personnelle !

Précisons tout de suite que cette « quête » est très personnelle : je ne prétend évidemment pas que les résultats éventuelles de cette démarche soient applicables sur quelqu’un d’autre que moi. Nous avons tous nos préférences et elles sont souvent justifiées par nos expériences passées. Donc, c’est important d’insister sur ce point : ce que je vous raconte ici pourrait vous être utile (et tant mieux si c’est le cas) mais ça ne peut pas être considéré comme une étude « sérieuse et définitive » sur le sujet (vaste sujet en plus !)…

Commençons par énumérer ma « collection » afin d’avoir une idée de l’étendue (forcément limitée) de ma « quête »… Les photos ci-dessous montrent mes casques actuels (je ne compte évidemment ceux qui sont désormais relégués à un rôle « décoratif » comme mon Bell de l’époque Arcobaleno… qu’on peut voir ci-après).

L’intégral DMD Rocket à gauche à côté d’un Bell « automobile » à droite…

Suomi Apex et Arai Chaser V

Biltwell Gringo S et DMD Rocket

Shoei J.O. (les stickers Arai sont là pour « tromper l’ennemi !) et Givi Jet

Bell Custom 500

Shoei J-Cruise et Shark Nano

Bell Bullit et Biltwell Gringo

Shoei Glamster et Airborne « full ride »

Biltwell Bonanza et Hedon Hedonist

Précisons que je n’ai pas acheté tous ces casques neufs (sauf les Biltwell que j’ai acquis en Floride mais que l’on peut désormais trouver sur iCasque), j’en ai trouvé pas mal à bon prix et peu usagés sur le site du Boncoin, tout simplement.

Les casques intégraux : bonne protection vs contraignants

Commençons par parler des intégraux car, à la base, ce sont ces casques qui m’intéressaient. Pour moi, les casques de type « jet » ou « ouvert » étaient d’abord et avant tout destinés au tout-terrain et c’est ainsi que je les utilisais (avec une préférence pour mon Bell Custom 500 jaune et noir). Mais, à commencer par le Bell Bullit, j’ai pu constater que l’emploi de l’intégral n’était pas forcément toujours le meilleur choix (surtout en été et surtout avec un Arai qui est très « enveloppant » !).

Pourtant, j’ai persévéré dans cette voie car, pour moi, LE casque intégral représentait le casque ultime et, en plus, je le voulais d’un look classique (les casques modernes me paraissent simplement affreux !). C’est pourquoi j’ai acheté le DMD Rocket qui s’affichait comme la digne réincarnation du Bell Star des années 70. Or, ce casque s’est avéré plein de défauts : pas confortable, bruyant, des courants d’air partout… bref, inutilisable. J’ai tenté d’améliorer le confort du Bell Bullit (voir ici) mais sans arriver à un résultat vraiment satisfaisant. Finalement, les seuls intégraux dont je suis vraiment content, ce sont les deux Biltwell (Gringo et Gringo S) et aussi le Airborne full ride (que j’utilise désormais sur la piste quand je roule avec mon fils Val). On évoquera le Shoei Glasmter (qui mérite qu’on en parle et en bien car il est plutôt réussi) un peu plus tard mais je voudrais traiter le cas Arai

Voilà des casques qui sont plutôt coûteux et au look assez réussi mais qui ne sont pas épargné par les défauts, souvent absurdes d’ailleurs. Le principal, c’est le système de fixation de l’écran : fragile (j’ai cassé deux fois les plaques latérales… c’est au moins une fois de trop !) et difficile à utiliser. En effet, quand on doit remplacer l’écran, on passe un bon moment avant de comprendre comment il faut faire (quand on y arrive !). A côté de toute cette complexité inutile, le Suomy Apex est tout aussi esthétique et bien robuste (et bien moins coûteux, en plus !), le choix est vite vue donc !

Les intégraux Biltwell Gringo et Gringo S sont bien réalisés et confortables. Le Gringo S est très réussi sur le plan esthétique (presque aussi beau que le DMD Rocket) tout en présentant moins de défaut de confort (infiltrations d’air sous l’écran) que le DMD Rocket, encore lui. Le Biltwell Gringo impose de porter des lunettes de protection (ou masque) mais, en plus, il faut que ces dernières soient assez étroites pour passer par l’ouverture forcément limitée (ben oui, ça reste un casque intégral…). Du coup, ça limite dans le choix des lunettes ce qui est un élément clairement défavorable.

Inutile de croire que le masque « Smith » va pouvoir s’ajuster…

En revanche, des lunettes « étroites » vont pile poil !

Finissons cette partie sur les intégraux avec le Shoei Glamster. C’est la version « vintage » de l’intégral Shoei et, disons-le, sur le plan esthétique, le résultat est moyen (bon, ça dépend des goûts bien sûr) avec des choix de déco qui ne semblent pas tout à fait assumés. Bref, on aurait aimé plus de détermination de la part de Shoei sur ce coup-là. Mais, la prise en main est très positive en revanche : le casque est relativement léger, très bien fini, bien conçu (bravo pour le système d’écran qui fonctionne bien, sans poser de problème inutile) et confortable sans être oppressant, un excellent compromis (juste un seul reproche : pas mal de bruits aérodynamiques, un poil trop). Avec le Airborne Full Ride, ce sont bien les deux seuls intégraux que j’ai envie de vous recommander ici.

Les casques ouverts ou Jet : un bon compromis et un choix très large !

Du côté des casques ouverts, il y a deux écoles : les jets modernes avec écrans intégrés et les classiques avec tout à ajouter (visière haute, lunettes). Commençons par les modernes.

J’en ai trois : le Shark Nano, le Shoei J-Cruise et le Shoei O.J. Le plus « complet » est incontestablement le J-Cruise que je détaille ici. C’est effectivement un très bon casque mais il est coûteux (surtout pour un Jet) et pas complètement exempt de défauts (bruyant mais je cherche encore un casque qui ne l’est vraiment pas !). Le Shark Nano serait un encore meilleur compromis (il est plus compact et léger) mais sa qualité de fabrication et la fragilité de la fixation de l’écran lui font perdre des gros points… dommage.

Du coup, le Shoei O.J. (il existe aussi en version « intégral » avec le nom Ex-Zero) est sans doute le meilleur compromis des trois : complet et bien fini comme le J-Cruise mais bien plus léger (ça compte !), son écran est intelligemment intégré et facile à utiliser (mais il protège moins, on ne peut pas tout avoir et seul le J-Cruise offre une protection quasiment équivalente à un intégral).

Pour les casques Jet classiques, j’ai pu faire quelques expérimentations avec le Bell Custom 500 dont j’ai deux exemplaires : un noir & jaune que je n’utilise que pour le tout-terrain et l’autre, marqué « Freedom Machine » sur lequel j’ai pu tester plein d’écrans divers et variés. Ce qui est surprenant, ce que certains écrans à trois points de fixation qui me donnaient satisfaction en Floride (comme celui que j’utilise dans la vidéo ci-dessous) ne « fonctionnent » pas une fois en France !

Je ne parviens pas à expliquer le phénomène mais je le constate : super là-bas, nul ici !

Pour faire bref, aucun des écrans que j’ai pu tester sur ce Custom 500 une fois dans notre beau pays ne m’a donné satisfaction. Même en bordant tout le pourtour de scotch comme je l’ai fait pour mon dernier test (une « bulle » bleue à trois points de fixation), c’est nul, il y a des sifflements et des infiltrations d’air partout.

Voilà un bricolage finalement bien décevant !

Achevons ce tour d’horizon par les casques ouverts qu’on utilise avec des lunettes (ou masques). J’ai testé plusieurs de ces lunettes car il m’en faut des suffisamment larges afin que je puisse les mettre par-dessus mes lunettes de vue.

J’ai aussi voulu tester un casque Jet Hédon (le modèle Hedonist car je ne voulais pas leur écran intégré) puisque leur réputation de produit bien fini était mise en avant… Et donc ?
Ben oui, c’est bien fait, bons matériaux employés mais je ne suis pas sûr que ça justifie la différence de prix au final. Selon moi, les casques Biltwell ou Airborne sont de même niveau côté finition.

J’en ai profité pour tester une visière façon « Steve McQueen » dans le film Le Mans… Mais pas de miracle !

Comme on peut le voir sur la photo ci-dessus, j’espérais que l’ajout d’une visière dotée d’un mini-écran me permettrait de me passer de lunettes en roulant. Mais en fait, non, même en étant protégé par le pare-brise de ma Z1000, ça ne suffit pas, faut mettre des lunettes, rien à faire !

Bon, dans le cas présent, les DMD assez larges sont parfaites.

Un peu chères mais finalement bien mieux que leurs casques !

Les grosses lunettes DMD avec leur large ruban trouvent bien leur place sur ce casque.

Terminons par ce que j’ai pu obtenir avec mon Biltwell Bonanza. Ce casque m’est précieux parce qu’il a été décoré pour correspondre exactement aux couleurs de ma Z1000.

Ma Z1000 « Freddom Machine » avec son casque à ses couleurs (même la visière a été repeinte…).

Là aussi, j’aurais pu rouler en ajoutant les grosses lunettes DMD et obtenir ainsi un résultat satisfaisant… Mais j’ai eu l’idée d’ajuster un écran issu de mon Shoei J.O. et il se trouve que ça s’adapte facilement !

L’écran du Shoei O.J. s’insère sans difficulté dans le bord des mousses du Bonanza…

Alors, bien sûr, cet écran « ajouté » n’est pas amovible… Il est fixe et il faut donc se « glisser dessous » en enfilant le casque mais il se trouve que ça passe impec !

Avec cet ensemble, j’obtiens un résultat tout à fait bon : pas d’infiltration d’air, rien de gênant et pas de buée non plus. Le compromis me satisfait et c’est bien là le principal.

Une conclusion ?

Bien, on l’auras compris, tous les choix et avis exposés dans ce texte sont très personnels. Cela pourrait être utile à certains et complètement à côté de la plaque pour d’autres, j’en suis bien conscient. Au bout du compte, suis-je parvenu au bout de ma quête du casque idéal ?
Dans une certaine mesure, oui puisqu’à ce stade, je n’ai plus envie de mener d’autres tests dans ce domaine. Ce que j’ai me suffit (heureusement encore !) et si je n’ai pas UN casque idéal, j’en ai quelques-uns que j’utilise au grès des envies et des circonstances.

Finissons par quelques recommandations express : Shoei plutôt que Arai, Biltwell et Airborne qui sont des bonnes surprises. Bonne route, sortez protégés (all the gear, all the time) sans jamais aucune exception !

==================
Mise à jour du 7/10/2022
==================

Bien entendu, cette quête ne s’arrête pas là et je continue mes expérimentations !

Dernièrement, j’ai pu acheté un intégral Premier Trophy (Phil Read Replica bien sûr !) et un jet Edguard Dirt Heritage.

Le Premier Trophy et le Dirt Heritage d’Eguard. Le Suomy n’est là que faire le beau sur la photo !

Commençons par le Premier (logique !). Pour faire court, celui-ci est un peu comme le DMD Rocket : beau look mais avec les défauts des casques vintages !

Beaucoup de courants d’air, du bruit et un écran qui ferme à l’ancienne, c’est-à-dire, difficilement (et pour l’ouverture, c’est pire !). J’ai tenté d’arranger les courants d’ai avec des bandes de mousse (comme on peut le voir sur la photo) mais sans grands effets.

Bref, casque superbe mais peu utilisable à mon avis. Pour comparer, j’ai refait un test avec le Suomy (ah, voilà pourquoi il est présent sur la photo !) et c’est clairement le jour et la nuit : voilà un casque moderne mais au look acceptable qui se comporte comme il faut : l’écran est facile à manipuler, pas de courant d’air, pas trop de bruit, merci…

Bref, le Premier va rejoindre le DMD avec qui il aura de riches conversations, j’en suis sûr !

Et que fait le jet Edguard dans ce « comparatif » ?

Eh bien, ayant testé le coûteux jet Hédon, il était juste de tester aussi son équivalent Français qui présente l’avantage de ne pas être cher, lui…

Je dois dire que ce Dirt Heritage m’a beaucoup plu : bien fini, belle déco, facile à verrouiller (la boucle « micrométrique » est quand même plus pratique que le traditionnel double-D…) et doté d’un écran qui vient jusqu’en bas. Soyons clair, c’est une vraie réussite.

Pas trop de bruit, pas de courant d’air (disons, une fois que j’ai bouché les ouvertures les plus béantes avec des bandes de mousse qui, cette fois, se sont avérées efficaces) et, si vous aves prit la précaution de resserrer les vis de l’écran, celui-ci est facile à manipuler et protège bien. Je recommande ce casque sans restriction !

Bon, cette fois, c’est terminé ?
Hum, pas tout à fait : je cherche un intégral AGV X3000 et je vais recevoir un intégral GPA « classic »… Donc, d’autres tests sont prévus !

===================
Mise à jour du 25/11/2022
===================

Comme j’ai reçu les casques attendus il y a quelques semaines déjà et que j’ai eu largement le temps de les essayer, il est temps d’en parler !

L’AGV X3000

Le GPA « classic ».

Alors, commençons par le GPA et précisons qu’il n’est plus commercialisé désormais. On ne le trouve plus que sur des sites comme Ebay ou LeBonCoin et ce sont donc des casques qui ont déjà des années… Sur le plan de la sécurité, ce n’est donc pas l’idéal, on est bien d’accord. Mais il se trouve que j’étais très fan de cette marque il y a trente ans !

Donc, je voulais revivre les sensations propres à ce casque en particulier. Je n’ai pas été déçu on retrouve toujours cette mousse assez ferme (rien à voir avec le « chausson moelleux » qu’offre Arai ou Shoei par exemple) et la fameuse visière-écran qui tient seul en position intermédiaire. Cependant, je dois dire que ce casque porte également sur lui le poids des ans : très en avance sur son temps au moment de sa sortie (milieu des années 70), il est un peu dépassé désormais, il faut bien l’avouer. Bref, ce tour de piste était simplement nostalgique et je ne peux vous recommander ce casque.

Voyons maintenant l’AGV X3000 : un très beau casque vraiment vintage puisqu’on reconnait l’AGV »Ago » des années 70 jusque dans la découpe du bord de casque, très caractéristique. La finition est superbe, on en a pour son argent. Et quand on roule alors ?

Eh bien, là aussi, les motifs de satisfaction sont aux rendez-vous : le système de fermeture de l’écran (avec ces pastilles aimantées) est parfaitement réussi, le meilleur de tous les casques vintage, sans aucun doute !

Ceci dit, ce casque n’est pas sans défaut. Ainsi, le maigre système d’aération avec sa ridicule languette en caoutchouc à retirer est clairement à revoir. Voilà pour les derniers ajouts à ma collection…

Publié dans casques moto, Enjoy the ride | Un commentaire

Triple screens VS Virtual Reality, la grande question du SimRacing actuellement !

En matière de visualisation, votre simulateur peut opter pour deux choix : miser sur une installation de type « 3 écrans contiguës » (le fameux « triple screens ») ou alors, se reposer entièrement sur la VR (Virtual Reality ou réalité virtuelle à l’aide d’un masque d’affichage).

Chacun a ses partisans et ses détracteurs. Je ne prétend pas apporter ici une réponse définitive à ce débat mais, comme je l’avais promis il y a déjà un certain temps, je vais exposer mon opinion basée sur mon expérience des deux systèmes.

1- La solution la plus répandue : le triple screens

Pendant longtemps, je me suis contenté d’un seul écran, de grandes dimensions et c’était déjà pas mal. Puis je suis passé à l’écran incurvé (un peu moins grand mais tout de même de bonnes dimensions !) et, là aussi, j’ai trouvé cela plutôt bien. Mais, clairement, il fallait que je passe à la dimension  au-dessus pour avoir un avis définitif sur la question !

Mon installation « triple écrans » n’est en place que depuis un peu plus d’un an mais je trouve que j’ai suffisamment de recul désormais. Ma configuration est originale car les trois écrans ne sont pas identiques : celui du centre est bien plus grands que les deux sur le côté (et il est incurvé en plus…) mais ça me va bien comme cela. Une fois que c’est bien réglé, le résultat est tout de même assez bluffant : le fait de pouvoir regarder sur les côtés est un vrai plus en matière d’immersion.

Ma configuration actuelle. On ne voit pas le support mais c’est un gros enchevêtrement de tubes de métal pour porter les trois écrans…

Il y a quand même quelques inconvénients dans cette option. Tout d’abord, c’est coûteux : il faut plusieurs écrans (3 !) et un support capable de maintenir tout ce bazar sans basculer et que ça soit réglable dans tous les sens (c’est important). Ensuite, faut configurer le bazar et ça, ça prend un peu de temps avant de se familiariser avec ces arcanes. Enfin, il faut régler soigneusement afin que l’image ne soit pas décalée, déformée ou pire… Et puis, ça consomme de la ressource !
Mieux vaut avoir un PC musclé pour supporter cela (mais c’est encore pire avec la VR…).

2- La solution de pointe : la VR

Je pratique la VR depuis 4/5 ans et je suis très enthousiaste vis-à-vis de son potentiel. Cependant, pour ce qui est du SimRacing, je constate que le VR se cherche encore un peu. J’ai pu tester rFactor2, Assetto Corsa et Automobilista 2 avec un Oculus Quest 2 ainsi qu’avec un HP Reverb G2. J’ai fais des essais avec la VR souvent, voyant les progrès (souvent très lents) des simulations avec cette problématique et je constate qu’on est encore assez loin d’un fonctionnement tout à fait satisfaisant.

Tout d’abord, il est indéniable que la VR procure l’immersion la plus forte, la plus bluffante et représente l’avenir sans nul doute. Mais l’avenir proche ?
Hum, sans doute pas, non. Actuellement, même les masques de pointe sont encore en dessous de ce qu’il faut en matière de définition et de rafraichissement. De plus, les phénomènes « cinétose » (mal de mer) sont encore très mal maitrisés, ça n’aide pas.

La règle d’or en matière de VR est simple : seules sont valables les applications qui ont été conçues dès le départ dans cette optique (fonctionner en VR et seulement en VR). Toutes les autres adaptations sont, au mieux, décevantes, point.

Donc, tant qu’il n’y aura pas une simulation réaliste comme nous les aimons qui aura fait le choix résolu de tout miser sur la VR, ça ne sera pas la peine d’espérer un fonctionnement acceptable. Actuellement, sur mon PC qui supporte le triple-screens sans problème, la VR est encore trop gourmande pour permettre de faire autre chose que des séances d’essais seul sur la piste… Et même comme cela, ce n’est pas très pratique car il faut trop souvent retirer le masque pour la moindre opération en dehors du roulage… Une limite trop présente et handicapante.

Conclusion : la VR est l’avenir… lointain.

Vous l’avez compris, je recommande le triple écrans sans regret et sans hésiter. Tout le reste n’est pas encore complètement opérationnel et vous fera perdre temps et argent. Passez votre chemin, le tour de la VR viendra forcément (j’en suis absolument persuadé) mais il faut encore lui laisser un peu (beaucoup) de temps…

Publié dans Livre Simracing, récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

Ce grand embrasement qui vient

Lorsque j’ai rédigé et publié mon livre “Cette révolte qui ne viendra pas”, c’était d’abord pour répondre et démentir le texte “cette insurrection qui vient” dont les arguments ne m’avaient pas convaincu. Dans “Révolte”, j’explique que l’insurrection est quasiment impossible du fait du verrouillage du système par les médias et par le faible niveau général de la population (que la technostructure cherche toujours à abaisser avec une efficacité certaine !).

Je n’ai toujours pas changé d’avis : des embryons de révolte même modeste le mouvement des gilets jaunes sont combattus par le pouvoir en place avec une violence disproportionnée (et délibérée) afin de décourager explicitement toute amorce de tentative dans ce domaine.

Mais je pense que les conditions sont en train de changer et qu’elles vont déboucher sur ce que j’appelle “le grand embrasement”. Alors, attention, je n’emploi pas les termes “révoltes” et “insurrections” dans ce cas précis : révolte et/ou insurrection suppose que le groupe à sa tête a un minimum de projet politique en réserve (même très flou) en cas de succès.

Là, ça ne sera pas le cas, pas du tout. Le grand embrasement sera un déchaînement de violence aveugle et sans discernement qui affectera tout le monde sans distinction. Ce n’est pas un scénario souhaitable, loin s’en faut mais à force de tuer dans l’œuf tous les mouvements de protestation légitime, on aboutira à ce dénouement malheureux.

Imaginez ce qui se passe en ce moment au Sri Lanka mais puissance dix et dans notre contrée… Gagné, voilà à quoi va ressembler le grand embrasement !

Les affrontements actuels au Sri Lanka

Les affrontements actuels au Sri Lanka.

OK, c’est pas terrible mais comment en être certain ?

On ne peut pas en être certain, “le pire n’est jamais sûr” comme le dit fort justement un dicton populaire mais nous avons une série de signaux faibles qui montre que les choses sont en train d’évoluer, que des craquements se font entendre et que cela annonce des conséquences sinistres.

Mais quels sont ses signaux faibles annonciateurs de la catastrophe ?

Eh bien ils sont divers, éparpillés et pas toujours faciles à comprendre et à relier mais ils ont tous un point commun important : le rejet de la technostructure dans son ensemble. Et ce rejet va se transformer en une haine qu’il sera impossible d’endiguer, d’où le terme d’embrasement.

Quelques exemples : des tours de communications 5G incendiées, des câbles de fibres optiques sabotés ou des étudiants fraîchement diplômés qui rejettent le jeu de dupes que leur propose le système (voir à https://youtu.be/SUOVOC2Kd50 ça vaut le coup de les entendre : “Plus de courage en 7 minutes que les 5 dernières années de politique française”). Ces exemples peuvent vous sembler anecdotiques et peu importants. Détrompez-vous, ils sont les signes extérieurs, et encore timides, d’une colère qui va croissante. Cette colère enfle, se répand et elle est jus-ti-fiée. La technostructure abandonne le peuple à son triste sort et le peuple va finir par se rebiffer. Cela ne va pas se produire d’une façon organisée et encore moins raisonnable mais cela va arriver.

Une tour de communication en flammes. Les médias chiens de garde parlent de théorie complotiste autour de la 5G… J’ai une autre interprétation !

On le voit partout : services publics qui désertent, déserts médicaux, formalités en ligne obligatoires, règles administratives qui changent sans cesse et se complexifient jusqu’à l’absurde et même répression vexatoire (comment prendre autrement ces radars placés vicieusement pour faire du chiffre ?).

Boris Vian avait dit “le devoir de chaque citoyen français et de trouver le fonctionnaire qui s’occupe de son cas et de l’égorger”… J’ai peur que cette prédiction finisse par devenir une terrible réalité !

Cette technostructure arrogante et déconnectée semble vouloir tout faire pour pousser les gens à bout et c’est effectivement ce qui est en train de se produire. Cela va encore prendre du temps avant l’explosion finale. Combien ? 

Je ne sais pas, le timing est toujours la prévision la plus difficile à produire mais je suis désormais persuadé que ça arrivera et ce n’est pas une bonne nouvelle, pour personne.

 

Publié dans La terrible vérité | Laisser un commentaire

Presque un nouveau livre : « Perdu dans le Metaverse » à la place de « Prévision, maîtrise, contrôle »…

J’étais très content d’avoir bouclé ma saga « Prévision, Maîtrise, contrôle » en publiant le tome 3 en 2016 (première publication du T1 en août 2014, du T2 en mai 2015 et du T3 en juin 2016). Cette saga n’a pas connue le succès alors qu’elle est la suite, ou plutôt le prolongement et l’explication de « Perdu dans le temps » qui lui, s’est bien diffusé.

Et puis, la semaine dernière, j’ai réalisé ce qui n’allait pas avec cette saga… le titre !

En fait, il fallait vraiment connaitre mes livres pour avoir une chance de s’y intéresser avec un titre pareil (même moi je n’aimais pas ce titre puisque je m’obstinais à l’appeler « PMC »…). Donc, j’ai pris la seule décision qui s’imposait : renommer l’ouvrage une bonne fois pour toute afin de lui donner toutes ses chances (tout en fusionnant les trois tomes pour ne publier que l’intégrale).

OK, bonne décision mais quel titre alors ?

En effet, il ne faudrait pas se planter une seconde fois, hein !

Or, il se trouve que le sujet du Metaverse est à la mode et que j’ai rédigé des chroniques Redsen à ce propos justement… Il suffisait de tirer un trait entre les points, ce que j’ai fait en l’appelant « Perdu dans le Metaverse », tout simplement.

Comme d’habitude, ce livre est disponible sur Amazon…

Comme toujours, vous pouvez le trouver sur Amazon au format Kindle, papier (couverture souple) et relié (couverture rigide).

Tout cela est bel et bon mais cet ouvrage traite-t-il bien de ce sujet (ou n’est qu’une façon éhonté d’exploiter abusivement un phénomène de mode ?) ?

Heureusement, oui. « Perdu dans le Metaverse » se déroule en bonne partie dans les « simulis » (c’est ainsi que j’appelais le Metaverse avant de découvrir ce nom). C’est l’occasion d’approfondir la simulation immersive (dans les simulis) qui débouchera, à terme, sur la notion de Metaverse qui est actuellement en vogue.
Cet ouvrage explore les usages inattendus que l’on va essayer dans le Metaverse comme les expériences sur la publicité et le marketing, la recherche historique ou l’entrainement au combat et aux missions spéciales.

Ce récit est aussi l’occasion d’explorer des domaines exclusifs comme la remontée dans le monde réel en changeant de corps : une grande première jamais tentée !

Bref, fasciné par ces questions depuis longtemps, j’ai tenté d’en proposer ma vision et d’en explorer les tenants et aboutissants.

Du coup, j’ai également dépublié les livres avec le titre PMC, histoire d’être cohérent jusqu’au bout.

Publié dans Livres, Mes livres, mise à jour PDLT & PMC | Laisser un commentaire

F1 vs MotoGP, le très bon et le beaucoup moins bon

La saison 2022 a démarré, tant en F1 qu’en MotoGP et on peut déjà en déduire quelques éléments. Tout d’abord, la promotion de ces disciplines passe de plus en plus à travers les services de VOD comme Netflix ou Amazon Prime Video.

La série « Drive to survive » qui met en lumière les coulisses de la F1 a d’abord été une très bonne surprise lors de sa première saison qui portait sur l’exercice 2018. Depuis, les autres saisons ont un peu perdu en fraicheur et même en intérêt. La dernière en date a même cumulé les critiques qui lui reproche le côté artificiel des mises en scène.

La bande annonce de la saison 4… va falloir faire mieux que cela désormais !

Soyons clair, ces critiques sont parfaitement justifiées mais il faut aussi dire que c’était déjà le cas dès la saison 2… Bref, l’effet Netflix qui avait boosté l’audience de la F1 (surtout aux USA) est en train de retomber, faut à à un narratif un peu trop tiré par les cheveux.

C’est d’ailleurs le coeur du problème de la F1 : comme le spectacle manque dramatiquement sur la piste, la FOM cherche des alternatives et des substituts et voilà ce que ça donne…

La Dorna qui gère le MotoGP s’est dit qu’elle aussi, voulait profiter de l’effet Netflix en passant un accord avec Amazon Prime Video pour qu’elle aussi puisse avoir SA série… Et cela a donné MotoGP Unlimited…

La bande annonce de MotoGP Unlimited… si vous avez accès à Prime Video, regardez ça !

Cette fois, c’est bien mieux que « Drive to survive » mais il faut dire que, le spectacle, c’est pas cela qui manque au MotoGP !

Rien d’artificiel dans « MotoGP Unlimited », bien au contraire : la série permet de découvrir des aspects importants et pourtant ignorés de ce « cirque mécanique » comme le travail des commissaires de piste (sans eux, pas de course !) ou ce qui se passe dans la cabine du réalisateur TV (première fois que je peux enfin voir cela, bravo !).

Bref, pour un coup d’essai, c’est un coup de maitre : la série est bien réalisée, bien rythmée et bien filmée, à dévorer sans restriction.

Cependant, le MotoGP tente d’évoluer comme la F1 et ça, c’est vraiment pas bon !

En dehors des règlements techniques à « géométrie variable » (l’interdiction récente du correcteur d’assiette inventé par Ducati, voir à https://www.paddock-gp.com/motogp-les-ride-height-devices-sont-interdits/), c’est surtout l’inflation du nombre de courses qui commence à poser problème. Pour la saison 2022, il n’y pas pas moins de 21 Grands Prix au programme !

Du jamais vu. Dans les années 60, il y avait douze Grands Prix puis s’est monté à quinze dans les années 70. Là, on dépasse les vingt… Et on l’a déjà en F1 lors de ces récentes années, les saisons à rallonge n’apportent rien.

Pire, on essaye de fonctionner en flux tendus au niveau de Grands Prix qui se déroulent à de grandes distances les uns des autres. Et, ce qui devait arriver arriva : ce week-end, le GP d’Argentine a bien failli ne pas avoir lieu à cause d’un problème d’avion cargo en panne en Afrique… voir à https://www.paddock-gp.com/motogp-argentine-branle-bas-le-combat-a-mombasa-pour-rien/

Pour le moment, ce genre de mésaventures est un cas isolé mais, si on continue ainsi, d’autres surprises (genre « mauvaises surprises ») sont à craindre. Le MotoGP n’a pas besoin de multiplier les courses pour nous plaire.

Publié dans Sport-auto | Laisser un commentaire

Le documentaire Netflix sur le Boeing 737 Max, à regarder absolument !

Même si vous vous ne vous intéressez pas à l’aviation, il y de nombreuses raison de regarder le documentaire « Downfall, l’affaire Boeing ».

Dans sa description, Netflix présente son documentaire ainsi : ce documentaire détaille la tragédie survenue entre mars 2019 et décembre 2020, lorsque deux avions Boeing se sont mystérieusement écrasés, causant la mort de 346 personnes. En conséquence, l’avion de ligne Boeing 737 MAX a été cloué au sol. Alors que la Federal Aviation Administration des États-Unis a initialement résisté à l’immobilisation des avions, elle a rapidement découvert des preuves d’accidents similaires et, le 18 mars 2019, les 387 avions étaient cloués au sol. L’avion resta interdit de vol jusqu’en février 2021.

Pourquoi insister sur ce documentaire qui traite d’un sujet certes dramatique mais aussi très spécialisé ?

Eh bien tout simplement parce que cette affaire est exemplaire et va bien au-delà de l’aviation. En fait, c’est un cas d’école sur « comment ne PAS gérer une crise » par avarice et se retrouver à devoir payer bien plus que s’ils avaient agit correctement dès le début. Il y a tout dans cette affaire hallucinante : une fusion ratée, une (bonne) culture d’entreprise massacrée et remplacée par « il faut plaire à Wall Street par tous les moyens ». Ce genre de servilité conduit aux pires actions et raccourcis. C’est évidemment encore pire quand vous fabriquez des engins qui peuvent (et vont) tuer des gens…

Voilà pourquoi vous devez regarder ce documentaire : il vous montrera ce qu’il ne faut pas faire en tant qu’organisation avant et pendant une crise (qui arrive forcément tôt ou tard) et tout le monde est concerné.

Un journaliste du Wall Street Journal a participé à cette enquête depuis le début et c’est pour cela que je vous invite à regarder également la vidéo ci-dessous :

Publié dans divers | Laisser un commentaire

La danse médiatique sans fin ni sens

Rien à comprendre !

La vague médiatique en faveur du tout nouveau métaverse nous apprend au moins une chose : la danse des médias ne s’arrête jamais, est continuellement renouvelée même quand la nouvelle musique n’est encore tout à fait composée ni que les danseurs soient capables d’exécuter les pas encore en cours de création…

En effet, la notion même de métaverse n’est pas encore claire que déjà les trompettes de la renommée sonnent et annoncent qu’il s’agit de la nouvelle grande affaire !

Peu importe que sa forme soit encore en définition, ni que son avènement soit encore lointain, la messe est dite, prosternez-vous, le métaverse est l’avenir, point.

Ici aussi, les rares esprits encore éveillés (une espèce rare pendant cette époque de folie collective…), auront remarqué qu’on disait aussi cela pour les récentes modes précédentes. Souvenez-vous, il y a quatre ans, c’était l’IA et la Blockchain qui devait tout redéfinir. Puis, quand la Blockchain a tardé à délivrer ses promesses (c’est toujours le cas d’ailleurs), le discours central de la propagande techno s’est recentré sur les cryptomonnaies et, dernièrement, sur les NFT.

On constate semblable mouvement du côté de l’IA qui est désormais moins mise en avant mais, rassurez-vous, la bulle médiatique a toujours du neuf en magasin : l’IA tarde à faire son big bang ? Mais ce n’est pas grave puisque nous avons les ordinateurs quantiques qui eux, promettent de tout changer !

Peu importe que cette nouvelle informatique quantique soit encore à des années (à des décennies en fait…) de connaître un début de réalisation concrète, son triomphe certain est déjà proclamé. Et c’est ainsi encore et encore… Comment se fait-il que cette danse sans fin et sans sens ne nous ait pas déjà tous dégoûté ?

D’abord, il faut admettre que des forces puissantes sont à l’œuvre. D’un côté, nous avons l’industrie électronique/informatique qui a besoin d’attention (un peu) et de financements (beaucoup !). De l’autre, nous avons l’industrie médiatique qui a simplement besoin d’attention (beaucoup !). Ces deux-là ont forgé une alliance objective qui donne des résultats formidables depuis quarante ans. Donc, pas question de changer la recette, ma bonne dame !

Mais voilà, le processus s’est emballé et, désormais, la musique est déconnectée de la danse et plus personne n’y comprend rien. Aucune importance, le but n’est pas de faire comprendre, le but est simplement de faire admettre : voilà la nouvelle mode, adorez-la, point.Vu comme cela, on comprend mieux les derniers développements qui affectent notre société. Car les techniques de ce bourrage de cranes techno sont désormais reprises par les autres pans de la propagande. Vae victis.

Publié dans Anecdotes IT, La terrible vérité | Laisser un commentaire

Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Eh oui, comme le précise le titre de cet article, une période “extraordinaire” ne rime pas forcément avec “formidable”. Après tout, les guerres et les grandes catastrophes sont, elles aussi, des événements extraordinaires…

Et la censure est là pour bien nous rappeler que nous vivons une époque « spéciale »…

Une crise sanitaire ? Où ça ?

Bref, notre présent est dominé par les tenants et aboutissants de ce qu’il convient d’appeler la “crise sanitaire” mais qui est, en réalité, une crise de société très profonde. Durant ces derniers mois, nous avons constaté, souvent avec effarement, que beaucoup de règles qu’on croyait bien établies ont été balayées, oubliées, contredites et même interdites !

L’obligation de soigner, le débat contradictoire, la prudence scientifique, le droit à une pensée libre et le droit de l’exprimer, entre autres… Tout cela serait de l’histoire ancienne (jusqu’à ce qu’on nous explique que, en fait, ça n’a jamais existé…) face à une “urgence sanitaire” qui nous contraint à respecter des ordres absurdes et contradictoires, le tout sans broncher svp.

La réalité (et la brutalité) des faits oblige à reconnaître que nos gouvernants sont en guerre ouverte contre nous et, encore un élément extraordinaire, qu’une grande partie de la population (une large majorité) ne semble pas s’en rendre compte.

Ceci dit, avant d’aller plus loin sur ce triste présent, il faut se remémorer quelques épisodes d’un passé relativement récent pour s’apercevoir que nos gouvernants agissent contre nos intérêts depuis un certain temps déjà. Et s’ils le peuvent, c’est principalement grâce (ou à cause) de la passivité des gens. Passivité qui, de plus, est largement encouragée et entretenue, nous y reviendrons.

Une longue période de déceptions

Les vingt dernières années ont été lourdes de revers de toutes les sortes et d’amères déceptions. Que ce soit en France, au niveau européen ou américain, les gouvernants se sont évertués à nous mentir et à nous flouer, encore et encore. Et tout cela dans la plus parfaite impunité (pourquoi se priver après tout ?).

On pourrait revenir sur les attentats du 9/11 ou sur la conduite de la seconde guerre en Irak (ou ce qui s’est passé en Libye) mais je crois quand même que le plus marquant et le plus déplorable reste tout de même le traitement de la crise de 2008. Pour faire court, contentons-nous de rappeler qu’il s’agit d’une crise mondiale qui a été causée uniquement et entièrement par l’avidité sans borne des banquiers (une simplification, certes, mais nécessaire pour un article forcément limité). Les dégâts et les victimes ont été innombrables et qu’a-t-on fait ?

Eh bien, vous comprenez, on a sauvé les banquiers, hein… Il faut savoir respecter certaines priorités, n’est-ce pas ?

Selon moi, c’est vraiment là qu’on (nous, nous tous en tant que peuple) a perdu le contrôle et que les gouvernants ont réalisé qu’ils pouvaient tout se permettre, que ça passait sans problème. Depuis, les mensonges et les scandales (qui ont toujours existé, bien sûr) sont allés crescendo dans l’indifférence générale. Il y a bien des lanceurs d’alertes et des journalistes d’investigation mais qui les écoutent ?

Personne ou presque parce que la population est totalement anesthésiée. Et si c’était bien cela qu’on nous avait fait subir, une anesthésie générale ?

Et si tout cela était le résultat d’années de préparation ?

Personnellement, cela fait des années que je tente d’alerter sur la baisse générale du niveau intellectuel que je constate autour de moi et que je dénonce le rôle des médias dans cette affaire. J’ai toujours été frappé par l’absence de réaction face à ce phénomène, même de la part de ceux que j’estimais (encore) épargnés.

Donc, on peut s’étonner de la docilité des gens mais on peut aussi admettre que le travail de fond réalisé par les médias dans ce sens pendant ces dernières décennies a fini par porter ses fruits. En effet, comment nier que la promotion et la diffusion systématique des contenus les plus abrutissants soit en constante augmentation dans toutes les principales chaînes de TV et de radio ?

Auparavant, on avait des animateurs un peu beaufs (genre Patrick Sébastien) mais ça ne suffisait pas, il fallait aller à plusieurs crans au-dessus avec des animateurs carrément les plus vils (genre Cyril Hanouna). Les programmes de télé-réalités sont devenus tellement prisés que même les services comme Netflix ou Prime Vidéo en proposent !

Toute cette évolution négative (toujours abaisser le niveau, jamais le relever) a forcément produit des effets et on peut les constater en voyant nos ados se régaler des vidéos les plus débiles sur YouTube ou Tik-Tok. Si encore ce n’était visible que chez les ados mais tout le monde est touché, aucune tranche d’âge n’est épargnée, le mal est fait et il est généralisé.

Mais comme le labeur des médias ne suffisait pas tout à fait, nos bourreaux ont ajouté la force des algorithmes. On constate avec stupéfaction que Google (avec YouTube), Facebook et Linkedin censurent à tout va depuis quelques mois et avec une efficacité digne d’éloges. L’expression dissidente est étouffée avec une précision et une vitesse que l’ancien politburo soviétique n’aurait jamais pu espérer !

La crise sanitaire ou un test à (très) grande échelle

Ce que nous vivons depuis presque deux ans s’apparente de moins en moins à une crise sanitaire sérieuse à cause d’une épidémie foudroyante et super-dangereuse mais bien à une expérience de contrôle des populations (propagande, censure, coercition) dont les résultats dépassent les espérances les plus folles de ses promoteurs.

Comment imaginer qu’on allait pouvoir, si facilement, remplacer toutes les démarches scientifiques (qu’on croyait naïvement comme bien implantées… ah !) par des injonctions primaires de type “taisez-vous et croyez-nous”… et ça marche !

Comment pouvait-on imaginer qu’on allait pouvoir, si facilement, remplacer tous les débats contradictoires par l’ostracisme et le respect de la “ligne du parti” sans discussion d’aucune sorte ?

Ah ça si Staline et Mao sont en train de nous observer en ce moment, nul doute qu’ils doivent être en train d’applaudir avec admiration !

Un procès de Nuremberg, vous y croyez ?

On peut toujours espérer qu’on finira par organiser un méga-procès de Nuremberg de l’ère moderne où tous les truqueurs et tous leurs collabos serviles (journalistes et médecins qui ont marché dans cette combine toute honte bue) seront jugés, condamnés et punis de ce qu’ils viennent de nous faire subir (et ce n’est pas terminé, hélas) mais, franchement, j’y crois de moins en moins.

Tant que la bêtise et le conformisme à tout prix régneront, cette ambiance délétère continuera. Et, quelque part, je comprends ceux qui nous opprime : pourquoi se priver, ce troupeau a choisi sa servitude, qu’il se fasse tondre puisqu’il est d’accord !

Le pire n’est jamais sûr

On dit que c’est la perte de l’espoir qui finit par tuer le naufragé… Et si c’était la perte de son âme qui égarait le peuple ?

Avec pour seuls horizons des distractions dépourvues de sens et une consommation exacerbée mais frustrante, les corrompus qui tentent de nous égarer ont presque réussi à nous perdre, effectivement. Mais tout espoir est-il perdu ?

Non, évidemment non. Même aux plus sombres heures de notre histoire, il y a toujours eu un sursaut qui nous a permis de repartir. Pour cela, l’engagement de la majorité n’est pas nécessaire. Il suffit à quelques-uns d’impulser le mouvement pour que le reste suive, tôt ou tard. La faible lumière de la résistance débouchera sur une aube glorieuse. Il faut y croire et agir car “c’est la nuit qu’il est beau de croire à la lumière”.

Publié dans Ce blog, La terrible vérité | 2 commentaires

La loi du “mur de la complexité”

Le fameux télescope spatial James Webb (JWST pour James Webb Space Telescope) va enfin être lancé, bientôt… Enfin, si tout va bien !

Le JWST dans toute sa splendeur !

Car, depuis les lointains débuts de ce successeur du non-moins fameux télescope Hubble, les retards et les surcoûts se sont multipliés dans des proportions ahurissantes !

Revenons d’abord sur la genèse de ce projet. En 1989, le directeur du Space Telescope Science Institute, le centre chargé des opérations du télescope spatial Hubble, initie une réflexion sur le télescope qui devra prendre la relève de celui-ci vers 2005 (2005 !).

Entretemps, le prix de cette merveille est passé de 500 millions de dollars en 1996 à 9,7 milliards de dollars. Et chaque jour de retard ajoute un million de dollars à la facture.

Ces retards, d’ailleurs, se poursuivent. La date de lancement prévue la plus récente est le 22 décembre. Il s’agit d’un report, annoncé le 22 novembre, du 18 décembre. Mais au moins, la “chose” est maintenant sur le site de lancement.

Hubble lui aussi avait coûté cher : le coût du projet a atteint 2 milliards de dollars en 1990 (au moment de sa mise en orbite), faisant du télescope Hubble l’instrument scientifique le plus coûteux de tous les temps… Jusqu’à ce que son successeur batte le record !

Il était initialement prévu que le télescope Hubble ait une durée de vie de quinze ans mais, à ce jour, il fonctionne toujours (soit déjà 31 ans de services opérationnels !). On ne peut qu’espérer que le JWST soit aussi endurant… 

OK, tout cela est intéressant mais les retards et les surcoûts sont monnaie courante quand il s’agit de projets techniques sophistiqués, non ?

Justement, c’est bien là que je voudrais attirer votre attention : n’y aurait-il pas une limite à ce que nous pouvons encaisser comme complexité ?

EPR et F35, entre autres

Et les exemples qui vont dans ce sens se multiplient sans que nous semblions en prendre conscience. Je pense en particulier à l’EPR et au F35. C’est comme si la “loi des rendements décroissants” s’appliquait aussi à l’escalade de la complexité.

Tout se passe comme si on n’était incapable de comprendre que nos progrès croissants (et bien réels) dans la maitrise technique ne pouvaient pas forcément se traduire dans des mises en oeuvre toujours plus grandes, toujours plus complexes.

Prenons comme exemple les projets de développement des armes modernes. Non seulement les programmes d’armement sont de plus en plus coûteux, mais aussi, et surtout ils prennent de plus en plus de temps (ce qui explique d’ailleurs qu’ils demandent de plus en plus d’argent). Le “démonstrateur Rafale A” vole le 4 juillet 1986 et le programme est effectivement lancé le 26 janvier 1988. Les premiers exemplaires sont livrés à partir du 18 mai 2001 (armée de l’air) et entrent en service en 2002 dans la Marine, soit quinze ans de développement alors qu’il n’en avait fallu que huit pour les programmes précédents (Mirage F1 et Mirage 2000).

Ces délais à rallonge ne sont pas propres à l’aviation ni même au contexte français. Du côté des chars d’assaut, non seulement le char Leclerc a coûté bien plus cher que son prédécesseur l’AMX 30, mais il a également demandé beaucoup, beaucoup, beaucoup plus de temps pour être mis au point et surtout livré. 

Du côté des Américains, c’est encore pire : les chasseurs à réaction dévorent toujours plus de budgets et demandent toujours plus de temps à être étudiés, construits et livrés aux unités opérationnelles. Dans ce domaine, les tout derniers programmes F22 et F35 frôlent la caricature dans des proportions énormes. Le F16 n’avait demandé que quatre ans pour être conçu alors que le F22 en réclama quinze !

Le programme F35 en particulier est une réponse au programme F22 qui était considéré trop coûteux. Le F35 devait apporter la solution en étant multirôles, c’est-à-dire le même avion pour les trois armes (Air Force, Navy et Marines).  Mais il s’est avéré que le cahier des charges était bien trop complexe pour arriver à combiner les exigences de l’Air Force, de la Navy et du corps des Marines en un seul appareil capable de satisfaire les spécificités si diverses de la gigantesque armée américaine. Résultat, le projet a été grevé par de multiples incompatibilités, a coûté bien plus cher que prévu et n’a toujours pas atteint un niveau opérationnel satisfaisant. 

Bon, c’était effectivement relativement facile de montrer le sur-place des projets militaires (surtout avec le F35 qui est une cible facile vue que ses déboires sont permanents !), mais on va maintenant pointer un secteur où ce sur-place est bien moins connu : les médicaments.

Les médicaments sous perfusion !

Voilà encore un domaine exemplaire : beaucoup d’argent et de moyens sont disponibles et pourtant, les résultats se font de plus en plus rares, comme si la technique ralentissait (tiens, tiens…). Dans le cadre des médicaments, le phénomène est tellement évident qu’il a même donné lieu à une « loi », la loi Eroom. Voir à https://en.wikipedia.org/wiki/Eroom%27s_law

La loi d’Eroom fait observer que la découverte et la mise en production de nouveaux médicaments devient plus lente et plus coûteuse avec le temps, malgré les améliorations techniques (criblage à haut débit, biotech, chimie combinatoire et conception de médicaments), une tendance observée dans les années 1980. Le coût de développement d’un nouveau médicament double à peu près tous les neuf ans (ajusté en fonction de l’inflation).

Le nom Eroom est l’inverse de la loi de Moore bien connue dans le domaine des composants électroniques. Ce nom a été choisi afin de souligner l’effet miroir (inversé donc !) entre le milieu des médicaments et celui des composants.

Le fait que la découverte de nouveaux médicaments ralentit progressivement depuis des décennies (voir le schéma ci-dessous) est une bonne illustration de la loi des retours dégressifs.

Un secteur qui peine à trouver un second souffle

Tous les médicaments que nous utilisons aujourd’hui ont été découverts dans les années cinquante, à l’âge d’or des médicaments chimiques. Depuis, en dépit d’efforts colossaux, ce sont toujours les mêmes principes actifs qui sont déclinés à l’infini sous des packagings différents (à l’exemple de la molécule paracétamol vendue sous des dizaines d’appellations commerciales diverses), car les affaires restent les affaires, hein !

Autre exemple : une dose de Nusinersen, médicament moderne produit aux États-Unis pour soigner l’amyotrophie spinale [une maladie héréditaire qui atrophie les muscles], est vendue 70 000 euros. Son développement a duré dix ans et coûté plus d’un milliard de dollars.

Depuis 1980, aucune famille d’antibiotiques n’a vu le jour. Les nouveaux traitements ne sont que des modifications de composés connus. 

Lisez Supériorité !

On pourrait ainsi multiplier les exemples, mais il me paraît plus intéressant de donner le mot de la fin à Arthur C. Clarke avec sa nouvelle “Supériorité” qui prouve que la guerre est une mauvaise période pour tenter d’innover et d’obtenir un avantage décisif.

« Supériorité » est une nouvelle de science-fiction de l’écrivain britannique Arthur C. Clarke, publiée pour la première fois en 1951. Elle décrit une course aux armements et montre comment le côté le plus avancé sur le plan technologique peut être vaincu, en dépit de sa supériorité apparente, par ses propres faiblesses organisationnelles et sa volonté de se débarrasser des anciennes technologies sans avoir complètement perfectionné la nouvelle. Pendant ce temps, l’ennemi construisait régulièrement un arsenal d’armes beaucoup plus important, certes plus primitif, mais surtout plus fiable. Cette histoire était au programme d’un cours de design industriel au Massachusetts Institute of Technology.

Source https://en.wikipedia.org/wiki/Superiority_(short_story).

Le mur de la complexité

Tout cela va peut-être finir par nous faire comprendre qu’il existe bien un mur de la complexité tout comme on admet l’existence du “mur du son” que l’aviation civile n’essaye même plus de franchir (car on connaît désormais les coûts et les conséquences techniques de la capacité supersonique). Ici, la bonne attitude est de savoir calibrer son ambition de façon à frôler ce nouveau mur sans risque de s’y fracasser (délais, surcoûts).

Tout cela, je l’ai déjà expliqué en long et en large dans mon livre récent “Le fait technique” mais le pré-bilan du JWST me donnait l’occasion d’enfoncer le clou une fois de plus !

Il faut donc privilégier les projets plus modestes (moins ambitieux) mais plus accessibles et plus faciles à mettre en place avec succès. Mais ce genre de leçon est-il compatible avec la mentalité du “toujours plus” propre à la psychologie humaine ?

Publié dans à travers mes découvertes, La terrible vérité, Le fait technique | Laisser un commentaire

La Z1000 est de retour !

J’ai enfin pu récupérer ma Z1000 qui est désormais sur le territoire français… Elle m’est arrivée en bon état avec juste un défaut mineur : le contacteur de stop pour la pédale de frein AR était cassé.

Bon, c’est une petite pièce et j’ai pu la trouver chez Kawa Old Vintage (un site FR comme son nom ne l’indique pas !).

On y trouve tout ou presque pour les anciennes Z…
La nouvelle est à gauche of course !

J’ai reçu la pièce fautive au bout d’un certain temps (dix à douez jours entre la commande et la livraison, c’est pas amazon hein !) et j’ai pu la monter sans problème. Test, ça marche, le feu stop s’allume !

Bon, maintenant, il va falloir la faire immatriculer en FR ce qui ne va sans doute pas être une partie de plaisir…

Publié dans Restoration Z1000 | Laisser un commentaire

Les NFT peuvent aussi être beaux !

La beauté est évidemment affaire de goût et c’est donc un sujet hautement subjectif… Mais La Découverte fait le pari de la beauté pour sa première vente aux enchères lundi 11 Octobre.
Si vous êtes intrigué par les NFT mais que vous pensiez que cela se résume à des images bizarroïdes vendues à des prix délirants, venez vous mettre à jour grâce à La Découverte

Publié dans à travers mes découvertes, Ce blog, nouveauté | Laisser un commentaire

Inclinez-vous devant le narratif Tout-Puissant !

Notre époque et notre société sont dominées par un élément qui domine tout, qui écrase tout : le narratif. Pourquoi utiliser ce terme inhabituel (le narratif) plutôt que la propagande, la pensée unique, la ligne du parti ou les mensonges du pouvoir et des médias ?

Parce que, justement, le “narratif” est devenu tout cela à la fois. C’est l’aboutissement monstrueux du « storytelling » et des “spin-doctors”. Désormais, on ne raisonne plus, on ne débat plus, on raconte une histoire sacralisée à laquelle on est sommé de croire sans discussion (le narratif, vous l’avez compris).

Les médias sont devenus le canal d’expression de ce narratif, ils le créent, le diffusent et le commentent sans cesse afin qu’il soit absorbé et assimilé par une population de plus en plus soumise et de plus en plus apathique.

La réflexion, l’analyse, la critique factuelle, la contradiction argumentée et sereine n’existent plus. Tout s’efface, tout plie, tous se conforment devant le narratif qui devient la seule vérité acceptable, la seule parole qui puisse être admise  sinon gare !

Le narratif domine nos vies puisque c’est lui détermine ce qui est et ce qui n’est pas. Car tout ce qui est en dehors de ce que nous explique le narratif, est réputé être non existant. Donc, si tu revendiques une position non existante, tu es forcément fou, tu es forcément malade, tu as forcément un problème ou même, tu es forcément un danger pour la société.

Celui-là doit donc être combattu, moqué, ridiculisé, marginalisé et finalement ostracisé une bonne fois pour toutes. De nos jours, la peine de mort physique n’existe plus dans nos contrées, on l’a remplacé par une peine bien plus efficace : l’effacement. Si vous osez vous opposer au narratif, vous serez écarté, empêché, éliminé, effacé… on est pas loin du “vaporisé” de 1984 d’Orwell finalement.

Je vais donner un exemple du narratif pour bien me faire comprendre. Depuis un an et demi, nos vies ont changé avec la crise sanitaire. Et là, avec cette crise, on peut mesurer l’importance prise par le narratif. Et on a déjà connu plusieurs phases différentes du narratif pendant cette crise. Il y a eu “rester chez vous (nous sommes en guerre)” puis “portez un masque” et “les vaccins sont la solution, vaccinez-vous”. Cette dernière phase a été renforcée par “ ceux qui refusent la vaccination sont la cause de notre retard à la vie normale, pointez-les du doigt !”…

Restez chez vous !

Mais le narratif, s’il est puissant, n’est pas très stable. Il doit être renouvelé périodiquement. Il ne peut pas rester statique trop longtemps. Sinon, en s’habituant, les gens se mettent à y croire un peu moins, c’est gênant… Alors le message change, subtilement, progressivement. Vous voulez encore un exemple ?

Facile, en ce moment, le narratif a une nouvelle mission : vous focalisez sur l’élection présidentielle. Tout d’un coup, il n’y a plus que cela qui compte, comme si la désignation du prochain président (avec de bonnes chances que ce soit toujours le même, hélas) allait nous sauver… Alors, on entend le message changer, comme si quelqu’un tournant le bouton, changeait de fréquence et modulait l’émission… Oui, le prochain président peut vous sauver, passionnez-vous sur cela, point.

Mais nous sauver de quoi ?

Pas du narratif en tout cas, lui est là pour rester, immuable et changeant tout à la fois, il domine nos vies et les réduits à une fiction improbable ou la raison est absente. Triste époque.

Publié dans divers, La terrible vérité | 2 commentaires

Lecture du livre « Le fait technique » : le chapitre 5

Les cycles économiques…

Et aussi sur SoundCloud.

Publié dans Le fait technique, Mes livres | Laisser un commentaire

La vraie différence entre « bruit médiatique » et vraie pertinence…

Pour mesurer la différence entre le bouhaha médiatique dénué de sens sur le « calamiteux » retrait américain d’Afghanistan et une véritable analyse pertinente sur le sujet, je vous invite à lire (oui, il faut lire !) l’article suivant : Afghanistan : non, ce n’est pas une « déroute américaine » (quoi qu’en pense Michael Moore).

Ce n’est pas un résumé de cet article mais une mise en exergue de quelques points importants issus de ce papier (et qui, je l’espère, va vous inciter à le lire pour de bon, en entier !), j’ai préparé cette petite vidéo :

Bon, dix minutes quand même !

Pour compléter, voici un message de mon ami Laurent Poulain qui enfonce le clou :

Salut Alain,
Je viens de lire l’article que tu as recommandé sur ton blog. Les chiffres sont en effet fort intéressants.
Pour ce qui est du coût de la guerre, il n’est certes pas si important que ca, mais il aurait été bien mieux utilisé sur le sol américain même (comme remettre en état les infrastructures). Le premier gagnant de la guerre d’Afghanistan est avant tout le complexe militaro-industriel.
Personnellement ce qui m’attriste le plus est que les Etats-Unis ne vont sans doute pas tirer les leçons. Que « construire » un pays (comme en Afghanistan) est infiniment plus difficile que de reconstruire (comme l’a fait le plan Marshall). Les « hawks » sont toujours aussi puissants et ne sont pas inquiétés (ce gros con de John Bolton est toujours invité sur les plateaux télé). Ni tous les généraux qui ont menti pendant toutes ces années. Nombreux sont des généraux qui ont répété pendant 20 ans que les US « gagnaient ». Et le Pentagone ne pouvait que savoir que l’armée et la police locale n’étaient qu’une bande d’incompétents. Un vétéran chargé de les entraîner (qui va briguer un mandat de sénateur l’année prochaine) a découvert que non seulement les évaluations des forces locales étaient bidonnées, mais que les instructions étaient de faire en sorte que leur score augmente (un peu comme le Bac en France ;-). Quant à la police, ils étaient apparemment encore pire que les talibans. Ces derniers donnaient au moins un « reçu » après t’avoir extorqué pour que tu n’aie pas à te faire extorquer plusieurs fois.
Mais rien ne ca n’a transpiré à Washington. Lorsque Obama et Trump ont voulu quitter l’Afghanistan, leurs généraux les ont convaincu de rester quelques mois « juste le temps que l’armée locale soit enfin prête ». Personne n’a demandé des comptes à tous ces généraux.
Laurent

Publié dans à travers mes découvertes, conférences, divers | Un commentaire

Lecture du livre « Le fait technique » : le point après 4 chapitres

Un point nécessaire…

Et aussi sur SoundCloud.

Publié dans Le fait technique, Mes livres | Laisser un commentaire

Le metavers ? Pas si vite !

L’enthousiasme dont font preuve les différents médias suite aux annonces de Facebook sur le Metaverse (en ce moment, ils en parlent tous, y compris France Inter !) sont une démonstration supplémentaire, s’il en était besoin, qu’on ne sait pas mesurer la distance qui existe entre les annonces et la réalisation.

https://www.franceculture.fr/emissions/la-question-du-jour/la-question-du-jour-du-lundi-30-aout-2021

Crédits : Rebecca Nelson – Getty

Ce n’est pas parce que Facebook a fait cette annonce (peu détaillée et très incomplète) que nous allons tous nous retrouver dans un monde virtuel façon “Ready Player One” (un très mauvais film, soit dit en passant…) !

Avec mon éminent collègue Frédéric Cavazza, nous voulons réagir à ce débordement. Voici un court résumé de ce que veut dire Fred sur le sujet :

– nous n’aurons à priori pas de métavers tel que décrit dans la littérature, car nous avons aujourd’hui accès à des versions dégradées (ex : Fortnite, Roblox, Pokemon Go…) dont le grand public se contente,

– il n’y aura pas un métavers universel (comme l’est le web), mais de nombreux univers virtuels opérés par des sociétés privées (ex : Facebook Horizon) qui proposent une expérience bcp plus simple d’accès et ludique,

– Il y a déjà des milliards d’utilisateurs qui « vivent » dans des environnements virtuels peuplés d’avatars (Facebook, Instagram…).

Le lien vers l’article de Fred « Quels enjeux pour le métavers »

Bien, à mon tour maintenant !

Quarante ans pour avoir un début de concrétisation !

Il faut se rappeler que pour commencer la réalité virtuelle a mis beaucoup de temps à passer du labo à un début de commercialisation. On attribue généralement à Jaron Lanier les début historique de la réalité virtuelle (autour de 1985 mais, le tout premier casque de réalité virtuelle est créé à l’Université de l’Utah dans les années 1970 par Daniel Vickers (source https://fr.wikipedia.org/wiki/R%C3%A9alit%C3%A9_virtuelle#Historique). Donc, ça fait maintenant un bon moment qu’on tourne autour de cette notion… Plus de quarante ans pour passer des toutes premières expérimentations au stade que l’on connaît actuellement (commercialisation et diffusion significative mais pas encore la maturité et la banalisation qui marque vraiment la fin d’un cycle pour une innovation).

Le délai de maturité, thème central de mon ouvrage “Le fait technique”

Je viens justement de publier un nouveau livre (Le fait technique – L’évolution technique est mal connue et mal comprise) où j’expose que les innovations demandent un temps long (jamais moins de dix ans et souvent trente ans voire plus pour certaines !) pour arriver à maturité. Or, le bruit fait par les médias n’aide pas à cette compréhension de ces phénomènes. Annoncer l’avènement du métavers sans préciser qu’il faudra encore patienter de nombreuses années avant d’avoir un début de concrétisation est contre productif au mieux, malhonnête au pire.

Les spécificités de l’usage de la réalité virtuelle

Ceux qui s’imaginent qu’on va porter un masque toute la journée pour faire des réunions virtuelles n’ont apparemment absolument aucune expérience concrète de l’utilisation de ces masques. Pour ma part j’ai déjà un Oculus Quest un HP Reverb G2 et je peux dire que je n’arrive pas à dépasser 40 minutes lors de mes sessions en réalité virtuelle. Pourquoi une telle limite ?

Tout simplement parce que ces masques sont encore lourds, on a vite chaud dessous et la définition n’est pas encore assez bonne pour que la visualisation soit confortable au-delà d’une certaine durée. De nombreux progrès sont encore nécessaires dans ces dispositifs avant que l’usage confortable et longue durée (plusieurs heures) soit envisageable. De plus, la réalité virtuelle “pure” est assez contraignante : se retrouver privé de voir son environnement habituel est une limite pratique sur laquelle on bute assez vite. Il est probable que la bonne version du premier métavers opérationnel soit plutôt basé sur la réalité augmentée (où la visualisation “virtuelle” se superpose à votre environnement habituel). Mais, là aussi, les dispositifs actuels sont loin de faire l’affaire et le chemin vers la maturité promet d’être encore assez long.

Et les contenus ?

Imaginons que les appareils soient enfin au point et performants, ce n’est là qu’une partie du challenge à relever pour plonger dans un métavers complet et opérationnel… En effet, se pose la question des contenus qui, eux aussi, vont être longs et coûteux à mettre en place. Pour le moment, on a surtout des jeux plus ou moins réussis à se mettre sous la manette et on constate surtout qu’une simple adaptation des titres existants est tout à fait insuffisante. En matière de réalité virtuelle, la seule manière de bien faire, c’est de faire quelque chose de dédié et ce depuis le début. C’est la leçon maintes fois répétée des succès et des échecs dans ce domaine. Donc, là aussi, tout cela va prendre du temps et demander beaucoup d’essais-erreurs avant de trouver la bonne forme et le bon fond.

Ceci dit, n’allez pas croire que je suis sceptique vis-à-vis de l’avenir de la simulation… J’y crois au contraire dur comme fer comme on va le voir ci-dessous :

La simulation, technique d’avenir, ô combien !

L’anticipation, sous-domaine de la science-fiction, joue son rôle quand elle permet de prévoir ce qui va nous arriver dans le futur. Dans le cas qui nous occupe ici, la question est centrée sur les applications de la simulation et leurs conséquences. Tout d’abord, il n’y a guère de doute que la simulation sera mise en œuvre.

Déjà, du côté scientifique, il y a beaucoup de justifications à le faire : pour modéliser les phénomènes naturels (tels que le climat et ainsi être en mesure de mieux prévoir son évolution ainsi que la météo à court terme) mais aussi et surtout pour modéliser les phénomènes sociaux (avec la nécessité de simuler les personnes jusqu’au niveau individuel le plus fin).

Aujourd’hui, de nombreux phénomènes sociaux sont considérés comme chaotiques, principalement par ignorance. Une fois simulés correctement, on pourra les étudier sous tous les angles et comprendre enfin la dynamique de chacun (si vous voulez optimiser l’évacuation d’un grand bâtiment, il vous faut connaître à l’avance le comportement de la foule lors d’un mouvement de panique…).

Mais le domaine scientifique « pur » va être un champ d’application minoritaire de la simulation (contrairement à ce qui sera mis en avant pour justifier de la mettre en œuvre). Le domaine économique sera bien plus prolifique dans son utilisation des « simulis » !

Le domaine de la publicité, par exemple, sera un grand consommateur de situations simulées afin d’optimiser le message, le plan média, la fréquence de diffusion et ainsi de suite. On imagine bien que les politiciens, comme les publicitaires, vont également se jeter sur cet outil pour ajuster leurs discours en fonction de leurs cibles.

Tout cela paraît évident une fois exposé correctement. Mais c’est dans le domaine de la “distraction” que le secteur économique va le plus avoir recours à la simulation, hé oui. En effet, regardez le succès actuel des différentes déclinaisons de ce qu’on appelle encore “les jeux vidéo” (voir à http://fr.wikipedia.org/wiki/Jeu_vidéo). Il suffit de regarder les chiffres pour se convaincre de l’importance croissante de ce secteur : l’industrie vidéoludique (c’est comme ça qu’on l’appelle selon Wikipédia…) génère actuellement un revenu plus important que celui du cinéma et ceci depuis 1997. En 2007, le revenu global approchait les 40 milliards de dollars. En 2012, le chiffre d’affaires mondial de l’industrie atteint 60 milliards de dollars selon le SNJV (Syndicat National du Jeu Vidéo). L’industrie vidéoludique serait ainsi la première industrie culturelle dans le monde. Le jeu le plus coûteux de l’histoire (fin 2013), GTA V, a coûté 270 millions de dollars (moitié production, moitié marketing) soit l’ordre de grandeur d’un blockbuster hollywoodien.

Donc, on a un moyen médiocre (pour dire le mieux) de se projeter dans un univers plus ou moins bien simulé (là encore, on reste gentil) et ça marche du tonnerre : des millions de gens (et pas que des jeunes) y passent un temps de plus en plus important tout en y dépensant une somme d’argent pas ridicule. Que se passera-t-il le jour où on pourra proposer une alternative autrement convaincante ?

Oui, vous m’avez bien compris, j’en reviens encore à la simulation, la vraie. Le jour où on pourra vous proposer une plongée en immersion totale dans les univers simulés (spécialisés au début, généralistes ensuite), vous allez voir que l’offre va faire recette immédiatement (et ça sera le cas de le dire : les succès financiers des jeux vidéo actuels paraitront bien pâles en comparaison !). Les gens vont se ruer vers ce nouveau “loisir” et les cas d’addiction vont se multiplier jusqu’à atteindre un seuil alarmant : le nombre d’individus qui vont préférer vivre une vie “plus ou moins scriptée” (en fonction de leurs préférences) dans les univers simulés va être surprenant. Tout du moins, ça sera surprenant à nos yeux d’aujourd’hui alors que ça paraîtra banal quand ça sera possible. De la même façon qu’un honnête homme du XIXe siècle serait étonné de voir quelle est l’étendue actuelle de la consommation des substances addictives (y compris le sucre, les cigarettes, les médicaments, en plus des substances illégales comme les drogues dures).

Il n’est donc pas impossible (pour ne pas dire qu’il est probable) que l’usage des simulis soit le prochain grand problème de société à l’avenir. Voire même fera naître une autre catégorie de population : ceux qui vivent principalement en immersion (dans les simulis donc) et très peu (voire le moins possible) en dehors.

Bien entendu, cette situation ne va pas arriver du jour au lendemain. Tout d’abord, la mise au point de la “simulation totale” va prendre un certain temps (mais sans doute sera-t-elle là avant la singularité technologique qui reste un horizon hypothétique alors que la simulation totale est une perspective quasi certaine). Ensuite, les techniques d’immersion resteront compliquées et coûteuses pendant une période plus ou moins longue et, clairement, le transfert synaptique (si on continue à l’appeler ainsi) ne sera pas à la disposition de tout un chacun avant des décennies. Cependant, cela va finir par arriver et quand ça sera là, les digues vont céder et les masses vont s’y précipiter. Qui restera-t-il “à la surface” ?

Les deux extrémités, comme d’habitude : les plus pauvres qui n’auront pas les moyens de se payer une immersion (même brève) et les plus riches qui préféreront regarder tout cela de haut, tout en tirant les ficelles pour les plus malins d’entre eux.

L’avènement de la simulation aura quelques conséquences inattendues : disparation de la prostitution (tout du moins dans les pays riches, elle sera toujours effective dans les pays pauvres) et disparition des compétitions sportives. Ces disparitions seront limitées à leurs expressions physiques dans le monde “réel”, car, bien sûr, compétitions et prostitution seront plus que jamais à la mode dans les simulis…

Pas besoin d’expliquer pourquoi la prostitution va être florissante dans les mondes virtuels, penchons-nous sur les raisons concernant les compétitions : facilités d’organisation, plus grande liberté des règles, diffusion “télévisée” à l’identique, réduction du danger et de ses conséquences, etc.

Encore que, pour ce dernier point, rien n’est moins sûr. On ignore encore (et pour cause !) quels seront les effets secondaires (ou encore, les effets réels, tout simplement) que pourraient avoir une blessure ou un traumatisme sur mon corps réel lorsque ces dommages arriveront à mon “avatar” en immersion… Peut-on vraiment séparer le corps de l’esprit ?

Voilà le type de « découvertes » que nous allons faire avec l’avènement de la simulation totale. Accrochez-vous, ça va secouer, car, comme disent les Anglais “there is always a surprise!” (il y a toujours une surprise).

PS) on constate que les simulis commencent à être mis en place par les industriels. Les motoristes de l’aviation civile simulent le fonctionnement des moteurs équipant les flottes des compagnies aériennes en les alimentant avec les données réelles venant des vrais moteurs qui volent tous les jours.

Le but est de prévenir les pannes, d’anticiper les opérations de maintenance. Mais il est clair que, à l’avenir, ces simulations très techniques auront tout intérêt à être reliées à d’autres dans les domaines voisins : la météo afin de pouvoir y ajouter les données d’environnement et ainsi de suite. Une fois qu’on a cette image en tête, il est assez facile de se projeter dans la suite.

Et ce n’est que le début…

En conclusion…

Bien entendu, on peut imaginer que, à terme, on ait effectivement quelque chose qui ressemble à un Metaverse qu’il soit proposée par Facebook ou un autre ou encore une alliance de différents acteurs. Ce serait effectivement conforme à une certaine logique d’évolution. mais en revanche, il est très difficile de dire quand cela arrivera et quand cela aura un succès de masse. En effet, il est toujours plus facile de dire le quoi que de dire le quand.

Publié dans Ce blog | Laisser un commentaire

Starlink disponible… ça vaut le coup ?

Avoir un accès à l’Internet correct est de plus en plus important avec notre société et en tenant compte de son évolution (je ne vous fais pas un dessin, cette évolution, vous la vivez tous les jours…). Et, soyons clair, les accès via ADSL des opérateurs ne sont PAS satisfaisants : lents, souvent en panne et trop coûteux pour ce niveau de service.

Il y a forcément matière à faire mieux, non ?

J’ai toujours pensé que c’était du côté d’un accès par satellite que ce trouvait la solution (je l’ai même évoqué dans un chapitre de mon livre « Perdu dans le temps« ). Du coup, j’ai expérimenté cela avec Nordnet il ya quelques années. Le résultat était plutôt décevant : si le débit était au rendez-vous, la latence importante annulait cet avantage presque complètement.

C’était facile à comprendre : avec des satellites géo-stationnaires (c’est-à-dire à 36000 kms de la Terre !), il y avait forcément du délai dans l’établissement de la communication. La solution résidait dans l’emploi d’une myriade de satellites en orbite basse… Mais, cette myriade, il fallait encore la lancer !

C’est SpaceX qui s’y colla avec son service Starlink. Il faut avoir vu passer les premiers « trains » de satellite traversant le ciel en quelques minutes, c’est assez fascinant comme spectacle (que j’ai eu la chance de voir à trois reprises) !

Depuis ces débuts héroïques, les choses ont bien évoluées : désormais, SpaceX a déjà délivré près de 10 000 terminaux en trois semaines seulement puisqu’elle revendiquait 90 000 utilisateurs fin juillet. Le réseau était d’ores et déjà disponible dans 14 pays, dont la France (voir à https://siecledigital.fr/2021/08/24/starlink-terminaux-livraison/?utm_source=Newsletter+Siecle+Digital&utm_campaign=a438b9413a-newsletter_quotidienne&utm_medium=email&utm_term=0_3b73bad11a-a438b9413a-259548541).

Des pointillés dans le ciel nocturne ? Non, c’est Starlink, tout simplement !

Depuis lors, il me brulait de pouvoir essayer ce service… C’est chose faite depuis quelques semaines car j’ai reçu mon kit et j’ai pu le mettre en place sans difficulté.

Le kit complet encore dans sa boite… Facile à monter !
La parabole sur son trépied et vissée sur une palette (lestée). Tout est prêt !
Une petite vidéo pour montrer tout cela en images (nota : il ne s’agit PAS de moi !).

Alors, tout cela est bien joli mais est-ce que ça fonctionne ?

Oui et plutôt bien. Tout d’abord, ça marche du premier coup sans poser de problème et, ensuite, le débit est bon (sans être aussi mirifique que les promesses marketing… faudra encore attendre un peu avant d’avoir du 100 Mbs, pour le moment, c’est plutôt au alentour de 60 Mbs…) et la latence quasi nulle, bon point !

Le service se gère à travers une app assez complète.

Bref, c’est assez coûteux ($99/mois et $500 de kit) mais ça marche et c’est déjà énorme !

https://www.starlink.com/

Publié dans Ce blog, Informatique | Laisser un commentaire

Lecture du livre « Le fait technique » : le chapitre 4

Révolution industrielle, la suite !

Et aussi sur SoundCloud.

Publié dans Le fait technique, Livres, Mes livres | Laisser un commentaire

Lecture du livre « Le fait technique » : le chapitre 3

Chauvinisme temporelle ?

Et aussi sur SoundCloud.

Publié dans Le fait technique, Livres, Mes livres | Laisser un commentaire

Lecture du livre « Le fait technique » : le chapitre 2

Voilà la chpaitre deux…

Où l’on évoque la machine à vapeur…

Et aussi sur SoundCloud.

Publié dans Le fait technique, Livres, Mes livres | Laisser un commentaire

Lecture du livre « Le fait technique » : le chapitre 1

On continue notre série !

Le chapitre 1, enfin !

Et aussi sur SoundCloud.

Publié dans Le fait technique, Livres, Mes livres | Laisser un commentaire

Lecture du livre « Le fait technique » – Préface de Fred Cavazza

Comme promis, voici la suite…

C’est bien la préface de Fred même si c’est moi qui la lit !

Publié dans Informatique, Le fait technique, Mes livres | Laisser un commentaire