Prologue du livre « histoire critique de l’informatique moderne »

Ce projet avance (voir ici http://www.alain-lefebvre.com/it/sommaire-provisoire-de-mon-livre-sur-lhistoire-de-linformatique/ et là http://www.alain-lefebvre.com/it/un-questionnaire-pour-mon-livre-sur-lhistoire-recente-de-linformatique/ les détails de ce projet en cours).

Voici une version (provisoire, bien sûr) de l’introduction et du prologue :

Introduction

Voilà un livre sur l’histoire de l’informatique moderne. J’insiste sur cet adjectif car mon objectif était bien de rédiger un ouvrage différent des livres d’histoire qu’on peut déjà trouver.

Certes, il est utile de replacer l’émergence de l’informatique dans les méandres du bouillonnement technique du XXème siècle mais cela a déjà été fait de nombreuses fois. Mon but était plutôt de focaliser sur les cinquantes dernières années de notre industrie afin de retracer les évolutions majeures et d’en comprendre les mécanismes.

En effet, pour comprendre comment on en est arrivé là, il faut décrypter ce passé récent. Ainsi seulement, on pourra faire une analyse objective de la situation présente et proposer une nouvelle direction pour la prochaine phase. Car, et c’est là le second volet de ce travail; il ne s’agit pas seulement de s’intéresser à l’histoire moderne de l’informatique mais aussi de le faire avec un oeil critique !

Est-on satisfait de la situation actuelle ?

Peut-on dresser un bilan de l’informatique professionnelle ?

Quelles règles peut-on en déduire ?

Pourrait-on faire mieux ?

Comment faire mieux ?

C’est pour répondre à ces questions que j’avais proposé en 2004 “le manifeste pour une informatique raisonnable” et la dernière partie de ce livre est une mise à jour de cette proposition replacée dans le contexte d’un bilan de l’informatique moderne.

Mais, avant d’en arriver là, il faut pouvoir poser les bases de cette exploration. C’est-à-dire, répondre aux questions suivantes :

Quand commence l’informatique moderne ?

Que s’est-il passé d’important pendant la “préhistoire” ?

Le premier chapitre débute avec l’identification de l’événement créateur de l’informatique moderne : le lancement de l’IBM 360, ancêtre des mainframes et véritable début de l’industrie informatique telle que nous la connaissons. Avant cela, ce n’était ni le chaos ni le néant mais une période que nous pourrions appeler la “préhistoire” : l’informatique existe déjà belle et bien mais pas encore sous la forme d’une industrie structurée avec un marché, des clients et des usages bien définis.

Prologue

On ne peut retracer l’histoire récente de l’informatique sans être lucide sur sa nature profonde. Et les idées reçues sont nombreuses dans ce domaine !

Tout d’abord, il est juste de dire que les évolutions significatives sont lentes et  relativement peu fréquentes.

Comme l’écrivait Jeff Gould dans la préface de mon ouvrage “Le 3ème tournant” (paru en 2001 aux éditions Eyrolles) : En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on s’imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard de fait.

Bien entendu, il serait tout aussi erroné de prétendre que l’industrie informatique est restée figée lors de ces cinquante dernières années. Pour prendre une analogie, on peut comparer ce domaine à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement qui ne cesse de progresser et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Une situation contrastée qui n’est pas une anomalie

Cette dichotomie qui pourrait passer pour une anomalie mais c’est là qu’il faut comprendre que l’accroissement des capacités vient surtout des progrès réalisés dans le domaine de l’électronique. L’informatique profite donc de ces progrès permanents mais, du coup, le logiciel est toujours en retard par rapport aux avancées du matériel (par exemple, quand les serveurs passent aux processeurs 64 bits, il faut un certain temps -qui se chiffre en années- avant que les logiciels systèmes soient capablent de les exploiter et c’est ensuite au tour des logiciels applicatifs de se mettre à niveau… Cette évolution séquentielle est toujours lente alors que, de son côté, les composants continuent à progresser en permanence).

Le logiciel forcément en retard sur le matériel

Il ne s’agit pas de dire que ceux qui s’occupent du matériel sont des génies et que ceux qui programment les logiciels sont des ânes !

Pour expliquer la lenteur des progrès côté logiciel, il faut mettre en avant le rôle des tests. En effet, écrire un logiciel est -relativement- rapide mais le mettre au point est terriblement plus lent…

Les tests logiciels sont lents et complexes. Lents car il y a de nombreuse possibilités à vérifier et il faut tout revérifier à chaque modification. Complexes car le contexte est important et pour un logiciel système (par exemple), il faut pouvoir tester chaque plate-forme dans toutes les configurations possibles… On imagine vite ce que cela représente !

Logiciels et turbines à gaz, même combat !

Prenons un exemple, celui d’un “accident industriel” célèbre : celui des turbines à gaz GT24/GT26 d’Alsthom qui se sont avérées defectueuse au début des années 2000. Pourquoi des engins aussi coûteux et complexes ont-ils été mis sur le marché sans être testés de fond en comble (ce qui aurait évité de commercialiser des turbines de grande puissance comportant un défaut de conception) ?

Tout simplement parce qu’il aurait fallu laisser tourner ces turbines pendant des années (4 à 5 ans minimum !) avant que le défaut ne se manifeste… La rentabilité du programme ne pouvait s’accomoder de tests aussi longs, la direction de l’époque a donc pris le risque de se contenter des tests habituels qui eux étaient tout à fait satisfaisant…

La vraie différence entre capacités et fonctionnalités

Ceci permet de comprendre pourquoi les tests jouent un rôle clé dans la lenteur de l’évolution du logiciel et font que l’informatique avance sur deux faces : très vite sur le plan du maériel, très lentement sur le plan du logiciel. Or, le matériel n’amène seulement que des capacités (autrement dit, des fonctionnements potentiels) alors que c’est le logiciel qui apporte les vrais fonctionnalités (qui elles débouchent sur des traitements bien réels)…

Ces éclairages permettent de répondre à la question “pourquoi l’évolution technique de l’informatique suit-elle deux pentes aussi différentes ?”.

Une évolution timide, un marketing tonitruant !

Il y a donc loin entre la réalité du terrain et les apparences projetées par les acteurs de l’industrie : d’un côté on a des progrès lents et obtenus avec difficultés, de l’autre, on a un cirque médiatique permanent qui promet la lune avec constance et où l’innovation réside surtout dans les étiquettes dont on affuble les “nouveaux” produits.

Car, depuis que l’informatique moderne est sortie de sa préhistoire, son évolution technique timide est contrabalançée fortement par un marketing de tous les instants qui lui est tout sauf timide !

Les ravages du FUD

Ce marketing est même à double détente : d’une part, il faut faire croire au marché qu’on lui propose la pointe de la technique (tous les produits sont systématiquement présentés comme étant sur le “bord tranchant” de la technologie la plus sophistiquée du moment) pour tout ce qui provient du “courant principal” de l’offre. D’autre part, le second rôle de ce marketing est de disqualifier par tous les moyens (y compris le mensonge, la calomnie et les manipulations les plus éhontée… Le concept marketing le plus en vogue dans cette industrie lors de ces dernières décenies est le FUD pour Fear, Incertanity, Doubt ou CID : Crainte, Incertitude, Doute) pour tout ce qui viendrait menacer le “courant principal”. Les alternatives au paradigme dominant du moment sont donc systématiquement combattus avec vigueur et mauvaise foi car il s’agit de protéger le statut quo, générateur de profits juteux pour les acteurs dominants.

Un comportement récurrent, génération après génération

Cette leçon est bien comprise, retenue et appliquée par les générations d’acteurs qui se succèdent au sommet. Ainsi, l’éditeur de logiciels pour PC qui luttait contre le grand constructeur de mainframes était-il victime du FUD quand il était encore dans le camp “alternatif”… Mais quand son côté a fini par triompher et devenir le “courant principal”, à son tour, il employa les mêmes tactiques avec abondance pour discréditer les acteurs émergeants représentant de la nouvelle technique alternatives.

On a vu et revu ce mouvement de balancier de nombreuses fois depuis cinquante ans : les fabricants de minis contre les constructeurs de mainframes, les éditeurs de logiciels et assembleurs de PC contre les tenants de l’informatique centralisée, les promoteurs de l’open source contre les partisans du logiciel propriétaires, les offreurs de SAS (Software as a Service) contre les éditeurs de logiciels et ainsi de suite…

Un impact spectaculaire sur le quotidien

On constate donc que l’informatique moderne repose sur un paradoxe et un mensonge : le paradoxe d’une évolution technique dont les progrès dépendent surtout de l’électronique et le mensonge permanent d’un marketing outrancier. Cependant, il ne s’agit pas pour autant de nier ce qui a été accomplit qui est considérable et souvent spectaculaire. Jeff Gould insiste sur l’impact qu’a eu l’informatique sur le quotidien de nos contemporrains :

…l’impact de l’informatique non seulement sur le quotidien des utilisateurs, mais aussi et peut-être surtout sur les organisations de la vie moderne. Je m’explique par quelques exemples (qui te paraitront évidents)…

(1) Les grands systèmes de réservation, rendus possible par les mainframes des les années 60, et développés beaucoup plus tard sur le web. Sans ces systèmes, le transport aérien et ferroviaire moderne à l’échelle actuelle ne serait pas possible. Si on devait tenir des livres de réservation à la main comme cela se faisait encore dans les années 50, ce serait tout simplement impossible de gérer des dizaines de milliers de vols et des centaines de milliers de places réservées par jour. C’est donc une question de « scale » : sans informatique, beaucoup d’organisations modernes ne pourraient exister.

(2) Même chose pour les grands réseaux bancaires et les systèmes de paiement par carte de crédit. Aujourd’hui on voyage partout dans le monde développé sans se soucier des moyens de paiement. Mais dans le passe, même jusqu’aux années 60, les voyageurs se déplaçaient avec des devises qu’ils changeaient à la frontière de chaque nouveau pays.

(3) Même chose pour le commerce en ligne (Amazon, EBay, etc). Je sais que c’est la l’aspect le plus évident de l’impact récent de l’informatique. Mais au fond c’est le même phénomène que les systèmes de réservation aériens appliques à un nouveau domaine. L’architecture d’Amazon de nos jours (un ordinateur central gère des stocks et exécute des transactions commerciales pour des milliers d’utilisateurs remote assis devant des terminaux, pardon, browsers web) ressemble comme deux gouttes d’eau à celui du réseau Sabre à base de mainframes et de terminaux 3270 des années 80.

(4) La productivité individuelle a explose, grâce au PC et à la bureautique. La productivité des groupes de travail col blanc quant à elle a explosé grâce à l’email. La productivité des employés de bureau et dans les « customer facing roles » (guichetiers dans les banques, caissières dans les supermarchés, etc) a explosé grâce aux terminaux remote sur grands systèmes, donc grâce aux réseaux (et aussi grâce aux écrans, aux scanners, etc.). Ces bonds immenses de productivité ont joué un rôle majeur dans la croissance économique de ces 30 dernières années (même si on a tendance à oublier la vraie ampleur de cette croissance et à trop focaliser sur la récession actuelle).

(5) La banalisation des mémoires numériques (disque, RAM, Flash) a permis la révolution du contenu numérique.

(6) Le web a tué la presse écrite classique, et grâce aux blogs est en train de gêner les habitudes du pouvoir politique dans tous les pays (les élites qui nous dirigent ont beaucoup plus de mal à garder leurs secrets maintenant que les bloggeurs ont cassé le monopole de l’information détenu par la presse complaisante).

(7) Enfin, l’informatique « embedded » a permis la révolution des mobiles, grâce aux chips dans les cell phones et dans les réseaux télécom.

Tout cela est exact, important et doit être souligné. Mais on peut et on doit se poser la question suivante : les mêmes résultats n’auraient-ils pas pu être obtenus avec moins de moyens, moins de gâchis ?

C’est ce que le paradigme de “l’informatique raisonnable” tente de promouvoir. Mais peut-être est-on là dans l’utopie et que l’évolution constatée (avec tous ses travers, ses erreurs et ses mensonges) était-elle inéluctable ?

C’est justement pour le savoir qu’il faut retracer ce cheminement aujourd’hui et avec un oeil critique. Les livres qui font la louange (y compris exagérée) de cette industrie ne manquent pas, il fallait donc un ouvrage qui offre une autre perspective…

Ce contenu a été publié dans Informatique, Mes livres. Vous pouvez le mettre en favoris avec ce permalien.

Une réponse à Prologue du livre « histoire critique de l’informatique moderne »

  1. Ping : Les Secrets Du Marketing Grâce Aux Articles. | 7Wins.eu

Laisser un commentaire