L’affaire Zarco, révélatrice d’une certaine mentalité…

Lors du dernier tour de la course 125cc lors du dernier GP Moto du championnat du monde, nous avons eu droit à un nouvel épisode d’une mentalité rampante qui est en train de gangréner les sports mécaniques : il est de plus en plus souvent interdit d’être agressif !
Chacun doit se faire son idée et voici la vidéo du dernier tour pour juger :

Attention, je ne suis pas en train d’encourager les comportements de voyous mais une balance équilibrée doit être maintenue. En F1, il y a longtemps que cette balance est complètement penchée du côté de « on ne se double pas, on reste sagement les uns derrière les autres ! » ce qui a définitivement tué le spectacle (le fait que des gens s’intéressent encore à la F1 reste un mystère pour moi !).
En moto, on en était pas (encore) là mais, ça y est, le pli est pris et je suis pessimiste pour la suite… On peut dire que l’évenement déclencheur a été l’incident entre Pédrosa et Simoncelli au Bugatti :
Suite à cet incident, Simoncelli a été pénalisé…

Selon moi, dans les deux cas, il s’agit « d’incidents de course » comme il en arrive partout depuis toujours. On peut penser que ces incidents sont au-delà de la ligne jaune ou pas, chacun y verra sa version.

Mais j’ai peur que ces décisions représentent l’amorce d’un comportement paralysant où plus rien de viril ne peut se passer sur la piste… Dommage, dommage.

Publié dans Sport-auto | Un commentaire

L’Indy 500, comme tous les ans !

Cette année, comme l’année dernière, j’ai participé à la course « Indy 500 » sur iRacing. Cette fois, la course virtuelle était organisée la veille du grand événement, des véritables Indy 500 (ça permet de ne pas manquer la retransmission réelle !).

Avant de vous dire comment ça s’est passé cette fois, voyons déjà comment ça s’était déroulée l’année dernière…

Donc, iRacing organise tout au long de cette année des courses qui correspondent plus ou moins exactement à leur contrepartie réelle… Et j’ai pu participer à celle qui m’intéressait le plus : l’Indy 500. J’ai d’abord fait les qualifs (résultat : 41.042, un temps médiocre puisque je n’étais que 531ème sur 636 pilotes ayant participé à ces qualifications mais peu importe, il s’agissait juste de « s’inscrire ») et le samedi (veille de la vraie course), le grand moment arrive enfin.
Je me retrouve dans un des nombreux « split » puisque les 513 participants étaient répartis par groupe de 32 dans des « split » correspondant à leur temps en qualifs. Je suis 20ème sur la grille dans ma course qui démarre tout doucement : il semble que tous soient paralysés par la perspective de détruire sa Dalara lors des premiers tours alors qu’il y en a 200 à boucler !
Je profite de cette timidité pour remonter franchement et je me retrouve même dans le « top ten » avant mon premier arrêt aux stands que j’ai bien failli louper car j’étais vraiment à sec au moment de stopper (mais j’ai attendu la dernière minute voulant à tout prix profiter d’un « yellow », neutralisation sous drapeaux jaunes). Je repars 13 ou 14ème et je reprends le rythme. Ma voiture se comporte bien avec le plein et mon ambition commence à grimper. Je retrouve le top ten assez vite au gré des neutralisations et des arrêts de mes adversaires.
Tout le monde continue à bien se comporter et à faire preuve d’une prudence étonnante. Mais, bien sûr, il arrive des « big one » (gros crahs impliquant plusieurs voitures à la fois) de temps en temps. Et, hélas, c’est ainsi que cette aventure exaltante pris fin : au 57ème tour, je n’ai pas ralenti suffisamment alors qu’il y avait un gros rideau de fumée devant moi et, contrairement à Cole Trickle, je n’ai pu traverser ce rideau sans dommage : une monoplace gisait en travers déjà bien abîmée, je l’ai percuté de plein fouet sans pouvoir rien faire d’autre !
Bref, terminé pour moi après 1/4 de l’épreuve mais l’ambiance était géante, j’ai adoré !
Je suis finalement classé sur 360ème sur 513 partants mais c’est surtout le volume global de participants qui était significatif : plus de 750 participants à la course (oui car il faut aussi ajouter les « rookies » qui participaient dans une course à part et ils étaient 246…), vous imaginez ça ?

Et alors, cette année, enfin à l’arrivée ?

Hélas non : ma course n’a duré que cinq tours !
Lors du tout premier « yellow » (neutralisation sous drapeaux jaunes), un abruti (y a pas d’autre mot !) m’a envoyé dans le mur en ne ralentissant pas… C’est frustrant mais c’est ainsi !
Allons, j’essayerais de nouveau l’année prochaine, ça finira bien par sourire…

Le lendemain, pour « l’édition du centenaire », nous avons eu droit à course grandiose avec un finish de folie !
Jugez plutôt :

Publié dans Sports mécaniques virtuels | 3 commentaires

Des images saisissantes du sport-auto « pour de vrai » !

Sur le site Ayari.com, deux vidéos viennent d’être mises en ligne qui montrent, vues de l’intérieur, une des courses de Soheil dernièrement à Imola (sous la pluie).

Il s’agit là d’images saisissantes qui montrent bien combien les pilotes professionnels sont habiles. On voit aussi que les conditions de course peuvent être particulièrement difficiles sous la pluie car, par moments, c’est simple : on ne voit rien !

Publié dans Sport-auto | Un commentaire

Visite du musée Porsche à Zuffenhausen…

La semaine dernière, je suis allé avec mon fils Valentin au « Porsche Museum » et voici quelques photos pour illustrer ce « pélerinage » (effectué en Porsche, of course !) :

Le musée est tout neuf et il est magnifique, on peut quasiment y passer la journée entière (c’est ce qu’on a fait…). En revanche, les autoroutes allemandes tant vantées ne sont pas terribles : beaucoup de travaux et encore plus de camions… Et la légende comme quoi elles ne sont pas limitées est fausse : il y a sans doute des tronçons « libres » mais le reste est à 120 voire moins. Et, de toutes les façons, il y a tellement de trafic qu’il est vain d’espérer y pousser une pointe.

Publié dans Sport-auto | 3 commentaires

Le chapitre 4 du tome II de « perdu dans le temps » est -enfin- en ligne !

Presque 4 mois d’écart entre le chapitre 3 et le chapitre 4… Je sors d’une épouvantable crise d’inspiration et j’espère bien qu’elle est effectivement terminée !

Cela ne m’étais jamais arrivé à ce point et je commençais à croire que cela ne pouvait pas m’arriver… Maintenant, je  sais qu’on en est tous victime et je tremble d’avance pour la prochaine !

Mais bon, assez parlé de moi et revenons à ce tome II de « Perdu dans le temps » : le chapitre IV revient sur nos deux héros, Simon & Vincent… Je ne vous en dit pas plus, il suffit de lire ci-dessous :
Perdu Dans Le Temps -T2-Chap4

Publié dans Mes livres, Science-fiction | 3 commentaires

24 heures du Mans 1955 – La course de la mort, documentaire sur Arte

Le Mans, cela signifie vingt-quatre heures de course automobile à plein régime, à des vitesses délirantes et une lutte sans merci entre les constructeurs, et leurs pilotes : la plus longue course d’endurance au monde, créée en 1923. En ce 11 juin 1955, l’affluence est record avec 300 000 spectateurs. On s’attend à un duel Mercedes-Jaguar, le plus redoutable concurrent de Fangio – au volant d’une Mercedes Silberpfeil – étant le pilote Mike Hawthorn, sur un prototype Jaguar E. Deux autres bolides allemands sont en lice, dont l’un est conduit par le Français Pierre Levegh. Soudain, son engin couleur aluminium s’envole jusqu’à 4 m de hauteur pour exploser ensuite à l’intérieur de la tribune. On relèvera quatre-vingt-quatre morts et plus de cent blessés.
Pourquoi autant de victimes ? Des substances illicites avaient-elles été ajoutées au carburant ? À qui imputer la responsabilité de la catastrophe ? Des questions longtemps restées sans réponse, jusqu’à la découverte d’un film d’amateur qui apporte de nouveaux éléments à l’enquête. Ils sont exposés dans ce film à suspense où alternent témoignages d’anciens coureurs et de spectateurs, images d’archives et animation en 3D pour comprendre et reconstituer l’accident le plus meurtrier de l’histoire de la course automobile.

Diffusé hier soir sur Arte :

Publié dans Sport-auto | Laisser un commentaire

Notre documentaire vidéo, épisode 2 : le mainframe

Voici le second épisode de notre documentaire : pendant l’ère des constructeurs, l’opus majeur de la conception et du lancement de l’IBM 360…

Publié dans documentaires IT | Laisser un commentaire

Quelques compléments à l’épisode 1, la préhistoire de l’industrie informatique

Le premier épisode de notre documentaire méritait une petite rallonge… La voici avec ces 4 minutes de compléments utiles sur les débuts d’EMCC, la lutte entre Wtason père et fils et la structuration de l’industrie naissante :

Publié dans documentaires IT | Laisser un commentaire

L’Osborne 1 a 30 ans… Un article de 01 se souvient

Osborne, l’inventeur de l’ordinateur portable (enfin, il fallait y croire vu le format de l’engin !), proposait une machine dont on parle encore 30 ans après… 01 se souvient dans cet article : « L’Osborne 1, pionnier des ordinateurs portables, fête ses 30 ans« .

Publié dans Anecdotes IT | Laisser un commentaire

Mon avis sur Shift2 unleashed… Pas une simulation mais gagne à être connue !

« La simulation ultime », vraiment ?

C’est ce qu’on peut lire sur la boite… Mais, restons raisonnable, ce n’est pas une simulation mais bien un jeux vidéo. Un jeu… Oui et alors ?

C’est pas un pb si le fun est au rdv et là, une fois le défaut principal corrigé, c’est le cas !

Une semaine après le lancement, ça tangue sur les forums : une sortie baclée ?

Le principal pb : effet de flottement au volant (plus ou moins sensible selon les voitures)… Heureusement, il existe une solution avec le mod de Jules (merci Jules !).

Il y a d’autres défauts aussi selon moi : la vue « helmet cam » me rend malade et le jeux n’est pas très consistant : grosses variations de feeling selon les vues et les voitures… Finalement, il s’avère que c’est la vue capot qui est la meilleure… pour moi (alors que je n’utilise jamais cette vue sur les autres simulations) !
Le plus important : une fois la sensation de flottement éliminée (et, encore une fois, merci à Jules !), le comportement des voitures est très agréable. Certes, ça pardonne bien plus que sur iRacing mais, justement, c’est cela qui est bien : on évite d’être frustré parce qu’on se retrouve avec une course de 45 mn gachée à cause d’une simple erreur minuscule… Ce côté là (pilotage plaisant et marge d’erreur) fait que c’est vraiment récréatif comme jeu (et c’est heureux… puisque c’est un jeu !).

Shift unleashed progresse bien sur deux points majeures selon moi par rapport à sa version un : les circuits où les décors fictifs sont heureusement fortement atténués et l’IA qui est grandement améliorée aussi. Au final, on se retrouve avec un logiciel qui offre des graphismes somptueux, des sons immersifs (en version PC of course, je ne sais pas ce que ça donne sur console) et où faire un tour vite sur la boucle nord du Nurburgring reste un défi dantesque !

La vidéo ci-dessous expose mon opinion détaillé sur ce titre, c’est un peu long (14 minutes !) car je suis bavard sur ce sujet !

Au final, on se retrouve avec un logiciel « hybride » : pas vraiment une simulation (trop facile et trop de lacunes dans des domaines clés) et pas vraiment arcade non-plus (facile à piloter mais jusqu’à un certain point tout de même !). C’est sans doute une nouvelle catégorie dans notre domaine… A-t-elle de l’avenir ?

C’est trop tôt pour le dire mais c’est incontestablement un essai intéressant à suivre.

Edit du 12/04/2011 :

Les « reviews » commencent à apparaitre et la plus intéressante est celle de VirtualIR à http://www.virtualr.net/need-for-speed-shift-2-unleased-review/#more-12354

Sinon, un petit conseil dans le choix des voitures : une fois arrivé au niveau GT3, je recommande d’acheter la Corvette CR6 car c’est la plus efficace du lot (et le bruit moteur au rétrogradage est vraiment plaisant !). En revanche, au niveau GT1, la Corvette est décevante et je vous recommande plutôt la Maserati MC12 qui offre un bon compromis : stable et précise. Au niveau setup, la Maserati demande d’augmenter un peu l’aileron AR (qui est un peu moins large que celui des autres GT1). Pour toutes les voitures, augmenter la chasse et le pincement du train avant améliore aussi la précision de conduite et réduit le flottement en ligne droite quand il est encore présent malgré le « minimod » de Jules (car c’est très variable selon les voitures)…

Laissez tomber le mod drift car il est inutilisable avec un volant (au pad, il parait que c’est mieux ?). Deux autres mods aident à rendre ce jeu encore meilleur :

-1 enlever les objets fictifs du bord de piste (bien moins nombreux que dans la version 1 de Shift mais encore trop nombreux) => http://www.virtualr.net/need-for-speed-shift-2-trackside-objectscrowd-remover/
-2 enlever les effets de flous dans la vue cockpit (gênants et inutiles selon moi) => http://www.virtualr.net/need-for-speed-shift-2-reworked-cameras-mod-released/

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Notre documentaire vidéo, épisode 1 : la préhistoire

Voici le premier épisode (une vingtaine de prévue !) de notre série vidéo sur l’histoire de l’informatique : « la préhistoire »…

Publié dans documentaires IT | Laisser un commentaire

Deux documentaires à vous recommander…

Une petite vidéo où je vous recommande deux documentaires à voir ET à partager :

L’extrait de « Alerte à Babylone » où l’on peut voir l’excellent Claude Bourguigon :

Le lien vers « Inside Job » chez amazon.fr (mais vous pouvez aussi le trouver ailleurs of course !).

Et « Solutions locales pour un désordre global » :

Publié dans Ce blog, La terrible vérité | 3 commentaires

« Prédictions » sur les mobiles… à lire !

Une chronique percutante et bien vue de Laurent Poulain, à lire à http://deselection.wordpress.com/2011/04/01/predictions-sur-les-mobiles/

Publié dans Ce blog | Laisser un commentaire

Un documentaire sur l’histoire de l’informatique en préparation… L’introduction

C’est le projet sur lequel je travaille en ce moment :

ça va prendre des mois mais j’ai déjà rassemblé pas mal de matière !

Publié dans Informatique | Un commentaire

Notre documentaire sur l’histoire de l’informatique en préparation… L’introduction

Nous sommes en train de préparer un documentaire vidéo basé sur le déroulement de notre livre… Voici déjà l’introduction mais une vingtaine « d’épisodes » devraient suivre lors des prochains mois, soyez patients !

Publié dans documentaires IT | Laisser un commentaire

Paul Baran est mort…

Le New-York Times l’annonce aujourd’hui : Paul Baran vient de mourir.

Paul Baran

Paul Baran

Extrait du livre le concernant :

La commutation de paquets a été inventée séparément par Paul Baran, un Américain, (1926-2011) et Donald Davies (1924-2000), un Britannique. Baran avait étudié la vulnérabilité du réseau à une attaque nucléaire, question cruciale pour les militaires dans la période de guerre froide des années soixante. Il avait découvert que lʼon pouvait obtenir une robustesse élevée avec un réseau maillé comportant une redondance relativement faible (il faut relier chaque nœud au réseau par trois ou quatre liens au lieu dʼun seul, et équiper chaque nœud dʼune table de routage adaptative). Les travaux de Baran sont à lʼorigine de la réputation selon laquelle Internet aurait été conçu pour répondre à des besoins militaires.

Tous les opérateurs de télécom en général et AT&T en particulier étaient hostiles aux idées de Baran. Il faut se rappeler quʼà cette époque (début des années soixante) les commutateurs du réseau téléphonique étaient électromécaniques, la commutation électroni- que ne devant intervenir que dans les années soixante-dix; le circuit établi entre deux interlocuteurs avait donc une continuité et une réali- té physiques en quelque sorte palpables. Les ordinateurs relevaient dʼun autre univers technique que celui des télécoms. « Ils se compor- taient comme sʼils savaient tout et que ceux qui nʼappartenaient pas au Bell System ne savaient rien », dira Baran. « Quelquʼun dʼextérieur ne pouvait pas comprendre la complexité de leur système. Et voilà quʼun idiot sʼamène : il ne comprend visiblement pas comment le système fonctionne et il prétend que les choses sont simples ! » En dʼautres termes, un cow-boy osait trouver une route différente et plus efficace que celle utilisée par les compagnies de chemins de fer de- puis des décennies !

Sans minimiser les apports de Baran et Davies, il faut aussi mentionner Leonard Kleinrock, professeur à lʼUCLA, qui a fourni les ba- ses théoriques pour les réseaux de paquets en 1962.

Publié dans Nécrologie IT | Laisser un commentaire

Vidéo : 60 ans d’informatique en 270 images !

C’est un résumé en images de 60 ans d’informatique : de l’Univac à Androïd !

Publié dans Anecdotes IT | Laisser un commentaire

Le projet SABRE… Vu par IBM !

Sabre a été créé dans les années 50-60 pour répondre à la demande d’American Airlines… Le système est toujours en place, 60 ans plus tard !
SABRE est un des grands projets qui a fait avancer la technique informatique. Par exemple, c’est avec SABRE que les premiers disques durs de stockage ont été utilisés.

Extrait du livre à ce sujet :

Premier réseau informatique à but commercial, SABRE (Semi Automated Business Related Environment) a été réalisé par IBM au début des années soixante. Au moment de sa mise en service, il va relier 1 200 téléscripteurs à travers les Etats-Unis pour la réservation des vols de la compagnie American Airlines. Cette compagnie faisait face à de sérieux problèmes dans son processus de réservation dans les années 1950. Le système de réservation historique d’American Airlines était alors entièrement manuel. Un processus plus automatisé était nécessaire pour faire entrer American Airline dans l’ère du transport aérien à grande échelle.
En 1953 un commercial de haut niveau d’IBM, Blaire Smith, rencontre C. R. Smith, président d’American Airlines, à l’occasion d’un voyage d’affaires et ils discutent de leurs activités professionnelles respectives. À cette époque-là, IBM travaillait justement pour l’US Air Force sur le projet SAGE… Il n’a pas échappé aux deux businessmen que le principe fonctionnel de SAGE pouvait être adapté aux besoins d’American Airline en matière de réservation. 30 jours après cette rencontre, IBM soumet une proposition de recherche à American Airlines, suggérant d’étudier le problème plus avant et d’évaluer l’opportunité d’utiliser un « cerveau électronique ».
Un contrat formel pour le développement est signé en 1957, et le premier système expérimental déployé en 1960. Le système est un succès — et un succès nécessaire, notamment en raison de son coût astronomique de 40 millions de dollars (de l’époque, soit environ 350 millions de dollars d’aujourd’hui) pour le développement et l’installation. À partir de 1964, toutes les réservations American Airlines sont gérées par ce système.
Les recherches nécessaires autour du projet SABRE ont aussi amené leur lot d’innovations. En 1956, IBM commercialise le premier disque dur, le RAMAC 305 (Random Access Method of Accounting and Control). Il est constitué de 50 disques de 61 cm de diamètre et peut stocker 5 Mo.

Publié dans Anecdotes IT | Laisser un commentaire

L’aventure de l’IBM 360 vue par… IBM !

C’est Fred Brooks qui raconte cette histoire passionnante : les débuts du projet 360, le premier mainframe standard qui permit la domination d’IBM sur le marché de l’informatique pendant des décennies. Brooks s’est occupé de l’OS/360.

Extrait du livre à ce sujet :

En octobre 1961, la direction d’IBM avait nommé un groupe de travail (le SPREAD) afin d’établir un rapport prévisionnel sur ce projet de systèmes compatibles. À la fin de l’année 61, le SPREAD avait remis son rapport dont les conclusions étaient radicales. Les estimations de dépenses étaient à la hauteur des ambitions du projet : le groupe avait prévu qu’il faudrait dépenser $125 millions rien que pour le logiciel alors que la compagnie se contentait alors de $10 millions par an pour toute son activité logicielle… Bien entendu, ces estimations qui paraissaient alors délirantes étaient bien en dessous de la réalité et c’est quatre fois plus qui sera englouti par le seul système d’exploitation du 360 (pour un résultat médiocre en plus !).
Cependant, le projet fut tout de même lancé au début de l’année 1962 et mené sur plusieurs sites (y compris en Angleterre) dans le plus grand secret. Le budget alloué était colossal : 5 milliards de dollars de l’époque, soit encore plus que pour le projet Manhattan qui permit la mise au point de la bombe atomique en 1945 !
Les études coûtèrent $500 millions à elles seules et le développement dix fois plus… C’est l’usine de semi-conducteurs qui consomma le plus de ressources (les ateliers d’assemblage classiques coûtaient $120 le mètre carré mais la nouvelle « salle blanche » allait demander plus de $450 pour la même surface !) mais cet énorme investissement assura l’avenir d’IBM dans ce domaine pendant des années.

IBM fait un pari risqué avec le 360
Ce projet pharaonique était vraiment un « quitte ou double » pour la compagnie mais la direction de l’époque était consciente qu’elle n’avait pas le choix. Fin 63, le développement était en plein boom et la direction commença à réfléchir à la question du lancement… Fallait-il annoncer l’ensemble de la famille de systèmes en une seule fois ou, plus prudemment, faire une série d’annonces progressivement ?
La première option était spectaculaire et assurait un impact maximum mais elle était aussi la plus risquée : face à cette nouveauté, les clients risquaient de délaisser les anciens systèmes complètement (et en particulier le 1401 qui était le hit de Big Blue à ce moment-là) !
Heureusement pour le management d’IBM, c’est un événement extérieur qui trancha le dilemme…

L’annonce du modèle H200 d’Honeywell précipite le lancement du 360
En décembre 1963, Honeywell mis sur le marché le modèle H200 qui avait pour particularité d’être entièrement compatible avec l’IBM 1401 (déjà évoqué dans le chapire un). Le H200 était entièrement compatible avec le 1401 mais en utilisant une électronique plus avancée, Honeywell obtient un rapport prix/performance plus de quatre fois supérieur à la machine vedette d’IBM !
Et comme le H200 était effectivement compatible en tous points, les clients pouvaient rendre leur 1401 loué à IBM et le remplacer par un système Honeywell pour bien moins cher à performances égales ou bien plus performant pour un coût équivalent… Une proposition séduisante. Et le marché fut immédiatement séduit : durant la première semaine qui suivit l’annonce du H200, Honeywell reçut plus de commandes que lors des huit années précédentes de son activité sur ce marché informatique !
L’arrivée du H200 coupa net le flux des commandes pour le 1401 et les prévisions étaient alarmantes : chez IBM, on redoutait que plus des 3/4 des utilisateurs du 1401 allaient basculer sur le H200… Le moment était critique pour Big Blue, après avoir investi massivement sur sa nouvelle gamme, voici qu’un concurrent asséchait son cash-flow avec une nouveauté fracassante !
En dépit de l’effort titanesque effectué par la compagnie sur le « new product line » (« la nouvelle ligne de produit », nom de code interne pour le projet 360), l’engagement envers le 360 n’était pas encore définitif… Preuve des hésitations internes, une évolution du 1401 (appelée 1401S) était parallèlement en chantier. Mais l’initiative d’Honeywell décida la direction d’IBM à « mettre le paquet » sur la nouvelle ligne et de tourner ainsi résolument le dos au passé. Le lancement du 360 fut spectaculaire : une grande mobilisation médiatique et marketing qu’on n’avait encore jamais vue pour le lancement d’une gamme d’ordinateurs…
La gamme (limitée au départ à cinq modèles) fut annoncée le 7 avril 1964. Elle acceptait 40 modèles de périphériques dont la fameuse imprimante 1403 introduite avec l’ordinateur commercial 1401 (et qui sera utilisée jusqu’aux années quatre-vingt). De plus, le système 360 comportait en standard un émulateur de 1401. Ce dernier point n’était pas un détail mais bien un ajout intelligent permettant à la base installée de « glisser » en douceur de l’ancien système vers le nouveau : l’émulateur était capable d’exécuter les programmes conçus pour le 1401 sur le 360 sans réécriture ni modification, de quoi effectuer la migration progressivement. Ainsi, les clients du 1401 n’étaient plus tentés de passer à Honeywell puisqu’IBM offrait une voie d’évolution vers le haut qui paraissait attrayante…
Et le résultat de ce pari risqué dépassa les espérances : immédiatement, des milliers de commandes affluèrent et, pendant deux ans, IBM ne fut capable d’honorer que la moitié des 9000 commandes en attente. Dans les trois années qui suivirent le lancement du 360, les ventes et revenus des locations montèrent à plus de $5 milliards, IBM ouvrit de nouvelles usines et fit monter ses effectifs jusqu’à employer presque 250 000 personnes dans le monde… Le 360 a été décrit comme « l’ordinateur fait par IBM qui a fait IBM » et c’était tout à fait vrai : ce système a alimenté la croissance de la compagnie pendant 30 ans et a défini l’architecture de base des mainframes encore en usage aujourd’hui !
Le marketing vantait l’avancée révolutionnaire qu’apportait la nouvelle famille d’ordinateurs de Big Blue pourtant la technologie employée par IBM n’était pas si avancée que cela : les processeurs SLT (Solid Logic Technology) du 360 étaient basés sur un mixte entre la seconde et la troisième génération de l’électronique de l’époque (la première génération d’électronique était basée sur les tubes à vide, la seconde sur les transistors, la troisième sur les circuits intégrés). Pire, la plus grande faiblesse du 360 résidait dans son système d’exploitation System/360 dont le développement avait coûté fort cher et pour un résultat médiocre : les milliers de développeurs avaient consommé plus de $100 millions pour aboutir à un système qui supportait à peine le temps partagé. Il y avait bien des moniteurs de télétraitement dans les premières versions d’OS/360 (BTAM et QTAM, peu utilisés il est vrai) mais, de toute façon, le traitement par lots représentait probablement plus de 95% l’informatique de l’époque !

Le quasi-échec de l’OS/360
Le chef du projet OS/360 était Frederick Brooks et celui-ci expliqua dans un livre célèbre toutes les difficultés de ce projet dantesque : les retards s’accumulaient, les bugs étaient nombreux, le système était très lent et incomplet.
Pour tenter de tenir les délais et les objectifs, le management augmentait continuellement les effectifs : d’une centaine au départ, les programmeurs seront plus de 1000 au pic du projet et on compta plus de 5000 intervenants sur les différentes parties du projet (tests et documentations). Le budget (déjà conséquent au départ) explosa puisqu’IBM dépensa finalement quatre fois plus que prévu pour un OS buggé, lent et incomplet… À la suite du lancement du 360, l’OS demanda encore plusieurs années avant d’être corrigé et complété.

Publié dans Anecdotes IT | Laisser un commentaire

Critique du livre « Comprendre l’Empire » d’Alain Soral, excellent ouvrage !

Comme je l’explique dans la vidéo ci-dessous, je ne connaissais pas du tout Alain Soral mais cette découverte est d’autant plus réjouissante !

Dans cette vidéo, j’explique pourquoi, en tant qu’homme libre, vous devriez lire ce livre…

Une courte critique vidéo du dernier livre d’Alain Soral, « Comprendre l’Empire » est un chef d’oeuvre que tout le monde devrait lire avec avidité !

Sous forme d’avant-goût, je vous recommande aussi de visionner les six vidéos publiées par Alain sur son site perso à propos de cet ouvrage justement… C’est par ici http://www.alainsoral.com/2011/03/comprendre-l%E2%80%99empire-entretien-avec-alain-soral-2/

Publié dans Livres | 3 commentaires

Demain soir, tous devant la télé !

Oui, c’est moi qui lance ce mot d’ordre : mardi 15 mars, il FAUT regarder la télé, pour une fois (le reste du temps, non, il ne faut pas…).

Oui mais pas n’importe quoi bien sûr : amateurs de football, de TF1 et autres M6, vous allez être déçus… C’est sur Arte à 20:40 qu’il faut regarder l’excellent documentaire « Notre poison quotidien » dont voici la bande annonce :

Plus de détails et d’autres vidéos à http://www.arte.tv/fr/Comprendre-le-monde/Notre-poison-quotidien/3673928.html

Publié dans La terrible vérité | 2 commentaires

Quelques éléments intéressants sur la mentalité humaine… Ou pourquoi la « pensée unique » a de l’avenir !

Pourquoi la « pensée unique » existe-t-elle et est-elle si répandue ?

Tout simplement parce qu’il est dans la nature humaine de se « mettre en conformité » avec le groupe… Septique ?
Vous ne devriez pas pourtant… Abraham Maslow l’a bien compris en mettant le « besoin d’appartenance » dans sa hiérarchie des besoins humains (voir à http://fr.wikipedia.org/wiki/Pyramide_des_besoins_de_Maslow). Mais ce que Maslow ne soupçonnait pas, c’est que la satisfaction de ce besoin (le besoin d’appartenance ou d’intégration) pousse l’individu à tricher pour s’aligner sur « la pensée unique »… Et c’est ce que « l’expérience de Asch » a démontré !

Commençons donc par l’expérience de « Asch » (imaginée par Solomon Asch, voir à http://fr.wikipedia.org/wiki/Solomon_Asch) :

expérience de Ash, le conformisme par ldn67

Continuons par l’expérience de Leyens (chercheur Belge, expérience réalisée en 1986) :

Expérience de leyens par Super_Resistence

Allez, une autre sur le même principe (avec un commentaire très intéressant à la fin de Leyens justement) :

Expérience Leyens – Soumission à l’autorité par Super_Resistence

Enfin, terminons ce bref tour d’horizon édifiant par la bien connue « expérience de Milgram » (voir à http://fr.wikipedia.org/wiki/Exp%C3%A9rience_de_Milgram) :


L’expérience de Milgram par Super_Resistence

Alors, convaincu ?

Publié dans La terrible vérité | Un commentaire

« Water makes money », un documentaire à ne pas manquer le 22 mars sur Arte !

Informez vos amis et connaissances et tous les médias de la date de
diffusion du film « Water makes money » sur ARTE : le 22 mars à 20h40″

Plus il y a de gens qui attendent sa diffusion, plus cette date a des chances d’être maintenue !

Veolia porte plainte contre le film documentaire « Water Makes Money »

Après Paris, Berlin?

Ceux qui portent plainte contre le film „Water Makes Money“ doivent
affronter une tempête. A Berlin, Veolia ne peut plus cacher derrière
des contrats secrets sa « machine à sous » qui lui a rapporté dans
les 10 dernières années 1,3 milliard d’euros grâce à la distribution
publique de l’eau. Les habitants de Berlin ont décidé, par
référendum, que ces contrats doivent être publiés. Et voilà qu’il
arrive exactement la même chose que ce que le film montre avec
l’exemple de Paris, Bordeaux et Toulouse : des juristes attentifs
mettent le doigt sur les astuces juridiques et les coups-bas cachés
dans le contrat du groupement, qui permettent aux acteurs mondiaux de
générer des milliards grâce à la distribution communale de l’eau.
Selon le directeur de l’Institut pour le droit en matière d’énergie
et de la concurrence de l’Université Humboldt à Berlin, Hans-Peter
Schwintowski, une évaluation juridique minutieuse de ces contrats
amène forcément au constat de leur invalidité. La garantie de
bénéfices serait, de fait, une subvention de la Communauté européenne
qui aurait dû recevoir une autorisation, et l’appel d’offres pour
l’attribution du contrat n’aurait pas non plus été réalisé
correctement. Donc, la privatisation partielle de la distribution de
l’eau à Berlin serait entachée de nullité et la voie serait ouverte
pour la remunicipalisation. Certes, il faudrait rembourser le prix
d’achat d’environ 1,8 milliard d’euros à Veolia&Co, mais, en
contrepartie, les bénéfices de 1,3 milliard d’euros devront également
être remboursés.

Nous n’en sommes pas encore là, à Berlin, mais le premier pas
important sur la voie de la remunicipalisation est fait, comme à
Paris et à Bordeaux il y a 5 ans…..

L’opinion publique s’éveille
Un grand merci à toutes celles et à tous ceux qui ont lu et envoyé
notre article sur l’action en justice de Veolia contre Water Makes
Money ! C’est tout simplement incroyable combien la société civile de
libres penseurs et de gens prêts à agir responsablement a grandi en
force et en influence. La nouvelle a déclenché une vraie vague de
l’attention publique, en France comme en Allemagne et dans les pays
voisins. Les journaux Rue 89, Tele Premiere, Télérama en France, et
Die TAZ, Hamburger Abendblatt, Stuttgarter Zeitung, Berliner
Morgenpost, Junge Welt, Badische Zeitung en Allemagne sont quelques
exemples de l’énorme écho qu’a trouvé cette affaire dans la presse.
Des chaînes de télévision ont également manifesté leur intention de
traiter ce sujet. Et quand on regarde notre carte on constate qu’il y
a énormément de nouvelles projections de notre film – c’est
magnifique!!!!!!

Ils vont devoir montrer leurs cartes
Nous apprendrons seulement pendant le procès quels points concrets du
film sont concernés par la plainte de Veolia, car le groupe n’est pas
obligé de montrer ses « cartes » avant le procès (chose impossible en
droit allemand!). Mais sous la pression de l’opinion publique,
l’avocat de VEOLIA a entre-temps donné quelques précisions : ils
veulent obtenir des « dommages-intérêts justes » pour la diffamation
du groupe. Ils veulent porter plainte contre l’accusation de
corruption, et surtout contre l’utilisation du mot « corruption »
dans le film.

La corruption active d’élus communaux, la nomination de représentants
du groupe dans des organes de la Communauté européenne qui décident
de l’attribution de marchés au groupe même, les invitations de hauts
représentants de l’Etat et de membres de commissions sur des yachts à
Saint-Tropez peu avant l’attribution de contrats de plusieurs
millions d’euros… tous ces exemples relatés dans le film n’auraient
rien à voir avec de la « corruption »?

Ils commencent à trembler
L’attitude d’ARTE dans cette situation est jusqu’ici fantastique. Le
directeur des programmes déclare dans une interview: « Nous soutenons
le film ». ARTE France organise une grande conférence de presse le 23
février 2011 au sujet de « Water Makes Money » dans le centre du « pouvoir « , à Paris !

Mais depuis que le PDG de Suez a appelé la présidente d’ARTE pour
protester contre la diffusion du film, on commence à trembler dans
les bureaux de la chaîne. Certes, il n’est pas déshonorant de
trembler. Face au pouvoir des global players Veolia et Suez, on a
raison de trembler ! Quand un boss d’une entreprise mondiale n’a rien
de plus important à faire que d’intervenir pour empêcher la diffusion
de Water Makes Money, on peut bien évidemment parler d’un grand
honneur pour le film ! Mais cela montre aussi combien il est
important pour ces grands groupes – chacun à sa manière – de bannir
ce film de l’espace public. Contrairement à la chaîne allemande NDR,
pour laquelle selon les dires de Veolia il suffisait en 2006 d’une
intervention de l’entreprise pour bannir du petit écran le film
précédent « Wasser unterm Hammer » (« L’eau aux enchères ») , ARTE et
sa présidente soutiennent toujours Water makes Money et maintiennent
la date prévue de diffusion le 22 mars 2011 à 20h40 ! Mais avant ce
jour-là, il y aura certainement un autre coup de téléphone, une autre
attaque.

Apprendre du passé
Ce n’est malheureusement pas un fait unique que les grands groupes du
business mondial de l’eau essaient d’empêcher la diffusion de
documentaires embarrassants. Ainsi, le film « Flow » avait été
attaqué en justice par SUEZ après sa diffusion sur ARTE. En première
instance, c’est le film qui a gagné, mais Suez a déjà fait appel du
jugement…

L’exemple actuel de l’auteur de Canal+, Denis Robert, montre
également ce qui pourrait être possible dans le procès en diffamation
avec demande de dommages-intérêts contre Water Makes Money. Lui aussi
avait été attaqué pour diffamation et confronté à des réclamations
énormes de dommages-intérêts quand il a dénoncé le blanchiment
d’argent chez Clearstream. Avec ce procès, l’entreprise l’a presque
poussé au désespoir et à la faillite. Il a perdu dans toutes
les instances. Seulement maintenant, après 10 années de procédures
judiciaires, la Cour de cassation a constaté que ces récits étaient,
pour l’essentiel, corrects !

Le traitement des journalistes par la justice française a été
désapprouvé plus d’une fois par les instances européennes.

L’ouverture du procès contre « Water Makes Money » n’interviendra
peut-être que dans un an. N’acceptez pas que Water makes Money
devienne un nouveau « Clearstream »!

Pour cette raison : Aidez-nous à diffuser ces informations !

Chaque nouvelle diffusion du film, chaque DVD commandé compliquent
les projets de Veolia et Suez !

Informez vos amis et connaissances et tous les médias sur la date de
diffusion sur ARTE : le 22 mars à 20h40 ! Plus il y a de gens qui
attendent la diffusion, plus cette date sera sûre !

Et nous souhaitons que le 22 mars à 20h40 procure à ARTE le succès d’audimat
que cette chaîne et ses collaborateurs ont d’ores et déjà mérité !

Publié dans La terrible vérité | 2 commentaires

Un documentaire sur l’histoire de l’informatique par la BBC en 1991

Tourné en 1991, ce documentaire de la BBC avait pour titre « The dream machine » :

Publié dans Anecdotes IT | 4 commentaires

La version papier de mon livre « Publier sur iPad & Kindle »

Bien entendu, il est plus logique d’acheter la version numérique de cet ouvrage (c’est d’ailleurs celle qui se vend le mieux) mais avoir une version papier est toujours utile… Voici deux photos qui illustrent l’aspect et le contenu de mon dernier livre en date :

La couverture de "Publier pour iPad & Kindle"

La couverture de "Publier pour iPad & Kindle"

L'intérieur de mon livre "Publier sur iPad & Kindle"

L'intérieur de mon livre "Publier sur iPad & Kindle"

Vous pouvez acheter ce livre sur TheBookEdition pour 10€ (hors frais d’envoi).

Publié dans Informatique, Livres | 3 commentaires

La candidature « Annecy 2018 », réflexions pertintentes d’un Canadien…

Non, je ne vais pas gloser sur les déboires du comité de candidature d’Annecy aux JO d’hier pour 2018, on ne tire pas sur une ambulance dit-on…

Mais je voudrais joindre ma voix à tous ceux et celles qui ne veulent PAS des JO à Annecy et pour illustrer les raisons de ce refus, je voudrais vous renvoyer sur l’excellent article de Robert Cossette, un Canadien installé à Annecy et qui partage avec nous quelques réflexions sur l’intérêt des JO que je trouve particulièrement pertinentes (cela rejoint exactement ce que j’écris sur le sujet depuis des années !). C’est à lire (et à savourer) à http://papouvb74.wordpress.com/2011/02/11/annecy-2018-les-vrais-infos/

Publié dans La terrible vérité | Un commentaire

Une préface pour un livre sur PHP… En 1999 !

Voilà un texte rédigé en 1999 pour la préface d’un livre sur PHP…

La décennie 90 est une des plus agitée de l’histoire de l’informatique : elle commence par l’explosion du client-serveur et se termine sur la généralisation du Web !

Dans ce tumulte, on a assisté à une prolifération inattendue des langages de programmation. Inattendue car la période précédente avait plutôt éteint les espoirs des challengers (tels que Pascal ou Smaltalk) de déloger Cobol et le C de leurs positions dominantes dans leurs domaines respectifs.

Passons rapidement sur les nombreux L4G (très peu ont survécu finalement) qui ont accompagné le mouvement client-serveur et revenons sur les premiers pas du Web. Il y a quelques années, les développeurs de sites Web interactifs n’avaient pas le choix, pour activer des traitements sur le serveur invoqués depuis une page HTML, il fallait passer par l’interface CGI. Toutefois, cette dernière vous laissait libre du langage à employer. Et, plutôt que le langage C, les concepteurs de sites se sont massivement rués sur PERL. En effet, ce langage, orienté production de rapports, était particulièrement à l’aise dans les manipulations de chaînes de caractères, plutôt pratique pour générer des pages HTML !

Le succès de PERL dans ce domaine a permis de contribuer à la reconnaissance du mouvement des logiciels à code source ouvert (ou logiciels libres) puisque ce langage fait partie intégrante de cette mouvance au même titre qu’Apache (le serveur HTTP le plus répandu sur le Net) ou Linux (qu’on ne présente plus !).

Le développement sur le Web ne s’est pas cantonné dans le recours à l’interface CGI, de nombreux serveurs d’applications sont apparus (la plupart reposant progressivement sur Java) et même PERL s’est affranchi de CGI grâce au module mod_perl qui lui permet d’être pris en charge par Apache pour de meilleures performances à l’exécution. Mais la situation n’a pas tourné au statut quo pour autant et le succès confirmé de PERL n’a pas empêché l’émergence d’un autre langage, lui aussi dans le cadre des logiciels libres, et cette fois véritablement spécialisé développement Web, PHP.

Une plaisanterie prétend que les lettres PHP signifient « People Hate Perl » (les gens détestent PERL !). La vérité c’est que le « préprocesseur hypertexte » prend une place laissée vacante : celle de langage dédié pour le Web.

Évidemment, il existe d’autres langages qui sont nés avec et exclusivement pour le Web tel que Cold Fusion mais il s’agit la plupart du temps de L4G commerciaux (Cold Fusion est la propriété de son éditeur Allaire corp.), PHP est le seul langage « libre » uniquement orienté Web et ce n’est pas rien. C’est de cette combinaison (spécialisation et développement collectif) que PHP tire tout son dynamisme.

Il n’est pas inutile de revenir sur le mécanisme de cercle vertueux qui donne aux logiciels libres un tel avantage sur les logiciels commerciaux mais permettez-moi d’abord une remarque : on n’a pas encore perçu toutes les conséquences de la lame de fond des OSS (Open Source Software) puisqu’elle remet aussi en question un des principes constatés dans le fonctionnement du marché des logiciels commerciaux, à savoir la règle « le vainqueur prend tout ».

Cette règle dévastatrice donne un avantage démesuré à l’éditeur du logiciel dominant sa catégorie puisque, effet de réseau aidant, son produit se retrouve assez rapidement en position de quasi-monopole (comme Microsoft Office sur la bureautique). La montée en puissance de PHP dans un secteur où PERL avait déjà un enracinement solide démontre que cette règle n’a pas cours avec le logiciel libre et c’est heureux !

Au moment où les entreprises découvrent à la fois les bénéfices du logiciel libre et la nécessité de tirer parti du Web pour son informatique et pour ses affaires, il n’est pas difficile de prédire à PHP un brillant avenir.

Publié dans Anecdotes IT | Laisser un commentaire

Biographie vidéo, au tour de Steve Jobs !

Incontournable Steve Jobs, impossible d’y échapper depuis dix ans… Cependant, quels que soient ses mérites (et ils y en a !), notre Steve est un peu comme Gates : il n’ a rien inventé et son influence sur la technique est quasi-nulle. Cependant, il a su « sentir » les tendances et en tirer parti (tout comme Bill d’ailleurs).

Publié dans Anecdotes IT | Laisser un commentaire

De l’arrivée des PC aux « systèmes ouverts »

Les années quatre-vingt débutent par un événement de taille : le lancement de l’IBM PC. L’engagement du spécialiste de l’informatique traditionnelle donne un tout autre poids à la micro-informatique. A-t-on conscience, à cette époque, du bouleversement que cela va provoquer ?

Difficile de dire si l’industrie, au sens large, était consciente des bouleversements à venir mais les acteurs impliqués étaient eux bien conscient de l’importance de l’entrée en lice du N°1 mondial. Apple par exemple a même été jusqu’à acheter une pleine page dans le Wall Street Journal avec pour seul message un grand « Welcome » pour marquer l’arrivée de ce concurrent de taille.

En revanche, il est clair que, à part quelques avant-gardistes comme Bruno Lussato, la plupart des observateurs n’imaginent pas une seconde que les micro-ordinateurs reliés en réseaux pourraient représenter une architecture alternative aux grands mainframes.

Jusque-là, le choix du matériel était déterminant. On choisissait IBM, Digital, Bull ou Sperry. Les notions de réputation du constructeur, de performance du matériel, étaient intimement liées à la notion d’application. Comment l’intérêt pour le logiciel va-t-il naître dans les entreprises ?

En fait, l’intérêt des entreprises a toujours été grand pour le logiciel, c’est pour le progiciel qu’il va naître progressivement. Il faut préciser que pendant une longue période, l’offre de logiciels sur étagère est pratiquement inexistante. Les clients sont habitués au « développement à la maison » (house programming) parce que, de toute façon, il n’y a pas d’autres moyens d’obtenir ce qu’on veut ou même ce dont on a besoin.

Les notions d’applicatifs et d’ordinateurs étaient tellement liées que l’idée même qu’il puisse y avoir des éditeurs de logiciels indépendants était étrangère à la plupart des gens. Ceux qui étaient assez clairvoyants pour avoir envie de se lancer dans ce nouveau business étaient souvent découragés par les professionnels qui n’imaginaient pas de place autrement que pour des acteurs fortement intégrés comme l’étaient alors tous les constructeurs.

IBM va choisir un petit éditeur, auteur d’un Basic, pour le développement du système d’exploitation de son PC. C’est une rupture à la fois avec l’approche traditionnelle (le constructeur met lui-même au point son système d’exploitation) et le début de standardisation autour de CPM de Digital Research. Cela aura-t-il des conséquences sur l’évolution future des logiciels applicatifs ?

Il faut d’abord se souvenir qu’IBM n’a pas choisi cette démarche, en rupture avec la logique (Digital Research, éditeur de CP/M, était l’incontestable leader de marché qui était alors encore assez réduit) et surtout avec ses propres habitudes (le syndrome du « not invented here » était très présent chez Big Blue), par sa seule volonté mais plutôt par accident : les juristes d’IBM ont effrayé les dirigeants de Digital Research avec leur NDA (non disclosure agreement), du coup, l’affaire n’a pu se conclure et ils sont retournés voir Microsoft trop content de récupérer aussi la réalisation du système d’exploitation (alors qu’à l’origine, IBM n’avait approché Microsoft que pour obtenir les droits sur le MS Basic).

Mais, il faut remonter à la genèse du projet PC pour comprendre pourquoi IBM s’est résolu à aller faire son marché auprès des leaders naissants de ce marché embryonnaire de la micro-informatique. IBM voulait investir ce marché dès 1978 mais les différents projets proposés ont été refusés par la direction pour diverses raisons. En 1980, le N°1 mondial n’avait toujours rien à proposer alors que, pendant ce temps, ce marché commençait à prendre de l’ampleur.

C’est donc en « mode panique » que l’état-major d’IBM a dépêché un commando chargé de boucler un projet viable en quelques mois… D’où la démarche de prendre des composants standards (et le processeur chez Intel) et des logiciels du marché.

C’est également cette conception « vite fait, mal fait » à base d’éléments largement disponibles qui rendit le PC si facilement copiable malgré les protections juridiques qu’IBM avait cru suffisantes.

L’autre conséquence, c’est qu’IBM a donné involontairement un large crédit à ses « fournisseurs » et ainsi a permis l’essor d’une catégorie d’acteurs qui, auparavant, n’existait presque pas : les éditeurs de logiciels. Les PC ont été copiés et vendus à très large échelle et les clients ont commencé à s’habituer à acheter des logiciels sur étagères, d’abord pour les PC mais la suite était facile à prévoir.

Assez rapidement, les utilisateurs vont d’abord « acheter un logiciel ». Un PC, c’est surtout Word et Multiplan. Un peu plus tard, un Macintosh, ce sera Mac Write et Excel. Ce qui semble clair dans le domaine, jeune, de la micro-informatique, a-t-il des répercussions dans le domaine de lamini-informatique, à l’époque exclusivement propriétaire ?

Dans un premier temps, pratiquement pas. Ce n’est que très progressivement, par le biais des L4G (comme Progress) et des SGBDR (comme Oracle) que les minis et d’abord les Vax de DEC ont commencé à connaître une offre logicielle un peu plus étoffée.

D’ailleurs, le discours de ces éditeurs (avec Oracle comme porte-drapeau) était précisément de se libérer de l’emprise des constructeurs grâce à leurs produits qui étaient naturellement multiplates-formes. En effet, un éditeur indépendant avait forcément besoin de « porter » son produit sur les différents minis disponibles à l’époque afin d’élargir son marché. Les portages étaient de qualité très inégale mais la couverture était quasiment totale.

On peut dire, en quelque sorte, que les éditeurs ont donné l’exemple d’abord par leur politique commerciale. Petit à petit, l’idée qu’on pouvait être indépendant des plates-formes matérielles à fait son chemin, on a même fini par appeler cela les « systèmes ouverts »…

Publié dans Anecdotes IT | Laisser un commentaire

Au tour de la bio (vidéo) de Bill Gates…

Bill Gates n’a pas eu une influence très importante sur l’évolution de la technique informatique. Il est même juste de dire qu’il n’a rien inventé. Mais, pour le comparer à d’autres illustres personnages de l’histoire des USA, s’il n’a pas été Edison, on peut dire qu’il a été le « Rockfeller » de son temps !

En effet, bien plus que sa faible influence sur la technique, on retiendra sa très forte influence sur l’industrie du logiciel et le marché informatique, sans conteste cette fois…

Publié dans Anecdotes IT | Laisser un commentaire