Inutile de vous le redire, l’IA est à la mode en ce moment !
Et, comme d’habitude avec les vagues techniques à la mode, le discours ambiant est à la fois convergent et délirant. Convergent, car on est face à une énième itération de la pensée unique : tout le monde exprime le même discours vis-à-vis de l’IA qui peut se résumer à peu de choses près à « c’est hyperimportant et ça va tout changer » (ça ne vous rappelle rien ?).
Délirant, car, comme à chaque fois, le discours contient toutes les exagérations et toutes les promesses qui accrochent l’attention, mais qui ont peu de chances de se réaliser (ou alors, pas à court terme ni même à moyen terme). Une fois encore « c’est hyperimportant et ça va tout changer » contient sa propre enflure et ne peut être prise au sérieux. C’est tout le problème du « hype », un phénomène qui se répète encore et encore dans le domaine technique. Tous les cinq/six ans, vous avez une nouvelle mode qui est présentée comme « hyperimportant et qui va tout changer » : la biotech, la nano, etc.
En ce moment c’est l’IA et nul ne peut y échapper. Mais rien ne nous empêche d’avoir un oeil critique et de repérer ce qui ne va pas dans ce cycle. Tout d’abord, l’hystérie actuelle ressemble trait pour trait à ce qu’on a déjà vécu lors du précédent printemps de l’IA lors des années quatre-vingts (et, en passant, pan dans la gueule de tous ceux qui disent « on n’a jamais vu cela ! ») : occupation et même saturation de l’espace médiatique (d’abord spécialisé ensuite généraliste), les politiques s’en emparent et en font le nouveau défi du moment, les grandes entreprises procèdent aux rachats de start-up prometteuses du domaine pour avoir une chance de « rester dans le coup » et programmes de recherches publiques et privés annoncés à cadence rapprochée afin de suivre le mouvement.
Tous les indicateurs nous disent qu’on est actuellement dans la même configuration qu’en 1985, année du pic de l’IA basée sur les systèmes experts. Ne vous laissez pas leurrer par ceux qui vont rétorquer « oui mais cette fois, avec le deep-learning, c’est bien plus sérieux qu’avec les systèmes experts d’il y a trente ans… ». C’est toujours le genre de contre-argument qui me fait rire car cela voudrait dire que les mêmes causes ne produisent PAS les mêmes effets finalement. C’est normal que les observateurs soient aveugles vis-à-vis à cette tendance qu’à l’Histoire à se répéter (y compris l’Histoire technique) car ils sont ignares en la matière (historique).
Allez, un exemple pour illustrer :
IBM travaillerait activement sur un projet de puces qui pourraient révolutionner l’IA. En effet, le géant américain tente de prouver que l’implantation d’un réseau de neurones, directement dans du silicium, peut le rendre 100 fois plus efficace. Source => https://www.technologyreview.com/s/611390/ai-could-get-100-times-more-energy-efficient-with-ibms-new-artificial-synapses/
Ce principe de passer des processeurs généralistes à des processeurs spécialisés (sensés être bien plus efficace pour ce qu’on en fait) est un refrain que j’entends depuis que je suis dans le domaine informatique !
En 1985, les systèmes experts étaient développés en utilisant un langage spécialisé : LISP. Problème : LISP était lent à s’exécuter sur les stations de travail des années quatre-vingt… Alors, forcément, une partie de l’industrie informatique s’est occupée de combler cette lacune vue comme une opportunité juteuse !
Les machines LISP ont eu leur heure de gloire mais ça n’a pas duré. Tout cela s’est effondré à la fin des années quatre-vingt alors que l’IA d’alors rentrait pour une nouvelle période « hivernale »…
OK, on a compris ce qui s’est passé en 1985 mais pourquoi et comment cela risque-t-il de se reproduire dans les deux ans à venir ?
Eh bien tout simplement à cause de l’obstacle de la généralisation. Ce que les GAFAMs nous montrent avec l’IA est très spectaculaire mais quid des utilisateurs plus ordinaires ?
En effet, il faut que l’IA puisse se banaliser suffisamment afin qu’elle soit utilisée avec profit par des organisations moins à la pointe de la technologie que les leaders bien connus. Or, c’est exactement la mission que s’est fixée IBM avec son produit phare en la matière : Watson. Et c’est pourquoi on retrouve la paire IBM/Watson dans tous les communiqués de presse triomphants sur la mise en oeuvre de ce dernier dans des cas concrets. Mais, bien entendu, on parle moins des échecs… Alors qu’il semble que ces échecs, justement, ne soient pas rares !
Rappelons que le machine learning ne fonctionne qu’à condition de fournir des données adéquates en amont. Beaucoup de données, énormément de données. Il faut aussi que cette masse de données soit de qualité : correctement triée et labellisée… Et, bien sûr, c’est là où ça pêche : les entreprises et les organisations ne sont pas formidablement performantes sur le big data et peinent à atteindre ce niveau d’exigence. Et c’est pourquoi le magazine Forbes se demandait si, finalement, Watson était à la hauteur (voir Is IBM Watson A ‘Joke’?)
C’est l’échec de la généralisation qui va causer la déception et la réalisation que, peut-être, pour l’IA, c’est sans doute encore trop tôt et qu’un nouvel « hiver de l’IA » va débuter. Selon moi, d’ici deux ans.
Cela n’est pas grave car une mode est aussitôt remplacée par une autre : dès que l’IA descendra de son piédestal, on appellera la nano ou la biotech (qui viennent toutes deux de purger une période « hivernale ») pour relancer le rêve et on repartira pour un tour !