1. LE PERPÉTUEL PRINTEMPS DE L’IA

Il y a encore quinze ans, la réflexion sur l’IA était cantonnée à quelques cercles étroits de spécialistes et de chercheurs. Pour le monde entier, elle n’était qu’un thème de science-fiction où des machines plus ou moins hostiles entraient en interaction avec les humains du futur. Mais personne n’imaginait que l’Intelligence Artificielle puisse devenir un objet contemporain, traversant l’écran pour atterrir dans notre vie réelle. Et pourtant, l’IA s’est imposée en quelques années comme le principal vecteur des bouleversements qui ont lieu aujourd’hui dans le monde. Notre société, déjà, ne saurait plus s’en passer ; elle en devient même plus dépendante à chaque instant.

L’IA a été beaucoup fantasmée et beaucoup annoncée. Bien des prévisions très optimistes se sont révélées fausses. Aujourd’hui, la phase de décollage est bel et bien amorcée, faisant basculer le pouvoir mondial entre les mains de quelques opérateurs privés, les géants du numérique, situés loin de notre Europe.

1956-2011 : la succession des fausses promesses

L’affaire n’avait pas très bien commencé. Pendant longtemps, les chercheurs ont piétiné. Les scientifiques de l’après-guerre avaient deux convictions : l’IA capable de conscience d’elle-même semblait à portée de main, et elle serait indispensable pour réaliser des tâches complexes. C’était une double erreur.

Les bases de l’IA avaient été posées dès 1940, par Alan Turing, qui en 1942-43 cassa les codes d’Enigma, la machine de cryptage des messages secrets des Allemands, et permit, ainsi aux Alliés de connaître les informations stratégiques des ennemis1.

En fait, la recherche en IA n’a vraiment décollé qu’après la conférence du Dartmouth College, aux États-Unis, pendant l’été 1956. Les scientifiques étaient alors persuadés que l’avènement de cerveaux électroniques égalant l’homme était imminent. Beaucoup de fondateurs de la discipline étaient présents : Marvin Minsky, John McCarthy, Claude Shannon et Nathan Rochester. Ils pensaient que quelques milliers de lignes de codes informatiques, quelques millions de dollars et vingt années de travail allaient permettre d’égaler le cerveau humain, qui était considéré comme un ordinateur assez simple.

La désillusion fut immense : vingt ans après, les mousquetaires de l’IA durent admettre que les ordinateurs de 1975 restaient primitifs et que le cerveau humain était bien plus complexe qu’ils ne le pensaient.

Les chercheurs des années 1970 réalisèrent alors qu’un programme intelligent avait besoin de microprocesseurs infiniment plus puissants que ceux dont ils disposaient, qui ne réalisaient que quelques milliers d’opérations par seconde. La course aux subventions publiques les avait conduits à faire des promesses totalement irréalistes à leurs sponsors publics ou privés, qui finirent par s’en apercevoir.

Après avoir suscité énormément d’enthousiasme et de fantasmes, les échecs de l’IA ont provoqué une chute des financements. Le point de départ des désillusions a été l’échec cuisant2 de la traduction automatique qui intéressait beaucoup les Américains durant la guerre froide, les gens parlant le russe étant rares…

Une deuxième vague enthousiaste est partie du Japon vers 1985, avant de se fracasser une nouvelle fois sur la complexité et les particularités du cerveau humain. Ces périodes de désillusion sont connues, dans le monde de la recherche en informatique, sous le nom d’« hivers de l’Intelligence Artificielle ».

Après l’hiver, le printemps arrive. À partir de 1995, l’argent revient. En 1997, l’ordinateur Deep Blue bat le champion du monde d’échecs, Garry Kasparov. C’est la première fois qu’un match opposant un homme et une machine est gagné par la seconde. En 2011, le système expert d’IBM, Watson, bat les humains au jeu télévisé Jeopardy.

Malgré ces indéniables et spectaculaires progrès, les programmes informatiques n’avaient toujours pas encore acquis les caractéristiques les plus subtiles du cerveau. Le cerveau est certes un ordinateur « fait de viande », mais c’est un ordinateur très complexe et d’une nature différente des circuits intégrés. Sa particularité ? Grâce à l’interconnexion de ses milliards de neurones, il est capable d’appréhender des situations inconnues, d’inventer, de réagir à l’imprévu et de se « reprogrammer » en permanence.

Plus que la puissance, il fallait une innovation de méthode pour permettre à une IA d’accomplir de nouveaux pas en direction de l’intelligence humaine. Avec le deep learning3, un premier pas est fait.

En 2023, l’IA n’est plus totalement inintelligente

Schématiquement, il y a quatre âges de l’IA. La première phase, de 1956 à 2011, repose sur des programmes traditionnels, avec des algorithmes qui se programment manuellement4. Cela rend de grands services pour gérer des problèmes simples, comme l’optimisation de la trésorerie d’une entreprise.

La phase deux, commencée vers 2012, correspond à l’ère du deep learning, avec les premiers programmes dépassant l’homme, par exemple en reconnaissance visuelle5. Le deep learning permet à un programme d’apprendre à se représenter le monde grâce à un réseau de « neurones virtuels6 » effectuant chacun des calculs élémentaires. Ce ne sont pas des programmes informatiques banals : le deep learning s’éduque plus qu’il ne se programme, ce qui donne un immense pouvoir aux détenteurs de bases de données, au premier rang desquels les géants du numérique GAFAM et BATX7 chinois. Jusqu’à l’arrivée de la dernière version de ChatGPT, l’IA ressemblait encore à un autiste atteint d’une forme grave d’Asperger qui peut apprendre le bottin téléphonique par cœur ou faire des calculs prodigieux de tête mais est incapable de préparer un café…

L’IA de troisième génération comme ChatGPT capable de mémoire et de transversalité n’était attendue que vers 2030. Les IA génératives sont arrivées avec beaucoup d’avance : la société n’est pas prête à encaisser le choc. Ces IA génératives semblent intelligentes et peuvent se faire passer pour un homme – ce qui pose d’énormes problèmes de sécurité – et remplacer par exemple un manager généraliste ou un avocat.

Le quatrième âge de l’IA sera l’apparition d’une conscience artificielle. Une telle IA, dite forte, serait capable de produire un comportement intelligent, d’éprouver une réelle conscience de soi, des sentiments, et une compréhension de ses propres raisonnements.

L’encadrement d’une IA de type 4 poserait d’immenses problèmes mais la date de son émergence fait l’objet de querelles incessantes voire de chamailleries peu rationnelles entre spécialistes.

Le débat a été relancé par les déclarations des équipes travaillant sur les ChatGPT et ses concurrents. Les dirigeants de la société Anthropic qui vient de recevoir 400 millions de dollars de Google ont déclaré que l’humanité doit se préparer à l’IA forte avant 2030.

2012 : le grand basculement du deep learning

Le grand basculement de l’IA s’est produit – après trente ans de cafouillage – en 2012 avec le renouveau permis par le deep learning, pièce essentielle des IA de la phase 2.

Le deep learning est un système d’apprentissage et de classification, basé sur des « réseaux de neurones artificiels » numériques qui permettent à un ordinateur d’acquérir certaines capacités du cerveau humain. Ces réseaux peuvent faire face à des tâches très complexes, comme la reconnaissance du contenu d’une image ou la compréhension du langage parlé. « La technologie du deep learning apprend à représenter le monde, c’est-à-dire la parole ou l’image par exemple », explique le Français Yann Le Cun, l’un des chercheurs les plus influents dans le domaine de l’IA.

C’est avec le deep learning que l’IA est véritablement née, cessant d’être une sorte d’abus de langage pour désigner ce qui n’était au fond qu’une calculatrice améliorée.

Le principe est simple. Pour qu’un programme apprenne à reconnaître une girafe, par exemple, on le « nourrit » de millions d’images de girafes, étiquetées comme telles. Une fois entraîné, le programme peut, par association, reconnaître des girafes sur de nouvelles images.

Cette technique d’identification n’est pas tellement différente des jeux d’éveil destinés aux jeunes enfants, auxquels on présente des images, de voitures par exemple, associées au mot désignant l’objet. Mais il existe une grande différence entre l’apprentissage du bébé et celui de l’IA. Il ne faut en effet au petit humain qu’un nombre limité d’associations image-nom pour faire le lien, alors qu’il en faut des millions à l’IA.

Le deep learning utilise l’apprentissage supervisé8 – comme le bébé – mais son architecture interne est différente. Avec son « réseau de neurones », il met en œuvre une machine virtuelle composée des milliards d’unités que sont ces neurones numériques. Chacun effectue de petits calculs simples. C’est l’agrégation de ces milliards de petits calculs qui donne la puissance et la capacité d’interactions, moteur de l’IA9.

« La particularité, c’est que les résultats de la première couche de neurones vont servir d’entrée au calcul des autres », explique Yann Ollivier, chercheur en IA au CNRS. Ce fonctionnement par « couches » est ce qui rend ce type d’apprentissage « profond » – deep.

C’est à partir de ce tournant des années 2012-2013 que l’on est véritablement entré dans le monde de l’IA. Un monde dans lequel l’homme rencontre pour la première fois une concurrence sérieuse. L’automatisation des tâches intellectuelles est inédite dans notre histoire. Désormais les ordinateurs s’éduquent plus qu’ils ne se programment.

La victoire d’AlphaGo est arrivée avec un siècle d’avance

Le jeu de go est bien plus complexe que les échecs, pour lesquels Deep Blue d’IBM a terrassé Garry Kasparov en 1997. Le New York Times expliquait, à cette époque, que la machine ne saurait jouer au go avant un siècle ou deux. En octobre 2015, AlphaGo, une IA développée par DeepMind, filiale à 100 % de Google, a ridiculisé le champion européen de go, Fan Hui, par cinq victoires à zéro. En mars 2016, la victoire d’AlphaGo sur le Sud-Coréen Lee Sedol, un des trois meilleurs joueurs au jeu de go, marque une nouvelle étape dans l’histoire de l’IA. Lee Sedol a admis être sans voix devant la puissance de l’IA de Google.

En mai 2017, AlphaGo a écrasé par trois à zéro Ke Jie, le champion du monde. Plus troublant encore, AlphaGo joue en se reposant sur une machine qui n’a pas appris à jouer en analysant des parties humaines mais en jouant contre elle-même.

2022 : on attendait le métavers, ce fut ChatGPT

En 2019, Mark Zuckerberg lance un gigantesque plan d’investissement de 100 milliards de dollars pour développer le métavers. Mark Zuckerberg avait même rebaptisé son groupe Meta pour convaincre de son engagement illimité à développer les mondes virtuels du métavers. Les experts s’attendaient à des percées majeures dans la réalité virtuelle. Les résultats ont déçu y compris chez Meta-Facebook.

Les progrès bluffants des réseaux de neurones dits Large Language Models (LLM), dont ChatGPT est le plus célèbre, ont éclipsé la réalité virtuelle. Cet échec de Marc Zuckerberg s’est traduit par 21 000 licenciements début 2023. Le 14 mars 2023, le patron de Meta-Facebook a expliqué dans une lettre aux salariés qu’il réorientait la stratégie du groupe vers l’Intelligence Artificielle au détriment du métavers.

L’expert en IA Marc Rameaux résume les particularités des nouvelles IA : « ChatGPT est un agent conversationnel : vous pouvez lui poser des questions en langage naturel, comme si vous vous adressiez à une personne, et il vous apporte une réponse. Il peut également rédiger un article sur un sujet que vous lui demandez d’exposer, voire composer un poème. ChatGPT désigne l’interface de conversation, mais le “moteur” de traitement qu’il utilise pour répondre est GPT4, développé par la société OpenAI, qui est un modèle linguistique et un générateur de texte. Son succès considérable tient au fait que les réponses de ChatGPT, par leur précision, leur nuance et leur forme très proche du langage parlé par une personne sont souvent indiscernables de celles apportées par un être humain. De plus, les rapprochements opérés par ChatGPT entre des thématiques, des phrases, des notions provenant de différents corpus linguistiques donnent l’impression d’une créativité dans ses réponses. Ces performances proviennent de la taille exceptionnelle et inédite du corpus linguistique sur lequel il a été entraîné : quelques milliers de milliards de paramètres, plusieurs centaines de milliards d’unités textuelles. Cette version apporte des réponses difficilement discernables de celles d’un être humain. » Marc Rameaux ajoute : « Et la cohérence des réponses de ChatGPT est telle qu’elle atteint les limites de l’effrayant10. »

Personne n’avait anticipé de tels progrès. Yves Caseau, le directeur informatique de Michelin, résume bien la surprise ChatGPT : « L’algorithme de “prévision du prochain mot probable” des LLM est une remarquable technique. Des algorithmes simples entraînés sur des énormes volumes de données font mieux que des algorithmes sophistiqués avec des plus petits corpus d’apprentissage. Par construction, le “prédicteur de mot probable” présente un inconvénient : s’il n’a pas l’information, il invente la plus plausible. C’est parfait pour un usage créatif (inventer un texte/poème) mais dangereux pour une question ou une synthèse, parce que précisément ChatGPT produit des faux qui ressemblent au vrai. Donc, dans la plupart des usages non créatifs (où le faux n’est pas souhaitable), il faut être compétent pour utiliser ChatGPT comme un assistant cognitif. Il faut donc être très intelligent pour bien piloter ChatGPT11… »

L’échec de Marc Zuckerberg est temporaire. Le retard de ses projets ne signifie pas que les LLM ont tué le métavers. L’historien Raphaël Doan explique : « Le métavers désigne l’interconnexion de mondes virtuels dans lesquels nous passerions une grande partie de notre temps. Ce n’est pas une mode passagère. D’abord parce que nous vivons déjà à moitié dans le métavers. Ensuite parce que la vision ultime du métavers, où nous nous immergerions quasi intégralement dans le virtuel, nécessite des progrès techniques longs à développer. Difficile donc d’accuser un tel projet d’avoir échoué. L’IA va révolutionner le métavers en mixant les LLM et les générateurs d’image. L’IA permet d’accéder à des simulations impossibles à distinguer de la vie réelle beaucoup plus vite que par des méthodes traditionnelles. Les LLM vont rendre l’architecture du monde virtuel vraisemblable et interactive, car ils sont extrêmement bons pour coder et ils ont une bonne connaissance du fonctionnement du monde réel. Dans un jeu vidéo, toute interaction doit avoir été codée à l’avance, ce qui limite la liberté d’action d’un utilisateur du monde virtuel. Dans un avenir proche, toute action que souhaite réaliser le joueur sera codée en temps réel par un successeur de ChatGPT. Nous accéderons à des niveaux de réalisme inimaginables aujourd’hui. Cela vaudra pour la réalité virtuelle, c’est-à-dire l’immersion dans un monde différent, et pour la réalité augmentée, qui désigne la surimpression, dans notre monde réel, d’objets virtuels. Quand n’importe qui pourra avoir la sensation d’être totalement immergé dans un monde parallèle, où la vie peut être exactement ce qu’il souhaite, sans qu’il puisse même le distinguer du monde réel, nous verrons une grande partie des interactions humaines y basculer. La vie sociale sera elle-même en grande partie construite par les successeurs de ChatGPT. Rencontrer des humains sera peut-être décevant. Beaucoup seront alors tentés de rencontrer dans un monde virtuel des IA qui ne seront plus des chatbots, mais auront l’apparence de personnes réelles. Cela a déjà commencé : des influenceuses inexistantes, créées par IA, ont déjà des millions de followers sur Instagram. En réalité l’IA et le métavers vont fusionner. Cela va générer avant 2030 une révolution cognitive12. »

Désormais, il n’y a plus d’hivers de l’IA mais un continuel printemps, alors que Luc Julia le co-découvreur de Siri expliquait que « l’Intelligence Artificielle n’existe pas13 ». Siri, le chatbot d’Apple, est pathétiquement en retard mais l’IA existe vraiment. Les élites ont été irresponsables en retardant la prise de conscience de la tornade cognitive.

La guerre des IA fait rage en silence

Elon Musk a financé la start-up OpenAI, qui a développé le Chatbot ChatGPT, alors qu’elle était encore à but non lucratif. Ces fonds ont permis à OpenAI de développer ce qui est devenu un symbole de la révolution de l’IA depuis le 30 novembre, date de lancement de ChatGPT3.5, rendant Google archaïque. Le succès du Chatbot a lancé une course mondiale.

Mais Musk a averti que l’IA est plus dangereuse qu’une arme nucléaire, et il a donc appelé les autorités à réglementer le secteur. Le milliardaire estime que si rien n’est fait pour réguler le secteur, les choses échapperont au contrôle humain. Musk a posté sur Twitter en décembre 2022 : « Il n’y a pas de surveillance réglementaire de l’IA, qui est un problème majeur. Je demande une réglementation14 de la sécurité de l’IA depuis plus d’une décennie ! » Musk a été conforté par les réponses erratiques de Bing ChatGPT, la nouvelle version du moteur de recherche de Microsoft intégrant les fonctionnalités de ChatGPT. Kevin Roose, journaliste du New York Times, a écrit : « Il a déclaré qu’il m’aimait. Il a ensuite essayé de me convaincre que j’étais malheureux dans mon mariage et que je devais quitter ma femme. »

Le milliardaire estime que l’une des grandes menaces posées par l’IA est sa manipulation par les entreprises et notamment Microsoft, qui a récemment investi 10 milliards de dollars supplémentaires dans OpenAI. Microsoft intégre désormais GPT4 dans Word, Excel, Powerpoint, Bing, Edge et Teams…

Une gigantesque course planétaire est lancée. Son enjeu est simple : la domination du monde par l’IA. Le 13 avril 2023, Amazon a annoncé un investissement massif pour imposer Bedrock qui est sa plateforme d’IA générative. Le 14 avril 2023, Elon Musk a créé X.AI qui concurrencera ChatGPT.

OpenAI est devenu ClosedAI

Elon Musk s’est emporté : « Je ne comprends toujours pas comment une organisation à but non lucratif à laquelle j’ai fait don d’environ 100 millions de dollars est devenue une société à but lucratif de 30 milliards de dollars15. » Il est effectivement cocasse que OpenAI qui a été créé sous forme de fondation pour lutter contre l’IA forte soit devenue une société à but lucratif destinée à accélérer la venue de l’IA forte.

Il est troublant de relire la déclaration d’OpenAI lors de sa création en 2015 : « OpenAI est une organisation à but non lucratif de recherche sur l’IA. Notre but est de faire progresser l’intelligence digitale dans une direction qui profite à l’humanité tout entière sans la contrainte de générer un retour financier. Puisque notre recherche est libérée d’obligations financières, nous pouvons nous concentrer sur l’impact humain. »

La recherche en IA doit-elle être ouverte ou fermée ?

De fait, les chercheurs se sont émus que GPT4 ne soit pas un modèle d’IA ouvert.

Dans une interview à The Verge, Ilya Sutskever, scientifique en chef et cofondateur d’OpenAI, a expliqué les raisons pour lesquelles OpenAI ne partageait plus d’informations sur GPT4 : « Nous nous sommes trompés. Si vous pensez, comme nous, qu’à un moment donné, l’IA va être extrêmement, incroyablement puissante, alors cela n’a tout simplement pas de sens d’ouvrir le code source. C’est une mauvaise idée… Ces modèles sont très puissants et deviennent de plus en plus puissants. Je m’attends à ce que dans quelques années, il devienne complètement évident pour tout le monde que l’IA open source n’est tout simplement pas sage. »

Dans une interview à ABC News le 18 mars 2023, Sam Altman a précisé ses angoisses : « Certains de ses rivaux pourraient être beaucoup moins préoccupés qu’OpenAI par la mise en place de garde-fous sur leurs équivalents de ChatGPT ou GPT4. Une chose qui m’inquiète, c’est que… nous n’allons pas être le seul créateur de cette technologie. Il y aura d’autres personnes qui ne mettront pas certaines des limites de sécurité que nous lui avons imposées. La société, je pense, a un temps limité pour comprendre comment réagir à cela, comment réglementer cela, comment le gérer. Je suis particulièrement inquiet que ces modèles puissent être utilisés pour la désinformation à grande échelle… ils pourraient servir à des cyberattaques offensives. »

Au-delà des angoisses existentielles du créateur de ChatGPT, cette guerre des LLM prend des allures apocalyptiques pour les suiveurs à la bourse. La présentation de Bard, le LLM de Google, le 9 février 2023 a déçu les analystes financiers : la capitalisation boursière de Google a chuté de 120 milliards de dollars en quelques instants. Et le 17 mars 2023, les mauvaises performances de Ernie Bot, le LLM de Baidu, ont fait chuter le cours de 10 %.

Les chercheurs peinent à comprendre pourquoi GPT4 est si intelligent

Le 23 mars 2023, les principaux chercheurs de Microsoft ont publié une vaste étude sur GPT416.

Les auteurs dont le directeur de la recherche de Microsoft, Eric Horvitz, expliquent : « Nous démontrons qu’au-delà de sa maîtrise du langage, GPT4 peut résoudre des tâches nouvelles et difficiles qui couvrent les mathématiques, le codage, la vision, la médecine, le droit, la psychologie et plus encore, sans avoir besoin d’incitation particulière. De plus, dans toutes ces tâches, les performances de GPT4 sont étonnamment proches des performances humaines. Compte tenu de l’étendue et de la profondeur des capacités de GPT4, nous pensons qu’il pourrait raisonnablement être considéré comme une version précoce (mais encore incomplète) d’un système d’Intelligence Artificielle Générale (IAG)… » Les chercheurs soulignent que GPT4 a des capacités remarquables dans la compréhension des motivations humaines et des émotions et soulignent que les extraordinaires performances de GPT4 indiquent « que GPT4 est une étape importante vers l’IAG ».

Microsoft a présenté les voies de recherche pour accélérer la marche vers une Intelligence Artificielle plus générale.

GPT4 bouleverse notre définition de l’intelligence

Microsoft soulève des questions fascinantes sur l’origine des hallucinations de ChatGPT : « Pour faire une analogie avec les humains, les biais cognitifs et la pensée irrationnelle peuvent être basés sur des artefacts de notre culture ainsi que sur les limitations de nos capacités cognitives. […] Comment raisonne-t-il, planifie-t-il et crée-t-il ? Pourquoi présente-t-il une intelligence aussi générale et flexible alors qu’il est à la base simplement la combinaison de composants algorithmiques simples ? Ces questions font partie du mystère et de la fascination des LLM, qui remettent en question notre compréhension de l’apprentissage et de la cognition, alimentent notre curiosité et motivent des recherches plus approfondies. Les orientations clés comprennent la recherche en cours sur le phénomène d’émergence dans les LLM17. » Le débat fait rage entre chercheurs pour comprendre pourquoi ChatGPT est aussi bon.

Cette accélération technologique est stupéfiante quand on se souvient qu’Eric Horvitz, le patron de la recherche de Microsoft et signataire de cet article, se moquait des gens qui croyaient à l’IA forte prochaine et à son danger. Il n’envisageait pas cette hypothèse avant très longtemps : « Ce sont des questions très intéressantes, sur lesquelles il faut garder un œil, et il ne faut pas se moquer en disant que les gens sont fous. Ce sont des questions de très long terme, et nous devons réfléchir aux questions qui nous concernent directement, maintenant. » Cette déclaration date du 12 mars 2017 ; il y a six ans seulement. Désormais, nous savons que l’IA forte nous concerne avant même de concerner nos enfants.

La recette d’une IA de 2023 :
algorithmes de deep learning,
puissance monstrueuse et montagnes de données

Quel est le point commun entre la publicité ciblée sur Internet, les applications permettant de réserver un taxi ou commander un repas, les plateformes analysant les milliards de données issues du séquençage ADN des tumeurs cancéreuses et AlphaGo-DeepMind de chez Google qui a gagné au go, ou bien encore ChatGPT ?

Ils reposent tous sur le mariage entre la puissance des ordinateurs, les montagnes de données et les réseaux de neurones du deep learning. De cette façon, l’IA s’industrialise.

L’explosion de l’IA naît de la capacité d’ordinateurs toujours plus puissants à intégrer les milliards de milliards de données de l’ère du « big data ». ChatGPT était impensable avec les ordinateurs de 2015.

Fuyez le big data !

Par sa capacité à manier des montagnes de données à des vitesses vertigineuses, l’IA dépassera notre cerveau dans beaucoup de cas. Le créateur de Google Brain, Andrew Ng, explique que si l’on pense à l’IA, il ne faut pas imaginer une conscience artificielle mais un automatisme dopé aux stéroïdes. Si l’IA se développe si rapidement, c’est qu’elle a bénéficié d’un effet boule de neige. Plus l’IA progresse, meilleure elle est face aux données, ce qui en retour la renforce : big data et IA se font mutuellement la courte échelle et le cerveau humain est souvent distancé. Une chose semble certaine, une IA capable d’apprendre à partir de petits volumes de données est improbable avant 2050. Son nom est donc usurpé : l’IA n’est pas intelligente quand il y a peu de données. Elle est incapable d’apprendre à partir de quelques exemples comme le fait un bébé humain. Notre royaume intellectuel est donc constitué des domaines avec peu de données. Partout où il y a beaucoup de données pour éduquer les IA, elles vont nous écraser. Partout où il y a peu de données, nous resterons les maîtres du monde, et pour longtemps. Il y a des raisons darwiniennes à notre écrasante supériorité intellectuelle lorsqu’il y a peu d’informations. Si nous sommes vivants aujourd’hui, c’est parce que le cerveau de nos ancêtres était capable d’analyser le monde à partir d’une poignée de données. Si, pendant leur enfance, nos ancêtres avaient eu besoin de 1 000 milliards d’informations – comme une IA – pour deviner qu’un lion ou un ours des cavernes se cachait derrière un buisson, ils ne seraient pas arrivés à la puberté… La capacité de notre cerveau à prédire le monde à partir d’une poignée de données est stupéfiante. C’est notre immense force ! Naïvement, tout le monde se précipite pour travailler dans les métiers où il y a du big data ; c’est-à-dire dans la tanière de l’ogre IA qui nous dépassera toujours dès qu’il y a beaucoup de données pour l’éduquer. Fuyez le big data ou l’IA va vous dévorer. Allez là où nos neurones sont imbattables : quand il faut décider avec une poignée d’informations.

La puissance des ordinateurs – le moteur de l’IA – ne semble pas près de s’arrêter de progresser.

La loi de Moore : le réacteur d’Homo Deus

William Shockley fait partie des rares personnalités qui auront changé le monde à deux reprises. Il est chargé en juillet 1945 de rédiger un rapport sur le nombre de victimes que pourrait occasionner un débarquement des États-Unis au Japon. Ce rapport, en soulignant l’ampleur des pertes américaines lors d’une telle opération, a incité Washington à envisager les bombardements atomiques d’Hiroshima et de Nagasaki. Mais l’ingénieur ne s’arrête pas là. Il invente le transistor en 1947 et le 4 juillet 1951, il présente le révolutionnaire transistor bipolaire qui inaugure l’ère des semi-conducteurs. Gordon Moore est l’un des ingénieurs qui quitteront William Shockley18 pour fonder Intel.

La loi de Moore, théorisée en 196519, par le cofondateur d’Intel, avait anticipé une croissance exponentielle de la puissance des circuits intégrés et prévoyait un doublement tous les dix-huit mois du nombre de transistors sur un circuit intégré. En 1951, un transistor faisait 10 millimètres de large ; en 1971, 10 microns soit le millième d’un millimètre ; en 2017, les fabricants sortaient les premiers microprocesseurs gravés en transistors de 10 nanomètres ; donc cent mille fois plus fins qu’un millimètre.

À force de doublement tous les dix-huit à vingt-quatre mois depuis cinquante-huit ans, on atteint désormais 114 milliards de transistors sur un seul microprocesseur. Intel prévoit pour 2028 la commercialisation des premiers microprocesseurs comportant 1 000 milliards de transistors. L’industriel taiwannais TSMC, leader mondial des microprocesseurs, vient de sortir les premiers microprocesseurs gravés en 3 nanomètres, soit 30 atomes de large. L’IMEC20 a précisé la feuille de route jusqu’en 2036. Elle prévoit la conception de technologies dites GAA21, permettant d’atteindre des gravures incroyablement fines de deux angströms de large (un angström vaut 0,1 nanomètre). L’ère des transistors inférieurs à 1 nanomètre sera atteinte vers 2030 et en 2036, les transistors atteindront 2 atomes de large. Un microprocesseur comportera 5 000 milliards de transistors et 500 mille transistors tiendraient dans la largeur d’un cheveu.

Un milliard de milliards d’opérations à la seconde

Entre 2017 et 2020, les spécialistes qui ont annoncé la mort de la loi de Moore se sont encore trompés. Le décollage récent de l’IA est le prolongement d’une histoire informatique dont la progression a été vertigineuse. En 1938, l’ordinateur le plus puissant sur terre, le Z1 inventé par l’ingénieur allemand Konrad Zuse, réalise une opération par seconde. Le 1er juin 2022, le Frontier américain est le premier ordinateur à dépasser 1 milliard de milliards d’opérations par seconde. La puissance informatique maximale sur terre a été multipliée par un milliard de milliards en quatre-vingt-cinq ans. Les experts envisagent que des ordinateurs effectuant un milliard de milliards de milliards d’opérations par seconde seront entre nos mains vers 2050. Grâce à de nouvelles techniques de gravure des transistors, à l’envol de l’Intelligence Artificielle et, possiblement à partir de 2050, à l’ordinateur quantique22, nous allons longtemps encore disposer d’une puissance de calcul toujours plus grande. Cette puissance informatique rend possibles des exploits impensables il y a seulement vingt ans : la lecture de notre ADN, dont le coût a été divisé par 6 millions en vingt ans ; le séquençage des chromosomes des fossiles des espèces disparues ; l’analyse de la trajectoire et de la composition des exoplanètes ; la compréhension de l’origine de notre univers… Ces progrès n’ont pas été anticipés : la plupart des spécialistes des années 1960 étaient sceptiques vis-à-vis des projections de Gordon Moore comme l’immense majorité des généticiens pensaient en 1990 que le séquençage intégral de nos chromosomes était impossible.

Gordon Moore s’étonne que ses prédictions soient encore valides : « Il y a chez l’homme une inventivité incroyable qui permet d’éliminer des problèmes qu’on imagine insolubles pour toujours. J’ai vu tomber des dizaines de murs infranchissables. Maintenant, je crois que tout est possible. La loi de Moore s’arrêtera peut-être quand les transistors atteindront la taille de l’atome23. Ou peut-être pas… » En 1965, il avait prédit la mort de sa loi pour 1975. Il envisageait désormais qu’elle puisse être éternelle ! Ce qui serait aussi la clé de l’éternité humaine. Cette puissance de calcul explosive change radicalement l’aventure humaine. Ironie de l’histoire, Gordon Moore est mort le 25 mars 2023, quelques jours après la sortie de GPT4.

L’IA n’est pas un détail de l’Histoire. C’est l’avenir de l’humanité qui se joue dans ses lignes de code. La révolution inaugurée le 30 novembre 2022 par ChatGPT3.5 va encore accélérer la démiurgisation de l’humanité. Il ne s’est écoulé que cent trois jours entre ChatGPT3.5 et GPT4.

Il importe de comprendre ce que cette accélération signifie pour nous humains, en particulier pour les plus jeunes d’entre nous. En rendant l’intelligence disponible à volonté, les nouvelles technologies concurrencent de façon inouïe l’antique technologie de transmission des savoirs qu’on appelait l’école. Les deux questions, IA et école, vont aujourd’hui de pair et sont étroitement liées. L’enjeu de l’IA est ainsi un enjeu d’éducation. On ne peut plus parler d’IA aujourd’hui sans parler d’école. Plus largement ce sont les trois composantes de la cognitique24 – IA, robotique et neurosciences – qui vont transformer le concept même de l’école. Une éducation qui ignorerait la cognitique serait réduite à l’insignifiance.

Mais avant de parler de l’école, et pour bien comprendre les enjeux de sa refondation, il faut visualiser à quoi l’IA va servir, ou plus exactement qui elle va servir.