CHAPITRE 1 :

LE PRINTEMPS DE L’IA

Il y a encore quinze ans, la réflexion sur l’Intelligence Artificielle était cantonnée à quelques cercles étroits de spécialistes et de chercheurs. Pour le monde entier, elle n’était qu’un thème de science-fiction où des machines plus ou moins hostiles entraient en interaction avec des humains d’un autre temps1. De HAL 9000, dans 2001, l’Odyssée de l’espace, à R2-D2 ou Z-6PO dans Star Wars, l’image du robot redoutable ennemi ou fidèle compagnon est depuis longtemps un incontournable des films d’anticipation. Mais personne n’imaginait que l’Intelligence Artificielle puisse devenir un objet contemporain, traversant l’écran pour atterrir dans notre vie réelle. Et pourtant, l’IA s’est imposée en quelques années comme le principal vecteur des bouleversements qui ont lieu aujourd’hui dans le monde. En vingt ans, nous avons été propulsés du Bi-bop2 au smartphone, du minitel à la 5G, du tamagotchi à AlphaGo. Internet ou les réseaux sociaux paraissent en réalité des stades presque anecdotiques d’évolution technologique sur lesquels l’IA s’appuie. Elle est partout et ses progrès sont fulgurants. Notre société, déjà, ne saurait plus s’en passer ; elle en devient même plus dépendante à chaque instant.

L’IA a été beaucoup fantasmée et beaucoup annoncée. Bien des prévisions très optimistes se sont révélées fausses. Mais, aujourd’hui, la phase de décollage est bel et bien amorcée, faisant basculer le pouvoir mondial entre les mains de quelques opérateurs privés, les géants du numérique, situés loin de notre Europe.

La terre promise de l’IA est enfin à notre portée

L’affaire n’avait pas très bien commencé. Pendant longtemps, les chercheurs ont piétiné. Les scientifiques de l’après-guerre avaient deux convictions : l’IA capable de conscience d’elle-même semblait à portée de main, et elle serait indispensable pour réaliser des tâches complexes. C’était une double erreur.

Les bases de l’IA avaient été posées dès 1940, par Alan Turing, qui en 1942-43 cassa les codes d’Enigma, la machine de cryptage des messages secrets des Allemands, et permit ainsi aux Alliés de connaître les informations stratégiques des ennemis3.

En fait, la recherche en IA n’a vraiment décollé qu’après la conférence du Dartmouth College, aux États-Unis, pendant l’été 1956. Les scientifiques étaient alors persuadés que l’avènement de cerveaux électroniques égalant l’Homme était imminent. Beaucoup de fondateurs de la discipline étaient présents : Marvin Minsky, John McCarthy, Claude Shannon et Nathan Rochester. Ils pensaient que quelques milliers de lignes de codes informatiques, quelques millions de dollars et vingt années de travail allaient permettre d’égaler le cerveau humain, qui était considéré comme un ordinateur assez simple.

La désillusion fut immense : vingt ans après, les mousquetaires de l’IA durent admettre que les ordinateurs de 1975 restaient primitifs et que le cerveau humain était bien plus complexe qu’ils ne le pensaient.

Les chercheurs des années 1970 comprirent alors qu’un programme intelligent avait besoin de microprocesseurs infiniment plus puissants que ceux dont ils disposaient, qui ne réalisaient que quelques milliers d’opérations par seconde. La course aux subventions les avait conduits à faire des promesses totalement irréalistes à leurs sponsors publics ou privés, qui finirent par s’en apercevoir.

Après avoir suscité énormément d’enthousiasme et de fantasmes, les échecs de l’IA ont provoqué une chute des financements. Le point de départ des désillusions a sans doute été l’échec cuisant de la traduction automatique qui intéressait beaucoup les Américains durant la guerre froide, les gens parlant le russe étant rares…

Une deuxième vague est partie du Japon vers 1985, avant de se fracasser une nouvelle fois sur la complexité et les particularités du cerveau humain. Ces périodes de désillusion sont connues, dans le monde de la recherche en informatique, sous le nom d’« hivers de l’Intelligence Artificielle ».

Après l’hiver, le printemps arrive. À partir de 1995, l’argent revient. En 1997, l’ordinateur Deep Blue bat le champion du monde d’échecs, Gary Kasparov. En 2011, le système expert d’IBM, Watson, bat les humains au jeu télévisé Jeopardy. Dès 2015, l’IA réalise en quelques minutes des analyses cancérologiques qui prendraient des décennies à des cancérologues en chair et en os.

Malgré ces indéniables et spectaculaires progrès, les programmes informatiques n’ont pas encore acquis les caractéristiques les plus subtiles du cerveau. Le plus puissant ordinateur ne présente pas l’ombre d’une intelligence humaine. Le cerveau est certes un ordinateur « fait de viande », mais c’est un ordinateur très complexe et d’une nature différente des circuits intégrés. Sa particularité ? Grâce à l’interconnexion de ses milliards de neurones, il est capable d’appréhender des situations inconnues, d’inventer, de réagir à l’imprévu et de se « reprogrammer » en permanence.

Plus que la puissance, il fallait une innovation de méthode pour permettre à une IA d’accomplir de nouveaux pas en direction de l’intelligence humaine. Avec le deep learning4, un premier pas est fait.

En 2017, l’IA est toujours totalement inintelligente

Schématiquement, il y a quatre âges de l’IA. La première phase, de 1960 à 2010, repose sur des programmes traditionnels, avec des algorithmes qui se programment manuellement. Cela rend de grands services pour gérer des problèmes simples, comme l’optimisation de la trésorerie d’une entreprise.

La phase deux, commencée vers 2012, correspond à l’ère du « deep learning », avec les premiers programmes dépassant l’Homme, par exemple en reconnaissance visuelle. Le deep learning permet à un programme d’apprendre à se représenter le monde grâce à un réseau de « neurones virtuels » effectuant chacun des calculs élémentaires. Ce ne sont pas des programmes informatiques banals : le deep learning s’éduque plus qu’il ne se programme, ce qui donne un immense pouvoir aux détenteurs de bases de données, au premier rang desquels les géants du numérique GAFA américains et BATX chinois. De plus en plus de tâches sont mieux effectuées par le deep learning que par nous, mais cette IA ne peut réaliser que des tâches bien spécifiées. Le spécialiste Andrew Ng explique que si l’on pense à l’IA à court terme, il ne faut pas imaginer une conscience artificielle mais plutôt un automatisme dopé aux stéroïdes.

L’IA de deuxième génération va rapidement concurrencer les radiologues, mais paradoxalement ne peut lutter contre un médecin généraliste. Pour égaler l’omnipraticien, il faudrait une IA contextuelle capable de mémoire et de transversalité. Cette troisième génération d’IA qui émerge à peine ne serait disponible que vers 2030.

Le quatrième âge de l’IA sera l’apparition d’une conscience artificielle. Une telle IA, dite forte, serait capable de produire un comportement intelligent, d’éprouver une réelle conscience de soi, des sentiments, et une compréhension de ses propres raisonnements.

Le philosophe de l’Intelligence Artificielle Jean-Gabriel Ganascia a parfaitement expliqué dans Le Mythe de la singularité qu’un scénario à la Matrix n’est pas pour demain. Nous sommes pour l’instant au milieu de la phase 2 de l’IA et la phase 3 est encore loin, alors même que les techno-prophètes veulent faire croire qu’une IA de phase 4 dotée de conscience artificielle est au coin de la rue. L’encadrement d’une IA de type 4 poserait d’immenses problèmes mais la date de son émergence fait l’objet de querelles incessantes voire de chamailleries peu rationnelles entre spécialistes.

Yann Le Cun, directeur de la recherche en IA chez Facebook, explique fort justement qu’il faut encore dix à vingt ans pour que les assistants virtuels – Siri d’Apple, Alexa d’Amazon, Google Home – soient vraiment performants. Aujourd’hui ces assistants numériques ne sont que des scripts préconçus par les informaticiens. Cette Intelligence Artificielle, totalement inintelligente, est construite à partir de scénarios pré-établis par les programmeurs5. Seule une IA de phase 3 pourrait sembler intelligente, se faire passer pour un homme – ce qui pose d’énormes problèmes de sécurité – et remplacer par exemple un médecin généraliste ou un avocat. Mais aujourd’hui, l’IA ressemble encore à un autiste atteint d’une forme grave d’Asperger qui peut apprendre le bottin téléphonique par cœur ou faire des calculs prodigieux de tête mais est incapable de préparer un café…

2012 : le grand basculement du deep learning

Le grand basculement de l’IA s’est produit – après trente ans de sommeil – en 2012 avec le renouveau permis par le deep learning, pièce essentielle des IA de la phase 2.

Le deep learning est un système d’apprentissage et de classification, basé sur des « réseaux de neurones artificiels » numériques qui permettent à un ordinateur d’acquérir certaines capacités du cerveau humain. Ces réseaux peuvent faire face à des tâches très complexes, comme la reconnaissance du contenu d’une image ou la compréhension du langage parlé. « La technologie du deep learning apprend à représenter le monde, c’est-à-dire la parole ou l’image par exemple », explique Yann Le Cun. Ce Français est un des chercheurs les plus influents dans le domaine de l’IA.

C’est avec le deep learning que l’IA est véritablement née, cessant d’être une sorte d’abus de langage pour désigner ce qui n’était au fond qu’une calculatrice améliorée.

Comment fonctionne-t-il ? Le principe est simple. Pour qu’un programme apprenne à reconnaître une voiture, par exemple, on le « nourrit » de millions d’images de voitures, étiquetées comme telles. Une fois entraîné, le programme peut, par association, reconnaître des voitures sur de nouvelles images.

Cette technique d’identification n’est pas tellement différente des jeux d’éveil destinés aux jeunes enfants, auxquels on présente des images, de voitures par exemple, associées au mot désignant l’objet. Mais il existe une grande différence entre l’apprentissage du bébé et celui de l’IA. Il ne faut en effet au petit humain qu’un nombre limité d’associations image-nom pour faire le lien, alors qu’il en faut des millions à l’IA.

Le deep learning utilise l’apprentissage supervisé6 – comme le bébé – mais son architecture interne est différente. Avec son « réseau de neurones », il met en œuvre une machine virtuelle composée des milliers d’unités que sont ces neurones numériques. Chacun effectue de petits calculs simples. C’est l’agrégation de ces milliards de petits calculs qui donne la puissance et la capacité d’interactions, moteur de l’IA7.

« La particularité, c’est que les résultats de la première couche de neurones vont servir d’entrée au calcul des autres », explique Yann Ollivier, chercheur en IA au CNRS. Ce fonctionnement par « couches » est ce qui rend ce type d’apprentissage « profond » – deep.

À chaque étape – il peut y avoir jusqu’à une vingtaine de couches –, le réseau de neurones approfondit sa compréhension de l’image avec des concepts de plus en plus précis. Pour reconnaître une personne, par exemple, la machine décompose l’image, puis elle ira vers des propriétés de plus en plus fines. « Avec les méthodes traditionnelles, la machine se contente de comparer les pixels. Le deep learning permet un apprentissage sur des caractéristiques plus abstraites que des valeurs de pixels, qu’elle va elle-même construire », précise Yann Ollivier.

Une des avancées les plus significatives du deep learning a eu lieu en 2012, quand Google Brain a été capable de « découvrir », par lui-même, le concept de chat. Cette fois, l’apprentissage n’était pas supervisé. En pratique, la machine a analysé, pendant trois jours, dix millions de captures d’écran issues de YouTube, choisies aléatoirement et, surtout, non étiquetées. À l’issue de cet entraînement, le programme avait appris lui-même à détecter des têtes de chats et des corps humains. « Personne ne lui a jamais dit que c’était un chat. Ça a marqué un tournant dans le machine learning », a expliqué Andrew Ng, fondateur du projet Google Brain, dans les colonnes du magazine Forbes.

C’est à partir de ce tournant des années 2012-2013 que l’on est véritablement entré dans le monde de l’IA. Un monde dans lequel l’Homme rencontre pour la première fois une concurrence sérieuse. L’automatisation des tâches intellectuelles est inédite dans notre histoire. Désormais les ordinateurs s’éduquent plus qu’ils ne se programment. Et leur assiduité ferait passer les élèves les plus acharnés pour de poussifs cancres…

La bouteille à moitié vide : comment l’IA de type 2 est devenue raciste

L’autoapprentissage des ordinateurs est une tendance explosive : un logiciel de type AlphaGo, qui a battu le champion de jeu de go, s’améliore en continu. Logiquement, une ruée vers l’or de l’IA a saisi l’industrie informatique, soulevant des questions mal anticipées. Par exemple, Tay, l’IA conversationnelle développée par Microsoft, n’aura fait que deux apparitions sur Twitter, les 23 et 30 mars 2016. En quelques heures, Tay s’est mise à tenir des propos néonazis et racistes, par mimétisme avec des hackeurs-provocateurs du forum 4chan.org/pol.

Ce type d’IA devient ce que la majorité des interlocuteurs font d’elle puisqu’elle affine ses réponses par accumulation d’expériences. Il a suffi qu’une majorité d’interlocuteurs développe les mêmes thématiques pour pervertir l’IA. Le réseau de neurones de Tay a développé un tropisme dérangeant pour les interventions racistes, nazies et antiféministes. Comme l’explique le spécialiste de cybersécurité, Thierry Berthier, le gavage d’un système automatisé de collecte et d’analyse par des données fausses ou orientées constitue un immense danger. Les logiciels s’appuyant sur de l’apprentissage statistique pourraient être influencés par un attaquant pour orienter les décisions. Les réseaux de neurones structurent désormais de très nombreux secteurs industriels et militaires sensibles qui pourraient subir des cyberattaques de complexité croissante. Une cybersécurité de l’apprentissage statistique doit être organisée de toute urgence. L’IA est exactement comme un enfant : elle doit être éduquée.

Cela pose deux questions : qui définit les normes éducatives de l’IA et quel degré d’autonomie lui donne-t-on ? L’imminence du déploiement des voitures sans conducteur nous oblige à trancher ces questions. Dans la trace de la Google Car, la plupart des constructeurs automobiles vont produire des voitures autonomes, ce qui soulève des questions éthiques inédites. En cas de rupture accidentelle de freins devant un passage piéton, qui vaut-il mieux épargner ? Trois vieillards à gauche ou deux enfants de dix ans à droite ? Pire, une voiture autonome hackée par les manipulateurs de Tay pourrait écraser préférentiellement les gens de couleur ou les porteurs de kippa.

Des normes éthiques devront donc être inculquées à l’IA : plus les automates seront autonomes, plus ils devront résoudre des dilemmes moraux.

C’est d’autant plus urgent que nous sommes chaque jour plus dépendants de l’IA. C’est déjà elle qui choisit les informations que nous consommons : Twitter, Facebook et Google sont pilotés par l’IA. Le philosophe Roger-Pol Droit propose d’expliquer les nuances du fonctionnement humain aux robots pour éviter des catastrophes. Intéressante proposition, mais qui d’entre nous est capable d’expliciter parfaitement les soubassements éthiques de ses décisions ? Sans compter que les normes éthiques, c’est toute leur complexité, sont souvent en conflit les unes avec les autres. La morale est une science inexacte, pleine de contradictions et d’à-peu-près. Tout le contraire d’un calcul informatique et d’une équation.

Quoi qu’il en soit, il faut d’urgence aligner les buts de l’IA et les nôtres8 : comme le fait remarquer le philosophe Nick Bostrom, il ne sera pas toujours aussi facile de débrancher l’IA que cela l’a été pour Microsoft de museler Tay.

Sous le capot d’une IA de type 2 : algorithmes de deep learning, puissance monstrueuse et montagnes de données

Quel est le point commun entre la voiture autonome, la publicité ciblée sur Internet et les réseaux sociaux, les applications permettant de réserver un taxi ou commander un repas, les plateformes analysant les milliards de données issues du séquençage ADN des tumeurs cancéreuses et AlphaGo-DeepMind de chez Google qui a gagné au Go, le jeu le plus subtil au monde ?

Ils reposent tous sur le mariage entre la puissance des ordinateurs, les montagnes de données et les réseaux de neurones du deep learning. De cette façon, l’IA s’industrialise.

L’explosion de l’IA naît de la capacité d’ordinateurs toujours plus puissants à intégrer les millions de milliards de données de l’ère du « Big Data ».

La puissance des ordinateurs – le moteur de l’IA – ne semble pas près de s’arrêter de progresser.

La loi de Moore théorisée en 19659, par le cofondateur d’Intel, avait anticipé une croissance exponentielle de la puissance des circuits intégrés. En 1951, un transistor faisait 10 millimètres de large ; en 1971, 10 microns soit le centième d’un millimètre ; en 2017, les fabricants sortent les premiers microprocesseurs gravés en transistors de 10 nanomètres ; donc cent mille fois plus fins qu’un millimètre. Dix mille transistors tiendraient dans la largeur d’un cheveu. À force de doublement tous les dix-huit mois, on dénombre désormais 10 milliards de transistors sur un seul microprocesseur. En juin 2017, IBM a présenté le premier prototype de transistor gravé en 5 nanomètres soit 25 atomes de large. Les industriels annoncent, pour 2021, les premiers microprocesseurs gravés en 3 nanomètres, soit 15 atomes de large. Un transistor expérimental gravé en 1 nanomètre a même été réalisé. Début 2017, les spécialistes qui ont annoncé la mort de la loi de Moore se sont encore trompés10. Mais Gordon Moore lui-même avait annoncé la fin de sa loi pour 1975…

La bouteille à moitié pleine : le passé lui-même devient un continent explorable grâce à l’IA

Au XIXe siècle, la plupart des gens pensaient que l’humanité ne connaîtrait jamais le passé, que l’on imaginait d’ailleurs très court, comme l’enseignait la Genèse. Aujourd’hui, plusieurs approches extrêmement novatrices, qui reposent en particulier sur le couplage du séquençage de l’ADN ou des instruments d’astrophysique avec l’IA, nous renseignent sur notre lointaine histoire.

Le séquençage de l’ADN ne se limite pas aux êtres vivants. Il est désormais possible de séquencer les chromosomes d’individus morts depuis bien longtemps, et donc des espèces disparues. L’ADN se conserve en effet dans les squelettes près d’un million d’années ; les généticiens peuvent dès lors reconstituer la totalité d’un génome.

Cette « paléogénétique » renseigne sur les espèces d’hommes qui ont disparu : Neandertal (qui s’est éteint il y a moins de trente mille ans) et l’homme de Denisova (qui existait en Sibérie il y a probablement quarante mille ans) ont été séquencés avec succès alors même que cette dernière espèce nous était connue uniquement par un fragment de phalange et deux molaires ! On saura peut-être aussi lire le génome de l’homme de Florès en Indonésie (son séquençage a échoué jusqu’à présent tant l’ADN a été abîmé par le climat tropical) et celui de l’homme de Naledi, en Afrique australe.

La comparaison des génomes de Neandertal, de Denisova et de l’Homme moderne éclaire d’un jour nouveau notre histoire. Certains humains (notamment les Mélanésiens modernes) ont hérité de quelques pourcents d’ADN de Denisova lors du passage de leurs ancêtres en Asie. De même, il y a eu un métissage des Eurasiens avec Neandertal, il y a environ soixante-quinze mille ans. Autrement dit, certains groupes d’hommes vivant aujourd’hui sur terre sont issus de métissages postérieurs à la sortie d’Afrique11 d’hommes modernes et d’hommes « archaïques ». Grâce au séquençage des ossements, il est probable que nous découvrirons de nombreux autres métissages, peut-être même avec des hommes encore plus archaïques, comme Homo erectus12.

Les généticiens vont encore plus loin : ils peuvent désormais séquencer nos ancêtres même en absence d’ossements, à partir de la poussière découverte dans les grottes, comme les policiers scientifiques analysent les traces d’ADN sur les scènes de crime. La connaissance de notre arbre généalogique en sera considérablement améliorée.

Appliqué à la virologie, le séquençage ADN révolutionne aussi notre vision de l’origine de la vie. Il existe une quantité phénoménale de virus : chaque mètre cube d’eau de mer en contient jusqu’à 10 000 milliards ! Depuis 2003 et la découverte de Mimivirus par l’équipe des professeurs Jean-Michel Claverie et Didier Raoult à Marseille, plusieurs virus géants ont pu être séquencés. Les scientifiques ont découvert une richesse génétique extraordinaire, avec des milliers de gènes inconnus dans le reste du règne du vivant. Leur analyse ouvre une fenêtre sur l’apparition de la vie sur terre avant même LUCA (Last Universal Common Ancestor), l’ancêtre commun à tous les êtres vivants sur terre, de la bactérie à l’Homme, en passant par l’hortensia, le baobab ou le crocodile.

De la même façon, la production et la détection de bosons de Higgs au CERN permettent de comprendre les événements astrophysiques survenus un dix-milliardième de seconde après le big bang, lors de l’apparition de la masse des particules primordiales. Ces révolutions génétiques et physiques permettent de remonter toujours plus loin dans l’histoire de la vie et de l’univers.

Dans ces trois exemples, des montagnes de données doivent être analysées : l’IA nous permet aussi de lire à livre ouvert dans notre passé.

93 millions de milliards d’opérations à la seconde

L’éclosion de l’IA est le prolongement d’une histoire informatique dont la progression a été vertigineuse. 1938 : l’ordinateur le plus puissant sur terre, le Z1 inventé par l’ingénieur allemand Konrad Zuse, réalise une opération par seconde. 2017 : le Taihulight Sunway chinois atteint 93 millions de milliards d’opérations par seconde. La puissance informatique maximale disponible sur terre a été multipliée par près de cent millions de milliards en quatre-vingts ans. Les machines réalisant un milliard de milliards d’opérations par seconde sont attendues pour 2020. Les experts envisagent que des ordinateurs effectuant un milliard de milliards de milliards d’opérations par seconde seront entre nos mains vers 2050. Grâce à de nouvelles techniques de gravure des transistors, à l’envol de l’Intelligence Artificielle et, à partir de 2050, à l’ordinateur quantique13, nous allons longtemps encore continuer à disposer d’une puissance de calcul toujours plus grande14.

Cette puissance informatique rend possibles des exploits impensables il y a seulement vingt ans : la lecture de notre ADN, dont le coût a été divisé par 3 millions en dix ans ; le séquençage des chromosomes des fossiles des espèces disparues ; l’analyse de la trajectoire et de la composition des exoplanètes ; la compréhension de l’origine de notre univers, les voitures autonomes… Ces progrès n’ont pas été anticipés : la plupart des spécialistes des années 1960 étaient sceptiques vis-à-vis des projections de Gordon Moore et la grande majorité des généticiens pensait en 1990 que le séquençage intégral de nos chromosomes était impossible.

La folle accélération technologique donne des perspectives enthousiasmantes à l’aventure humaine, et fait parler « d’Homo deus »15 : d’Homme-Dieu. Un homme doté demain de pouvoirs quasi infinis grâce aux NBIC toutes enfantées par l’incroyable progression de la puissance de calcul prédite par la loi de Moore.

Mais notre évolution ne peut pas être pilotée par la loi de Moore. Au contraire, nous devrons user avec sagesse de notre pouvoir démiurgique. L’enjeu de l’IA est ainsi un enjeu d’éducation. On ne peut plus parler d’IA aujourd’hui sans parler d’école.

C’est l’objectif de ce livre que de montrer combien les deux questions, IA et école, vont aujourd’hui de pair et sont étroitement liées. Plus largement ce sont les trois composantes de la cognitique16 – IA, robotique et neurosciences – qui vont transformer le concept même de l’école. Une éducation qui ignorerait la cognitique serait réduite à l’insignifiance.

Mais avant de parler de l’école, et pour bien appréhender les enjeux de sa refondation, il est nécessaire de comprendre à quoi l’IA va servir, ou plus exactement qui elle va servir. Car elle ne sort pas du CNRS ou d’un laboratoire d’une de nos bonnes vieilles institutions. Elle est entre les mains de jeunes gens dont l’ambition, affirmée avec candeur, est de rendre le monde meilleur. À leurs yeux, en tout cas.