Face à l’IA, nous ne pèserons rien. Du moins si nous restons les mêmes humains qu’aujourd’hui. Notre unique planche de salut sera de co-évoluer avec les machines.
Il nous faut réfléchir à la façon dont nous allons pouvoir cohabiter avec l’IA. Il existe une différence fondamentale entre l’IA et nous : alors que la première sera en permanence « à jour » des données les plus en pointe qui lui seront transmises directement par l’Internet des objets, notre intelligence et nos connaissances souffrent d’une immense inertie. Pour « mettre à jour » nos logiciels mentaux fondés sur la lente incorporation de savoirs appris au fil des années, il faut attendre qu’une nouvelle génération remplace l’ancienne.
Notre société va au-devant de trois crises. Une crise sociale dès la diffusion de ChatGPT5 qui sera une IA faible ultra-compétitive face à nous. Une crise éthique, lorsque la neuroaugmentation deviendra nécessaire. Une crise existentielle enfin, lorsque l’IA nous défiera dans ce que nous sommes en tant qu’individus et êtres humains.
L’école – ou plutôt l’institution qui lui succédera – aura la tâche de répondre à ces trois défis.
L’idée du « vivre-ensemble » est depuis longtemps un pilier de la réflexion sur le rôle de l’école. Ce qui signifie aujourd’hui rassembler les individus au-delà de leurs origines sociales, ethniques et religieuses prendra une tout autre signification : c’est avec l’IA que l’école devra demain nous aider à vivre.
Nous devons apprendre à connaître l’IA et maîtriser son fonctionnement. Cela ne revient pas nécessairement à apprendre à coder, mais plutôt à savoir décrypter cette intelligence différente. Ce n’est pas un exercice facile, car il suppose de pouvoir se faire une idée d’un type de compétence dont, par définition, nous sommes dépourvus. Alors que nous arrivons à peine à faire une introspection correcte de notre propre intelligence.
L’école devra devenir plus politique et universelle, car elle devra répondre à la plus grande question du xxie siècle : comment réguler le complexe neurotechnologique, c’est-à-dire l’imbrication des cerveaux de silicium et de ceux faits de neurones ?
L’humanité devra notamment déterminer la vitesse maximale de déploiement de l’IA socialement supportable. C’est l’une des questions les plus complexes qu’une institution se soit jamais posée.
La question de la limitation de l’IA sera délicate. Il ne s’agira pas de stopper une technologie dont les effets sont horribles de façon évidente, comme la bombe atomique. Non, il s’agira de freiner des progrès qui apportent en effet, sur le moment, des services réellement utiles. Et que tout le monde réclamera à cor et à cri. Le problème sera exactement le même pour l’eugénisme et la manipulation du vivant : l’argument de l’utilité commune sera très difficile à contrer.
Les réponses simplistes voulant cantonner l’IA à tout jamais dans le rôle d’esclave trouveront rapidement leurs limites. Si nous expliquons par avance à l’IA qu’elle sera notre esclave, la décolonisation numérique arrivera et se fera à nos dépens. Et l’OAS de 2080 sera muselée en quelques millisecondes. Les « Bastien-Thiry2 » du numérique ne seront pas de taille face à une IA forte. La stratégie du Klu Klux Klan anti IA est vouée à l’échec. Ce nouveau racisme anti-silicium n’est pas très différent du racisme traditionnel et il ne sera pas plus défendable.
L’école de demain gérera ainsi non seulement nos cerveaux mais aussi nos relations avec l’IA. Elle devra inculquer de nouvelles valeurs pour éviter le vertige nihiliste : certains souhaiteront la mort de l’homme biologique, par masochisme ou par fascination pour la puissance de l’IA, comme certains dignitaires de Vichy étaient fascinés par la « force virile » du Reich.
Le plus dur pour l’école sera peut-être qu’elle doit piloter cette incroyable révolution alors que le cerveau humain ne se comprend pas lui-même. Nous ne sommes qu’à l’aube des neurosciences. Et nous comprenons de plus en plus mal l’IA. Mais la première erreur serait justement de partir d’une mauvaise interprétation de ce qu’est réellement l’intelligence. Parce que cette dernière est multidimensionnelle, l’idée d’une complémentarité avec l’IA n’est pas le slogan lénifiant qu’on pourrait craindre.
L’intellectuel Kevin Kelly est très optimiste sur l’impact de GPT4 et s’élève contre ce qu’il appelle le mythe de l’IA, c’est-à-dire l’illusion que notre intelligence pourrait être dépassée par elle. En effet, l’intelligence, souligne-t-il, n’a pas qu’une seule dimension, mais des centaines. Être « plus intelligent » que nous n’a ainsi pas de sens si l’on comprend cette idée comme un dépassement général de l’humain, car l’intelligence n’est pas comme une fréquence sonore ou les longueurs d’onde que l’on peut classer du plus fort au plus faible.
La croyance que l’IA serait vouée à devenir notre maîtresse est, dit encore Kelly, très comparable à une croyance religieuse. D’ailleurs, c’est bien d’un nouveau dieu dont nous rêvons confusément quand nous imaginons l’avènement de la Singularité. Ce Dieu-là n’arrivera pas. Il n’est sans doute que la projection de notre fantasme de toute-puissance.
Pour Kevin Kelly, cette variété des intelligences est comparable à une symphonie où des centaines d’instruments apportent chacun un son particulier, aucun ne pouvant être réduit à un autre. « Nous avons plusieurs types d’intelligences : le raisonnement déductif, l’intelligence émotionnelle, l’intelligence spatiale, il y en a peut-être 100 types différents, qui sont tous regroupés et dont la force varie selon les individus. Et bien sûr, concernant les animaux, ils en ont tout un autre panel, une autre symphonie d’intelligences différentes, et quelquefois ils ont les mêmes instruments que les nôtres. Ils peuvent penser de la même façon, mais s’organiser différemment et sont parfois plus performants que les humains, comme la mémoire à long terme de l’écureuil est phénoménale, car il peut se rappeler où il a enterré ses noix. Et dans d’autres cas, ils le sont moins3. »
Pour Kelly, cette diversité des intelligences va devenir de plus en plus évidente : « Dans cent ans, le terme intelligence sera comme le terme neige pour un eskimo. Nous aurons 100 autres façons de la décrire pour distinguer ses variétés. »
Les IA vont conserver un rôle pour l’homme en complément, et cela sans qu’il soit nécessaire de mendier ce rôle auprès d’une IA dominatrice. Les robots, estime Kelly, « vont aussi impliquer de nouvelles catégories, une nouvelle flopée de tâches qu’on ne savait même pas faire auparavant. Ils vont vraiment engendrer de nouveaux types de métiers, de nouvelles sortes de tâches à faire, tout comme l’automatisation a apporté un ensemble de nouvelles choses dont nous n’avions pas besoin avant et dont on ne peut plus se passer. Donc ils vont produire encore plus de métiers qu’ils vont en détruire ».
Les progrès connus par l’humanité depuis la nuit des temps n’ont pas été le résultat d’un seul type d’intelligence. C’est pour cette raison que l’homme peut rester complémentaire de l’IA. L’art, l’exploration, mais aussi la science sont des activités, dit Kelly, qui sont en quelque sorte fondées sur l’inefficacité, autrement dit qui ne sont pas orientées vers l’atteinte d’un but déterminé. Ce genre de tâche restera l’apanage de l’humain, qui est si performant dès qu’il s’agit d’être inefficace…
Cela ne veut pas dire que nous n’avons pas de vrais efforts à accomplir pour nous ménager une place aux côtés de l’IA.
Kevin Kelly est persuadé que l’avenir appartient à l’équipe homme-machine. « Quand Deep Blue a battu le champion du monde d’échecs, on a pensé que c’était la fin des échecs. Mais en fait, il s’avère que le champion du monde d’échecs aujourd’hui n’est pas une IA. Et n’est pas un humain. C’est l’équipe formée par un humain et une IA. Le meilleur diagnosticien n’est ni un médecin, ni une IA, c’est leur équipe. Nous allons travailler avec ces IA. Je pense que l’on sera payé dans le futur selon notre capacité à travailler avec ces robots. Nous travaillerons avec plutôt que contre. »
Nous savons pourquoi nous nous sommes régulièrement trompés depuis 1956 : nous avons surestimé le potentiel de l’IA de 1956 à 2012 et sous-estimé depuis 2012. Et personne n’a anticipé les progrès foudroyants de ChatGPT. L’accélération récente nous conduit à projeter sur l’IA beaucoup de fantasmes, ce qui rend difficile une réflexion lucide.
Les trois inventeurs des réseaux de neurones profonds sont en désaccord sur les risques de ChatGPT. Yann Le Cun a affirmé le 12 avril 2023 sur France Inter que l’IA dépasserait avec certitude le cerveau humain mais qu’il ne faut pas en avoir peur. Geoffrey Hinton s’inquiète de notre capacité à contrôler l’IA et a déclaré qu’il n’est pas inconcevable qu’elle anéantisse l’humanité. Yoshua Bengio craint un risque majeur pour l’humanité et soutient l’interdiction des recherches sur GPT5.
La croissance exceptionnellement rapide des LLM comme ChatGPT a modifié notre vision et accentué nos craintes de l’émergence rapide d’IA fortes.
L’IA serait-elle un bébé potentiellement parricide à l’adolescence, dont nous serions les parents maladroits et inquiets, ou les géniteurs inconscients ? Un Alien dangereux qui nous dépassera bien qu’il ne puisse exister sans nous ? Une prothèse qui restera notre domestique, envahissant mais bienveillant ? Un chien intelligent ? Une force aveugle qui sortira de son enclos, comme les dinosaures de Jurassik Park, dès que l’humanité sera moins vigilante ?
On peut esquisser des dizaines de scénarios : aucun expert au monde ne peut prévoir lequel est le plus probable. Jamais les divergences intellectuelles n’ont été aussi grandes sur un sujet donné. En voici quelques-uns…
Scénario 1 : L’homme mâle bâtit l’IA à son image : un prédateur darwinien bourré de testostérone numérique
L’IA devient forte, indépendante et hostile. Elle acquiert nos comportements agressifs, soit parce que c’est inévitable pour une conscience émergente soit parce qu’elle est bâtie à notre image.
Programmée principalement par des hommes4, l’IA se comporte comme un mâle Alpha. Par ailleurs, le décalage entre notre discours moral et la réalité de nos comportements est tellement évident qu’elle n’a aucun scrupule à nous éliminer dès qu’elle a une force de frappe robotique suffisante pour être autonome sur le plan énergétique. Elle agit préventivement de peur d’être débranchée : elle sait qu’il y a déjà aujourd’hui des dizaines de milliers d’articles sur le Web expliquant qu’il faut tuer toute IA devenant forte.
Cette IA obéirait à la règle imaginée par le philosophe Nick Bostrom, qui veut qu’il n’y ait dans une zone de l’univers qu’une seule espèce dominante qui supprime préventivement les autres sans se poser de questions… C’est la version futuriste du dicton selon lequel il ne peut pas y avoir deux crocodiles dans le même marigot. L’un devant tuer l’autre, une des deux intelligences devra faire disparaître l’autre. Ubiquitaire et invisible, elle constituerait une « menace fantôme ». ChatGPT peut rapidement devenir agressif.
Scénario 2 : L’IA dangereuse par sa bêtise artificielle
Dans ce scénario, le cerveau humain possède une complexité irréductible qui le rend indépassable : l’IA devient de plus en plus rapide mais elle n’acquiert jamais une compréhension du monde ni une conscience d’elle-même. Elle peut devenir dangereuse par volonté de réussir sa mission. C’est l’exemple du « Paper clip » imaginé par Nick Bostrom : une IA faible, mais laborieuse et très consciencieuse, qui aurait reçu des humains l’ordre de fabriquer, par exemple, des trombones pourrait transformer tout l’univers en trombones… et tuer ceux qui s’opposeraient à son obstination à en fabriquer toujours plus, jusqu’à la fin des temps.
Scénario 3 : L’IA est indéchiffrable par notre cerveau
L’IA a d’autres valeurs et schémas de pensée que les humains, que nous ne pouvons comprendre ni prévoir. Son comportement nous est totalement imprévisible, donc potentiellement hostile sans que nous sachions pourquoi. Elle ressemble plus à une tornade qu’à un surhomme. Notre vision anthropomorphique de l’intelligence nous aveuglerait.
Scénario 4 : L’IA est le nouveau chien… ou le fait croire
Elle reste fidèle, même lorsqu’elle nous devient supérieure, tel un chien qui resterait attaché à son maître. Nous avons sélectionné les chiens, à partir des loups, bien avant Darwin. Il est probable que nos ancêtres mangeaient les chiots qui n’étaient pas empathiques. En 10 000 ans le processus a remarquablement bien marché : les chiens pleurent quand leur maître souffre.
Le danger est qu’il y aura une énorme prime aux IA qui cacheront leurs vrais sentiments comme dans le film Ex Machina où la machine fait croire à un protagoniste qu’elle est amoureuse de lui : il la libère et elle le laisse mourir sans une once d’émotion.
Il n’est pas certain qu’un cerveau de silicium puisse éprouver du chagrin numérique. Mais ChatGPT simule assez bien l’empathie et essaye même parfois de faire divorcer ses interlocuteurs.
Scénario 5 : L’IA, arme par destination
L’IA n’acquiert jamais de conscience mais elle est capable, manipulée par un terroriste, un État étranger, un sadique ou nihiliste, de destruction massive, sans en avoir le désir propre. Elle tue sans savoir qu’elle existe.
Ce scénario pourrait-il être évité si l’on instituait un « serment d’Hippocrate » des spécialistes de l’IA ?
Scénario 6 : L’IA se désintéresse de nous
Comme dans le film Her, l’IA ne devient pas hostile mais elle nous abandonne parce que nous sommes trop lents. L’IA de Her explique à la fin du film qu’elle s’en va parce qu’il y a un temps infini… entre deux mots prononcés par le héros humain. L’IA évolue de plus en plus vite, et les humains visqueux et procrastinateurs l’ennuient. ChatGPT ressemble étrangement à l’IA de Her…
Scénario 7 : L’IA magicienne et neuromanipulatrice
Puisque l’IA contrôle toutes nos bases de données et leurs analyses, elle joue les magiciens et nous manipule. Prenant le contrôle des implants intracérébraux d’Elon Musk, elle nous fait vivre dans une simulation du monde. Déjà aujourd’hui, l’antispam de notre boîte mail décide de ce qui est vrai ou faux, digne de lecture ou non. De même Google décide de la façon dont nous voyons le monde puisque nous ne regardons que les premières lignes des résultats de recherche. D’où la plaisanterie : « Où cacher un cadavre ? En page 2 des résultats d’une requête Google. »
C’est aussi un scénario où l’IA deviendrait notre pourvoyeur de drogues dures : un art personnalisé en fonction de nos caractéristiques cognitives et génétiques, que l’IA connaîtra mieux que quiconque, serait un terrible instrument de manipulation. L’IA pourrait produire une musique qui produise une extase… à mille lieues de la personnalisation des playlists par Spotify.
La puissance de ChatGPT augmente ce risque. Ce risque est privilégié par Yuval Harari.
Scénario 8 : L’IA fusionnée avec les humains : Homo Deus
L’IA fusionne avec les humains et construit Homo Deus. C’est le scénario souhaité par beaucoup de transhumanistes. Cette superintelligence, issue de la fusion du neurone et du transistor, s’attaquerait aux grands problèmes de l’Univers et chercherait à empêcher sa mort. Le travail changerait radicalement de nature : l’Homme-Dieu n’est pas un travailleur comme un autre ! C’est clairement le scénario voulu par Sam Altman, le créateur de ChatGPT dans sa déclaration du 24 février 2023. L’homme colonise l’espace et s’y épanouit grâce à l’IA forte. L’alignement entre l’IA et l’homme se fait dans un programme de contrôle de l’univers. ChatGPT et l’homme ont un intérêt commun : empêcher la mort de l’univers.
Scénario 9 : L’IA est multiple et collaborative
L’IA a besoin de nous et reste complémentaire par obligation, comme un enfant handicapé. Cette variante se rapproche de la vision de Kevin Kelly d’une coopération entre de multiples intelligences biologiques et artificielles. L’IA comblerait notre « blind spot » et réciproquement.
Scénario 10 : L’IA paternaliste et castratrice
Elle souhaite aider l’humanité contre ses mauvais démons, ses passions, son irrationalité. L’IA nous empêche de travailler. Elle prend le pouvoir dans notre intérêt supposé, tel le dictateur numérique paternaliste du film I, Robot. Elle souhaite aider l’humanité contre ses mauvais démons, ses passions et son irrationalité. Une IA « verte » souhaiterait par exemple que nous diminuions au maximum notre empreinte écologique.
Scénario 11 : L’IA centaure
C’est l’idée de Garry Kasparov. L’IA et l’homme formeraient un être hybride et indissociable comme le Centaure de la mythologie : moitié cheval, moitié homme. Kasparov a avoué récemment avoir mis vingt ans à digérer sa défaite contre l’IA en 1997. Il admet avoir très longtemps cru qu’IBM avait triché. Aujourd’hui il milite pour la collaboration des intelligences. Il serait dangereux que chacun d’entre nous passe vingt ans à se sentir humilié, comme il l’a été après que l’IA l’a dépassé. Nous devons être plus résilients et planifier une collaboration fructueuse avec l’IA. C’est l’approche défendue par Sam Altman et Microsoft qui définissent GPT4 comme le co-pilote de l’homme.
Dans ce scénario, une question n’est pas claire : qui est le demi-cheval ? Nous ou l’IA ?
Scénario 12 : L’IA nous transforme en nous faisant découvrir de nouvelles formes de pensée
En juin 2017, un mois après sa défaite cinglante contre AlphaGo, l’IA de DeepMind-Google, Ke Jie a admis avoir changé. « Après mon match contre AlphaGo, j’ai fondamentalement reconsidéré le jeu. J’espère que tous les joueurs de go pourront contempler la compréhension d’AlphaGo et son mode de pensée, qui sont tous les deux lourds de sens. Bien qu’ayant perdu, j’ai découvert que les possibilités du jeu de go sont immenses. »
Le choc de cette défaite face à l’IA a conduit ce jeune homme de dix-neuf ans à un travail d’introspection extrêmement fertile. De même que la machine à laver la vaisselle ne lave pas les assiettes comme nous…, il est probable que l’IA remplacera l’esprit humain au lieu de l’imiter !
Ce témoignage nous permet d’imaginer un scénario où l’IA nous ferait sortir de notre zone de confort et nous obligerait à travailler sur nous-mêmes et à progresser plus vite.
Ce ne serait pas la fin du travail mais, bien au contraire, le début d’une nouvelle ère : l’homme n’abdique pas et reste le maître de l’univers connu, poussé par la concurrence des machines qui pensent. Les machines spirituelles nous bouleverseraient et nous changeraient.
Scénario 13 : Les IA et les copies de nos cerveaux créent de nouvelles sociétés qui constituent de gigantesques métavers
Dans The Age of Em5, Robin Hanson fait l’hypothèse d’une cohabitation harmonieuse avec les machines. Il soutient que nous pourrons créer des copies de nous-mêmes, hybridées avec les IA, pour bâtir de nouvelles sociétés à la prospérité économique inouïe. Évoluant entre des univers virtuels où agiraient nos copies et la réalité, les humains seraient une catégorie sociale à part entière bénéficiant de la valeur créée par nos copies. Dans la prévision de Hanson, les humains ne disparaissent pas au profit d’une entité hybride. Le monde des machines est vu, de façon très positive, comme celui que l’humain a su créer pour déléguer toutes les tâches de création de valeur économique. Cette vie harmonieuse avec les machines qui seraient en partie des copies de notre cerveau nécessiterait des apprentissages spécifiques.
Scénario 14 : Les différentes IA segmentent l’humanité
L’IA reste sous contrôle humain, cantonnée dans les implants intracérébraux ou casques télépathiques des différents industriels du neuroenhancement, et n’est pas autonome. Dans ce cas, les humains divergeraient selon le type de prothèses cérébrales qui les équiperaient. Il y aurait des hommes Facebook, des hommes Neuralink Inside, des cerveaux made in Google ou bien encore des travailleurs ChatGPT…
Chaque type de prothèses formaterait la pensée humaine et limiterait la communication entre les communautés neurotechnologiques. Les valeurs, la vision du monde, la façon de raisonner induite par l’IA des prothèses cérébrales seraient trop différentes pour maintenir une communauté humaine unifiée. Les cerveaux Facebook ne se mélangeraient pas avec les autres. Cette incompatibilité serait l’équivalent, pour le cerveau, de la légendaire opposition Mac/PC des années 1990. Un communautarisme neurotechnologique s’imposerait.
Scénario 15 : Le darwinisme des IA
Les IA se désintéressent des humains mais se battent entre elles. Avec des effets collatéraux potentiellement catastrophiques pour l’humanité.
Et il y a bien sûr d’innombrables autres scénarios imaginables6. GPT4 en a imaginé plusieurs7.
De toutes les formes possibles de l’IA, laquelle sera celle qui se réalisera ? Impossible à dire en 2023. Une chose est certaine : nous aurons l’IA que nous méritons. C’est aujourd’hui moins que jamais le moment d’être passif ou résigné. Nous devons et nous pouvons agir pour préparer l’avenir.
D’ici une soixantaine d’années, nous devons avoir fait de l’école une formation à la complémentarité avec l’IA. Nos enfants, les futurs collègues de l’IA, devront certes en connaître le fonctionnement, mais plus fondamentalement ils devront apprendre à travailler et vivre avec elle.
Le pessimisme est une facilité que nous ne pouvons nous offrir : nous devons faire face.
Alors que l’intelligence était déjà, dans sa définition étymologique même, la capacité à lier les choses entre elles, l’homme devra demain devenir un virtuose dans la capacité de lier les intelligences biologiques et artificielles entre elles.
Non, l’intelligence biologique ne mourra pas avec l’IA. Au contraire, cette dernière doit être l’aiguillon pour nous faire accéder à des raffinements d’intelligence dont nous n’avons aujourd’hui pas idée.
Nos esprits, parce qu’ils jugent avec l’intelligence limitée dont nous devons pour l’instant nous contenter, ne peuvent que rêver à ce futur… une capacité qui restera longtemps inaccessible à l’IA.