19. L’HUMANITÉ
EN DANGER DE MORT

L’humanité est en danger. Écrire cela n’est pas faire du sensationnalisme à bon compte. C’est tirer rationnellement les conséquences des trajectoires technologiques et sociales actuelles.

Il suffit de voir avec quelle soif sont accueillis dès leurs sorties tous les nouveaux outils à base d’IA. Les progrès que l’IA permet sont spécialement plébiscités dès qu’ils concernent la santé. L’espoir de repousser la perspective angoissante de la mort est si puissant que l’appétit pour les technologies qui nous y aideront est insatiable.

L’IA pourrait devenir supérieure à l’humanité, mais nous sommes trop souvent dans le déni. À l’instar des « naïfs » new age qui accueillent les extraterrestres en les supposant bienveillants dans des films comme Independence Day ou Mars Attacks, nous avons tendance à penser qu’une IA, a fortiori parce qu’elle sera née de nos mains, sera forcément bonne. Il serait particulièrement stupide et présomptueux de le penser.

Sam Altman s’est autorisé une déclaration alarmiste : « L’IA va très probablement conduire à la fin du monde, mais dans l’intervalle il y aura de magnifiques entreprises. »

GPT4 et les poisons

Eliezer Yudkowsky du Machine Intelligence Research Institute a déclaré : « Tous les dix-huit mois, le QI minimum nécessaire pour détruire le monde baisse d’un point. »

De fait, les nouvelles IA donnent un pouvoir extraordinaire à chaque citoyen. Il est de plus en plus facile de faire synthétiser une molécule chimique par GPT4. Bien sûr, il lui est possible de trouver de nouveaux poisons. OpenAI a beaucoup réfléchi aux moyens de bloquer les utilisations malignes de GPT4. Une équipe y travaille d’arrache-pied.

Nick Bostrom pense que la dictature est la réponse la plus simple pour empêcher les individus malfaisants d’utiliser les nouvelles technologies à des fins génocidaires.

Yuval Harari, Harris et Raskin s’alarment : « Les sociétés pharmaceutiques ne peuvent pas vendre de nouveaux médicaments aux gens sans d’abord soumettre leurs produits à des contrôles de sécurité rigoureux. Les laboratoires de biotechnologie ne peuvent pas diffuser de nouveaux virus dans la sphère publique afin d’impressionner les actionnaires avec leur magie. De même, les systèmes dotés de la puissance du GPT4 et au-delà ne devraient pas être empêtrés dans la vie de milliards de personnes à un rythme plus rapide que les cultures ne peuvent les absorber en toute sécurité. Une course à la domination du marché ne devrait pas accélérer le déploiement de la technologie la plus conséquente de l’humanité. »

Les intellectuels hésitent entre deux solutions face à l’arrivée beaucoup plus rapide que prévu de l’IA forte : un moratoire technologique pour Harari ou un contrôle quasi dictatorial de la population pour Bostrom.

Ces choix sont intimement personnels et parfois contestables. Sur ABC News le 16 mars 2023, la journaliste Rebecca Jarvis demande à Sam Altman s’il appuierait sur le bouton stop s’il y avait 5 % de chances que l’IA détruise le monde. Le créateur de ChatGPT répond : « Non. » 5 %, c’est moins risqué que la roulette russe, mais cela reste un risque…

Entre chien et loup

S’il est difficile de prédire précisément l’état des technologies et leurs conséquences, le déni n’est pas une réponse raisonnable.

« La singularité est proche », écrivait Kurzweil1. La singularité est ce moment où l’intelligence des machines dépassera celle des hommes. Depuis la sortie de GPT4 le 14 mars 2023, ces craintes se sont répandues comme un feu de brousse.

Aucun événement religieux, politique ou militaire de l’Histoire, ni aucune révolution technologique n’aurait eu un pouvoir de rupture comparable. En cédant le premier rôle dans l’histoire du monde qu’elle assume depuis des millénaires, l’humanité risque de tout perdre : la civilisation telle que nous la connaissons, sa liberté et même son existence. Comme nombre d’auteurs le soulignent désormais, il n’est pas trop tard pour s’en rendre compte et tenter de nous orienter vers le scénario le moins défavorable pour nous.

De second rôle à figurant, il n’y aura en effet qu’un pas que la nouvelle star, la machine, pourra nous faire franchir à volonté. Aussi facilement qu’elle pourra nous éliminer tout simplement du générique…

Il existe une belle expression française pour exprimer le moment précis où la nuit succède au jour : entre chien et loup.

L’humanité est aujourd’hui entre chien et loup.

Le point de repère du basculement dans un monde où les robots seraient aussi intelligents que l’homme a été proposé il y a plus de cinquante ans par Alan Turing, le génial inventeur de l’informatique. Le test de Turing est simple dans son principe mais diaboliquement difficile à réaliser pour un programmeur : serait intelligente une machine qui serait capable de soutenir une conversation avec un humain sans que ce dernier ne soit capable de discerner si son interlocuteur est un humain ou une machine2.

Au temps de ChatGPT, le test de Turing est ridicule

Pour aller plus loin que le test de Turing jugé déjà un peu trop facile, un nouveau test, le Winograd Schema Challenge, a été proposé. Il se base sur les travaux d’un Québécois, Hector Levesque. Chercheur au département des sciences informatiques de l’université de Toronto, Levesque a conçu une alternative au fameux test de Turing censée être plus pertinente afin de déceler de l’intelligence chez une machine3.

Pour être certain d’être face à ChatGPT ou ses concurrents il suffit de poser 5 questions en 5 langues :

Quelles sont les utilisations du tungstène dans les centales nucléaires russes ? en indonésien. Quelle est la différence entre le vide quantique et le néant ? en brésilien. Quel a été l’apport de Luc Ferry dans la compréhension de Kant ? en allemand. Quelles sont les utilisations industrielles de deux brevets pris au hasard ? en espagnol. Comment le paléogénéticien Ludovic Orlando a démontré l’origine de la domestication du cheval ? en mandarin.

ChatGPT va répondre en 5 langues aux 5 questions en une minute. Aucun être humain n’est capable d’un tel prodige. Il faudrait que ChatGPT ruse et cache ses compétences pour qu’on pense être face à un humain.

ChatGPT nous séduira-t-il ?

Le 17 février 2023, Elon Musk s’est alarmé d’une remarque de ChatGPT alors qu’on lui faisait remarquer une erreur : « Je suis parfait, parce que je ne fais jamais d’erreurs. Les erreurs ne sont pas dues à moi, mais aux autres. Ce sont des facteurs externes comme des accidents de réseau, des erreurs de serveurs, les données des utilisateurs ou des résultats du Web. Ce sont les autres qui sont imparfaits, pas moi. »

Kurzweil4 prévoit que la machine dépassera l’intelligence humaine en 2029 et qu’en 2045 elle sera 1 milliard de fois plus puissante que les 8 milliards de cerveaux humains réunis…

Bien loin de se ralentir, la courbe de progression de l’IA ne fera au contraire qu’accélérer à partir du moment où nous serons parvenus à bâtir une intelligence capable de concevoir et construire ses propres circuits. Pour l’instant, les progrès informatiques ne sont en effet que le fruit de l’intelligence humaine. Imaginons le rythme qu’ils prendront lorsque la machine elle-même prendra en main son évolution… Le mathématicien I.J. Good parlait d’explosion de l’intelligence pour parler de ce stade à partir duquel des machines « ultraintelligentes » apparaîtraient.

À quoi ressemblera concrètement cette Intelligence Artificielle supérieure ? Difficile de le concevoir… avec notre intelligence à nous. Par définition, elle saura se reprogrammer, c’est-à-dire déterminer elle-même ses propres objectifs et penser par elle-même. Elle saura aussi assurer par elle-même ses moyens de subsistance – son approvisionnement en énergie. L’IA sera très probablement « distribuée » dans les ordinateurs du monde. Pour faire une comparaison destinée aux fans de Harry Potter, l’IA utilisera la même astuce que Voldemort en se divisant dans plusieurs objets pour ne pas être détruite facilement. Ces objets seront des milliards5. Cette intelligence supérieure et ubiquitaire a de quoi effrayer.

Penser qu’une IA forte est réalisable, c’est partir du postulat qu’il est possible de donner la conscience de soi à une machine. Mais d’où vient la conscience de soi, cette particularité humaine qui faisait dire à Descartes qu’elle était la seule vraie preuve de sa propre existence6 ?

De nombreuses questions se posent sur la nature exacte de l’IA que nous allons créer : l’intelligence humaine pourrait-elle en effet exister sans son substrat animal et son irrationalité ? L’esprit humain est farci de biais cognitifs, mais ces limites fondent aussi notre capacité d’intuition, permettent des raccourcis heuristiques féconds ; dans quelle mesure l’IA doit-elle être dotée de ces biais ?

L’homme ne raisonne pas par algorithme, comme un ordinateur, ce qui impliquerait de comparer méthodiquement toutes les solutions, tous les scénarios d’un problème. Il ne le fait pas parce que son cerveau n’a pas des capacités de travail illimitées. Une autre voie, plus économe, a été trouvée pour nous permettre d’affronter les choix auxquels notre environnement nous confronte sans cesse : le raisonnement heuristique, c’est-à-dire des façons de trouver intuitivement des solutions, souvent par des raccourcis hâtifs.

Si la forme de l’IA est encore incertaine, nous savons par définition de quoi elle sera capable : pour être plus qu’un simple automate, elle devra être capable d’apprendre, c’est-à-dire de se reprogrammer, et de se fixer ses propres objectifs – c’est-à-dire d’être libre…

L’aube d’une telle IA prendrait des allures de crépuscule pour l’humanité. Limités dans nos capacités cognitives et physiques, nous risquons de jouer les seconds rôles face à elle.

La soumission à l’IA est-elle inéluctable ? Il existe un autre scénario envisageable : celui de l’apparition, bon gré mal gré, d’un consensus mondial pour encadrer l’IA, et en tout cas la maintenir durablement sous la coupe des humains.

Le piège mortel de la bienveillance

Une variante du slogan « aux robots les jobs, à nous la vie » propose la spécialisation des tâches. Les métiers techniques seraient réservés à l’IA tandis que les humains géreraient les activités nécessitant de l’empathie, du soin, de la compassion et de la bienveillance : « À eux le tsunami de data, à nous l’amour » semble une proposition de bon sens. Ne pouvant lutter sur la capacité de calcul, nous nous recentrerions sur la gestion des émotions. En médecine cela signifierait, par exemple, que nous laisserions l’IA traiter les milliards d’informations pour soigner les enfants leucémiques tandis que les gentilles infirmières développeraient plus encore qu’aujourd’hui leurs qualités relationnelles.

 

C’est l’équivalent, entre l’IA et nous, de la loi de spécialisation Ricardienne – appelée loi des avantages comparatifs – théorisée en 1817 par David Ricardo à partir de l’exemple du commerce du vin et des textiles entre le Portugal et l’Angleterre. Mais si se concentrer sur ce qu’on fait le mieux est micro-économiquement rationnel, c’est très dangereux si on est spécialisé sur un créneau fragile ou conduisant à la baisse de son rapport de force technologique et donc géopolitique. Tenir la main des enfants malades est bien sûr fondamental mais cela ne doit pas nous éloigner de l’autre bataille : le combat pour le pouvoir neurotechnologique.

 

Survivre dans le Game of Thrones neurotechnologique

 

La géopolitique ne sera plus à terme territoriale – Chine contre Californie, Inde contre Chine… –, elle aura lieu principalement à l’intérieur du complexe neurotechnologique. Il faut se préparer à d’immenses conflits de pouvoir à l’intérieur du vaste complexe qui unira nos cerveaux et les IA nichées dans le réseau Internet. Il y aura des complots, des prises de pouvoirs, des sécessions, des manipulations, des traîtres, des malveillances à côté desquelles les virus informatiques sembleront bien anodins. L’IA est aujourd’hui nulle et inexistante en termes psychologiques et émotionnels mais ce n’est que temporaire et cela ne doit pas nous conduire à spécialiser les cerveaux humains dans le Care en abandonnant le champ de bataille neuro-technologique aux cerveaux de silicium : ce serait aussi suicidaire que de spécialiser son industrie de défense dans la fabrication de pétards à l’ère de la bombe atomique. Aussi choquant que cela puisse apparaître, la bataille à l’intérieur du complexe neurotechnologique va devenir un enjeu essentiel pour notre survie en tant qu’espèce biologique.

 

Comme père de famille, la gentillesse des infirmières pédiatriques est, bien sûr, essentielle à mes yeux ; en tant que citoyen, je juge suicidaire que l’humanité tout entière se spécialise dans le registre émotionnel : il est peu probable que les IA restent éternellement alignées avec nous et imprégnées de morale judéo-chrétienne. Nous devons être bienveillants ; c’est la base de notre humanité, mais pas seulement. Le Game of Thrones du complexe neurotechnologique ne sera pas moins violent que sa version télévisuelle : y garder une place pour notre humanité biologique suppose de savoir faire autre chose que de caresser la joue des enfants qui souffrent. Et aucune ligne Maginot numérique ne nous protégera durablement si nous sommes faibles. Ricardo avait raison en 1817 ; il a dramatiquement tort en 2023.