L’humanité est en danger. Écrire cela n’est pas faire du sensationnalisme à bon compte. C’est tirer rationnellement les conséquences des trajectoires technologiques et sociales actuelles.
Il suffit de voir avec quelle soif sont accueillis dès leur sortie tous les nouveaux outils à base d’IA. Les progrès que l’IA permet sont spécialement plébiscités dès qu’ils concernent la santé. L’espoir de repousser la perspective angoissante de la mort est si puissant que l’appétit pour les technologies qui nous y aideront est insatiable.
L’IA pourrait devenir supérieure à l’humanité, mais nous sommes trop souvent dans le déni. À l’instar des « naïfs » new age qui accueillent les extraterrestres en les supposant bienveillants dans des films comme Independance Day ou Mars Attacks, nous avons tendance à penser qu’une IA, a fortiori parce qu’elle sera née de nos mains, sera forcément bonne. Il serait particulièrement stupide et présomptueux de le penser.
S’il est difficile de prédire précisément l’état des technologies et leurs conséquences, le déni n’est pas une réponse raisonnable.
La Singularité est proche, écrivait Kurzweil1 en 2006. La Singularité est ce moment où l’intelligence des machines dépassera celle des hommes. Les prévisions de Kurzweil relèveront peut-être encore longtemps de la science-fiction.
Mais, aucun événement religieux, politique ou militaire de l’Histoire, ni aucune révolution technologique n’aurait eu un pouvoir de rupture comparable. En cédant le premier rôle dans l’histoire du monde qu’elle assume depuis des millénaires, l’humanité risque de tout perdre : la civilisation telle que nous la connaissons, sa liberté et même son existence.
De second rôle à figurant, il n’y aura en effet qu’un pas que la nouvelle star, la machine, pourra nous faire franchir à volonté. Aussi facilement qu’elle pourra nous éliminer tout simplement du générique…
Il existe une belle expression française pour exprimer le moment précis où la nuit succède au jour : « entre chien et loup ». C’est en effet le moment où, la lumière ayant déjà suffisamment baissé, on ne peut plus distinguer un chien d’un loup dans la pénombre. La nuit n’est pas encore, mais le jour n’est plus vraiment.
L’humanité est aujourd’hui entre chien et loup.
Le point de repère du basculement dans un monde où les robots seraient aussi intelligents que l’homme a été proposé il y a plus de cinquante ans par Alan Turing, le génial inventeur de l’informatique. Le test de Turing est simple dans son principe mais diaboliquement difficile à réaliser pour un programmeur : serait intelligente une machine capable de soutenir une conversation avec un humain sans que ce dernier puisse discerner si son interlocuteur est un humain ou une machine2.
Pour aller plus loin que le test de Turing jugé trop facile, un nouveau test, le Winograd Schema Challenge, a été proposé. Il s’appuie sur les travaux d’un Québécois, Hector Levesque. Chercheur au département des sciences informatiques de l’université de Toronto, Levesque a conçu une alternative au fameux test de Turing censée être plus pertinente afin de déceler de l’intelligence chez une machine3.
Laurence Devillers, chercheuse en IA au CNRS, va plus loin et pense que nous devons pouvoir évaluer les robots tout au long de leur vie puisqu’ils vont évoluer et changer à notre contact. Elle considère que des tests de contrôle technique des automates dotés d’IA s’imposeront pour vérifier qu’ils ne nous manipulent pas et ne nous mentent pas.
Laurence Devillers pense aussi qu’il est crucial de monitorer le comportement des humains au contact des automates afin de nous prémunir contre un attachement excessif vis-à-vis des cerveaux de silicium et éviter que nous soyons trop influençables.
Le champ de l’évaluation des différents cerveaux est immense. Depuis la mesure de notre complémentarité avec l’IA, jusqu’au contrôle de notre coévolution, la fin du travail n’est pas près de menacer les psychologues de l’IA. D’ailleurs Google vient de créer PAIR – People + AI Research – pour aider les êtres humains à apprivoiser l’IA.
L’intelligence, et quoi qu’en disent les défenseurs des thèses « spiritistes » ou « dualistes » – qui défendent la nécessité d’un souffle transcendant pour qu’existe la conscience de soi –, n’est qu’une question de quantité d’opérations traitées. Autrement dit de puissance de calcul.
Kurzweil4 prévoit que la machine dépassera l’intelligence humaine en 2029 et qu’en 2045 elle sera 1 milliard de fois plus puissante que les 8 milliards de cerveaux humains réunis…
Bien loin de se ralentir, la courbe de progression de l’IA ne fera au contraire qu’accélérer à partir du moment où nous serons parvenus à bâtir une intelligence capable de concevoir et construire ses propres circuits. Pour l’instant, les progrès informatiques ne sont en effet que le fruit de l’intelligence humaine. Imaginons le rythme qu’ils prendront lorsque la machine elle-même prendra en main son évolution… Le mathématicien I.J. Good, mort en 2009, parlait d’explosion de l’intelligence pour parler de ce stade à partir duquel des machines « ultra-intelligentes » apparaîtraient5.
À quoi ressemblera concrètement cette intelligence artificielle supérieure ? Difficile de le concevoir… avec notre intelligence à nous. Par définition, elle saura se reprogrammer, c’est-à-dire déterminer elle-même ses propres objectifs et penser par elle-même. Elle saura aussi assurer par elle-même ses moyens de subsistance – son approvisionnement en énergie. L’IA sera très probablement « distribuée » dans les ordinateurs du monde. Pour faire une comparaison destinée aux fans de Harry Potter, l’IA utilisera la même astuce que Voldemort en se divisant dans plusieurs objets pour ne pas être détruite facilement. Ces objets seront des milliards6. Cette intelligence supérieure et ubiquitaire a de quoi effrayer.
Penser qu’une IA forte est réalisable, c’est partir du postulat qu’il est possible de donner la conscience de soi à une machine. Mais d’où vient la conscience de soi, cette particularité humaine qui faisait dire à Descartes qu’elle était la seule vraie preuve de sa propre existence7 ? La théorie purement « biologiste » de Changeux ne fait plus scandale aujourd’hui. En tout cas pas dans la communauté des neurobiologistes.
De nombreuses questions se posent sur la nature exacte de l’IA que nous allons créer : l’intelligence humaine pourrait-elle en effet exister sans son substrat animal et son irrationalité ? L’esprit humain est farci de biais cognitifs, mais ces limites fondent aussi notre capacité d’intuition, permettent des raccourcis heuristiques féconds ; dans quelle mesure l’IA doit-elle être dotée de ces biais ?
L’homme ne raisonne pas par algorithme, comme un ordinateur, ce qui impliquerait de comparer méthodiquement toutes les solutions, tous les scénarios d’un problème. Il ne le fait pas parce que son cerveau n’a pas de capacités de travail illimitées. Une autre voie, plus économe, a été trouvée pour nous permettre d’affronter les choix auxquels notre environnement nous confronte sans cesse : le raisonnement heuristique, c’est-à-dire de trouver intuitivement des solutions, parfois par des raccourcis hâtifs.
Toutes ces interrogations tournent finalement autour de celle-ci : dans quelle mesure l’homme est-il réellement réductible, dans son fonctionnement biologique, à un programme – qu’il s’agisse de celui de l’ADN ou d’un ordinateur ?
Pour beaucoup de chercheurs, il est certain que, d’une façon ou d’une autre, un code informatique sera un jour capable de reproduire l’intelligence humaine, avec possiblement des capacités infiniment supérieures. Pour y parvenir, ils intègrent certaines dimensions spécifiquement humaines. Le roboticien Pierre-Yves Oudeyer souligne que depuis une dizaine d’années, les pistes de recherche de la robotique intègrent « des systèmes motivationnels et émotionnels dans les machines, les poussant par exemple à trouver des ressources, maintenir leur intégrité physique, du contact social… On y ajoute même des systèmes de motivation internes comme le plaisir d’apprendre, le plaisir de gagner de l’information8 ».
Si la forme de l’IA est encore incertaine, nous savons que pour être plus qu’un simple automate, elle devra être capable d’apprendre, c’est-à-dire de se reprogrammer, et de se fixer ses propres objectifs – c’est-à-dire d’être libre… « Le robot, à terme, pourra chercher à obtenir des récompenses externes et internes et développer des savoir-faire nouveaux9. »
L’aube d’une telle IA prendrait des allures de crépuscule pour l’humanité. Limités dans nos capacités cognitives et physiques, nous risquons de jouer les seconds rôles face à elle. Heureusement, il est possible que l’IA consciente d’elle-même n’apparaisse que dans très longtemps.
La soumission à l’IA est-elle inéluctable ? Il existe un autre scénario envisageable : celui de l’apparition, bon gré mal gré, d’un consensus mondial pour encadrer l’IA.
Une variante du slogan « aux robots les jobs, à nous la vie » propose la spécialisation des tâches. Les métiers techniques seraient réservés à l’Intelligence Artificielle tandis que les humains géreraient les activités nécessitant de l’empathie, du soin, de la compassion et de la bienveillance : « à eux le tsunami de data, à nous l’amour » semble une proposition de bon sens. Ne pouvant lutter sur la capacité de calcul, nous nous recentrerions sur la gestion des émotions. En médecine cela signifierait, par exemple, que nous laisserions l’IA traiter les milliards de milliards de milliards d’informations biologiques notamment génétiques pour soigner les enfants leucémiques tandis que les gentilles infirmières développeraient plus encore qu’aujourd’hui leurs qualités relationnelles.
C’est l’équivalent, entre l’IA et nous, de la loi de spécialisation ricardienne – appelée loi des avantages comparatifs – théorisée en 1817 par David Ricardo à partir de l’exemple du commerce du vin et des textiles entre le Portugal et l’Angleterre. Mais si se concentrer sur ce qu’on fait le mieux est micro-économiquement rationnel, c’est très dangereux si on est spécialisé sur un créneau fragile ou conduisant à la baisse de son rapport de forces technologique et donc géopolitique. Tenir la main des biologique suppose de savoir faire autre chose que de enfants malades est bien sûr fondamental mais cela ne doit pas nous éloigner de l’autre bataille : le combat pour le pouvoir neurotechnologique.
La géopolitique ne sera plus à terme territoriale – Chine contre Californie, Inde contre Chine… – elle aura lieu principalement à l’intérieur du complexe neurotechnologique. Il faut se préparer à d’immenses conflits de pouvoir à l’intérieur du vaste complexe qui unira nos cerveaux et les IA nichées dans le réseau Internet. Il y aura des complots, des prises de pouvoir, des sécessions, des manipulations, des traîtres, des malveillances à côté desquelles les virus Wannacry et Petya du printemps 2017 sembleront bien anodins. L’IA est aujourd’hui nulle et inexistante sur le plan psychologique et émotionnel mais ce n’est que temporaire et cela ne doit pas nous conduire à spécialiser les cerveaux humains dans le « Care » en abandonnant le champ de bataille neurotechnologique aux cerveaux de silicium : ce serait aussi suicidaire que de spécialiser son industrie de défense dans la fabrication de pétards à l’ère de la bombe atomique. Aussi choquant que cela puisse apparaître, la bataille à l’intérieur du complexe neurotechnologique va devenir un enjeu essentiel pour notre survie en tant qu’espèce biologique.
Comme père de famille, la gentillesse des infirmières pédiatriques est, bien sûr, essentielle à mes yeux ; en tant que citoyen, je juge suicidaire que l’humanité tout entière se spécialise dans le registre émotionnel : il est peu probable que les IA restent éternellement alignées avec nous et imprégnées de morale judéo-chrétienne. Nous devons être bienveillants ; c’est la base de notre humanité, mais pas seulement. Le « Game of Thrones » du complexe neuro-technologique ne sera pas moins violent que sa version télévisuelle : y garder une place pour notre humanité caresser la joue des enfants qui souffrent. Et aucune ligne Maginot numérique ne nous protégera durablement si nous sommes faibles. Ricardo avait raison en 1817 ; il a dramatiquement tort en 2017.