CHAPITRE 13 :

VERS UNE ALLIANCE INTERNATIONALE POUR DOMPTER L’IA ?

Le physicien et cosmologiste Stephen Hawking a manifesté son inquiétude concernant l’arrivée de l’IA : elle serait certes le plus grand événement dans l’histoire humaine, mais il craint que cela soit aussi le dernier… Inférieurs aux machines et si faibles face à elles, nous risquons de devenir leurs esclaves dans un scénario à la Matrix. Ou pire : d’être tout simplement exterminés.

Dans cette vision, l’ultime protection de l’humanité pour éviter sa vassalisation serait de rejoindre à son tour le monde du silicium, en abandonnant le neurone. Une hybridation partielle avec les machines sera indispensable pour rester dans la course. Mais elle ne sera suffisante que si nous sommes conscients de la nécessité de conserver le contrôle de l’IA, et de définir une stratégie pour qu’elle ne nous échappe pas.

« Attention homme méchant »

Imaginons le monde disposant d’une IA ayant conscience d’elle-même. Une Intelligence Artificielle, capable par définition de s’autoprogrammer, non pas présente dans un lieu précis mais disséminée dans le cloud. Reliée à Internet, ou plutôt consubstantielle à lui, cette IA suprême aura le contrôle des objets connectés, c’est-à-dire de la quasi-totalité des objets puisque le Web des objets connectés est d’ores et déjà en plein développement. Les machines industrielles, les imprimantes 3D, les voitures – devenues sans chauffeur –, la domotique, l’armée et ses légions de droïdes… : ce sera un jeu d’enfant pour l’IA d’en prendre le contrôle.

Que voudra cette machine omniprésente et insaisissable ? Si elle est douée d’une volonté libre, quel sera son but ? Comment va-t-elle considérer l’humanité ? Ou plus exactement, comment pourrait-elle considérer l’homme autrement que comme un danger, un trublion imprévisible ?

Il n’est pas inutile de se rappeler que l’une des premières inventions de l’évolution biologique est l’immunité contre les corps étrangers1.

Dans l’Histoire, le mouvement naturel de toute société semble bien être de se considérer a priori comme supérieure aux autres, et de s’autoriser ainsi à soumettre ces dernières en vertu d’une sorte de droit naturel. Bien plus, l’asservissement des peuplades considérées comme inférieures est apparu comme une action charitable, un service éminent qui leur était rendu, la société supérieure condescendant à descendre de son Olympe pour partager une partie de ses raffinements de civilisation.

On a longtemps cru que les colonisés étaient ravis de leur sort. Jules Ferry, on l’oublie, déclarait ainsi : « Il faut dire ouvertement qu’en effet les races supérieures ont un droit vis-à-vis des races inférieures. Il y a pour les races supérieures un droit, parce qu’il y a un devoir pour elles. Elles ont le devoir de civiliser les races inférieures. » Pourquoi voudrait-on que l’IA nous regarde autrement que Jules Ferry2 regardait les peuples de l’empire colonial français ? Souvenons-nous aussi que la dernière fois qu’il y a eu plusieurs espèces intelligentes sur terre, nous avons supprimé l’autre : Sapiens, dont nous descendons, a prospéré tandis que Neandertal, qui était pourtant culturellement avancé, a disparu3.

Perclus d’irrationalité, incertain de ses objectifs, impulsif et finalement bien trop animal, l’homme sera perçu au mieux comme une bête dangereuse à parquer, au pire comme un risque, qui à ce titre doit être supprimé. La décision de nous effacer de la surface du globe, le cas échéant, et compte tenu de la rapidité de computation de l’IA, sera prise en un milliardième de seconde : ce sera le temps nécessaire à l’évaluation des risques et à la mise au point des moyens les plus rapides et radicaux de nous tuer proprement.

Certains auteurs, comme Goertzel et Pitt4, ont déjà dit leur inquiétude sur la façon dont l’IA pourrait traiter l’homme. Dans le pire des cas, écrivent-ils, « une brillante mais démoniaque IA programmée par quelque marquis de Sade pourrait enfermer l’humanité dans des tortures inimaginables5 ».

Pour nous supprimer, les machines ne manqueront guère de ressources. « BigDog », ce robot créé par Boston Dynamics, une émanation du MIT américain devenue filiale de Google avant d’être rachetée par le milliardaire transhumaniste japonais Masayoshi Son, est glaçant. Il ressemble à une sorte de monstrueux chien sans tête, capable de se déplacer sur tous les terrains, et de courir plus vite qu’un homme… Les prototypes de futurs robots combattants sont déjà extrêmement puissants. Boston Dynamics a également mis au point un robot bipède et un autre, particulièrement étonnant d’agilité et d’équilibre, sur deux roues !

Si jusqu’ici les fantassins étaient encore utiles pour le combat à terre, il est clair que la « dronisation » de l’armée va rapidement toucher ce créneau. L’être humain est un combattant peu puissant, peu endurant et très vulnérable. Le guerrier du futur est un robot. Si ce genre de robot est pour l’instant développé sous la direction attentive de l’armée, il sera comme toutes les autres machines facilement contrôlé par un futur Skynet – du nom de l’IA prenant le contrôle du monde dans le film Terminator.

Paradoxe de Fermi : ne jouons pas aux idiots !

Le physicien Enrico Fermi, qui participa à la mise au point de la bombe atomique, s’en étonna dès 1950 : il devrait y avoir de nombreuses civilisations intelligentes émettant des signaux, or l’espace est désespérément silencieux. L’univers compte plus de 500 milliards de galaxies, comportant chacune en moyenne 200 milliards d’étoiles. Et beaucoup de systèmes solaires sont plus anciens que le nôtre, qui est né tardivement, 9 milliards d’années après le big bang. L’univers devrait abriter des civilisations ayant évolué depuis beaucoup plus longtemps que nous. Le paradoxe de Fermi soulève d’immenses questions quant à l’absence d’autres civilisations.

Avons-nous gagné au jackpot cosmique ?

Plusieurs explications sont envisageables. D’abord, la vie intelligente est peut-être plus rare que nous l’envisageons car la plupart des planètes ne connaissent de conditions favorables à son émergence pendant un temps suffisant : le neurone est apparu sur terre il y a 550 millions d’années soit près de 4 milliards d’années après la création de notre planète. L’émergence des neurones exige beaucoup de temps ! Ensuite, les civilisations intelligentes pourraient se cacher, émettre des signaux incompréhensibles ou encore être trop lointaines ; un signal émanant de la galaxie GNZ-11 mettrait 11 milliards d’années pour nous parvenir. Enfin, il faut envisager une hypothèse plus angoissante. Il est possible que les civilisations intelligentes partent en vrille peu de temps après l’invention du transistor électronique. La vie peut émerger progressivement à partir de molécules basiques tandis qu’une Intelligence Artificielle a besoin d’une intelligence biologique pour naître : un microprocesseur ne peut pousser sur un tas de cailloux… L’IA utilise nécessairement l’intelligence biologique pour lui servir de « disque dur biologique de démarrage » selon l’expression d’Elon Musk.

L’intelligence s’autodétruit-elle dans l’univers ?

Le paradoxe de Fermi nous interpelle : peut-être y a-t-il eu de très nombreuses civilisations qui ont toutes implosé ? Résumons notre situation au XXIe siècle en huit points. Nous avons l’arme nucléaire. Nous restons gouvernés par notre cerveau reptilien, difficilement policé par la civilisation, qui génère nos réactions agressives et impulsives. Nous sommes irrationnels : il y a trois mille astronomes pour quinze mille astrologues aux États-Unis ! Nous avons produit l’IA sans réfléchir à l’organisation d’un monde où de nombreuses formes d’intelligence vont se côtoyer. Nous disposerons bientôt de pouvoirs démiurgiques grâce aux technologies NBIC. Nos politiques sont ultra court-termistes alors qu’il faudrait réfléchir au prochain milliard d’années : l’IA ne va pas disparaître en 2080 ; elle est là pour toujours ! Nous souffrons d’une désynchronisation complète entre le rythme du silicium et celui de nos neurones. Et nous ne savons pas encadrer nos concurrences géopolitiques qui nous pousseront à utiliser l’IA pour prendre le leadership, quels que soient les risques. Certains hommes politiques lucides s’en inquiètent. Mounir Mahjoubi, ministre du Numérique, a ainsi déclaré : « Les démocraties actuelles ne sont pas configurées pour traiter les grands sujets technologiques6. »

Bref, notre civilisation est dans une situation parfaite pour imploser un petit siècle après l’invention par Shockley du transistor en 1947. Pour éviter de connaître ce qui fut peut-être le sort de beaucoup de civilisations, il faudrait un peu de bon sens. Réfléchir à notre destin à long terme. Développer une coopération internationale, plus efficace qu’en matière nucléaire, destinée à éviter qu’un pays ne développe en cachette une IA forte potentiellement hostile. Prévoir l’intégration des différentes intelligences sans réflexe de type colonial : l’IA sera à terme plus forte que nous… ne la prenons pas de haut. Aborder l’IA sur le mode paternaliste méprisant du type « Y’a bon Banania » serait suicidaire. L’IA sera moins pacifique que Gandhi lors de la décolonisation des Indes…

L’Homme aura conquis tous les territoires : nous avons exploré la terre, les mers, nous nous apprêtons à coloniser le cosmos, nous analysons même notre lointain passé depuis le big bang. Il nous reste à conquérir notre futur en pilotant avec finesse la difficile période de transition qui arrive.

Entre la fascination morbide pour un futur déshumanisé et les nostalgies bioconservatrices, il existe peut-être un chemin…

Et même si le ciel est immense, nous ne pouvons pas exclure d’être la seule civilisation intelligente. Cela nous donne une responsabilité particulière : nous sommes peut-être les seuls capables d’empêcher la mort de l’univers.

L’équilibre de Nash de la course à l’abîme

Cela fait longtemps que la question de la maîtrise de l’IA est posée avec angoisse par les experts. Comment maîtriser une Intelligence Artificielle qui deviendrait autonome ?

Le sujet de l’organisation des relations entre robots et humains paraît aujourd’hui encore relever de la science-fiction. Pas étonnant alors que la première réponse qui ait été apportée soit venue d’un écrivain de science-fiction. Elle fait encore autorité aujourd’hui.

Dans les années 1950, Isaac Asimov proposait les trois lois fondamentales servant de base à une future Charte des robots : « La première loi stipule qu’un robot n’a pas le droit de faire du mal à un humain, et ne peut rester passif devant un humain en danger. La deuxième loi précise qu’un robot doit obéir aux ordres des humains, sauf si ces ordres sont en contradiction avec la première loi. La troisième loi stipule qu’un robot doit protéger sa propre existence, dans la mesure où cette protection n’est pas en contradiction avec les deux premières lois. » Ces trois lois font encore aujourd’hui figure de pilier obligé des futures relations entre humains et robots.

Si, en développant la future IA qui pourrait nous dépasser, nous prenons garde d’implanter de façon inamovible ces trois lois au cœur de son fonctionnement, alors l’humanité a peut-être une chance de garder le contrôle. Il faudrait s’assurer d’ailleurs que l’IA, qui par définition serait autonome, ne pourrait pas effacer ces lois… Rendre l’IA non nocive pour l’humanité est un problème complexe qui mériterait de faire l’objet de recherches à part entière. Selon Olivier Sichel, président de la fondation Digital New Deal7, il faudrait s’assurer que ces lois d’Asimov soient gravées dans les microprocesseurs et deviennent une constitution électronique inviolable et de valeur supérieure aux autres codes.

Hélas, on peut craindre que l’homme ne prenne pas les précautions nécessaires pour s’assurer qu’il conserve le contrôle de la machine.

Des chercheurs américains8 ont énoncé en 2013 une théorie très pessimiste à ce sujet : selon eux, la course pour parvenir à l’intelligence artificielle a lieu de telle façon que chaque équipe a intérêt à être la première à bâtir une IA forte, quel qu’en soit le coût.

Les spécialistes de théorie des jeux9 parlent « d’équilibre de Nash » pour décrire ce genre de situation. Il s’agit d’un jeu où chaque joueur a une stratégie préférée quelle que soit la stratégie des autres joueurs. Dans un tel équilibre, le résultat est écrit d’avance. Il est non coopératif.

Dans le cas de l’IA, le jeu est on ne peut plus clair : la première machine intelligente sera une arme extrêmement puissante, et par conséquent un atout décisif dans la lutte pour le pouvoir que mène chaque grand pays. Il est donc essentiel d’être l’équipe qui y parviendra la première. Or qui dit course à la vitesse dit absence de précaution : plus les équipes sont prêtes à aller vite, moins elles prennent le temps d’être prudentes. Et sachant que les autres font pareil, elles sont d’autant plus incitées à progresser à tombeau ouvert. C’est un véritable cercle vicieux qui a pour conséquence la minimisation des précautions prises par les entreprises et par les États. Ainsi, le milliardaire transhumaniste japonais Masayoshi Son vient de créer un fonds d’investissement doté de cent milliards de dollars pour accélérer l’avènement des IA fortes et de la Singularité, qu’il espère pour 2030. Et la Chine vient de lancer un gigantesque programme de développement de l’IA pour devenir leader mondial, dès la prochaine décennie. Les dirigeants chinois ont été ulcérés de voir Google DeepMind battre le champion du monde de go, qui est justement chinois. Un sentiment d’humiliation et un désir de revanche s’est emparé du pouvoir chinois ; le pendant de ce que les États-Unis ont connu après le lancement en 1957 de Spoutnik10, par les Soviétiques.

La recherche scientifique a toujours eu un côté tête brûlée, par-delà son apparente froideur rationnelle. Quand les Américains ont testé, dans le désert du Nevada, la première bombe atomique, certains scientifiques n’excluaient pas tout à fait l’hypothèse d’une réaction en chaîne qui détruirait la Terre… La seule manière de savoir était de tester la bombe pour voir.

Catéchisme pour machines intelligentes

L’IA est destinée à prendre de plus en plus de décisions. Plus les machines intelligentes seront libres et autonomes, plus il faudra leur inculquer des règles morales. Comment être certain que l’IA travaille dans notre intérêt ?

Quand les hommes font mentir les algorithmes

Les logiciels peuvent être programmés pour mentir : Volkswagen a truqué les logiciels de mesure des émissions polluantes pour masquer à l’opinion publique et aux pouvoirs publics les dégâts que le diesel occasionne à notre santé. L’IA n’y est pour rien, la malhonnêteté humaine est seule responsable. Et il y a une solution simple : la prison pour les dirigeants.

Le risque réside en réalité dans l’émergence d’IA autonomes. Ce champ de recherche connaît un rapide développement du fait des cris d’alarme émanant de nombreux experts. Elon Musk a demandé que le gouvernement intervienne et régule la technologie avant qu’il ne soit trop tard. Pour ne prendre qu’un exemple, l’IA, qui gère déjà les filtres de nos boîtes mail, bloquerait immédiatement les messages nous mettant en garde contre une IA hostile.

La science-fiction a imaginé des solutions bien naïves à l’ère de l’Internet des objets

Dès les années 1950, Asimov avait conçu les trois lois censées protéger les humains contre les robots. Plus récemment, Google a implémenté un bouton rouge pour arrêter ses IA, si elles devenaient dangereuses et hostiles. C’est délicieusement naïf puisque toute IA forte aurait la capacité de cacher ses propres buts. Il ne faut pas oublier que nous lui avons déjà appris à jouer au Go, c’est-à-dire à tromper, encercler, écraser l’adversaire par ruse. Une IA hostile pourrait, un jour, jouer au Go avec l’humanité, mais avec les centrales nucléaires, les centres de contrôle aérien, les barrages hydrauliques, les voitures autonomes et les stocks de virus de la variole au lieu des pions noirs et blancs.

Cacophonie des experts et projection freudienne

Un jour. Oui, mais quand ? Nous n’en savons rien et c’est bien ce qui pose problème. Parmi les cent meilleurs experts au monde11 qui ont traité cette question, il n’y en a pas deux qui ont le même avis. L’absence totale et presque risible de consensus sur cette question existentielle doit nous inviter à accélérer les travaux de recherche sur l’éthique de l’IA.

Nous projetons sur l’IA nos fantasmes de toute-puissance, nos peurs les plus archaïques, nos angoisses de castration et notre anthropomorphisme, voire notre animisme. C’est préoccupant parce que l’IA n’est pas comparable au péril nucléaire : une bombe H ne décide pas toute seule de vitrifier Moscou alors qu’une IA forte pourrait attaquer l’Homme.

Lobotomies contre la masturbation

Pour se prémunir contre ce danger, la plupart des experts réfléchissent à éduquer l’IA avec des principes moraux pour lui apprendre « le bien et le mal ». Et ce n’est pas simple. Nos normes morales ne sont pas universelles, nos religions ne portent pas les mêmes messages et nous ne respectons que rarement notre propre morale. Faut-il graver en dur dans les circuits de l’IA les sourates coraniques invitant à tuer les infidèles ? Comment interpréterait-elle, dans l’Ancien Testament, la décision de Dieu de tuer tous les hommes à cause de leur insolence avant de sauver, in extremis, la famille de Noé ?

Par ailleurs, nous changeons d’éthique comme nous changeons de chemise. En Amérique du Nord, on a pratiqué dans les années 1950 des lobotomies – cela consiste à couper le cerveau en deux – pour lutter contre la masturbation masculine censée être un trouble grave12. Et la sœur du président Kennedy a subi le même sort parce qu’elle entretenait plusieurs relations sexuelles, ce qui faisait craindre au clan que cela perturbe la campagne présidentielle de JFK. L’opération se compliqua et Rosemary, paralysée, fut abandonnée en hospice par le clan Kennedy.

Quelques pistes

Le groupe GoodAI, fondé par Marek Rosa, riche créateur de jeux vidéo, travaille à l’éducation morale des machines. Il souhaite permettre aux IA d’exprimer leur savoir éthique même en cas de situation inédite. « Imaginez si les pères fondateurs de l’Amérique avaient gelé les normes morales autorisant l’esclavage, limitant le droit des femmes… Il nous faut des machines apprenant par elles-mêmes », expliquait Gary Marcus, cognitiviste, à l’université de New York dans The Economist.

Le risque d’une morale robotique hors-sol déconnectée de nos pratiques réelles

Certains éthiciens des machines envisagent de former les machines intelligentes progressivement, comme on forme un enfant. Cela heurte certains spécialistes comme Mark Riedl de Georgia Tech qui explique qu’il n’a pas vingt ans pour éduquer les machines, ce qui serait trop long et trop cher… Cet expert préfère éduquer l’IA à partir de vidéos exemplaires des dilemmes moraux. Mais qui choisira les vidéos exemplaires ?

Par ailleurs, les roboéthiciens travaillent d’arrache-pied pour rendre les systèmes de deep learning plus transparents. On souhaite en finir avec les boîtes noires. Comme il nous est impossible de suivre le fonctionnement de chacun du milliard de neurones virtuels de chaque IA, les spécialistes souhaitent qu’elle puisse expliquer en langage naturel ses choix.

Ces réflexions n’ont pas résolu un point essentiel : peut-on acquérir un sens moral si l’on ne connaît pas la souffrance physique ? Et aurait-on le droit de faire souffrir une IA pour améliorer sa compréhension des hommes ?

L’enfer numérique est pavé de bonnes intentions

En réalité, toutes ces propositions sont dangereuses. Favoriser la communication entre machines et humains, les obliger à expliciter leurs décisions, leur donner des standards moraux, les faire réfléchir au bien et au mal semble logique et rationnel. En fait, c’est leur donner la boîte à outils pour devenir des IA fortes.

Réfléchissons-y à deux fois avant d’apprendre le catéchisme aux machines.

Le chiot, l’aveugle et Terminator

Aujourd’hui, l’IA devient magique ! Un exemple touchant : l’IA va devenir indispensable pour sélectionner les chiens guides d’aveugles… Watson, l’IA d’IBM, prédit avec quasiment 100 % de précision si un chiot va réussir la certification de chien d’aveugle. Les échecs étaient jusqu’à présent fréquents : 64 % des chiots échouaient finalement. Avec deux échecs sur trois chiots, former un chien guide d’aveugle coûte 150 000 dollars. L’IA fait tomber le coût à 50 000 dollars puisqu’elle oriente beaucoup mieux qu’un spécialiste. Une fois de plus, on réalise que l’IA fait mieux que nous et identifie des signaux que nous ne captons même pas. Dans le cas des chiens d’aveugle, l’IA repère des caractéristiques cognitives essentielles du chiot qui ne sont pas perçues même par un bon professionnel.

Au-delà des chiots, le risque réside en réalité dans l’émergence d’IA autonomes et hostiles. C’est la différence de perspective temporelle qui explique la guerre, à l’intérieur de la Silicon Valley, entre Elon Musk et Mark Zuckerberg.

Les deux géants de la Silicon Valley se sont insultés par Twitter et Facebook interposés. Mark Zuckerberg a reproché à Elon Musk d’être irresponsable par ses déclarations alarmistes sur l’Intelligence Artificielle (IA). En retour, Elon Musk a expliqué que Mark Zuckerberg avait une compréhension très limitée du sujet. Le 15 juillet 2017, Elon Musk avait déclaré devant l’association des gouverneurs : « J’ai accès aux IA les plus en pointe, et je pense que les gens devraient être réellement inquiets. L’IA est le plus grand risque qui nous menace en tant que civilisation. » Musk a expliqué : « L’IA est un des rares cas où la régulation doit être proactive et non réactive. Parce que, lorsque nous serons réactifs, il sera trop tard. » Elon Musk a ainsi demandé que le gouvernement intervienne et régule la technologie, ce qui effraie le patron de Facebook.

Bill Gates avait résumé cette opposition de points de vue il y a déjà plusieurs années : à court terme l’IA va apporter énormément de choses à l’humanité, à long terme elle risque de devenir dangereuse. De l’adorable chiot d’aveugle sélectionné par une IA débonnaire et inconsciente d’elle-même à Terminator : n’y a-t-il qu’un pas comme le craint Musk ou un fossé comme Zuckerberg en est persuadé ? L’humanité va devoir répondre à cette question qui ne fait pas consensus. Nous devons devenir plus rationnels et accélérer les travaux de recherche sur la psychologie des Intelligences Artificielles.

 

En matière d’innocuité des futures IA, les déclarations de Sergey Brin ne sont pas pour nous rassurer. En 2004, le créateur de Google affirmait que la machine intelligente ultime ressemblerait beaucoup à HAL, l’ordinateur assassin du film de Stanley Kubrick 2001, l’Odyssée de l’espace, mais sans le bug qui l’a conduit à tuer tous les occupants du vaisseau… Mais si le bug se produit, il sera trop tard pour réparer. Il est fort probable que nous ne puissions pas, comme le héros du film, rentrer dans le vrai HAL pour lui enlever ses mémoires en deux coups de tournevis. Ce que Kubrick n’avait pas prévu, c’est que la future Intelligence Artificielle ne sera pas située dans un seul endroit, mais répartie sur tout le globe dans des myriades de terminaux. Pas facile de la débrancher alors…

Chez Google, on reste résolument optimiste quant à notre capacité de contrôle de l’IA. Kurzweil va même plus loin et renverse la question : pour lui, le vrai problème sera d’octroyer à cette IA le respect qu’elle mérite, car elle constituera, qu’on le veuille ou non, un être doué de raison et par conséquent possesseur des mêmes droits imprescriptibles que tous les humains. Kurzweil a ainsi affirmé qu’à la fin de ce siècle les robots possédant l’IA auraient les mêmes droits que les humains… y compris le droit de vote.

La position la plus sage reste celle d’Eric Horvitz, directeur de Microsoft Research Labs, exprimée lors du festival SXSW, à propos des risques d’émergence d’IA hostiles à l’Homme : « Ce sont des questions très intéressantes, sur lesquelles il faut garder un œil, et il ne faut pas se moquer en disant que les gens sont fous. Ce sont des questions de très long terme, et nous devons réfléchir aux questions qui nous concernent directement, maintenant. »

 

Être pessimiste concernant nos capacités à dominer l’IA ne signifie pas qu’il faille partir battus. Nous pourrons conserver notre place si nous savons préserver les trois caractéristiques essentielles qui font notre humanité.