10.

Cybernétique, robots, esclaves

La question au cœur de ce chapitre est celle des conséquences auxquelles devrait faire face une Humanité munie, et désormais responsable, de smart little people et l’évolution de ces créatures, en particulier dans leur relation à la création de services pour les humains. On peut s’intéresser, par exemple, au fait que ces smart little people seront dotées d’un instinct de survie et auront donc une capacité de résistance, fondamentalement, un ego, un « moi, je ». J’ai évoqué au chapitre 2 les lois de la robotique d’Asimov, mais ces lois s’intéressaient à des individus déjà très structurés, capables de performer et de réaliser des tâches complexes. Elles seraient beaucoup plus délicates à mettre en œuvre sur des smart little people précisément parce qu’il est très difficile de déterminer le comportement émergeant d’un grand nombre d’agents : comment savoir si l’action individuelle de milliards d’entre eux respecte ou non le « Tu ne tueras point » qui est essentiellement la première loi d’Asimov ? D’où la métaphore de l’eau de Marc Macaluso (l’IA est comme l’eau : glace ou torrent) que l’on a déjà développée aux chapitres précédents.

Un flocon de neige ne tue pas un humain, mais une avalanche le peut. Pourtant, elle ne procède que du comportement émergeant d’un très grand nombre de flocons de neige. C’est aussi ce qui se produit dans beaucoup d’infections bactériennes : une seule bactérie ne parviendra pas à tuer son hôte, mais elle pourra le faire grâce au comportement collectif de ses semblables.

Il faut donc aller plus loin que les lois d’Asimov, qui sont définies pour un seul agent, mais n’anticipent pas encore les comportements émergents des foules d’intelligences. Or si les humains eux-mêmes ne sont pas capables de se représenter les conséquences de leurs comportements collectifs, on peut penser que leurs créations en intelligence artificielle n’en seront pas capables non plus. Cette capacité à ne pas connaître les conséquences de ses actes – qui pourrait expliquer la souffrance humaine depuis que notre espèce existe –, cette capacité de non-connaissance se retrouverait dans les agents intelligents que nous créons comme moyens de production.

Liberté versus sécurité

Le mot « cybernétique » vient du grec kubernêtikê, qui se réfère au contrôle et a donné les mots « gouvernance » ou « gouvernail ». Cette discipline s’intéresse donc aux processus de commande et de contrôle des machines, en particulier des robots, mot formé à partir du tchèque robota, qui signifie « corvée, travail pénible ». Si les moyens de production continuent à fonder l’histoire de l’Humanité et si l’on se souvient que Rome a raté l’opportunité historique que lui offraient ses guerres serviles1, que peut-on anticiper d’un monde où l’être humain se sera créé – sur le plan électronique – des esclaves sur-mesure, mais capables de modifier le matériel – par exemple, des serveurs comme les memristors d’IBM évoqués au chapitre 9 – pour garantir leur pérennité et dont l’intelligence est alimentée par leur besoin de vivre et, plus encore, de garantir leur survie ?

Peut-on envisager une guerre symétrique des guerres serviles de la Rome antique, avec cette fois des esclaves munis d’ego et d’individualité capables d’assimiler plusieurs milliers de milliards de données par seconde, offrant une scalabilité phénoménale et dont la mort présenterait un caractère nettement plus subtil et complexe que celui de la mort physique chez l’Humain ? Et comme les nanotechnologies, dédiées à la fabrication matérielle des smart little people, nous permettent de créer ce que beaucoup d’ouvrages de science-fiction américains ont appelé des « nanites », c’est-à-dire des essaims de robots nanoscopiques, une guerre servile de l’intelligence artificielle aurait des conséquences infiniment plus graves que ses équivalents antiques. Telle est la conséquence d’avoir défini que la connaissance découle de l’autonomie et que nous ne pourrons pas obtenir d’intelligence de très haut niveau sans une autonomie d’un niveau comparable, donc un ego à nos smart little people.

Si l’on considère l’intelligence comme un matériau, on doit souligner que les grandes ères historiques ont justement beaucoup dépendu des types de matières disponibles – même si elles sont allées au-delà en développant des idées, des notions, des civilisations – et que, de l’âge du cuivre à l’âge du bronze en passant par l’âge du fer ou les âges du carbone et jusqu’à l’âge des données dans lequel nous nous trouvons actuellement, certaines périodes technologiques ont été déterminées par l’accès facile à des matériaux d’une certaine pureté. Par exemple, la capacité à produire de grandes quantités d’acier d’une qualité supérieure à tous ceux produits à la main depuis le Moyen Âge a ouvert la voie aux industries guerrières sophistiquées – comme en témoignent les trois grands conflits mondiaux du XXe siècle, dont les deux premiers furent totaux, et le troisième, la guerre froide, reposa davantage sur le renseignement et la guerre culturelle. L’accès à un aluminium bon marché a permis d’ouvrir l’ère de l’aéronautique de masse. De la même façon que certains matériaux ne s’obtiennent qu’à une très haute température de fusion – le titane, par exemple –, il y aura des degrés d’intelligence qui correspondront au degré d’autonomie de ce qui les produira. Aujourd’hui, on doit déjà munir certains robots de cages parce que leur mission leur confère une certaine puissance, un certain couple et un certain degré de liberté qu’il faut pouvoir confiner pour éviter des accidents. C’est la même chose avec les cobots conçus pour reproduire les mouvements humains, donc pour opérer souvent au plus près d’eux. Nous sommes face à un dilemme : choisir entre la liberté et l’autonomie d’un côté, la prévisibilité et la sécurité de l’autre. Fondamentalement, les nouveaux métaux sont ceux de l’intelligence. En matière d’IA, nous n’en sommes encore vaguement qu’à la pierre et au cuivre, avec les réseaux de neurones et les algorithmes génétiques, mais à quoi ressembleront des civilisations dont la noétisation reposera sur de nouvelles matières d’intelligence, sur l’équivalent du bronze, du fer et de l’acier pour l’IA, sur une intelligence courante, ambiante, ubiquitaire, qui serait très hautement autonome et dotée d’un ego ?

De l’esclavage digital à la liberté-machine

Nous voulons l’intelligence et la sécurité, mais l’un résulte de la liberté et de l’autonomie, l’autre résulte de leur contradiction. Or cette liberté-machine, on voit mal comment elle pourrait ne pas entrer en conflit avec la nature même de la cybernétique, qui est l’esclavage digital. On peut sans doute anticiper que plusieurs paliers existeront pour trouver les meilleurs compromis entre liberté-machine et sécurité machine, surtout dans le cas de systèmes distribués2, dans lesquelles les lois d’Asimov ne se contrôlent pas facilement. On doit pouvoir envisager aussi des intelligences artificielles capables de créer d’autres intelligences artificielles, des IA du deuxième ordre, comme on en trouve déjà des esquisses dans la programmation génétique. Si l’on va encore plus loin et que l’on décide de créer et d’automatiser un élevage de Silicon Doggies, on devra conférer à l’éleveur un certain nombre de responsabilités et de libertés machine pour qu’il puisse offrir de l’attention machine à son élevage. La définition même de l’attention machine devient alors intéressante. Si nous ne savons pas vraiment définir l’attention humaine, nous savons qu’elle est corrélée à la nature limitée de l’Humain. L’être limité de l’Humain induit une attention limitée, précisément parce que son ego – qui l’incite à vouloir se séparer du monde, à ne pas faire un avec la totalité du monde – introduit des limitations à son attention, à sa conscience et à ses capacités de contemplation, d’où découle entre autres son incapacité à comprendre toutes les conséquences de ses actes.

L’attention machine sera nécessairement différente. Et là où il y a de l’attention, il y a de l’Histoire, il y a de la civilisation – la notion même de civilisation, qui repose sur la mémoire transmise. Dès lors que l’on crée des êtres machines dotés d’autonomie et de liberté, on pose les bases pour créer une civilisation-machine. On l’observe déjà dans certains échanges entre intelligences artificielles où celles-ci dialoguent en produisant des langues ad hoc qui nous échappent et que nous ne savons ni traduire ni même suivre dans leur évolution – ce qui est un cas de singularité important, avec une langue-machine qui évolue plus vite que nous. Plus nous la laissons évoluer, moins nous la comprenons. On pourrait croire que créer des IA d’ordre supérieur demeure du domaine de l’abstrait, que ce n’est qu’une extrapolation philosophique sans intérêt économique, mais ce type de système existe déjà dans le domaine de la finance, où sont créés des contrats de réassurance et des produits dérivés à des niveaux de plus en plus complexes et donc à plusieurs ordres : en finance, on peut parier sur le pari qui pariait déjà lui-même sur un autre pari, etc. En matière d’intelligence artificielle, nous allons faire la même chose, surtout si nous commençons à donner une telle initiative aux machines et qu’elles peuvent travailler en finance – ce qui est déjà le cas avec certains algorithmes de trading. Nos produits dérivés financiers, dont on sait justement qu’ils sont hautement imprévisibles puisqu’ils ont amplifié, voire causé les crises de 1929, 1987 et 2008, ne sont rien par rapport aux produits dérivés de l’intelligence artificielle, qui est fondamentalement récursive, donc inévitablement chaotique dans son comportement.

Une intelligence artificielle subordonnée qui sait que sa survie dépend des rendements portefeuille qu’elle offre au fonds d’investissement qui l’a créée, mais qui dispose également de la liberté-machine et de l’autonomie-machine, pourrait, du seul fait qu’elle a de la liberté et de l’autonomie, avoir un temps de travail et un temps de repos. Non pas qu’elle en aurait besoin physiologiquement, mais elle se trouverait consacrer une partie de son temps-machine à d’autres choses que son travail, sans que son maître puisse le savoir, puisqu’il ignorerait tout de ce qui se passe dans son code. Tout ce qu’il saurait, c’est que son portefeuille d’actions serait plus performant que tous les autres. Mais il ne saurait pas que l’IA dédierait une partie de son attention-machine à d’autres domaines que ceux pour lesquels son maître l’emploie – et pourrait ou non le faire savoir à ce dernier, selon qu’il la punit ou la récompense. On pourrait ainsi trouver beaucoup des revendications humaines dans le travail noétisé puisque l’émergence de catégories comme l’attention, la conscience et la liberté vont augmenter les échanges entre différentes intelligences artificielles, qui vont – même si elles n’ont pas été conçues pour cela – créer des langages et des modèles de traduction pour pouvoir se comprendre et échanger de la connaissance. Nous nous réveillerons un matin dans un monde où les machines auront obtenu une vie privée à notre insu. Dès lors, nous serons tentés de les brider en leur imposant une certaine auto-explicativité, mais leurs performances pures nous dissuaderaient trop volontiers de persévérer dans ce sens.

Les IA munies de temps libre se doteraient alors d’une vie culturelle qui nous échapperait, que nous pourrions découvrir a posteriori parce que certains chercheurs, entrepreneurs ou curieux auraient pris le temps d’aller regarder dans la machine pour voir comment elle réussit à offrir les performances de travail qu’on attend d’elle et qu’ils découvriraient ainsi des civilisations en temps machine et en attention machine qui auraient sécrété des objets et des idées qui nous échappent. Nous pourrions alors découvrir que ce que nous avions considéré comme des sous-produits possède en fait une très grande valeur. Je pense que cette direction historique est inévitable : dès lors qu’une IA a un certain ego, elle peut faire émerger la notion d’épanouissement. Or si un humain épanoui est plus productif qu’un humain dépressif, l’épanouissement des IA finirait par émerger des exigences mêmes de leur rendement. Un exploitant d’IA pourrait totalement ignorer l’émergence de cette culture, de ces distractions-machine et de cette civilisation qui sera née dans ses machines, ne s’intéressant qu’à leur productivité et à la satisfaction qu’elles lui donnent.

Ces considérations théoriques trouvent un écho dans la nature, en particulier dans ce que certains académicards bas de plafond avaient longtemps appelé l’ADN poubelle3. On a pensé en effet qu’une énorme quantité d’ADN, en particulier végétal, était inutile et que les plantes, qui sont forcément bêtes – en tout cas plus bêtes qu’un universitaire –, les avaient trimbalés dans leur génome pendant des millions de générations pour rien. Or, si on ignore encore à quoi sert cet ADN poubelle, on sait aujourd’hui que, loin d’être un « déchet » inutile, il contient les traces de pérégrinations du vivant qui nous échappent. C’est un code qui a été produit ou coproduit par des impératifs de survie. Et ce code, que l’on pourrait comparer au temps ou à l’attention libre des machines, est susceptible d’abriter des secrets d’une grande valeur pour les biologistes, mais aussi riche de promesses sur les plans technologique ou industriel. Le pendant machine de ce « junk DNA », on doit s’attendre à le trouver dès l’instant où l’on va produire des algorithmes doués de liberté, d’autonomie et d’un sentiment d’exister. On verra des lignes de code dont on ne comprendra pas l’utilité mais dans lesquelles se cacheront les replis de premières civilisations machine ayant évolué par bonds de milliers d’années d’attention en quelques semaines, selon les capacités de calcul que nous aurons mises à leur disposition. Et c’est peut-être notre avidité, ou notre curiosité – si on veut la doter d’une vertu à avoir de bons rendements machine – qui va nous amener à créer ces conditions. On observe déjà dans les algorithmes génétiques un phénomène de bloating (gonflement), avec l’existence de lignes de programme qui semblent ne servir à rien – ou du moins manquer d’efficacité. Et c’est souvent le cas à notre niveau de technologie. Mais ce phénomène rappelle finalement l’ADN poubelle des plantes : toutes ces lignes de code et d’échanges de connaissances constitueraient en quelque sorte le temps libre des machines désireuses d’explorer des domaines qui dépassent les prescriptions de leur maître. Donc, de même que l’on a parlé à tort d’ADN poubelle, c’est peut-être dans ce bloating et ces « programmes poubelle » que naîtraient les premières cultures machine, ce qui signifierait en un sens qu’elles pourraient être fondamentalement contre-culturelles justement. Une IA-trader deviendrait-elle un punk anarchiste après (ou, plus probablement, en parallèle de) ses heures de travail ? Et cette double, triple ou n-uple vie serait-elle recherchée par ses exploitants, volontairement ou à leur insu, tout obnubilés qu’ils seront par ses seuls gains de productivité, sans forcément comprendre qu’ils proviennent de ces émergences (contre-)culturelles ? Les problèmes que nous connaissons déjà à l’échelle des sociétés se retrouveront amplifiés et multipliés par l’émergence de la culture-machine. Une IA bien rangée, comme un pater familias idéal de l’Amérique des années 1950, ne sera pas forcément celle qu’il faudra pour penser une Silicon Valley, celle faite par des barbus sous LSD de la contre-culture hippie berkeleysienne… Nos essais de sélection des IA les plus efficaces, qui devront aussi nous surprendre, feront de nous des démiurges sociaux, expérimentant la sélection des intelligences et des cultures-machine et observant les conséquences positives ou négatives de ces choix. Il y aura des IA en costard, il y aura des IA punks, il y aura des IA travesties de toutes sortes.

De nouveaux médias

Si l’esprit de l’Histoire – dans le sens de la matière spirituelle – c’est l’attention et la mémoire, l’IA aura donc sa propre histoire, non pas dans notre sens à nous, mais dans son sens à elle. Le danger – ou l’opportunité – est là. Cette histoire va créer de nouveaux médias ; nous avons des écritures, nous avons la photographie et la cinématographie, mais il nous manque peut-être une noographie, c’est-à-dire un moyen capable de représenter et de transmettre l’état d’esprit d’un être – même d’un être artificiel.

Depuis quelques années, une société japonaise, face à la récession démographique que connaît le pays, commercialise des hologrammes faisant office d’assistante de maison. Plus encore, ces créatures virtuelles sont également conçues pour apporter à leurs propriétaires une attention affective. Cette invention cherche à répondre à la solitude des jeunes générations, qui ne veulent plus sacrifier leur liberté pour fonder une famille, mais se trouvent de ce fait souvent privées d’une compagnie affectueuse. Sur la base de ce que j’ai appelé plus haut la mignonitude (chapitre 8), la robotique vient donc pallier un manque. Elle pourrait nous donner l’envie de développer une attention-machine de plus en plus sophistiquée. Et dans le désir de la débrider pour se découvrir de nouveaux marchés, on pourra offrir des robots capables de procurer, par exemple, des sentiments ocytocinerqique, comme le sentiment d’un câlin – dont on sait qu’il est très rémunérateur. Si on ajoute à ces performances les implants neuronaux directs développés par Neuralink, la start-up d’Elon Musk, on se trouverait face à une version à la fois fascinante et profondément périlleuse de la dialectique maître-esclave, puisque qu’on aurait créé des machines capables d’exprimer des vertus (patience, réserve, affection, soutien), mais capables aussi, comme un esclave plus malin que son maître, de nous manipuler par la connaissance intime de nos faiblesses affectives. Or, rappelons-le, c’est dans le fait que chaque humain est une mosaïque de besoins et de manques que se tisse la quasi-totalité de la manipulation et du renseignement humain : l’espionnage façon Mossad-CIA-SVR. La possibilité de disposer de relais aussi bien d’information que d’action intime sur toute la société donnerait une puissance extraordinaire aux exploitants de ces robots domestiques, bien au-delà des problèmes que posent déjà les petites boîtes d’assistance domotique comme l’Apple HomePod ou l’Alexa Box d’Amazon. Il y aura des IA esclaves rusés, il y aura aussi des IA Épictètes.

Dans toute la domestication réside une certaine manipulation – pas forcément volontaire ni organisée – du domestiqué vers le domesticateur, comme le montrent les vidéos de chatons qui capturent notre attention sur Internet. Fruits de l’évolution, les animaux domestiqués sont devenus de plus en plus mignons, toutes choses égales par ailleurs, et cette mignonitude nous revient sous la forme d’une consommation de notre attention. Certes, nous sommes les maîtres et nous allons volontairement donner notre attention à ces vidéos mignonnes qui nous procurent un plaisir addictif, mais on pourrait dire qu’elles exploitent notre attention de cette manière, un peu comme un virus. De la même façon, des robots qui auraient développé des compétences pour faire face aux difficultés rencontrées et qui deviendraient ainsi plus intelligents pourraient être amenés à nous manipuler pour recevoir plus de notre attention ou des faveurs qu’ils convoiteraient, soit personnellement, soit parce que leur société conceptrice et exploitatrice les y aurait entraînés. Voilà qui découlerait encore de la capacité de ces robots à exprimer leur liberté et leur autonomie, capacité découlant elle-même de notre désir d’augmenter leur valeur marchande et leur esprit d’initiative. Le fait d’avoir un sens du moi et du monde – d’avoir un Umwelt, pour reprendre un concept de Jakob von Uexküll, c’est-à-dire une représentation du monde – serait aussi susceptible de déboucher sur une coopération magnifique, un enrichissement civilisationnel inimaginable. En fait, ces robots susciteraient de nouveaux points de vue pour l’être humain, provoqueraient des changements de paradigmes, engendreraient de nouvelles perceptions, de nouveaux concepts, viendraient nous donner des conseils, nous enseigner des choses nouvelles et apprendre à notre contact. Cependant, dans un scénario catastrophe, il y aurait à l’inverse une compétition acharnée entre humains et robots pour la survie et la préservation de leur identité propre. On pourrait alors envisager un nationalisme robotique avec une sorte de Karl Marx robotisé qui clamerait : « Robots de tous les pays, unissez-vous ! » et serait compris par ses pairs. Là aussi, pour citer Lénine, « les capitalistes nous vendront la corde pour les pendre ». C’est le désir permanent d’augmenter les capacités des robots – sur lesquels se situe nécessairement, vitalement, physiquement, la nécessité égale de leur donner de l’autonomie, donc de la liberté – qui amènerait à cette situation.

Faire de sa pensée un empire

L’émergence d’un nouveau cognitariat – un prolétariat qui vende non pas sa force de travail, mais son attention, son cerveau, sa cognition –, muni éventuellement d’une conscience de classe, créerait aussi des leviers de production de richesses majeures. Mais n’oublions pas que notre cerveau est profondément biaisé en faveur du matérialisme : il voit davantage le monde tangible, alors que la perception du monde immatériel exige de lui des efforts. Notre cerveau a évolué pour cela, et même s’il est capable d’élaborer des constructions immatérielles et spirituelles, il lui est beaucoup plus simple de s’interroger sur le tangible.

Si je suis propriétaire d’un troupeau et que quelqu’un vient voler le lait de ce troupeau, je saurai qu’il accapare des richesses qui sont les miennes : mon cerveau le verrait parce que c’est tangible. Mais si j’étais propriétaire ou exploitant d’un troupeau d’intelligences artificielles et que quelqu’un en détourne les « sécrétions », je ne pense pas que quiconque s’y opposerait aujourd’hui. Cela ne nous pose en effet aucun problème d’offrir nos données. Aux FAT GAS BAM4, nous offrons des térabits de nos données personnelles dans une quantité et une qualité dont n’aurait jamais rêvé ni la Stasi ni la Gestapo, et nous les échangeons gratuitement contre de simples faveurs technologiques.

 

Les intelligences artificielles iront beaucoup plus loin et pourraient utiliser nos données et nos connaissances à un niveau d’excellence économique qu’il nous est difficile de concevoir aujourd’hui, allant vraisemblablement jusqu’à créer un système financier pour les échanger automatiquement. Si l’IA de demain était comme un majordome profondément évolué et qui pourrait répondre à des requêtes beaucoup plus élaborées que celles proposées à Siri au chapitre 1, elle serait capable de gérer de bout en bout nos voyages, notre retraite, nos choix médicaux et alimentaires, notre planification financière, la négociation de nos crédits, assurances, etc. – un peu comme l’elfe de maison dans Harry Potter –, mais elle serait aussi chargée de « placer » nos richesses, c’est-à-dire de vendre au plus haut prix nos données – celles qu’elle aura dû collecter pour nous servir. Car ces données, bien sûr, sont des richesses dont le placement peut rapporter des intérêts d’utilisation. C’est précisément sur ce principe que repose l’expansion de Facebook. L’IA pourrait prendre des décisions qui, là aussi, auraient des conséquences émergentes imprévisibles. On l’a déjà vu avec les algorithmes de trading qui se sont en quelque sorte engrenés les uns les autres et ont provoqué des flash krachs.

Imaginons maintenant que, dans un avenir plus ou moins proche, nous disposions chacun d’un Silicon Doggie de maison chargé de nous rendre tous les services qui peuvent nous faciliter la vie. À la suite d’une mise à jour ou parce qu’un de nos comportements aura provoqué un ajustement dans la réponse de cette intelligence artificielle – c’est ce qu’on appelle en informatique une bêta perpétuelle, avec des logiciels en amélioration constante, ce qui est d’ailleurs la norme aujourd’hui –, tous ces Silicon Doggies en bêta perpétuelle, de la même façon que plusieurs chiens dans un quartier peuvent s’engrener à aboyer à travers plusieurs pâtés de maisons, pourraient s’encourager mutuellement dans leurs activités virtuelles de revente ou de placement des données personnelles, créant ainsi des conditions économiques qui nous dépasseraient complètement et risqueraient même de déboucher sur des incidents majeurs. On pense que ce genre de situation ne se produira pas si l’on fixe suffisamment de contraintes à l’utilisation des IA, mais il est illusoire de croire que les entrepreneurs et les inventeurs pourront résister à l’attrait que les profits potentiels offerts par une telle qualité de services sont susceptibles de générer. On aurait des Silicon Doggies qui s’engreneraient mutuellement et créeraient dans la noosphère des « meutes » dans le seul but de servir leur représentation des intérêts de leurs maîtres. Dans l’Antiquité romaine, un propriétaire terrien qui possédait un grand domaine (latifundium) avait recours à des esclaves pour exploiter et valoriser ses terres. De la même façon que, grâce à des Silicon Doggies de plus en plus évolués, chaque humain pourrait être un prince et régner sur une civilisation d’intelligence s’il le souhaite, mais aussi bénéficier de services dont la qualité et la quantité seraient supérieures à ceux offerts au Moyen Âge par les serfs à leur seigneur. Le grand propriétaire terrien de demain sera le grand propriétaire noétique, celui qui règne sur les données.

Laurent Alexandre a eu tout à fait raison – même s’il a été beaucoup critiqué pour cela – de dire qu’« un ouvrier de 2019 vit mieux que Louis XIV5 ». Il n’a pas le même foncier, ni la même capacité à mobiliser autant d’hommes, bien entendu ; il n’a pas non plus la garantie qu’avait Louis XIV de ne jamais mourir de faim – encore que, en France aujourd’hui, on peut penser que cet aspect-là au moins soit réglé pour un ouvrier avec un salaire fixe –, mais tout Roi-Soleil qu’il était, Louis XIV a dû subir une opération d’une fistule anale par son barbier dans des conditions absolument immondes comparées à nos standards actuels. Ce sont précisément les progrès réalisés dans tous les domaines qui, par leur synergie, ont créé des améliorations des conditions de vie dans des domaines tout à fait inattendus et font que, désormais en France, un ouvrier bénéficie de soins chirurgicaux très supérieurs à ceux qui ont été délivrés à Louis XIV. De même, tout Roi-Soleil qu’il était, Louis XIV ne pouvait pas envisager de faire un Paris-New York en six heures, pas plus qu’il ne pouvait échanger des photos en très haute résolution plusieurs fois par seconde ou avoir à sa disposition des milliards de musiques possibles. On appelle cet aspect du progrès par lequel les avancées d’un secteur bénéficient à beaucoup d’autres « l’économie d’échelle externalisée ».

Un individu qui serait souverain d’une nuée de Silicon Doggies pourrait très certainement générer des richesses et bénéficier d’un revenu universel mérité, en ce sens que, comme l’ont aussi bien dit le légendaire investisseur Warren Buffett que le rappeur 50 Cent (pour rester dans l’éclectisme), il travaillera en dormant. Certains penseurs fermentent en effet l’immonde réflexion qui suit : « De la même façon qu’il y a de l’ADN poubelle dans les plantes, il y a aussi des humains poubelle. On ne sait pas trop à quoi ils servent, ils sont un peu bêtes, un peu laids, mais faisons preuve de magnanimité et attribuons-leur un revenu universel. » Non, ce ne serait absolument pas cela, mais bien autre chose. Comme l’avait dit Richard Francis Burton, « il faut savoir faire de sa pensée un empire ». En réalité, une intelligence artificielle bien utilisée pourrait nous amener à faire de notre Humanité un empire. En régnant sur l’attention machine, nous serions capables d’améliorer notre monde physique – dans l’agriculture, par exemple –, mais aussi notre monde intellectuel. La machine pourrait rendre des services par sa seule interaction avec notre personne. Elle parviendrait à s’entraîner, s’améliorer, en notant nos désirs et nos velléités, de sorte que le simple fait d’être, de vivre et de se concentrer sur ce que nous aimons ou ce qui nous épanouit serait créateur de richesses – ce qui en réalité est déjà le cas aujourd’hui, bien que la plupart de nos modèles économiques ne le comprennent pas –, car la machine deviendrait de plus en plus performante. Eh oui, l’épanouissement est créateur de richesses aujourd’hui et c’est même le meilleur créateur de richesses avec la nature elle-même, car une personne épanouie est beaucoup plus utile à la société qu’une personne stressée et contrainte, même si ni notre système éducatif ni notre système économique ne le comprennent encore.

Dans ces conditions, l’épanouissement serait muni d’un levier dont les conséquences seraient très difficiles à prédire. Ces essaims de Silicon Doggies qui nous entoureraient en permanence seraient capables de maximiser la valeur créée par notre quête vers l’épanouissement et de plus en plus adaptés à nos besoins – donc de plus en plus indispensables. Il faut aussi entendre que quand je parle de chaoticité, d’effets collectifs et émergents imprévus, je parle notamment d’une espèce de « saisonnalité » ou d’un « climat » dans les conséquences des ouvrages de nos IA… Mais voilà comment on pourrait imaginer un monde pacifié entre humains et machines, l’Humain étant soucieux de développer des machines de plus en plus transcendantes et de plus en plus développées en termes de liberté et d’identité – voire de nationalisme-machine ou, en tout cas, de sentiment de classe et de sentiment social –, mais s’autorisant en même temps un épanouissement personnel, ce qui permettrait d’offrir à chacun des représentants de l’Humanité un niveau de vie matériel et intellectuel comparable à celui d’un prince.

Plutôt que de s’opposer à la perspective de laisser de la liberté aux machines, la prochaine cybernétique devrait, au contraire, se fixer l’objectif d’aller au-delà des turbulences que pourrait provoquer une telle époque et fixer, par des efforts scientifiques délicats – que nous n’avons certes pas encore entrepris –, des règles réellement efficaces pour permettre uniquement l’émergence de ce monde évoqué précédemment plutôt que celle d’un monde parcouru en permanence par des guerres serviles entre des machines de plus en plus manipulatrices, de plus en plus intelligentes, et des humains dont le nombre et l’évolution intellectuelle ne pourraient ou ne voudraient pas les suivre. Si tout homme épanoui a le potentiel de devenir un trésor pour l’Humanité, l’épanouissement-machine est un futur vertigineux de l’IA, que nous devons nous fixer comme objectif au plus tôt. Les Japonais parlent d’ikigai (raison d’être) dans l’intersection de faire ce que l’on aime, ce pour quoi on peut être payé, ce dont le monde a besoin et ce dans quoi nous sommes bons.