9
Cherche, mémoire, cherche !
Socrate avait raison. En prenant l’habitude de noter leurs pensées et de lire celles notées par d’autres, les gens sont devenus moins tributaires de leur mémoire. Ce qu’ils devaient naguère garder dans leur tête, ils pouvaient désormais le confier à des tablettes ou à des rouleaux, ou l’entreposer entre les couvertures des codex. Comme l’avait prédit le grand orateur, on a commencé à faire revenir à son esprit des choses « pas en les puisant à l’intérieur de soi-même, mais en recourant à des marques extérieures ». Le recours à la mémoire personnelle a encore décru avec la diffusion de l’imprimerie et, par là même, avec l’expansion de l’édition et de l’alphabétisme. Dès lors, à portée de main dans les bibliothèques et sur les rayonnages des demeures privées, les livres et les journaux devinrent des annexes de l’entrepôt biologique du cerveau. On n’était plus obligé de tout mémoriser. On savait où chercher.
Mais ce n’est pas tout. La prolifération de l’imprimé eut une autre conséquence, que Socrate n’avait pas prévue mais qui l’aurait réjoui. Désormais, les livres mettaient à la disposition des individus un stock bien plus fourni et varié de faits, d’opinions, d’idées et de récits ; en outre, la pratique et la culture de la lecture profonde incitaient à confier à la mémoire l’information recueillie sur le papier.
Au VIIe siècle, Isidore, évêque de Séville, remarqua que, lus dans les livres, les « dires » des penseurs « disparaissent moins aisément de la mémoire [1] ». Chacun pouvant à sa guise choisir ses lectures et en établir le programme, la mémoire personnelle, moins marquée socialement, devint le socle sur lequel l’individu construisait ses points de vue et sa personnalité. Influencés par le concept du livre, les gens commencèrent à se considérer comme les auteurs de leur mémoire. C’est ainsi que Shakespeare fait dire à Hamlet à propos de sa mémoire : elle est « le livre et le volume de mon cerveau ». Si l’on en croit le romancier fort cultivé qu’est Umberto Eco, en craignant que l’écrit n’affaiblisse la mémoire, Socrate exprimait « une peur récurrente : la peur qu’une nouvelle réalisation technologique ne vienne abolir ou détruire un bien qui est précieux et fécond à nos yeux, et qui constitue pour nous une valeur intrinsèque et profondément spirituelle ». En l’occurrence, cette crainte se révéla infondée. Non seulement les livres complètent la mémoire, mais en plus, dit Eco, ils « la sollicitent et l’améliorent ; ils ne l’endorment pas [2] ».
En 1512, l’humaniste hollandais Érasme soulignait dans son manuel De Copia le lien entre la mémoire et la lecture. Il insistait pour que les étudiants annotent leurs livres en indiquant par une « petite marque appropriée les occurrences de mots frap-pants, langage nouveau ou archaïque, tournures brillantes, adages, exemples et remarques piquantes méritant d’être retenus ». Il recommandait aussi à tous les étudiants et enseignants de tenir un calepin thématique « pour que, en rencontrant quelque chose qui méritait d’être noté, ils puissent l’inscrire dans la section appropriée ». En transcrivant à la main ces extraits et en les revoyant régulièrement, ils auraient plus de chance qu’ils restent fixés dans leur esprit. Il fallait considérer ces passages comme « des sortes de fleurs » qui, cueillies dans des pages de livres, pourraient se conserver dans celles de la mémoire [3].
Érasme, qui à l’école avait appris par cœur des quantités de passages de la littérature classique, notamment les œuvres complètes du poète Horace et du dramaturge Térence, ne recommandait pas d’apprendre par cœur pour apprendre par cœur ou pour exercer sa mémoire. À ses yeux, la mémorisation était beaucoup plus qu’un moyen de conservation, c’était la première étape d’un processus de synthèse conduisant à une compréhension approfondie et plus personnelle de ses lectures. Comme l’explique Erika Rummel, historienne de l’époque classique, il pensait que l’individu devait « assimiler ou intérioriser ce qu’il apprend, et réfléchir au lieu de reproduire bêtement les qualités de l’auteur modèle ». Loin d’être un processus mécanique et stupide, la mémorisation telle que l’envisageait Érasme faisait intervenir pleinement l’esprit. Elle nécessitait, dit Rummel « créativité et jugement [4] ».
Le conseil d’Érasme reprenait celui du Romain Sénèque, qui a lui aussi fait appel à la botanique pour décrire le rôle essentiel de la mémoire dans la lecture et la réflexion. « Il faut imiter les abeilles, et garder dans des compartiments séparés tout ce que nous avons glané dans nos différentes lectures, car ce qui est conservé séparément se garde mieux. Puis, en utilisant avec diligence toutes les ressources de notre talent naturel, nous devons mélanger tous les différents nectars que nous avons goûtés pour en faire une unique substance douce de sorte que, même si sa provenance apparaît clairement, son aspect sera très différent de celui de son état d’origine [5]. » Pour Sénèque comme pour Érasme, la mémoire était autant une énigme qu’un réceptacle. Plus qu’une addition de souvenirs, c’était un nouveau produit, l’essence d’un moi unique.
La recommandation d’Érasme, que chaque lecteur garde un recueil de citations mémorables, fut suivie partout avec enthousiasme. Ce calepin, appelé « recueil de lieux communs », devint le compagnon indispensable des étudiants à la Renaissance. Chacun en avait un qu’il tenait assidûment [6]. Au XVIIe siècle, son utilisation s’était répandue au-delà de l’école. Il était considéré comme un outil nécessaire pour cultiver l’esprit instruit. En 1623, Francis Bacon observa qu’« il ne peut rien y avoir de plus utile pour bien aider la mémoire qu’un recueil de citations bien constitué ». En aidant à enregistrer les écrits dans la mémoire, disait-il, le recueil de lieux communs bien tenu « fournit la substance de l’invention [7] ». D’après Naomi Baron, professeur de linguistique de l’université américaine, au XVIIIe siècle, « le recueil de lieux communs du gentleman lui servait à la fois de support et de journal de son développement intellectuel [8] ».
La popularité du recueil de lieux communs déclina au XIXe siècle avec l’accélération du rythme de la vie, et, au milieu du XXe siècle, la mémorisation elle-même avait commencé à perdre son prestige. Les enseignants favorables aux méthodes nouvelles en bannirent la pratique en classe, y voyant un vestige d’une époque moins éclairée. Longtemps censée stimuler la perspicacité et la créativité personnelles, la mémorisation fut dès lors considérée comme un obstacle à l’imagination, puis tout simplement comme un gaspillage d’énergie mentale. L’avènement au siècle dernier de nouveaux médias de stockage et d’enregistrement – cassettes audio et vidéo, microfilms et microfiches, photocopieurs, calculettes, lecteurs de disques sur ordinateur – étendit considérablement le champ et la disponibilité de la « mémoire artificielle ». Il parut de moins en moins essentiel de confier l’information à son propre esprit. L’arrivée des banques de données d’Internet, illimitées et faciles à explorer changea encore davantage notre façon de voir non seulement la mémorisation, mais aussi la mémoire. On en arriva vite à voir dans le Net un substitut, plutôt qu’un simple complément, de la mémoire personnelle. Aujourd’hui, on parle couramment de la mémoire artificielle comme s’il n’y avait pas de différence avec la mémoire biologique.
Clive Thompson, qui écrit dans Wired, parle du Net comme d’un « cerveau hors-bord » qui joue maintenant le rôle qu’avait auparavant la mémoire intérieure. « J’ai pratiquement renoncé à faire l’effort de me rappeler quoi que ce soit, dit-il, car je peux immédiatement retrouver l’information en ligne. » Il suggère qu’« en déchargeant les données dans du silicium, nous libérons notre propre matière grise pour des tâches plus authentiquement humaines, comme le brainstorming ou la rêverie [9] ». Et David Brooks, l’éditorialiste bien connu du New York Times, va dans le même sens : « J’avais cru que la magie de l’ère de l’information était de nous permettre d’en savoir plus, mais j’ai découvert ensuite qu’elle nous permet d’en savoir moins. Elle nous donne des serviteurs cognitifs externes – systèmes de mémoire de silicium, filtres collaborateurs en ligne, algorithmes de préférences de consommateurs et savoir en réseau. Nous pouvons nous décharger sur ces domestiques et nous libérer [10]. »
Si l’on en croit Peter Suderman, qui écrit pour l’American Scene, avec nos connexions plus ou moins permanentes à Internet, « il n’est plus terriblement efficace d’utiliser notre cerveau pour stocker l’information ». La mémoire devrait maintenant fonctionner comme un simple index, nous indiquant sur la Toile où l’on peut repérer l’information voulue au moment voulu : « Pourquoi mémoriser le contenu d’un livre quand vous pourriez utiliser votre cerveau pour contenir un guide rapide de toute une bibliothèque ? Au lieu de mémoriser l’information, nous la stockons maintenant sous forme numérique, et nous nous rappelons seulement ce que nous avons stocké. » À mesure que la Toile « nous enseigne à penser comme elle », dit-il, nous allons finir par garder dans notre tête « très peu de connaissances profondes [11] ». Quant à Don Tapscott, qui écrit sur les technologies, il est plus brutal : maintenant que l’on peut chercher n’importe quoi « d’un clic sur Google, il est obsolète de mémoriser de longs passages ou des faits historiques ». La mémorisation est « une perte de temps [12] ».
Il n’est pas particulièrement étonnant que nous adhérions à l’idée que les banques de données informatiques remplacent efficacement, voire avantageusement, la mémoire personnelle. C’est le couronnement du changement de la notion dominante de l’esprit qui s’est opéré au fil d’un siècle. Les machines qui nous servent à stocker les données ayant acquis une plus grande capacité, plus de flexibilité et plus de réactivité, nous avons pris l’habitude de confondre la mémoire artificielle et la mémoire biologique. Toutefois, c’est un progrès extraordinaire. L’idée que la mémoire puisse être « sous-traitée », comme le dit Brooks, aurait été impensable à aucun moment dans le passé. Pour les Grecs de l’Antiquité, la mémoire était une déesse, Mnémosyne, la mère des muses. Pour saint Augustin, c’était une « profondeur vaste et infinie », un reflet de la puissance de Dieu dans l’homme. Ce concept classique a perduré au Moyen Âge, à la Renaissance et au siècle des Lumières – en fait, jusqu’à la fin du XIXe siècle. Quand, lors d’une conférence en 1892 devant un groupe d’enseignants, William James déclara que « l’art de se rappeler est l’art de réfléchir », il enfonçait des portes ouvertes [13]. Mais, aujourd’hui, ses paroles paraissent dépassées. Non seulement la mémoire a perdu son caractère divin, mais elle est aussi en bonne voie de perdre son caractère humain. Mnémosyne est devenue une machine.
L’évolution de notre conception de la mémoire montre une fois de plus que nous souscrivons à l’analogie entre le cerveau et l’ordinateur. Si la mémoire biologique fonctionne comme un disque dur, entreposant des fragments de données dans des emplacements fixes pour les livrer à la demande dans les calculs qu’effectue le cerveau, le transfert de cette capacité de stockage à la Toile n’est pas seulement possible mais, selon Thompson et Brooks, c’est aussi libératoire. Cela nous donne une capacité de mémoire bien plus grande tout en libérant dans notre cerveau de l’espace pour des activités cérébrales plus précieuses et même « plus humaines ». Cette analogie s’impose par sa simplicité, et il est sûr qu’elle a l’air plus « scientifique » que celles de l’herbier ou du miel de la ruche. Mais le hic dans la nouvelle conception post-Internet que nous avons de la mémoire humaine, c’est qu’elle est fausse.
 
 
Après avoir démontré au début des années 1970 que « les synapses changent avec le vécu », Eric Kandel a continué pendant de longues années à étudier le système nerveux de la limace de mer, mais en changeant d’objectif. Il s’est d’abord intéressé, au-delà du seuil neuronal qui déclenche les réactions réflexes simples, comme quand un contact fait contracter les branchies, à cette question bien plus complexe : comment est-ce que le cerveau stocke l’information et les souvenirs ? Il voulait en particulier, faire la lumière sur une des énigmes les plus importantes et les plus complexes des neurosciences : les souvenirs fugaces à court terme, comme ceux qui entrent dans notre mémoire de travail et en sortent à tout moment de notre vie éveillée, comment exactement le cerveau les transforme-t-il en souvenirs à long terme qui durent éventuellement toute la vie ?
Vers la même époque, des études sur des boxeurs révélèrent qu’un coup violent à la tête pouvait provoquer une amnésie rétrograde, effaçant tous les souvenirs emmagasinés dans les quelques minutes ou les quelques heures qui précédaient, sans affecter les souvenirs plus anciens. Et l’on retrouva le même phénomène chez des épileptiques après des crises. Ces observations impliquaient qu’un souvenir, si fort soit-il, reste instable pendant une courte durée après qu’il s’est formé. Apparemment, il fallait un certain temps pour qu’un souvenir primaire, ou à court terme, se transforme en souvenir secondaire, ou à long terme.
Des études ultérieures confirmèrent l’existence des formes de souvenirs à court terme et à long terme, et accréditèrent l’importance de la phase de consolidation pendant laquelle les souvenirs passent de la première forme à la seconde. Dans les années 1960, le neurologue de l’université de Pennsylvanie, Louis Flexner, fit une découverte particulièrement fascinante. Après avoir injecté à des souris un antibiotique empêchant leurs cellules de produire des protéines, il trouva que ces animaux étaient incapables de se faire des souvenirs à long terme (concernant la façon d’éviter dans un labyrinthe de recevoir un choc), mais qu’ils pouvaient continuer à en emmagasiner à court terme. L’implication était claire : les souvenirs à long terme ne sont pas simplement des formes plus fortes de souvenirs à court terme. Les deux types de souvenirs nécessitent des processus biologiques différents. Le stockage des souvenirs à long terme exige une synthèse de nouvelles protéines, ce qui n’est pas nécessaire pour les souvenirs à court terme.
Inspiré par les résultats révolutionnaires de ses premières expériences sur l’aplysie, ou limace de mer, Kandel recruta une équipe de chercheurs talentueux, parmi lesquels des psychologues physiologistes et des biologistes cellulaires, pour l’aider à démonter le fonctionnement physique de la mémoire à court terme et de la mémoire à long terme. Ils commencèrent par suivre en détail le cheminement des signaux neuronaux d’une limace de mer, « cellule par cellule », pendant que l’animal apprenait à s’adapter à des stimuli extérieurs tels que des piqûres et des coups. Ils ont rapidement confirmé ce qu’avait observé Ebbinger : plus une situation vécue est répétée, plus durable est son souvenir. La répétition favorise la consolidation. En examinant les effets physiologiques de la répétition sur les neurones et les synapses individuels, ils ont découvert une chose stupéfiante. Non seulement la concentration des neurotransmetteurs dans les synapses avait changé, modifiant la force des connexions existantes entre les neurones, mais des terminaisons synaptiques entièrement nouvelles avaient poussé sur ces derniers. Autrement dit, la formation de souvenirs à long terme implique des changements non seulement biochimiques, mais aussi anatomiques. Kandel comprit que c’était pour cette raison que la consolidation des souvenirs nécessite de nouvelles protéines. Celles-ci jouent un rôle primordial dans les modifications structurelles des cellules.
Dans À la recherche de la mémoire publié en 2006, Kandel dit que dans cette nouvelle série d’expériences sur l’aplysie, « nous avons pu voir pour la première fois que le nombre de synapses du cerveau n’est pas fixe – qu’il change avec l’apprentissage ! De plus, la mémoire à long terme persiste aussi longtemps que subsistent les modifications anatomiques ». Ce travail a aussi révélé la différence physiologique fondamentale entre les deux types de mémoire : « la mémoire à court terme modifie la fonction de la synapse, consolidant ou affaiblissant les connexions préexistantes ; la mémoire à long terme exige des modifications anatomiques ». Les découvertes de Kandel concordent parfaitement avec celles de Michael Merzenich et d’autres sur la plasticité neuronale. Très vite, d’autres expériences montrèrent clairement que les modifications biochimiques et structurelles impliquées dans la consolidation des souvenirs ne sont pas réservées aux limaces. Elles interviennent aussi dans le cerveau d’autres animaux, notamment des primates.
Kandel et ses collègues avaient percé certains des secrets de la mémoire au niveau cellulaire. Dès lors, ils voulurent explorer un niveau plus profond – étudier les processus moléculaires au sein de la cellule. Les chercheurs, nous dit Kandel, « pénétraient dans un territoire totalement inexploré ». Ils commencèrent par regarder les modifications moléculaires qui s’effectuent dans les synapses pendant la formation des souvenirs à court terme. Ils trouvèrent que ce processus implique beaucoup plus que la seule transmission d’un neurotransmetteur – le glutamate, en l’occurrence – d’un neurone à l’autre. D’autres types de cellules, les interneurones, interviennent également. Les interneurones produisent le neurotransmetteur qu’est la sérotonine, qui ajuste la connexion synaptique en modulant la quantité de glutamate libérée dans la synapse. Collaborant avec les biochimistes James Schwartz et Paul Greengard, Kandel découvrit que cet ajustement s’effectue par une série de signaux moléculaires. La sérotonine libérée par l’interneurone se lie à un récepteur sur la membrane du neurone présynaptique – celui qui porte la décharge électrique – qui déclenche une réaction chimique amenant le neurone à produire une molécule, l’AMP-cyclique. Celle-ci active à son tour une protéine, la kinase A, une enzyme catalytique qui amène la cellule à libérer davantage de glutamate dans la synapse. Cette action renforce la connexion synaptique, prolonge l’activité électrique dans les neurones liés, et permet au cerveau de garder le souvenir à court terme pendant quelques secondes ou quelques minutes.
La question suivante qui se posait à Kandel était de trouver comment ces souvenirs à court terme retenus si peu de temps pouvaient se transformer en souvenirs à long terme beaucoup plus durables. Quelle était la base moléculaire du processus de consolidation ? Pour répondre à cette question, il lui fallait pénétrer dans le domaine de la génétique.
En 1983, l’institut médical Howard Hughes, prestigieux et bien financé, a demandé à Kandel ainsi qu’à Schwarz et à Richard Axel, spécialiste de neurosciences à l’université Columbia, de diriger un groupe de recherche en cognition moléculaire basé à Columbia. Le groupe réussit vite à récolter des neurones de larves d’aplysie avec lesquels ils firent en laboratoire une culture de tissu ; un circuit nerveux de base y comprenait un neurone présynaptique, un neurone postsynaptique et la synapse entre les deux. Pour imiter l’action modulatoire des interneurones, les chercheurs injectèrent de la sérotonine dans la culture. Une seule petite injection de sérotonine, répliquant une seule instance d’apprentissage, déclencha, comme prévu, une libération de glutamate – produisant le bref renforcement de la synapse qui caractérise le souvenir à court terme. Cinq injections séparées de sérotonine, au contraire, renforcèrent la synapse existante pendant plusieurs jours et déclenchèrent aussi la formation de nouvelles terminaisons synaptiques – modifications qui caractérisent le souvenir à long terme.
D’après Kandel, « le développement et l’entretien de nouvelles terminaisons synaptiques font persister le souvenir ». Ce processus révèle aussi un point important sur la façon dont, grâce à la plasticité de notre cerveau, notre vécu façonne en permanence notre comportement et notre identité : « Le fait qu’un gène doive être activé pour que se forme un souvenir à long terme montre clairement que les gènes ne sont pas simplement des déterminants du comportement, mais aussi qu’ils réagissent aux stimulations de l’environnement, comme l’apprentissage. »
 
On peut dire sans trop s’avancer que la vie mentale de la limace de mer n’est pas particulièrement passionnante. Les circuits de la mémoire qu’ont étudiés Kandel et son équipe étaient des circuits simples. Ils impliquaient le stockage de ce que les psychologues appellent des souvenirs « implicites » – les souvenirs inconscients d’éléments vécus dans le passé et qui reviennent automatiquement dans l’acte réflexe ou dans la mise en œuvre d’un savoir-faire acquis. La limace fait appel à des souvenirs implicites quand elle contracte ses branchies, et l’être humain quand il fait rebondir un ballon de basket ou fait du vélo. Comme l’explique Kandel, « le souvenir implicite revient directement dans l’action, sans aucun effort conscient, ou même sans que l’on ait conscience d’évoquer un souvenir ».
L’expérience de Molaison, méticuleusement décrite par la psychologue anglaise Brenda Milner, laissait penser que l’hippocampe joue un rôle essentiel pour consolider de nouveaux souvenirs explicites, mais qu’au bout d’un certain temps beaucoup d’entre eux en viennent à exister indépendamment [16]. D’importantes expériences au cours des cinquante dernières années ont aidé à éclaircir cette énigme. Il semble que le souvenir d’une expérience personnelle soit stocké au départ non seulement dans les régions corticales qui l’enregistrent – le cortex auditif pour le souvenir d’un son, le cortex visuel pour le souvenir d’une vue, et ainsi de suite – mais aussi dans l’hippocampe. Celui-ci est un site idéal pour garder les nouveaux souvenirs car ses synapses peuvent changer très rapidement. En quelques jours, par un processus de signalisation qui reste mystérieux, il aide le souvenir à se stabiliser dans le cortex, amorçant sa transformation du court terme au long terme. Finalement, une fois le souvenir complètement consolidé, il s’efface de l’hippocampe, et le cortex devient son seul site d’implantation. Le transfert complet d’un souvenir explicite de l’hippocampe au cortex est un processus graduel qui peut prendre de nombreuses années [17]. Voilà pourquoi les souvenirs de Molaison ont disparu avec son hippocampe.
Apparemment, l’hippocampe agit un peu comme un chef d’orchestre dirigeant la symphonie de notre mémoire consciente. On pense qu’il joue un rôle important en tissant ensemble les différents souvenirs contemporains – visuels, spatiaux, auditifs, tactiles, émotionnels – qui sont stockés séparément dans le cerveau mais qui fusionnent pour former un souvenir homogène unique d’un événement. Il est possible que de nombreuses connexions s’établissent quand nous dormons et que l’hippocampe soit déchargé de certaines de ses autres tâches cognitives. Comme l’explique le psychiatre Daniel Siegel dans The Developing Mind, « bien que dans leur contenu se combinent des activations apparemment aléatoires, des aspects du vécu de la journée et des éléments du passé lointain, les rêves sont peut-être pour l’esprit une façon fondamentale de consolider la myriade de souvenirs explicites en un ensemble cohérent de représentations pour en faire un souvenir consolidé permanent [18] ». Des études montrent que quand notre sommeil souffre, il en va de même de notre mémoire [19].
Il reste encore beaucoup d’inconnu sur le fonctionnement de la mémoire explicite et même implicite, et une grande partie de ce que nous savons aujourd’hui sera revue et affinée dans les études à venir. Malgré tout, l’accumulation des données probantes montre clairement que la mémoire que nous avons dans notre tête est le produit d’un processus naturel extraordinairement complexe qui est à chaque instant ajusté subtilement à l’environnement unique dans lequel chacun vit, et à la forme unique des expériences qu’il fait. Les vieilles comparaisons avec la botanique que l’on applique à la mémoire et qui mettent l’accent sur la croissance organique indéterminée et continue se révèlent remarquablement justes. En fait, il semble qu’elles conviennent mieux que celles plus high-tech et plus à la mode qui établissent une analogie entre la mémoire biologique et les fragments de données numériques définis avec précision, stockés dans des banques de données et traités par des puces d’ordinateur. Régis par des signaux biologiques, chimiques, électriques et génétiques extrêmement variables, tous les aspects de la mémoire humaine – comment elle se forme, s’entretient, se connecte et s’évoque – possèdent une gradation pratiquement infinie. La mémoire informatique, au contraire, se présente sous forme de simples octets binaires – des uns et des zéros – qui sont traités par des circuits fixes, qui ne peuvent être qu’ouverts ou fermés, et jamais entre les deux.
Ceux qui célèbrent la sous-traitance de la mémoire à la Toile ont été trompés par une comparaison. Ils négligent la nature fondamentalement organique de la mémoire biologique. Ce qui donne à la mémoire réelle sa richesse et son caractère, sans parler de son mystère et de sa fragilité, c’est sa contingence. Elle existe dans le temps, et change quand le corps change. En fait, il s’avère que la seule évocation d’un souvenir relance tout le processus de consolidation, y compris la création de protéines pour former de nouvelles terminaisons synaptiques [21]. Dès lors que l’on fait revenir un souvenir explicite à long terme dans la mémoire de travail, il redevient un souvenir à court terme, et quand on le reconsolide, il acquiert un nouvel ensemble de connexions – un nouveau contexte. Comme l’explique Joseph LeDoux, « le cerveau qui évoque n’est pas celui qui a formé le souvenir initial. Pour que le vieux souvenir ait un sens dans le cerveau à ce moment, ce souvenir doit être mis à jour [22] ». La mémoire biologique est en perpétuel renouvellement. En revanche, la mémoire stockée dans un ordinateur prend la forme d’octets distincts et statiques ; vous pouvez les déplacer d’un disque dur à un autre autant de fois que vous voulez ; ils resteront toujours exactement pareils qu’au départ.
Nous ne limitons pas nos forces mentales quand nous stockons de nouveaux souvenirs à long terme, nous les renforçons. Chaque fois que notre mémoire augmente, notre intelligence s’accroît. La Toile est un complément pratique et fascinant de la mémoire personnelle, mais quand on se met à l’utiliser pour remplacer sa mémoire personnelle en court-circuitant les processus intérieurs de consolidation, on risque de vider son esprit de sa richesse.
Dans les années 1970, quand l’école a commencé à autoriser les élèves à utiliser des calculatrices, beaucoup de parents ont protesté. Ils s’inquiétaient qu’à compter sur cette machine les enfants soient moins capables de s’approprier les notions de mathématiques. Ces craintes étaient largement infondées, comme l’ont montré des études qui ont suivi [26]. N’étant plus obligés de passer beaucoup de temps à des calculs de routine, beaucoup d’élèves y ont gagné à mieux comprendre les principes qui sous-tendaient leurs exercices. Aujourd’hui, on allègue souvent cette histoire de la calculatrice pour défendre l’idée qu’une plus grande dépendance des banques de données en ligne ne présente pas de danger, et même nous libère. En nous évitant de faire travailler notre mémoire, la Toile nous permet, dit-on, de consacrer plus de temps à la pensée créatrice. Or ce parallèle est erroné. La calculatrice soulage la pression sur notre mémoire de travail, nous permettant d’utiliser cet espace de stockage à court terme, si essentiel, pour un raisonnement plus abstrait. Comme l’a montré cette expérience des élèves en mathématiques, grâce à la calculatrice, il était plus facile pour le cerveau de transférer des idées de la mémoire de travail à la mémoire à long terme et de les coder dans les schémas conceptuels qui sont si importants pour la construction du savoir. Mais pour la Toile, c’est très différent. Elle accentue la pression sur notre mémoire de travail, non seulement en détournant des ressources qui devraient aller à nos facultés supérieures de raisonnement, mais encore en empêchant de consolider les souvenirs à long terme et d’élaborer des schémas. La calculatrice, un outil puissant mais extrêmement spécialisé, s’est révélée être une aide à la mémoire. La Toile, elle, est une technologie de l’oubli.
 
 
L’attention a beau paraître éthérée – un « fantôme dans la tête », selon l’expression du psychologue du développement Bruce Candliss [27] –, c’est un état physique authentique, et elle produit des effets matériels dans tout le cerveau. Des expériences récentes sur des souris indiquent que le fait de porter son attention sur une idée ou sur une expérience personnelle déclenche une réaction en chaîne à travers tout le cerveau. L’attention consciente commence dans les lobes frontaux du cortex cérébral en imposant un contrôle exécutif descendant sur l’objectif de l’esprit. L’établissement de l’attention amène les neurones du cortex à envoyer des signaux à ceux du mésencéphale qui produisent le puissant neurotransmetteur qu’est la dopamine. Les axones de ces neurones vont jusque dans l’hippocampe, fournissant au neurotransmetteur un canal de distribution. Dès que la dopamine arrive dans les synapses de l’hippocampe, elle fait démarrer la consolidation du souvenir explicite, probablement en activant des gènes qui déclenchent la synthèse de nouvelles protéines [28].
Notre cerveau se modifie automatiquement et en dehors du champ étroit de notre conscience, mais ce n’est pas pour autant que nous ne sommes pas responsables de nos choix. Dans ce qui nous distingue des autres animaux, se trouve la capacité de contrôler notre attention. « “Apprendre à penser” signifie vraiment apprendre à exercer un certain contrôle sur sa façon de penser et sur ce à quoi l’on pense, disait le romancier David Foster Wallace dans un discours de remise de diplômes à Kenyon college en 2005. Cela veut dire être suffisamment conscient et averti pour choisir à quoi vous faites attention et comment vous construisez un sens à partir de votre expérience. » Renoncer à ce contrôle, c’est se retrouver « rongé sans cesse par le sentiment d’avoir possédé et perdu quelque chose d’infini ». Mentalement perturbé – il allait se pendre deux ans et demi après ce discours –, Wallace connaissait avec un sentiment d’urgence particulièrement aigu les enjeux qui interviennent dans notre façon de choisir, ou pas, de concentrer notre esprit. C’est à nos risques et périls que nous renonçons à contrôler notre attention. Tout ce qu’ont découvert les chercheurs en neurosciences sur le fonctionnement cellulaire et moléculaire du cerveau humain met cela en évidence.
Socrate s’est peut-être trompé sur les effets de l’écriture, mais il a eu la sagesse de nous déconseiller de prendre les trésors de la mémoire pour acquis. Sa prophétie annonçant un outil qui « implanterait la tendance à l’oubli » dans l’esprit, en donnant une recette « pas pour la mémoire mais pour la réminiscence », a trouvé un regain d’actualité avec l’avènement de la Toile. Sa prédiction pourrait se révéler non pas fausse mais simplement prématurée. De tous les sacrifices que nous faisons quand nous nous consacrons à Internet en en faisant notre média universel, le plus grand pourrait être celui de la richesse des connexions dans notre propre esprit. Il est vrai que la Toile elle-même est un réseau de connexions, mais les hyperliens qui associent des fragments de données en ligne ne ressemblent en rien aux synapses de notre cerveau. Les liens de la Toile ne sont que des adresses, de simples étiquettes de programmes qui amènent l’internaute à charger une page d’information supplémentaire. Ils n’ont en rien la richesse ou la sensibilité de nos synapses. Les connexions du cerveau, dit Ari Schulman, « ne donnent pas simplement accès à un souvenir ; à bien des égards, elles constituent des souvenirs [29] ». Les connexions de la Toile ne sont pas les nôtres – et quel que soit le nombre d’heures que nous passons à chercher et à surfer, elles ne le seront jamais. Quand nous sous-traitons notre mémoire à une machine, nous lui sous-traitons aussi une importante partie de notre intellect, voire de notre identité. En concluant sa conférence de 1892 sur la mémoire, William James disait : « Se connecter, c’est penser. » À quoi l’on pourrait ajouter : « Se connecter, c’est être soi-même. »
 
 
« Je projette l’histoire de l’avenir », disait Walt Whitman dans un des premiers vers de Feuilles d’herbe. On sait depuis longtemps que la culture dans laquelle une personne est élevée influence le contenu et le caractère de sa mémoire. Les individus nés dans des sociétés, comme les États-Unis, qui valorisent les réalisations personnelles ont tendance, par exemple, à pouvoir se souvenir d’événements plus précoces de leur existence que ceux élevés dans des sociétés qui, comme la Corée, mettent en avant les réalisations collectives [30]. Les psychologues et les anthropologues découvrent maintenant que, comme le sentait Whitman, l’influence va dans les deux sens. La mémoire personnelle façonne et soutient la « mémoire collective » qui sous-tend la culture. Ce qui est stocké dans l’esprit individuel – événements, faits, concepts, savoir-faire – est plus que la « représentation de la personnalité distincte » qui constitue le moi, écrit l’anthropologue Pascal Boyer. C’est aussi « le cœur de la transmission culturelle [31] ». Chacun de nous porte et projette l’histoire de l’avenir. La culture repose sur nos synapses.
Le fait de confier la mémoire à des banques de données extérieures ne met pas seulement en danger la profondeur et l’individualité du moi. Il menace aussi la profondeur et le caractère distinct de la culture que nous avons tous en commun. Dans un essai récent, le dramaturge Richard Foreman décrit avec éloquence ce qui est en jeu. « Je viens d’une tradition de culture occidentale dans laquelle l’idéal (mon idéal) était la structure complexe et “comparable aux cathédrales” de la personnalité très instruite et sachant bien s’exprimer – l’homme ou la femme qui porte en soi-même une version unique construite personnellement de tout l’héritage de l’Occident. Or maintenant, je vois en nous tous (moi y compris) que la densité intérieure complexe est remplacée par un moi d’un type nouveau – évoluant sous la pression de l’excès d’information et de la technologie de l’“immédiatement disponible” ». Vidés du « répertoire intérieur de notre dense héritage culturel », conclut Foreman, nous risquons de devenir des « individus galettes – bien aplatis en couche mince quand nous nous connectons à l’immense réseau d’information auquel on accède en appuyant simplement sur un bouton [32]. »
La culture est plus qu’un agrégat de ce que Google décrit comme « l’information du monde ». C’est plus que ce qui peut se réduire à un code binaire et se charger sur la Toile. Pour qu’elle garde sa vitalité, il faut qu’elle se renouvelle dans l’esprit des membres de chaque génération. Sous-traitez la mémoire, et la culture se flétrit.
 
 
 
 
[1]. Cité dans Alberto Manguel, Une histoire de la lecture, op. cit.
[2]. Umberto Eco, conférence à l’académie italienne des études supérieures en Amérique, de l’université Columbia, 12 novembre 1996, www.umbertoeco.com/en/from-internet-to-gutenberg-1996.html
[3]. Cité dans Ann Moss, Printed Commonplace-Books and the Structuring of Renaissance Thought. Oxford, Oxford University Press, 1996, p. 102-104.
[4]. Erika Rummel, « Erasmus, Desiderius », dans Philosophy of Education, éd. J. J. Chambliss. New York, Garland, 1996, p. 198.
[5]. Cité dans Ann Moss, op. cit.
[6]. D’après Ann Moss, « le recueil de lieux communs faisait partie de l’expérience intellectuelle initiale de chaque écolier » à la Renaissance.
[7]. Francis Bacon, The Works of Francis Bacon, vol. 4, éd. James Spedding, et al., Londres, Longman, 1858, p. 435.
[8]. Naomi S. Baron, Always On : Language in an Online and Mobile World. Oxford, Oxford University Press, 2008, p. 197.
[9]. Clive Thompson, « Your Outboard Brain Knows All », Wired, octobre 2007.
[10]. David Brooks, « The Outsourced Brain », New York Times, 26 octobre 2007.
[11]. Peter Suderman, American Scene, 10 mai 2009, www.theamericanscene.com/2009/05/11/your-brain-is-an-index
[12]. Alexandra Frean, « Google Generation Has No Need for Rote Learning », Times (Londres), 2 décembre 2008 ; Don Tapscott, Grown Up Digital, New York, McGraw-Hill, 2009, p. 115.
[13]. William James, Conférences sur l’éducation : psychologie et éducation, Paris, L’Harmattan, 1996.
[14]. Voir Eric R. Kandel, À la recherche de la mémoire : une nouvelle théorie de l’esprit, Paris, Odile Jacob, 2007.
[15]. Louis B. Flexner et al., « Memory in Mice Analyzed with Antibiotics », Science, 155, 1967, p. 1377-1383.
[16]. Jusqu’à ce que son nom soit révélé à sa mort en 2008, Molaison était cité dans la littérature scientifique sous les initiales de H. M.
[17]. Voir Larry R. Squire et al., « Retrograde Amnesia and Memory Consolidation : A Neurobiological Perspective », Current Opinion in Neurobiology, 5, 1995, p. 169-177.
[18]. Daniel J. Siegel, The Developing Mind, New York, Guilford, 2001, p. 37-38.
[19]. Dans une étude de 2009, des chercheurs français et américains ont trouvé la preuve que des oscillations courtes et intenses qui parcourent l’hippocampe pendant le sommeil jouent un rôle important dans le stockage des souvenirs dans le cortex. Quand ils supprimaient ces oscillations dans des cerveaux de rats, ces derniers étaient incapables de consolider des souvenirs spatiaux à long terme. Gabrielle Girardeau et al., « Selective Suppression of Hippocampal Ripples Impairs Spatial Memory », Nature Neuroscience, 13 septembre 2009, www.nature.com/neuro/journal/vaop/ncurrent/abs/nn.2384.html
[20]. Université de Haïfa « Researchers Identified a Protein Essential in Long Term Memory Consolidation », 9 septembre 2008, www.physorg.com/news140173258.html
[21]. Voir Jonah Lehrer, Proust Was a Neuroscientist. New York, Houghton Mifflin, 2007, p. 84-85.
[22]. Joseph LeDoux, Neurobiologie de la personnalité, Paris, Odile Jacob, 2003.
[23]. Nelson Cowan, Working Memory Capacity, New York, Psychology Press, 2005, p. I.
[24]. Torkel Klingberg, The Overflowing Brain : Information Overload and the Limits of Working Memory, Oxford : Oxford University Press, 2009, p. 36.
[25]. Sheila E. Crowell, « The Neurobiology of Declarative Memory », dans John H. Schumann et al., The Neurobiology of Learning : Perspectives from Second Language Acquisition, Mahwah, NJ, Erlbaum, 2004, p. 76.
[26]. Voir, par exemple, Ray Hembree & Donald J. Dessart, « Effects of Handheld Calculators in Precollege Mathematics Education : A Meta-analysis », Journal for Research in Mathematics Education, 17, no 2, 1986, p. 83-99.
[27]. Cité dans Maggie Jackson, Distracted : The Erosion of Attention and the Coming Dark Age, Amherst, NY, Prometheus, 2008, p. 242.
[28]. Kandel, op. cit.
[29]. Ari N. Schulman, correspondance avec l’auteur, 7 juin 2009.
[30]. Lea Winerman, « The Culture of Memory », Monitor on Psychology, 36, no 8 (septembre 2005), p. 56.
[31]. Pascal Boyer & James V. Wertsch, éds., Memory in Mind and Culture, New York, Cambridge University Press, 2009, p. 7 et 288.
[32]. Richard Foreman, Edge, 8 mars 2005, www.edge.org/3rd_culture/foreman05/foreman05_index.html