14

 

¿Cómo nos informamos?

 

 

El primer capítulo de La información, de James Gleick, se titula «Tambores que hablan».[30] En él se explica el concepto de «información» mediante un sencillo ejemplo, un lenguaje de tambores usado en una zona de la República Democrática del Congo donde el idioma humano es el kele. Los exploradores europeos sabían desde hacía mucho tiempo que los ritmos irregulares de los tambores africanos transmitían misteriosos mensajes a través de la selva. Los exploradores llegaban a aldeas donde ningún europeo había estado antes y se encontraban con que los ancianos de esas aldeas ya estaban preparados para recibirlos.

Por desgracia, el lenguaje de los tambores solamente lo entendió y registró un único europeo antes de que empezara a desaparecer. Se trataba de John Carrington, un misionero inglés que pasó su vida en África y que hablaba con fluidez el kele además de entender el lenguaje de los tambores. Llegó al continente en 1938, y en 1949 publicó sus hallazgos en un libro, The Talking Drums of Africa.[31]Antes de la llegada de los europeos con sus carreteras y sus radios, los africanos de habla kele utilizaban el lenguaje de los tambores para una rápida comunicación entre las aldeas de la selva tropical africana. Cada aldea tenía un experto que tocaba los tambores, y todos los aldeanos podían entender lo que estos decían. Cuando Carrington escribió su libro, el uso de este lenguaje ya estaba en decadencia, y los escolares ya no lo aprendían. Sesenta años después, los teléfonos volvieron obsoleto este lenguaje y remataron el proceso de extinción.

Carrington advirtió que la estructura del kele era lo que hacía posible el lenguaje de los tambores. El kele es una lengua tonal con dos tonos claramente diferenciados. Cada sílaba es baja o alta. El lenguaje de los instrumentos de percusión lo hablaban dos tambores con estos dos tonos. Los tambores decían cada palabra del kele en una secuencia de sonidos bajos y altos. Al pasar del kele humano al del tambor, se pierde toda la información contenida en vocales y consonantes. En una lengua europea, las consonantes y las vocales contienen toda la información, y si esta desaparece no queda nada. Pero en una lengua tonal como el kele, los tonos son portadores de alguna información, la cual sobrevive en la transición del habla humana a los tambores. La fracción de información que sobrevive en una palabra del tambor es pequeña, y las palabras de los tambores son por tanto ambiguas. Una sola secuencia de tonos puede tener cientos de significados dependiendo de las vocales y las consonantes que faltan. El lenguaje del tambor debe resolver la ambigüedad de las distintas palabras añadiendo más. Cuando se agregan suficientes palabras redundantes, el significado del mensaje es ya único.

En 1954, un visitante estadounidense se presentó en la escuela de la misión de Carrington. Este estaba dando un paseo por la selva, y su mujer quiso llamarlo a casa para el almuerzo. Le envió un mensaje en el lenguaje de los tambores y se lo explicó al visitante. Para que Carrington pudiera entenderlo, el mensaje debía expresarse en frases redundantes y repetidas: «Espíritu de hombre blanco en selva ven ven a casa de piedras en lo alto espíritu de hombre blanco en selva. Mujer con ñame espera. Ven ven». Carrington oyó el mensaje y fue a su casa. Eran necesarias alrededor de ocho palabras del lenguaje de los tambores para transmitir sin ambigüedades una sola palabra del lenguaje humano. Los matemáticos occidentales dirían que en los tonos transmitidos en el lenguaje de los tambores se halla alrededor de una octava parte de la información expresada en kele humano. En las frases del lenguaje de los tambores, la redundancia compensa la pérdida de información en las vocales y consonantes. Los que tocaban estos tambores africanos no sabían nada de las matemáticas occidentales, pero encontraron el grado adecuado de redundancia para su lenguaje por prueba y error. La mujer de Carrington había aprendido el lenguaje de los tambores y sabía cómo usarlo.

La historia del lenguaje de los tambores ilustra el dogma central de la teoría de la información. Dicho dogma señala: «El significado es irrelevante». La información es independiente del significado que expresa y del lenguaje utilizado para expresarlo. El de «información» es un concepto abstracto, que se puede transmitir igual de bien a través del habla humana, la escritura o los tambores. Todo lo que se necesita para transferir información de un lenguaje a otro es un sistema de codificación, que puede ser sencillo o complejo. Si el código es sencillo, como lo es el del lenguaje de los tambores con sus dos tonos, una cantidad dada de información requiere un mensaje más largo. Si el código es complejo, como lo es el del lenguaje hablado, la misma cantidad de información puede ser transmitida en un mensaje más corto.

Otro ejemplo que ilustra este dogma central es el telégrafo óptico francés. Hasta 1793, quinto año de la Revolución francesa, los africanos que usaban tambores iban por delante de los europeos en capacidad para transmitir información rápidamente a grandes distancias. En 1793, Claude Chappe, un patriótico ciudadano francés que deseaba reforzar la defensa del gobierno revolucionario contra los enemigos nacionales y extranjeros, inventó un aparato que llamó «telégrafo». El telégrafo era un sistema de comunicación óptica con estaciones que consistían en grandes señalizadores móviles montados sobre unas torres de veinte metros. En cada estación había un operador que podía leer un mensaje transmitido por una estación vecina y retransmitirlo a la siguiente de la cadena de transmisión.

La distancia entre estaciones vecinas era de unos once kilómetros. A lo largo de las cadenas de transmisión, los mensajes ópticos podían viajar por Francia con mayor rapidez que los mensajes de los tambores por África. Cuando, en 1799, Napoleón se puso al frente de la República francesa, ordenó completar el sistema telegráfico óptico para enlazar las principales ciudades de Francia desde Calais y París a Tolón, y de allí a Milán. El telégrafo se convirtió, como Chappe había previsto, en un importante instrumento de poder nacional. Napoleón se aseguró de que no estuviera a disposición de usuarios privados.

A diferencia del lenguaje de los tambores, que estaba basado en el lenguaje hablado, el telégrafo óptico se basaba en el francés escrito. Chappe inventó un elaborado sistema de codificación para traducir los mensajes escritos a señales ópticas. Su problema era el opuesto al de los tambores. Estos tenían un sistema de transmisión rápida con mensajes ambiguos. Necesitaban reducir la velocidad de la transmisión para suprimir las ambigüedades de los mensajes. El sistema de transmisión de Chappe resultaba al principio penosamente lento, con mensajes redundantes. La lengua francesa escrita, como la mayoría de los idiomas con escritura alfabética, es muy redundante, es decir, utiliza muchas más letras de lo necesario para transmitir el significado de un mensaje. El sistema de codificación de Chappe permitía transmitir los mensajes con mayor rapidez. Multitud de frases comunes y nombres propios fueron codificados con solo dos símbolos ópticos, con el consiguiente aumento sustancial de la velocidad de transmisión. El que redactaba y el que leía el mensaje tenían libros con una lista de códigos para ocho mil frases y nombres. Para Napoleón era una ventaja tener un eficaz código criptográfico, de modo que el contenido de los mensajes fuese secreto para los ciudadanos a lo largo de la ruta.

Después de estos dos ejemplos históricos de comunicación rápida en África y en Francia, el resto del libro de Gleick trata del desarrollo moderno de la tecnología de la información. En la historia moderna dominan dos estadounidenses, Samuel Morse y Claude Shannon. El primero fue el inventor del código Morse, y también uno de los pioneros en la creación de un sistema telegráfico que usaba la electricidad conducida a través de cables en lugar de repetidores ópticos sobre torres. Morse introdujo su telégrafo eléctrico en 1838, y en 1844 perfeccionó el código, que usaba pulsos cortos y largos de corriente eléctrica para representar letras del alfabeto.

Morse estaba ideológicamente en las antípodas de Chappe. No estaba interesado en los secretos ni en la creación de un instrumento de poder para los gobiernos. El sistema Morse fue diseñado para constituir con él una empresa rentable, pero rápida, barata y a disposición de todo el mundo. Al principio, el precio de un mensaje era de un cuarto de centavo por letra. Los usuarios más importantes del sistema eran corresponsales de prensa que transmitían noticias de acontecimientos locales a lectores de todo el mundo. El código Morse era bastante sencillo, y cualquiera podía aprenderlo. El sistema no ofrecía un uso secreto a los usuarios. Si estos querían confidencialidad, podían inventar sus propios códigos y cifrar ellos mismos sus mensajes. El precio de un mensaje cifrado era más alto que el de un mensaje de texto normal, puesto que los operadores de telégrafos podían transcribir el texto normal con mayor rapidez. Era mucho más fácil corregir errores en el texto normal que en el cifrado.

Shannon fue el padre fundador de la teoría de la información. Durante los cien años que siguieron a la introducción del telégrafo eléctrico se inventaron otros sistemas de comunicación, como el teléfono, la radio y la televisión, que los ingenieros desarrollaron sin necesidad de matemáticas superiores. Luego, Shannon elaboró una teoría que comprendía todos estos sistemas juntos, y definió la información como una cantidad abstracta intrínseca a un mensaje telefónico o a una imagen de televisión. También introdujo las matemáticas superiores en los juegos.

Cuando Shannon era un niño que crecía en una granja de Michigan, creó un sistema telegráfico casero que usaba el código Morse. Transmitía mensajes a los amigos de las granjas vecinas usando púas de la alambrada de sus cercas para conducir las señales eléctricas. Cuando comenzó la Segunda Guerra Mundial, Shannon se erigió en uno de los pioneros de la criptografía científica al trabajar en un sistema telefónico criptográfico de alto nivel que permitió a Roosevelt y Churchill comunicarse a través de un canal seguro. Al mismo tiempo, Alan Turing, amigo de Shannon, también trabajaba como criptógrafo en el famoso proyecto británico Enigma, con el que se consiguieron descifrar los códigos militares alemanes. Los dos pioneros se reunían con frecuencia cuando Turing visitó Nueva York en 1943, pero ambos pertenecían a mundos secretos separados, y no podían intercambiar ideas sobre criptografía.

En 1945, Shannon escribió un artículo titulado «A Mathematical Theory of Cryptography», sobre el cual se estampó el sello de SECRETO y nunca vio la luz. En 1948 publicó una versión expurgada del artículo anterior, titulada «Teoría matemática de la comunicación». Esta versión apareció en el Bell System Technical Journal, la revista de los Laboratorios Bell, y no tardó en convertirse en un texto clásico. Después de Shannon se iniciaría la carrera de las tecnologías de la información: ordenadores electrónicos, cámaras digitales, internet y la World Wide Web.

Según Gleick, la repercusión de la información en los asuntos humanos pasó por tres estadios: primero la historia, tras miles de años durante los cuales los humanos producíamos e intercambiábamos información sin el concepto de su medición; luego vino la teoría, que Shannon fue el primero en formular, y finalmente la marea que hoy nos inunda. La inundación comenzó silenciosamente. El acontecimiento que la volvió visible ocurrió en 1965, cuando Gordon Moore formuló la ley de Moore. Moore era un ingeniero electrónico, fundador de Intel Corporation, una empresa que fabricaba componentes para ordenadores y otros aparatos electrónicos. Su ley venía a decir que el precio de los componentes electrónicos descendería y la cantidad de estos aumentaría en un factor de dos cada dieciocho meses. Esto significaba que el precio se reduciría y la cantidad aumentaría en un factor de cien cada decenio. La predicción que hizo Moore de tal incremento continuo ha resultado asombrosamente exacta durante los cuarenta y cinco años transcurridos desde que la enunció. En estos cuatro decenios y medio, los precios han descendido y las cantidades han aumentado en un factor de mil millones, nueve potencias de diez. Nueve potencias de diez son suficientes para transformar un goteo en una inundación.

Moore trabajaba en la industria del hardware fabricando componentes físicos para máquinas electrónicas, y la ley que enunció se refería al crecimiento del hardware producido. Pero la ley es también aplicable a la información para la que el hardware estaba diseñado como su soporte. La función del hardware es almacenar y procesar información. El almacenamiento de información recibe el nombre de «memoria» y el procesamiento de información, el de «computación». La consecuencia de la ley de Moore para la información es que el precio de la memoria y de la computación disminuye y la cantidad de memoria y de computación aumenta en un factor de cien cada decenio. La inundación de hardware se convirtió en una inundación de información.

En 1949, un año después de que publicaran los principios de la teoría de la información, Shannon elaboró una tabla con los diversos almacenes de información, o memorias, que entonces existían. La memoria con más capacidad de aquella tabla era la de la Biblioteca del Congreso, cuyo contenido estimó en cien billones de bits de información; una estimación, bastante buena para la época, de la suma total del conocimiento humano registrado. En la actualidad, un disco de memoria externo capaz de almacenar tal cantidad de información pesa unos pocos kilos y puede adquirirse por unos mil dólares. La información, para la que también se usa la palabra «datos», la guardan en memorias de este tamaño o mayores las oficinas de las empresas, los centros de datos de los gobiernos y los laboratorios científicos de todo el mundo. Gleick cita al científico de la computación Jaron Lanier, que describe así el efecto de esta inundación: «Es como si nos arrodillásemos para plantar la semilla de un árbol que luego crece tan rápidamente que se traga la ciudad entera antes de levantarnos».

El 8 de diciembre de 2010, Gleick publicó en el blog de The New York Review of Books un ensayo esclarecedor, «The Information Palace». Lo escribió demasiado tarde para poder incluirlo en su libro. Describe los cambios históricos que ha experimentado el significado de la palabra «información» y que el Oxford English Dictionary recoge. El vocablo apareció por vez primera en 1386 en un acta parlamentaria con el sentido de «denuncia». Su historia termina con un uso moderno, «fatiga informativa», definida como «apatía, indiferencia o agotamiento mental fruto de la exposición a un exceso de información».

Las consecuencias de la inundación de información no son todas negativas. Una de las empresas más creativas que esta inundación ha hecho posible es Wikipedia, que puso en marcha hace diez años Jimmy Wales. Todos mis amigos y conocidos desconfían de ella, pero todos la utilizan. La desconfianza y el uso provechoso no son incompatibles. Wikipedia es el último depósito de información abierto. Todo el mundo es libre de leer y escribir en él. Contiene artículos redactados en 262 idiomas por varios millones de autores. La información allí contenida no es fiable y al mismo tiempo es sorprendentemente correcta. Es frecuente que no sea de fiar porque muchos de los autores son ignorantes o descuidados. Y es frecuente que sea correcta porque los artículos son editados y corregidos por lectores mejor informados que los autores.

Cuando puso en marcha Wikipedia, Wales esperaba que la combinación de unos voluntarios entusiastas y la tecnología de la información de código abierto desencadenara una revolución en el acceso al conocimiento. La tasa de crecimiento de Wikipedia superó sus sueños más exagerados. En diez años se convirtió en el mayor almacén de información del planeta y en el más ruidoso y enconado campo de batalla de opiniones en conflicto. Wikipedia ilustra la ley de la comunicación fiable de Shannon, en virtud de la cual la transmisión de información correcta es posible en un sistema de comunicación con un alto nivel de ruido. Incluso en el sistema con mayor nivel de ruido, los errores pueden corregirse con garantías y puede transmitirse información correcta, siempre y cuando la transmisión sea suficientemente redundante. Tal es, in nuce, el modo de funcionar de Wikipedia.

La inundación de información también ha reportado enormes beneficios a la ciencia. El público tiene una idea distorsionada de la ciencia porque en los colegios se enseña a los niños que es un conjunto de verdades firmemente establecidas. Pero la realidad es que la ciencia no es un conjunto de verdades, sino una continua indagación de misterios. Dondequiera que exploremos en el mundo que nos rodea, siempre encontramos misterios. Nuestro planeta está cubierto de continentes y océanos cuyo origen no podemos explicar. Nuestra atmósfera es alterada constantemente por perturbaciones a duras penas entendidas que llamamos «tiempo» o «clima». La materia visible en el universo es superada por una cantidad mucho mayor de materia invisible u oscura que no sabemos en absoluto en qué consiste. El origen de la vida es un completo misterio, y lo mismo cabe decir de la conciencia humana. No tenemos una idea clara del modo en que las descargas eléctricas que se producen en las células nerviosas de nuestros cerebros están conectadas con nuestros sentimientos, deseos y acciones.

Incluso la física, la rama más exacta y firmemente establecida de la ciencia, está llena de misterios. No sabemos en qué medida la teoría de la información de Shannon seguirá siendo válida cuando dispositivos cuánticos sustituyan a los circuitos electrónicos clásicos como soportes de la información. Los dispositivos cuánticos pueden estar hechos de átomos únicos o de circuitos magnéticos microscópicos. Todo lo que sabemos con seguridad es que teóricamente podrán realizar ciertas tareas que no están al alcance de los dispositivos clásicos. La computación cuántica es todavía un misterio inexplorado en la frontera de la teoría de la información. La ciencia es la suma total de una gran multitud de misterios. Es una discusión interminable entre una gran multitud de voces. La ciencia se parece a Wikipedia mucho más que a la Enciclopedia británica.

El rápido avance de la inundación de información en los últimos diez años hizo posible la existencia de Wikipedia, y la misma inundación ha hecho posible la ciencia del siglo XXI. En la ciencia del siglo XXI dominan unos inmensos almacenes de información que llamamos «bases de datos». La inundación de información ha hecho que sea fácil y barato crear bases de datos. Un ejemplo de base de datos del siglo XXI es la serie de secuencias genómicas de seres vivos pertenecientes a diversas especies, desde microbios hasta humanos. Cada genoma contiene la información genética completa que formó a la criatura a la que pertenece. La base de datos de genomas crece rápidamente, y está a disposición de los científicos de todo el mundo que quieran explorarla. Su origen se remonta a 1939, cuando Shannon escribió su tesis doctoral, titulada «An Algebra for Theoretical Genetics».

Shannon era entonces un estudiante de posgrado del departamento de matemáticas del MIT. Solo era vagamente consciente de la posible materialización física de la información genética. La verdadera materialización física del genoma es la estructura de doble hélice de las moléculas de ADN que catorce años más tarde descubrirían Francis Crick y James Watson. En 1939, Shannon pensaba que la base de la genética debía consistir en información, y que esta debía estar codificada en alguna álgebra abstracta independiente de su materialización física. Sin ningún conocimiento de la doble hélice, no podía columbrar la estructura detallada del código genético. Solo podía imaginar que, en un futuro lejano, la información genética sería descodificada y registrada en un gigantesco banco de datos que definiría toda la diversidad de seres vivos. Aquel sueño suyo solo tardó sesenta años en hacerse realidad.

En el siglo XX, los genomas de los humanos y de otras especies fueron laboriosamente descodificados y traducidos a secuencias de letras en memorias de ordenadores. La descodificación y la traducción se volvieron más baratas y más rápidas con el paso del tiempo. El precio descendía y la rapidez aumentaba de acuerdo con la ley de Moore. Se tardaron quince años en descodificar el primer genoma humano, y la operación costó unos mil millones de dólares. Ahora, un genoma humano puede ser descodificado en pocas semanas, y la operación cuesta unos pocos miles de dólares. Hacia el año 2000 se alcanzó un punto de inflexión al resultar más barato producir información genética que entenderla. Hoy en día podemos introducir una muestra de ADN humano en una máquina que leerá rápidamente la información genética, pero no podemos leer el significado de la información. No la entenderemos del todo hasta que comprendamos en detalle los procesos del desarrollo embrionario que el ADN orquesta para hacernos lo que somos.

Un punto de inflexión similar se alcanzó casi al mismo tiempo en la ciencia de la astronomía. Los telescopios y las naves espaciales han evolucionado lentamente, pero las cámaras y los procesadores de datos ópticos lo han hecho rápidamente. Los modernos proyectos de exploración del firmamento recogen datos de grandes áreas celestes y generan bases de datos con información precisa sobre miles de millones de objetos. Los astrónomos sin acceso a los grandes instrumentos pueden hacer descubrimientos aprovechando estas bases de datos en lugar de observar el cielo. Grandes bases de datos han originado revoluciones similares en otras ciencias, como la bioquímica y la ecología.

El crecimiento explosivo de la información en nuestra sociedad humana es una parte del crecimiento, más lento, de las estructuras ordenadas en la evolución de la vida en general. La vida ha evolucionado durante miles de millones de años con organismos y ecosistemas materializando cantidades crecientes de información. La evolución de la vida es una parte de la evolución del universo, que también evoluciona con cantidades crecientes de información materializadas en estructuras ordenadas: galaxias, estrellas y sistemas planetarios. En el mundo vivo y en el inerte vemos un incremento del orden, desde el gas insustancial y uniforme de los comienzos del universo hasta la producción de la magnífica diversidad de objetos extraordinarios que vemos en el cielo y en la selva tropical. En todas partes a nuestro alrededor, adondequiera que miramos, vemos testimonios de un orden creciente y una ampliación de la información. La tecnología derivada de los descubrimientos de Shannon es solo una aceleración local del crecimiento natural de la información.

Los científicos y filósofos del siglo XIX, que creían en una doctrina deprimente llamada «muerte térmica», encontraban paradójico el visible aumento de estructuras ordenadas en el universo. Lord Kelvin, uno de los físicos de la época, promovió el dogma de la muerte térmica al predecir que el flujo de calor de los objetos más calientes a los más fríos provocaría una disminución de las diferencias de temperatura en todas partes hasta que finalmente todas las temperaturas serían iguales. Y como necesita diferencias de temperatura para evitar que la pérdida de calor la anule, la vida desaparecería.

Esta visión sombría del futuro contrastaba llamativamente con el desarrollo exuberante de la vida que vemos a nuestro alrededor. Gracias a los descubrimientos de los astrónomos del siglo XX, ahora sabemos que la muerte térmica es un mito. Esta nunca se producirá, y no hay aquí ninguna paradoja. La mejor explicación divulgativa de la desaparición de la paradoja es un capítulo titulado «Cómo el orden nació del caos» del libro Creation of the Universe, de Fang Lizhi y su esposa Li Shuxian.[32] Fang es doblemente famoso como destacado astrónomo chino y disidente político. Actualmente prosigue con su doble quehacer en la Universidad de Arizona.

La creencia en la muerte térmica se basa en una idea que yo llamo la «regla de la cocina», según la cual un trozo de carne se calienta cuando lo ponemos sobre una parrilla caliente. De manera más general, la regla afirma que cualquier objeto se calienta cuando gana energía y se enfría cuando pierde energía. Los seres humanos han asado filetes durante miles de años, y nunca nadie vio que un filete se enfriase en contacto con el fuego. La regla de la cocina es verdadera en el caso de objetos lo bastante pequeños como para que podamos manejarlos. Si la regla de la cocina fuese siempre cierta, el argumento de lord Kelvin sobre la muerte térmica sería correcto. Pero ahora sabemos que la regla de la cocina no vale para objetos de tamaño astronómico, en los cuales la gravitación es la forma dominante de energía. El Sol es un ejemplo familiar. Conforme pierde energía con la radiación, se vuelve más caliente, no más frío. Como el Sol está hecho de gas compresible y este gas lo comprime su propia gravitación, la pérdida de energía lo vuelve cada vez más pequeño y más denso, y la compresión, más caliente. En casi todos los objetos astronómicos domina la gravitación, y tienen el mismo comportamiento inesperado. La gravitación invierte la relación habitual entre la energía y la temperatura. En el dominio de la astronomía, cuando el calor fluye de los objetos más calientes a los más fríos, los primeros se calientan y los segundos se enfrían. La consecuencia de esto es que, en el universo astronómico, las diferencias de temperatura tienden a aumentar en lugar de disminuir con el paso del tiempo. No hay un estado final de temperatura uniforme, y por lo tanto no habrá muerte térmica. La gravitación crea un universo acogedor para la vida. La información y el orden podrán seguir creciendo durante miles de millones de años, como evidentemente lo han hecho en el pasado.

La visión del futuro como un infinito parque de juegos con un sinfín de misterios que habrán de desentrañar un sinfín de jugadores que exploren una fuente interminable de información, es gloriosa para los científicos. Encuentran atractiva esa visión, ya que da un sentido a su existencia y les ofrece un sinfín de ocupaciones, pero lo es menos para los artistas, los escritores y la gente común. Esta está más interesada en los amigos y la familia que en la ciencia; no puede dar la bienvenida a un futuro en el que se pase la vida nadando en una continua riada de información. Una visión más oscura del universo dominado por la información es la que se describe en el famoso relato «La biblioteca de Babel» que Jorge Luis Borges escribió en 1941.[33] Borges imaginó su biblioteca con una variedad infinita de libros, anaqueles y espejos como una metáfora del universo.

El libro de Gleick tiene un epílogo titulado «El regreso del significado», donde expresa las preocupaciones de las personas que se sienten apartadas de la cultura científica dominante. El enorme éxito de la teoría de la información se derivó de la decisión de Shannon de separar la información del significado. Su dogma central, según el cual «el significado es irrelevante», afirmaba que la información podría ser manejada con mayor libertad si se trataba como una abstracción matemática independiente del significado. La consecuencia de esta libertad es la inundación de información en la que nos estamos ahogando. El inmenso tamaño de las modernas bases de datos nos crea una sensación de falta de sentido. La información almacenada en tales cantidades nos recuerda a la biblioteca de Borges, que se extiende infinitamente en todas las direcciones. Es nuestra tarea como seres humanos devolver el sentido a esta tierra baldía. Como criaturas finitas que pensamos y sentimos, podemos crear islas de sentido en el mar de información. Gleick termina su libro con la imagen que Borges ofrecía de la condición humana:

 

Recorremos los pasillos, buscando en las estanterías y reordenándolas, tratando de encontrar unas líneas con significado en medio de leguas y leguas de cacofonías e incoherencias, leyendo la historia del pasado y del futuro, compilando nuestros pensamientos y compilando los pensamientos ajenos, y de vez en cuando vislumbrando unos espejos en los que probablemente reconozcamos reflejadas a algunas criaturas de la información.

 

 

Nota añadida en 2014: Fang Lizhi murió en 2012 a la edad de setenta y seis años. Se mantuvo activo hasta el final en su doble vida de astrónomo y disidente político.

Dos correcciones a la reseña: en primer lugar, el proyecto británico Enigma, que descifró los códigos militares alemanes en la Segunda Guerra Mundial, comenzó con la ayuda decisiva de criptólogos polacos. Antes de que comenzara la guerra en 1939, los polacos capturaron una máquina Enigma alemana y dieron copias de la misma a Gran Bretaña y Francia. Tener la máquina constituyó un primer paso fundamental hacia el desciframiento de los códigos. En segundo lugar, la biblioteca de Babel de Borges no es infinita. El número de libros es finito, pero demasiado grande para ser contados. Doy las gracias a dos lectores atentos por estas correcciones.