Imagen| Jérémie Gerhardt
El célebre físico Richard Feynman dijo en una ocasión a su alumnado que, en caso de que una catástrofe devastara nuestra civilización, de forma tal que sólo pudiésemos legar uno sólo de los conocimientos científicos a una futura generación, éste sería: “todas las cosas están hechas de átomos” [1]. ¿Qué tiene esta idea para ser tan especial? Se trata de una hipótesis simple y elegante que permite explicar de manera unificada una asombrosa multiplicidad de fenómenos. Así, en química, las transformaciones de la materia pueden interpretarse como procesos mecánicos en los que los átomos no se crean ni se destruyen sino que simplemente se reorganizan. En biología, los procesos de transmisión y alteración de la herencia genética -los pilares de la evolución- son descritos en términos de mecanismos moleculares, esto es, de agregados de átomos. Fenómenos geológicos como las corrientes de viento o la erosión no son, en última instancia, otra cosa que fenómenos que afectan a millones de millones de átomos. Y así sucesivamente. Ahora bien, no deja de ser sugerente el pensar que, si Feynman siguiera hoy vivo, quizás tuviese la tentación de decir a sus alumnos que la idea más fundamental de la ciencia es: “Todas las cosas están hechas de información”. Por insólita y extravagante que parezca esta idea de que toda la realidad es en última instancia información, se está imponiendo con fuerza desde ámbitos tan dispares como la informática, la biología, la termodinámica o la teoría cuántica -en el campo de las ciencias de la naturaleza- así como en la economía, sociología o historia dentro de las llamadas ciencias humanas o sociales. El concepto de información está llegando a convertirse en uno de los más transversales de la ciencia, anunciándose como promesa para la anhelada teoría global que permita una comprensión unificada de la realidad [2]. Más allá de su relevancia para la ciencia, la noción de información trasciende lo puramente intelectual y ha contribuido, junto al notable impacto de la llamadas tecnologías de la información y la comunicación (ordenadores, fibra óptica, telefonía móvil, Internet, etc) a profundos cambios sociales, económicos y culturales que suelen englobarse bajo el concepto de sociedad de la información que, en el criterio de los sociólogos, viene a ser para nuestra época el equivalente a lo que en otros momentos de la historia se ha conocido como «sociedad feudal» o «sociedad industrial». Vivimos pues en un momento de la historia que no es posible comprender sin prestar la atención suficiente a lo que la idea de información y todo lo asociado a la misma representa.
La teoría de la información
La de la información ha sido una revolución silenciosa que tuvo su origen en un artículo pionero del ingeniero estadounidense Claude E. Shannon, publicado en 1845, en el que resumía las conclusiones de un trabajo que puso los cimientos de lo que habría de llamarse «teoría de la información». El interés de Shannon se centraba en la optimización de la cantidad de información que puede transmitirse por un cable de telefonía y debe enmarcarse en el contexto de sus investigaciones para los justamente célebres Laboratorios Bell de New Jersey. En su búsqueda de una manera objetiva de cuantificar la cantidad de información, Shannon utilizó la representación fundamental que había sido expuesta en 1854 por George Boole en su libro “Las leyes del pensamiento”, en el cual demostró que todas las manipulaciones algebraicas posibles pueden hacerse utilizando simplemente ceros y unos. Shannon acuñó el neologismo bit (del inglés binary digit) para definir al dígito binario -un dígito cuyo valor puede ser uno o cero- como unidad básica para medir la cantidad de información. Un conjunto de n bits puede representar un total de 2 elevado a n valores posibles. Así por ejemplo un byte se define como como un múltiplo que equivale a 8 bits, lo que significa que puede representar 28 = 64 valores posibles [3].
En relación a la cantidad de información de un acontecimiento, las investigaciones de Shannon le llevaron a concluir que es proporcional al logaritmo de la inversa de la probabilidad de que ocurra, lo que matemáticamente puede expresarse de la forma:
I=log1/p (ecuación 1)
Lo que dicha fórmula establece es que los acontecimientos menos probables contienen un alto grado de información mientras que aquellos que son altamente probables contienen muy poca información; algo que los filósofos griegos, como Aristóteles, ya sabían al sugerir que cuanta más sorpresa nos provoca un acontecimiento, más información contiene. Así, quien asevera que el mes de agosto en Córdoba va a ser caluroso aporta en verdad muy poca información al tratarse de un acontecimiento muy probable (casi tan poca información aporta como el que dijera que la lluvia cae hacia abajo). En definitiva, Shannon llegaría a establecer que los acontecimientos menos probables tendrían que codificarse con un mayor número de bits (unos y ceros) al contener mayor cantidad de información, mientras que aquellos otros más probables necesitarían menos bits para ser codificados.
El sistema binario empleado por Shannon es importante por ser el lenguaje en el que, en última instancia se programan los modernos ordenadores. La base de los mismos es el microprocesador, un circuito miniaturizado fabricado con silicio que detecta impulsos eléctricos y que asigna los valores 1 ó 0 según se detecte o no un impulso eléctrico. La posibilidad de codificar cualquier tipo de información en el lenguaje binario da lugar a los dispositivos digitales que, paulatinamente, han ido desplazando a los analógicos como forma de almacenar, procesar e intercambiar la información. Por ejemplo, las antiguas cámaras de fotografía analógica se han visto sustituidas por las cámaras digitales en las que la imagen queda codificada en una serie de puntos o píxeles (cada uno de los componentes mínimos de una imagen digital) que almacenan la información visual en lenguaje binario [4]. El cambio de lo analógico a lo digital nos ha permitido almacenar gran cantidad de información en poco espacio físico, realizar infinitas copias sin pérdida de calidad e intercambiar la información, a través de Internet, entre un número ilimitado de usuarios: todo ello está a la base de la revolución que ha experimentado nuestra sociedad en los últimos treinta años.
Ciencias de la naturaleza
Más allá de la importancia obvia que el concepto de información tiene en el ámbito de la informática y las ciencias de la computación, fue el desarrollo de la biología el que nos hizo comprender la relevancia del mismo para la naturaleza. Los avances en genética y biología molecular permitieron interpretar el fenómeno de la evolución (el más fundamental de la biología) en términos de información. La elucidación de la estructura de la molécula de ADN por Watson y Crick explicó el mecanismo por el cual la información genética hereditaria está codificada en una secuencia de cuatro moléculas diferentes (adenina, timina, citosina y guanina) y puede transmitirse de padres a hijos con sólo pequeños cambios graduales o mutaciones que, junto con el mecanismo de la selección natural de Darwin y Wallace por la presión del entorno, dan lugar al complejo proceso de la evolución. Bajo esta perspectiva, la evolución se nos muestra como un fenómeno destinado a preservar la información bioquímica almacenada en los genes, cuya durabilidad emerge como la propiedad más genuina de la vida. En el marco de lo que se ha llamado «equivalencia bioinformacional», todo proceso biológico es concebido como una transferencia, almacenamiento o procesamiento de información y, en palabras de Charles Seife de la Universidad de Nueva York, los seres vivos son reinterpretados como «máquinas para el procesamiento de la información» [5].
La teoría de la información nos permite asimismo reinterpretar la termodinámica, esto es, la rama de la física que trata de los intercambios de energía en forma de trabajo o calor, fundamentándonos en la analogía entre la ecuación de Shannon para cuantificar la información (ecuación 1) y la desarrollada años antes por el físico Ludwig Boltzmann para la entropía de un sistema físico, una magnitud fundamental en el ámbito de la termodinámica. Fue de hecho el propio Shannon el que relató cómo a la hora de dar un nombre a su función matemática para cuantificar la incertidumbre promedio asociada a una fuente de información, consideró en un principio llamarla información y, más tarde, dado al extendido uso de esa palabra, pensó en llamarla incertidumbre, cuando fue el matemático John von Newmann el que le dijo: «Deberías llamarla entropía, por dos razones. En primer lugar tu función de incertidumbre ya ha sido usada con ese nombre en mecánica estadística, por lo que ya tiene un nombre. Y, en segundo lugar, y más importante, nadie sabe realmente lo que es la entropía, de modo que en un debate siempre llevarás ventaja». La entropía es una magnitud termodinámica macroscopica que, en la interpretación de Boltzmann, está relacionada con el grado de desorden de un sistema. Esta interpretación permitió comprender la segunda ley de la termodinámica -la que dice que todo sistema aislado tiende espontáneamente hacia un aumento de entropía- como una expresión de la inclinación natural de los sistemas hacia estados desordenados, por ser estos los más probables estadísticamente. Así, después de barajar unas cartas que estaban ordenadas por palos y números, lo más probable es que las cartas queden desordenadas pues, mientras que son muchas las disposiciones de cartas desordenadas, es sólo una la que corresponde a la secuencia ordenada original y, por tanto, la probabilidad de obtener dicha ordenación es muy baja. Boltzamnn llegó a formular las siguiente ecuación para la entropía de un sistema físico:
S=k·logW (ecuación 2)
en la que puede apreciarse la analogía con la ecuación de Shannon para la cuantificar la información (ecuación 1). Aunque, en un principio, la relación entre las fórmulas de Shannon y Boltzmann fue interpretada como una coincidencia formal, han ido acumulándose los argumentos que actualmente llevan a muchos físicos a interpretar la entropía termodinámica como una aplicación de la entropía de Shannon; de esta forma, se admite que puede establecerse, en determinados contextos, una correlación negativa entre la entropía y la información del sistema o, dicho de otro modo, que la entropía termodinámica puede entenderse como “información perdida”. De acuerdo con esto, cuando se afirma que un gas tiene una entropía mayor que un sólido debe interpretarse, según Boltzmann, que un gas es un estado más desordenado a nivel microscópico, pues las partículas en estado gaseoso están en un estado de movimiento caótico y desordenado en relación a su situación en un sólido en el que ocupan unas posiciones fijas. En la interpretación teorético-informacional de Shannon, debemos entender que al pasar del estado sólido al gaseoso, la entropía aumenta por la pérdida de información relativa a las posiciones de las partículas y su velocidad. Asimismo, la segunda ley de la termodinámica cabe interpretarse como la tendencia natural de los sistemas aislados a evolucionar hasta un estado de máxima información, en el cual ya no pueden contener más información [6]. En definitiva, se llega a admitir una tendencia universal de la información a filtrarse hacia el entorno y dispersarse: la realidad se concibe pues como un imparable flujo de datos.
También ha sido llevado al ámbito de la llamada física moderna el enfoque de la información. Por una parte, la teoría de la relatividad de Albert Einstein puede concebirse como una teoría que versa acerca de la velocidad máxima (la de la luz) a la que puede intercambiarse información entre dos sistemas físicos, enfoque que permite hacer frente de manera exitosa a las diversas paradojas que cabe plantear a la teoría, como la del corredor que entra en un granero con un lanza y que Charles Seife explica de manera impecable en su libro «Descodificando el Universo» [5]. Por otra parte, en el campo de la física cuántica, va progresivamente ganando adeptos la que viene siendo conocida como “interpretación de la información cuántica”, según la cual las paradojas y dificultades conceptuales de la teoría cuántica pueden abordarse desde la perspectiva acerca de lo que está permitido y no en relación a la información, tal y como defiende Philip Ball en su reciente libro “Cuántica. Qué significa la teoría de la ciencia más extraña” [7]. Según esta pragmática interpretación (que puede considerarse heredera de la interpretación ortodoxa o de Copenhague) cada estado cuántico se representa por una función matemática que contiene la máxima información posible sobre un sistema, admitiéndose que el estado de un sistema depende de la información que sobre él tenga un observador. Asimismo, el fenómeno del entrelazamiento cuántico se interpreta en términos de la capacidad de compartir información entre partículas muy alejadas entre sí. Más allá de esto, los sistemas cuánticos poseen unas características especiales que dan pie al desarrollo de toda una teoría cuántica de la información de la que la teoría clásica de Shannon vendría a ser un caso particular en el límite macroscópico. Así, mientras que un bit clásico sólo puede adoptar dos valores posibles -el uno o el cero- un sistema cuántico puede adoptar una superposición de los dos: es lo que se ha llamado bit cuántico o qubit. El desarrollo de la computación cuántica es una de las áreas más activas de investigación, dando lugar a la construcción de los primeros ordenadores cuánticos, cuya capacidad para tareas como factorizar números es enormemente superior a la de los ordenadores clásicos, una aplicación con gran repercusión en lo que se refiere a la seguridad de nuestras transacciones digitales. Adicionalmente, la teoría cuántica de la información está encontrando su aplicación en el desarrollo de sistemas de codificación seguros -la criptografía cuántica- que ya han sido implementados con éxito; por ejemplo, en 2007 se utilizó un sistema criptográfico cuántico durante las elecciones nacionales suizas para comunicar el resultado sobre el recuento de votos de manera segura.
Ciencias sociales
Además de su aplicación en el campo de las ciencias naturales, la noción de información también está resultando fundamental en el ámbito de las llamadas ciencias humanas o sociales, bajo la idea general de que la realidad no es sino un continuo flujo de datos y que la emergencia de las diferentes estructuras sociales pueden explicarse como resultado de la tendencia hacia una mayor eficiencia en el procesamiento de la información. Pongamos, por ejemplo, la célebre hipótesis de Francis Fukuyama acerca de la democracia liberal y el mercado libre como supuesto “final de la historia”. ¿Cómo puede interpretarse bajo el paradigma de la información el éxito del capitalismo y la democracia? En primer lugar, en cuanto a la economía se refiere, cada vez más los expertos conciben un sistema económico como un mecanismo para el procesamiento de la información y la consiguiente toma de decisiones. Bajo esta perspectiva, puede explicarse que el sistema capitalista -con la autorregulación de su producción y sus precios por la ley de la oferta y la demanda- resulte mucho más eficiente que el sistema comunista. A título de ejemplo, Yuval Noah Harari [8] menciona el relato de como, en su visita a Londres, uno de los principales ayudantes de Mijaíl Gorbachov quedó impresionado por la forma de gestionar el suministro de pan a la ciudad y, al preguntar cuál era el secreto, recibió la respuesta de que en Londres no había nadie encargado de tal suministro. Mientras las mejores mentes se afanaban en Moscú trabajando en el sistema de suministro de pan, no podían evitar la formación de larguísimas colas en las panaderías y tiendas de alimentos. A diferencia del procesamiento de información centralizada del sistema comunista, en el libre mercado el procesamiento de información es distributivo, de manera que la tarea de analizar los datos y tomar decisiones se reparte entre muchos procesadores independientes pero interconectados. Es el libre flujo de información entre productores, consumidores, agricultores, panaderos, transportistas, etc, el que acaba regulando el suministro de pan y su precio de la manera más eficiente posible, corrigiendo el propio mercado los posibles desajustes. La insuficiencia de los gobiernos comunistas a la hora de gestionar, como procesadores únicos y centralizados de información, los continuos cambios acaecidos al final del siglo XX, acabó provocando su hundimiento.
Por otra parte, en cuanto a la política se refiere, también las diferentes estructuras pueden interpretarse como sistemas de procesamiento de datos. Mientras que regímenes como la dictadura o la aristocracia constituyen sistemas de procesamiento centralizado, la democracia sería más bien un sistema de procesamiento distributivo. Ahora bien, si es verdad que en el pasado pudieron constituir cierta ventaja los sistemas políticos centralizados (lo que justifica el predominio del absolutismo político y de los grandes imperios) el vertiginoso ritmo de cambio a finales del siglo XX ha impulsado el éxito cada vez mayor de las democracias, no porque representen un sistema más justo, sino porque resultan más eficientes a la hora de procesar la información y gestionar la convivencia de una sociedad.
En el ámbito de los estudios sobre la cultura, el concepto de información aparece en la corriente de la denominada memética que aventura un gran potencial para importantes y prometedores análisis de la cultura en términos análogos a los de la biología. En su libro “El gen egoísta” [9], el etólogo Richard Dawkins hace uso del término meme para referirse a una unidad de información cultural (una idea, creencia, pauta de comportamiento, etc). Dawkins analiza el proceso de evolución biológica no desde el punto de vista darwinista del individuo sino desde la perspectiva del gen como unidad de información biológica; los individuos serían sólo “máquinas de supervivencia” diseñadas para la conservación y replicación de la información que portan en sus genes. De manera similar, se defiende que la evolución cultural puede entenderse en términos de la tendencia a la conservación y replicación de los memes, en tanto que unidades de información cultural. Todo meme vendría a ser una suerte de parásito mental que se hospeda en la mente de uno o varios individuos y que procura expandirse de manera similar a como lo hacen los virus a costa del organismo que infectan. La cultura que consigue imponerse es aquella que alcanza el éxito en la replicación de sus memes, volviendo aquí a la máxima de la tendencia universal de la información a fluir y difundirse.
La propia historia puede contemplarse un proceso en el que la humanidad avanza en el sentido de incrementar la eficiencia en el procesamiento de la información, pasando de una etapa en el que las personas viven aisladamente a una cada vez mayor confluencia en núcleos de población -cada vez más grandes- hasta la actual sociedad globalizada o aldea global. Esta visión daría cuenta de las cuatro grandes fases de la historia de la humanidad contempladas por Yuval Noah en su libro “Sapiens. De animales a dioses”[10]. La primera de ellas corresponde a la “revolución cognitiva” iniciada hace 70.000 años y que supuso un espectacular incremento en las capacidades cognitivas del homo sapiens, lo que le posibilitó transmitir mayores cantidades de información sobre el entorno, las relaciones sociales e incluso entidades abstractas como espíritus o dioses que permitieron extender la interconexión a grupos numerosos de individuos. Esta mejora en el procesamiento de la información permitió al hombre extenderse por todo el planeta creando una variedad inconexa de culturas humanas. Durante la “revolución agrícola” iniciada hace unos 10.000 años, el desarrollo de la agricultura permitió incrementar el crecimiento demográfico al tiempo que crear asentamientos de población en los que se producía la convergencia de personas, ideas, etc. La creación de grandes ciudades, imperios y rutas comerciales globales que incrementaron la interconectividad entre los humanos no fue posible, sin embargo, hasta la invención de la escritura y el dinero hace unos 5.000 años, periodo que también vio nacer las grandes religiones universales. Finalmente, durante la “revolución científica” iniciada hace unos 500 años, los descubrimientos de los grandes conquistadores (con Colón a la cabeza), unidos al potente desarrollo de la ciencia, el mercado libre y el imperio de la ley, han permitido que la información circulara de manera cada vez más eficiente y universal hasta llevarnos a nuestra sociedad actual, para la que el filósofo canadiense Marshall McLuhan acuña el término “aldea global”, designando así al fenómeno de interrelación de los habitantes del planeta que los integra en una única y global comunidad. Nuevamente, todo este proceso de estructuración puede verse como reflejo de la tendencia inevitable hacia la expansión universal de la información como reza la segunda ley de la termodinámica bajo la interpretación de Boltzmann y Shannon.
En sociología, basta considerar el término “sociedad de la información” para percatarse de la importancia que se atribuye al concepto de información a la hora de interpretar los profundos cambios económicos, sociales y culturales que caracterizan a nuestra época y que van más allá de las profundas innovaciones tecnologícas. Las sociedades son percibidas como auténticas redes de individuos correlacionados en las que los continuos cambios -bajo la perspectiva de la información- se conciben de manera análoga a las transiciones de fase en física, como explica Vlatko Vedral en su libro Descodificando la realidad [6], dando explicación a fenómenos como la propagación de enfermedades, la segregación en clases sociales o la irrefrenable tendencia a la globalización, esto es, la creciente conexión entre distintas sociedades; pues son aquellas sociedades mejor interconectadas las más preparadas a la hora de afrontar nuevos retos y resolver sus necesidades. En este sentido la relevancia de Internet es difícilmente ponderable.
Una nueva ideología
De nuevo y prometedor paradigma científico, la idea de que toda la realidad es flujo de información se está extendiendo como una verdadera ideología (o, si se prefiere, como una nueva religión) en la que el valor de cada cosa y cada acontecimiento se mide por su eficacia para el procesamiento de datos y su contribución al flujo universal de información. Esta forma de pensar -a la que se ha dado el nombre de dataísmo [8]- no se limita a una élite de pensadores en la frontera de la ciencia, sino que afecta cada vez más a nuestra vida cotidiana y se refleja en la compulsión por fotografiar cada momento de la misma (por trivial que sea), subirlo desde el móvil a las redes sociales y viralizarlo, contribuyendo así a la máxima que dicta la tendencia de la información a filtrarse hacia el entorno y difundirse a un ritmo acelerado.
Ahora bien, deberíamos tener en cuenta varias consideraciones críticas. En primer lugar, puede que la tendencia al flujo de información se esté revelando como direccionalidad de la historia, sin embargo, no debemos confundir evolución con progreso. El término evolución se refiere al cambio que es un resultado del azar y la necesidad, mientras que el progreso significa un avance o cambio hacia mejor (lo cual implica ya no sólo un juicio de hecho sino todo un juicio de valor). De esta forma, puede que el capitalismo sea el sistema más eficiente para el procesamiento de datos pero, si éste se abandona a su curso tenderá a evolucionar para maximizar la eficiencia del mercado pero no, desde luego, para hacer frente al cada vez más grave problema de la desigualdad y la pobreza. Por otra parte, la sacralizada libertad de información tampoco debe confundirse con la libertad de expresión pues, mientras que esta última es un derecho de los individuos, la primera es otorgada a la información en sí, incluso si atenta contra la privacidad y el derecho a la intimidad de las personas. Finalmente, la experiencia del pasado debería hacernos sospechar de ideologías que han apelado a una base científica para justificar un desarrollo inevitable de la historia, abocándonos a un modelo de sociedad cerrada y totalitaria que degenera en la barbarie.
Para concluir, considérese que aún a pesar de la importancia que está tomando en todas las ramas de la ciencia, la teoría de la información dista mucho de ser una teoría completa y presenta graves carencias, como el hecho de la falta de un uso unificado y preciso para el propio concepto de información, el cual es empleado en muchos casos sólo como una aproximación metafórica. Podemos pensar, asimismo, que más que revelar una realidad esencial, la notoriedad presente de la idea de información sea sólo un reflejo metafórico del desarrollo tecnológico actual. Ya en la antigua Grecia, los pitagóricos construyeron toda una cosmovisión sustentada en los instrumentos musicales, la visión mecanicista y determinista del siglo XVII se inspiraba en el mecanismo de reloj y, durante la revolución industrial, la máquina de vapor se convirtió en una imagen para el universo. ¿No será el nuevo paradigma la última metáfora basada en el vigente predominio del ordenador?
Leer más en HomoNoSapiens| Entendiendo la Inteligencia Artificial Tecnociencias e innovaciones: desafíos filosóficos, Monográfico Revolución y Utopía: El fin de la utopía digital
NOTAS
[1] Richard P. Feynman, «Seis piezas fáciles. La física explicada por un genio», Ed. Crítica 2002, Capítulo 1 «Átomos en movimiento» p 31-53.
[2] Jérome Segal, «Hacia una teoría universal», Investigación y Ciencia nº 441, Junio 2013, p42-48.
[3] Hoy día, estamos familiarizados con los múltiplos del byte como forma de cuantificar la cantidad de información que pueden almacenar nuestros dispositivos de memoria digital: un CD tiene una capacidad media de 700 Megabytes (un megabytes equivale a 1024 kilobytes y, a su vez, un kilobytes equivale a 1024 bytes), un DVD puede almacenar 4,5 Gigabytes (un gigabytes equivale a 1024 kilobytes), un disco duro portátil al uso suele tener uno o varios Terabytes (un terabytes equivale a 1024 gigabytes).
[4] Utilizando un bit por píxel sólo podremos representar dos valores, blanco o negro, pero si elegimos 3 bytes por píxel tendremos más de 16 millones (2 elevado a 24) de colores diferentes.
[5] Charles Seife, «Descodificando el Universo: como la nueva ciencia de la información nos explica todo el cosmos, desde nuestro cerebro hasta los agujeros negros», Ed. Ellaigo, 2009.
[6] Vlatko Vedral, «Descodificando la realidad. El universo como información cuántica», Ediciones de Intervención Cultural/Biblioteca Buridan, 2010.
[7] Phillip Ball, «Cuántica. Qué significa la teoría de la ciencia más extraña», Ed. Turner, 2018.
[8] Yuval Noah Harari, «Homo Deus», Ed. Debate, 2016.
[9] Richard Dawkins, «El gen egoísta», Ed. Oxford University Press, 1976.
[10] Yuval Noah Harari, «Sapiens. De animales a dioses», Ed. Debate, 2014.