Uróboros: la serpiente que se devora a sí misma

Manuel Alfonseca, {Manuel.Alfonseca@ii.uam.es}

En la primera mitad del siglo XIV, el filósofo inglés Guillermo de Occam (1280-1349) formuló el principio de la parsimonia, llamado también, en su honor, la navaja de Occam. Este principio se ha enunciado de muchas maneras. Una de las más conocidas dice así:

Entre dos explicaciones diferentes del mismo fenómeno, preferiremos la que recurre a menos entidades, pues es más probable que sea la verdadera.

Hoy, la Ciencia moderna reconoce en el principio de la parsimonia una de sus herramientas fundamentales, cuya aplicación le ha proporcionado grandes triunfos. Aunque Occam fue el primero en formularlo explícitamente, su principio no era nuevo: desde la más remota antigüedad, el hombre se ha sentido atraído por el convencimiento de que, en el fondo, la naturaleza tiene que ser sencilla.

Es verdad que la variedad del universo es enorme, pero no es difícil darse cuenta de que muchos objetos pueden descomponerse en partes más simples. Tan pronto despertó el interés científico por el mundo, se alcanzó la conclusión inevitable de que todos los cuerpos materiales deberían estar formados por mezcla o combinación de unos pocos elementos. Cuando esta tendencia se llevó hasta el extremo, surgieron las corrientes filosóficas monista y dualista. La primera (cuyo nombre deriva de la palabra griega monos, uno) reduce todo lo que existe a una componente única; la segunda (de duo, dos), a la mezcla de dos componentes antagónicas.

Los cuatro elementos de Empédocles de Agrigento

La Ciencia, que hasta hace pocos siglos se confundía con la Filosofía, se vio arrastrada a estas concepciones. Hacia el año 450 antes de Cristo, el filósofo griego Empédocles de Agrigento afirmó que todos los objetos materiales están formados por la mezcla en distintas proporciones de cuatro sustancias elementales: tierra, agua, aire y fuego. Las tres primeras representan los estados físicos más conocidos de la materia: sólido, líquido y gaseoso; el fuego puede considerarse la representación de la energía.

Estos elementos aparecerían en estado puro en unos pocos objetos, pero se combinan en diversas proporciones para formar todos los demás. Se suponía que el cuerpo humano estaba constituido predominantemente por el elemento tierra (la carne y los huesos), pero también por agua (la sangre y los demás humores), aire (que adquirimos al inspirar y perdemos en la expiración y la transpiración) y fuego (que desprendemos en forma de calor).

Hacia el año 400 antes de Cristo, el filósofo griego Demócrito de Abdera pensó que la materia no puede dividirse indefinidamente: más pronto o más tarde se reduce a partículas que Demócrito llamó átomos, que en griego significa indivisibles. Según su teoría, habría tantas clases de partículas diferentes como de elementos. Sin embargo, las opiniones de Demócrito se adelantaron dos mil años a su época, no fueron aceptadas por sus contemporáneos y durante mucho tiempo cayeron en el olvido. Sus escritos se han perdido: de sus setenta y dos obras, tan sólo se conservan algunos fragmentos. Lo que sabemos de sus teorías ha llegado hasta nosotros a través de otros autores.

Medio siglo después de Demócrito, Aristóteles (384-322 a. de J.C.) añadió un quinto elemento a los cuatro de Empédocles: el éter, constituyente básico del cielo y de los cuerpos celestes. Con este añadido, la teoría de los elementos alcanzó su forma definitiva y se mantuvo básicamente inalterada durante casi dos milenios.

Aunque los cuatro elementos fundamentales podían mezclarse en proporciones variables en un mismo cuerpo, cada uno predomina especialmente en una región determinada del universo. En el centro (tal como entonces lo concebían) se acumula el elemento más pesado, la tierra, sobre la que se extiende la delgada capa líquida de las aguas dulces y marinas. A continuación viene la esfera del aire, la atmósfera, y por último la del elemento más ligero, el fuego. El límite de los cuatro elementos materiales venía fijado por la órbita de la luna. A partir de ese punto comenzaba el mundo de los astros, al que correspondía el éter.

Los elementos en la Alquimia islámico-medieval

La Alquimia, ciencia madre de la Química moderna, nació en Oriente próximo hace miles de años. Su origen está envuelto en la leyenda: su invención se atribuye al dios egipcio Thot o, en versión griega, Hermes (el Mercurio romano), a quien se aplica en los textos alquímicos [1] el apelativo de Trismegistos, el tres veces grande.

La Alquimia gozó de gran auge durante los últimos siglos del imperio romano de Occidente. A la caída de éste, la mayor parte de los textos se perdieron, aunque la joven civilización islámica heredó muchos de los conocimientos atesorados en las grandes bibliotecas de Oriente y se apoyó en ellos para desarrollar su ciencia y su filosofía. De esta forma apareció una escuela alquímica árabe [2], que dio a esta ciencia su nombre: al-kimiya, que quizá descienda del egipcio kˆme (tierra negra).

La influencia árabe ha quedado grabada de forma perdurable en numerosos términos químicos que aún utilizamos: alcohol, álcali, bórax, elixir... Estos nombres, así como otros conocimientos alquímicos, llegaron a Occidente a través de España, junto con los textos de Aristóteles, hacia finales del siglo XII.

La gran obra alquímica

La Alquimia medieval islámica y occidental mantuvo la idea de cuatro elementos fundamentales, pero representó lo sólido por la sal; lo líquido por el mercurio; y lo gaseoso por el azufre, sustancia muy combustible que al arder se transforma en un gas. El fuego continuó siendo la representación tangible de la energía.

Si todos los cuerpos son mezclas de los cuatro elementos en distintas proporciones, razonaban los alquimistas, debería ser posible en principio variar estas proporciones mediante acciones alquímicas, hasta obtener cualquier sustancia. En particular, dedicaron grandes esfuerzos a tratar de transformar el plomo en oro, para lo cuál juzgaban que era preciso aumentar la proporción del elemento fuego en el primero de estos metales.

El taller del alquimista difería bastante del laboratorio químico moderno. Su instrumento fundamental era el horno (atanor), donde se sometían a cocción los preparados durante largos períodos de tiempo. También se utilizaban el crisol y la retorta, hoy prácticamente abandonados, y el fuelle, que servía para dirigir la llama. En los escritos alquímicos, cada ingrediente tenía su símbolo. La mayor parte de ellos han caído en desuso, pero algunos, como los dos que representaban lo masculino y lo femenino (así como los planetas Marte y Venus, y los metales hierro y cobre), mantienen su vigencia en otras ciencias.

La obtención de oro no era la meta fundamental de la Alquimia medieval. El alquimista tenía objetivos más importantes que el mundano y materialista de enriquecerse. La piedra filosofal [3], capaz de convertir el plomo en oro, era al mismo tiempo el elixir de la eterna juventud, la panacea que curaba todas las enfermedades y el disolvente universal. Se trataba, en realidad, de un quinto elemento (quintaesencia), capaz de producir alteraciones fundamentales en los otros cuatro por su solo contacto.

Muchos alquimistas dedicaron largos años a intentar conseguir la piedra filosofal. Las obras que escribían están escritas en lenguaje hermético y llenas de símbolos misteriosos, sólo comprensibles para los iniciados [4] [5] [6]. El dragón, por ejemplo, representaba la materia en estado primitivo, caótico. El águila es el espíritu o vapor que se eleva. El cuervo representa el color adquirido por la mezcla tras la primera fase de la operación alquímica.

Uno de estos símbolos, muy antiguo, pues se remonta a la civilización egipcia, es una serpiente o dragón que adopta una disposición circular, con la cola introducida en la boca, para indicar que continuamente se devora a sí misma y renace de sí misma. Se llama por ello Uróboros (del griego oyrá, cola, borá, alimento), y representa la unidad de todas las cosas materiales y espirituales, que no desaparecen nunca, sino que cambian de aspecto en un ciclo perpetuo de destrucción y creación.

Pero la tarea fundamental de la obra alquímica, al menos para algunos iniciados, era la transformación del alquimista. Las operaciones con retortas, crisoles y alambiques no eran otra cosa que un método ascético largo y difícil, que llevaría poco a poco al adepto hasta las alturas de la unión mística con la divinidad.

Aunque la introducción de elementos místicos llevó al descrédito de la Alquimia como ciencia experimental, los avances obtenidos por los alquimistas forman una lista impresionante: ellos descubrieron los ácidos nítrico, sulfúrico y clorhídrico, el agua regia, el antimonio, el fósforo, la pólvora y muchas sustancias más.

El concepto de elemento en la Química moderna

El siglo XVIII fue testigo del nacimiento de la moderna ciencia de la Química. El progreso de la técnica puso a disposición de los investigadores herramientas cada vez más potentes, que les permitieron descomponer muchas sustancias en otras más sencillas. Se descubrió así que los tres elementos materiales de los griegos (la tierra, el agua y el aire), así como la sal de los alquimistas, eran cuerpos compuestos. El azufre y el mercurio, sin embargo, junto con los restantes metales conocidos, no pudieron descomponerse.

Se impuso entonces un nuevo concepto de elemento: toda sustancia cuya descomposición sea imposible por medios químicos. Pronto se comprobó que su número era bastante mayor que los cuatro de los griegos. En 1750, se conocían quince: los siete metales conocidos desde la antigüedad (oro, plata, cobre, hierro, estaño, plomo y mercurio) y otros tres descubiertos recientemente (cobalto, platino y zinc). Los cinco elementos restantes eran el azufre, carbono, arsénico, antimonio y fósforo. Los dos primeros se conocían de antiguo en estado puro, los otros tres fueron descubiertos por los alquimistas antes del año 1700.

El nuevo concepto de elemento químico trajo como consecuencia el abandono de la gran obra alquímica. En efecto, si tanto el plomo como el oro eran cuerpos simples, sería imposible convertir uno en el otro. Los elementos habían de ser, por definición, intransmutables.

Durante la segunda mitad del siglo XVIII, el número de elementos químicos conocidos se duplicó, alcanzando en 1800 la cifra de treinta y uno. El éxito más señalado de este período fue la descomposición del agua y del aire. Después de varios intentos en falso, se reconoció que la primera está constituida por la combinación de dos gases elementales: el hidrógeno y el oxígeno. El aire resultó ser una mezcla formada principalmente por oxígeno y otro cuerpo simple: el nitrógeno. Con ello, los cuatro elementos de la antigüedad desaparecieron del catálogo de los elementos químicos conocidos, que siguió aumentando hasta sobrepasar, en nuestros días, el número de un centenar.

La resurrección de la teoría atómica

En 1803, el científico inglés John Dalton (1766-1844) razonó de la siguiente manera [7]: si la materia fuese continua, no habría ninguna razón para que dos elementos no puedan unirse en proporciones arbitrarias. Sin embargo, esto no ocurre: unos elementos reaccionan con otros en proporciones fijas y determinadas. Si existiesen los átomos de Demócrito, es posible que cada elemento químico posea átomos iguales entre sí, pero diferentes de los de otros elementos. Un átomo de un elemento podría unirse con uno, dos o tres de otro elemento, pero no en proporciones arbitrarias.

Para Dalton, los átomos de un elemento químico son esferas macizas y homogéneas que se combinan para formar moléculas, palabra latina que significa masa muy pequeña. Hay tantas clases diferentes de átomos como de elementos, cada uno de los cuales tiene su propia masa atómica. Dalton representaba los átomos de los elementos químicos mediante círculos, dentro de los cuales escribía algún símbolo diferencial: un punto para el hidrógeno, un interior oscuro para el carbono, una letra inicial para la mayor parte de los restantes. Las moléculas de los compuestos químicos las representaba colocando, unos al lado de otros, los símbolos de los átomos. Más tarde, Berzelius suprimió los círculos, dando origen a la representación simbólica actual, que utiliza una o dos letras.

En 1828, un discípulo de Berzelius, Friedrich W”hler, conseguió sintetizar la urea a partir de sustancias inorgánicas, demostrando que la materia que forma parte de los seres vivos puede obtenerse fuera de éstos, lo que dio lugar a la aparición de una nueva ciencia: la Química Orgánica. Poco después, Friedrich August Kekulé demostró que el átomo de carbono tiene cuatro enlaces que le permiten unirse con otros átomos, como el hidrógeno, el oxígeno, el nitrógeno, o el propio carbono. Gracias a esto, el carbono puede formar cadenas muy largas, y existe un número incalculable de especies químicas orgánicas diferentes basadas en él, muchas más que las especies inorgánicas, a pesar de que éstas se basan en casi un centenar de elementos.

Pero había una sustancia orgánica muy importante, el benceno, que no se adaptaba a las teorías de Kekulé. Se sabía que el benceno está compuesto por seis átomos de hidrógeno y seis de carbono, pero no había manera de explicar esa composición por medio de cadenas longitudinales, como las de los restantes hidrocarburos. Por fin, una noche de 1865, Kekulé soñó que los seis átomos de carbono formaban la figura de una serpiente que se muerde la cola, y al despertar comprendió que la molécula del benceno tiene forma de anillo. De este modo tan curioso, el viejo símbolo alquímico de Uróboros volvió a tener influencia sobre la Química moderna.

La división del indivisible

A principios del siglo XX, el número de elementos químicos diferentes había proliferado tanto, que los científicos se sentían incómodos. El hombre tiene la sensación de que la base fundamental del universo, si pudiéramos llegar a ella, tiene que ser muy simple. Todo el edificio debería estar montado sobre unos pocos sillares. Los cuatro o cinco elementos de la antigüedad eran un buen intento, pero desgraciadamente había resultado fallido. En su lugar, había ahora un centenar de elementos diferentes. Eran demasiados, incluso después de que Dimitri Ivanovich Mendeleiev (1834-1907) propusiera una forma muy elegante de ordenarlos: el sistema periódico.

Por esa misma época comenzaba a ponerse en duda la indivisibilidad del átomo. Los avances de la Física habían llevado a descubrir partículas más pequeñas que los átomos, que aunque parecían formar parte de éstos, podían desprenderse espontáneamente o mediante dispositivos adecuados. Pronto se vio que la estructura de todos los elementos podía explicarse en función de sólo tres partículas elementales: el electrón, el protón y el neutrón.

Parecía, por consiguiente, que el problema quedaba resuelto. Había tantos tipos de átomos diferentes, porque no eran realmente elementales. Los verdaderos bloques básicos del universo, las partículas elementales, eran, en cambio, muy pocas.

Sin embargo, entre los años treinta y sesenta, a medida que aumentaba la potencia de los instrumentos (aceleradores de partículas), la historia se repitió [8]. El número de partículas elementales descubiertas comenzó a crecer de forma desmesurada: positrón, neutrinos, muones, mesones de diversos tipos... Los bloques básicos del universo volvían a ser demasiados. Se hacía necesaria una nueva reducción, un nuevo cambio de nivel.

La eterna búsqueda de los fundamentos de la materia

Hacia 1962, Murray Gell-Mann (premio Nobel de Física 1969) propuso que seis partículas, llamadas leptones (el electrón, el muón negativo, la partícula tau y los tres neutrinos), junto con sus antipartículas correspondientes, son realmente elementales, pero todas las demás están formadas por la unión de unos pocos bloques aún más básicos, a los que dio el nombre de quarks, término acuñado por James Joyce [9]. Su teoría se ha confirmado espectacularmente en los últimos años. Hoy se conocen seis tipos diferentes de quarks, que reciben los nombres arbitrarios de up, down, strange, charm, top y bottom (arriba, abajo, extraño, encanto, cima y fondo). De nuevo disponemos de un número reducido de bloques básicos (doce) ordenados en dos tipos y tres familias:

------------------------------------------------------------------------
|            |           LEPTONES              |        QUARKS         |
|------------|---------------------------------|-----------------------|
|FAMILIA I   | electrón |neutrino del electrón |  arriba   |  abajo    |
|------------|----------|----------------------|-----------|-----------|
|FAMILIA II  | muón     |neutrino del muón     |  extraño  |  encanto  |
|------------|----------|----------------------|-----------|-----------|
|FAMILIA III | tau      |neutrino del tau      |  cima     |  fondo    |
|----------------------------------------------------------------------|

¿Volverá a repetirse la historia? ¿Asistiremos a una proliferación imparable de leptones y de quarks, como ya sufrimos la proliferación de átomos y de partículas elementales? ¿Será preciso buscar un cuarto nivel, aún más profundo, de bloques fundamentales de la materia?

En todo esto se oculta un problema de fondo que no se va a resolver con el descubrimiento de posibles niveles aún más profundos. Dicho problema puede expresarse así: cada nivel explica lo que ocurre en el nivel inmediatamente superior, pero no explica los sucesos que ocurren en su propio nivel, simplemente los describe, y para conseguir esa explicación, se precisa de un nivel inferior al suyo.

Así, la física atómica explica los fenómenos químicos, pero no la existencia del átomo, sólo la describe. A este nivel detectamos que la masa del átomo de carbono es unas doce veces mayor que la del átomo de hidrógeno, pero no sabemos por qué.

En el nivel siguiente, la física nuclear explica el comportamiento de los átomos, pero se limita a describir las partículas elementales. Sabemos que éstas tienen ciertas propiedades, pero no por qué las tienen. Por ejemplo: un núcleo de carbono contiene seis protones y seis neutrones, mientras que el de hidrógeno sólo tiene un protón. Esto explica por qué la masa del primero es doce veces mayor que la del segundo. En cambio, a este nivel no podemos explicar por qué el protón tiene carga eléctrica positiva y el neutrón no la tiene, sólo podemos constatarlo.

Para explicar esto necesitamos pasar al nivel siguiente, la teoría de los quarks, que nos dice que un protón está formado por dos quarks arriba (cada uno con una carga eléctrica 2/3 la del protón) y un quark abajo (con carga eléctrica -1/3). Así, la carga total del protón resulta ser 2/3+2/3-1/3=1. El neutrón, en cambio, está formado por dos quarks abajo y uno arriba, por lo que su carga total es 2/3-1/3-1/3=0. En cambio, la teoría de los quarks no explica (sólo describe) por qué cada quark tiene la carga eléctrica que tiene. Dado que aún no disponemos de una teoría más profunda, aquí se acaba la historia, por el momento.

Cualquiera que sea la profundidad de nuestros conocimientos, siempre llegaremos a un nivel, provisionalmente el último, que explica lo que ocurre en todos los anteriores, pero no es explicado por ninguno, sólo puede describirse. Es cierto que la ciencia avanza, aunque no continuamente, pero quizá su carrera no tenga fin. Ante esta situación, algunos científicos han llegado a la conclusión de que el problema no tiene solución definitiva. El cosmos podría estar construido sobre un número infinito de niveles cada vez más profundos, con lo que la búsqueda de explicaciones no terminará nunca. Jamás llegaremos a saberlo todo sobre el mundo que nos rodea.

La incertidumbre cuántica

La cuestión puede ser aún más compleja de lo que parece a primera vista. Desde la década de 1920, una nueva teoría física ha revolucionado nuestra comprensión del universo, que resulta ser más asombroso y paradójico de lo que se creía.

La Mecánica cuántica [10] comenzó demostrando que las partículas elementales, además de ser bloques fundamentales de la materia, se comportan también como ondas. No se trata de una mera hipótesis, sino de una afirmación susceptible de demostración experimental, que tiene aplicaciones prácticas inmediatas, como el microscopio electrónico.

La segunda sorpresa la proporcionó el principio de incertidumbre de Heisenberg, que afirma que es imposible conocer con precisión absoluta todas las propiedades de una partícula, porque el mero hecho de afinar la medida de una, aumenta la incertidumbre sobre otra. Si detectamos con enorme exactitud la posición de un electrón, perdemos automáticamente precisión sobre su velocidad (lo que significa que no sabemos dónde estará el electrón un instante después). Así cayó por tierra la visión determinista del universo, que en expresión de Laplace dice: Si conociésemos con precisión arbitraria la posición y la velocidad de todas las partículas en el principio del universo, podríamos predecir su desarrollo futuro hasta el fin de los tiempos. El principio de incertidumbre nos asegura que el antecedente de esta proposición condicional es imposible. Por tanto, la evolución del universo es intrínsecamente impredecible.

En tercer lugar, la Mecánica Ondulatoria (formulación de Schr”dinger de la Mecánica Cuántica) nos obliga a abandonar definitivamente el determinismo, sustituyéndolo por una interpretación esencialmente probabilista de los fundamentos del universo. De acuerdo con esta teoría, no sólo es imposible conocer con precisión arbitraria la posición, la velocidad y otras propiedades de una partícula, sino que, antes de realizarse una medida, ninguna de esas propiedades tiene sentido, pudiendo hablarse únicamente de la probabilidad de que la partícula se encuentre en cierta posición o posea cierta velocidad o cierto espín (dirección de su momento magnético). Además, el concepto de probabilidad que se aplica es más riguroso que el que usualmente utilizan los estadísticos. No se trata de que, entre miles de electrones, el cincuenta por ciento tenga espín positivo y el otro cincuenta por ciento lo tenga negativo, sino que cada electrón individual tiene simultáneamente, en potencia, los dos valores, positivo y negativo, y no tomará uno de ellos definitivamente, con un cincuenta por ciento de probabilidad, hasta que un observador externo (un ser humano, por ejemplo), realice una medida para detectarlo. En ese momento, la situación de superposición de estados colapsa en uno de ellos con la probabilidad indicada.

Las consecuencias de la Mecánica Ondulatoria para la visión tradicional del mundo son devastadoras, pues provocan una interacción inesperada entre los niveles microscópico y macroscópico del universo que da lugar a paradojas extrañas, como la del gato de Schr”dinger, propuesta en 1935 por el autor de la Mecánica Ondulatoria [11]:

Supongamos que introducimos un gato en un recipiente perfectamente sellado y aislado de toda influencia externa. Dentro del recipiente se encuentra un átomo radiactivo que tiene un cincuenta por ciento de probabilidades de descomponerse, emitiendo una partícula radiactiva. Si lo hace, un detector atrapa la partícula emitida y provoca la ruptura de una cápsula de ácido cianhídrico, con lo que el gato morirá. Pero si el átomo no se descompone, el gato seguirá vivo. De acuerdo con la Mecánica Cuántica, el átomo radiactivo se encuentra simultáneamente en los dos estados hasta que algún observador externo provoque el colapso probabilístico en una u otra dirección, lo que significa que el gato estará simultáneamente vivo y muerto hasta que alguien abra el recipiente para mirar en su interior.

Incapaz de aceptar el abandono del determinismo, Albert Einstein expresó su escepticismo hacia la Mecánica Cuántica con la frase tantas veces citada: Dios no juega a los dados [12] y dedicó muchos esfuerzos a tratar de echarla abajo. Paradójicamente, sus intentos sólo sirvieron para consolidarla. El más ambicioso fue la paradoja EPR, llamada así por las iniciales de sus autores, Einstein-Podolsky-Rosen, que la publicaron en 1935. En una de sus formas, esta paradoja dice lo siguiente:

Supongamos que un acelerador lanza simultáneamente, en direcciones opuestas, dos partículas de espines magnéticos contrarios. De acuerdo con la Mecánica Cuántica, las dos partículas tienen simultáneamente una superposición de los dos estados posibles (espín positivo y negativo) con una probabilidad del cincuenta por ciento. En cualquier caso, sus espines serán opuestos. Mucho tiempo más tarde, cuando las dos partículas están separadas por distancias enormes, realizamos una medida sobre el espín de una de ellas y detectamos, por ejemplo, que es positivo. En ese mismo instante, quizá a años-luz de distancia, la superposición de estados de la partícula gemela debe colapsar al espín opuesto (negativo), aunque la información de que se ha realizado la medida no pueda llegar instantáneamente, ya que no puede transmitirse más deprisa que la velocidad de la luz. La realidad de la paradoja EPR fue comprobada experimentalmente por John Stewart Bell en 1964 [13].

Nos encontramos, por consiguiente, en una situación curiosa: la Mecánica Cuántica, que pretende explicar la estructura microscópica del universo, depende a su vez, para pasar de potencia a realidad, de la existencia de observadores macroscópicos. Tal vez, después de todo, no hace falta un número infinito de niveles para explicar el universo, sino sólo unos pocos, el último de los cuales se explicaría, a su vez, en función del primero. Quizá podríamos representar gráficamente esta situación mediante el antiguo símbolo alquímico de Uróboros, la serpiente que se devora a sí misma.

El tiempo irreversible

La ciencia griega alcanzó cotas inigualadas durante la segunda mitad del primer milenio antes de Cristo, pero también se introdujo en algunos callejones sin salida, que acabaron provocando su estancamiento. Un ejemplo fue su incapacidad de aceptar la existencia de magnitudes irracionales, lo que condujo a problemas irresolubles, como la cuadratura del círculo o la asignación de un valor racional al número pi, que tanto tiempo y esfuerzos desperdiciaron. Otro ejemplo fue la obsesión por la explicación geocéntrica del universo, que sumió en el olvido intentos como el de Aristarco de Samos (h.310-230 a.C.)

Estamos tan orgullosos de nuestros avances científicos, que en el siglo XVIII inventamos el mito del progreso indefinido. Los pensadores modernos hablan y actúan a menudo como si el desarrollo científico futuro tuviese que continuar indefectiblemente de forma imparable. La Historia, sin embargo, no garantiza ese resultado. El progreso científico se ha detenido más de una vez a lo largo del camino de las civilizaciones, y podría volver a hacerlo.

Algunos [14] piensan que ya estamos cerca de ese momento, porque pronto llegaremos a saberlo todo y no quedará nada por descubrir. Otras veces se ha cometido este mismo error, notoriamente a finales del siglo XIX, cuando la predicción del fin inminente de la Física fue espectacularmente desmontada por las dos revoluciones de principios del siglo XX: la Relatividad y la teoría cuántica. Pero la ciencia también podría detenerse porque se meta en uno o más callejones sin salida, como ocurrió con los griegos. Quizá estamos ya atascados, sin saberlo, en más de un problema científico.

Me parece que la ciencia actual está bloqueada en dos cuestiones que podrían convertirse, si no lo han hecho ya, en uno de estos callejones sin salida: la primera es la dificultad de los físicos para aceptar la irreversibilidad del tiempo; la segunda es la resistencia de los psicólogos y los biólogos a reconocer la realidad de la libertad humana, la voluntad libre. Los dos casos son semejantes, pues nuestra percepción y sensibilidad se enfrentan a las teorías científicas que, desde Newton y Freud, respectivamente, consideran esas percepciones como ilusiones subjetivas, carentes de realidad, y se empeñan en rechazarlas a pesar de la experiencia común contraria de toda la humanidad.

La ciencia experimental se basa en las percepciones humanas, directas o amplificadas por medio de instrumentos. Resulta contradictorio negar la realidad de algunas percepciones, considerándolas ilusorias, porque se oponen a las teorías. Se transgrede así uno de los principios fundamentales del método científico, que da a los experimentos (percepciones) prioridad sobre las teorías.

En Física, la mayor parte de las ecuaciones y teorías consideran el tiempo estrictamente reversible. Si sustituimos t por -t en esas ecuaciones (es decir, si invertimos la dirección del tiempo) no se observa ninguna diferencia cualitativa. Los físicos han tenido siempre la sensación de que no debería haber diferencia alguna entre el pasado y el futuro. Pero existe una excepción, una ley única, aunque muy importante, que estropea la limpieza de la reversibilidad del tiempo: el segundo principio de la Termodinámica.

Reconocido oficialmente desde mediados del siglo XIX, este principio ha venido a convertirse en algo así como la oveja negra de la familia, de cuya existencia muchos físicos se sienten, en el fondo, avergonzados. A veces se intenta paliar el problema afirmando que la diferencia aparente entre el pasado (que conocemos) y el futuro (que se nos aparece abierto y desconocido) puede ser un simple resultado de la introducción en las leyes físicas deterministas de componentes aleatorios y procesos sujetos a la Estadística.

Quizá nos hace falta un cambio radical de paradigma, que abandone la reversibilidad teórica del tiempo, implícita en las teorías de Newton y de Einstein, y realice un cambio tan revolucionario como en su día supuso la Relatividad respecto a la Mecánica clásica.

Determinismo, aleatoriedad y libertad

Pasemos ahora a la segunda cuestión, la voluntad libre. Los científicos materialistas consideran evidente que la libertad humana no existe; que estamos totalmente determinados por nuestros genes, o por el ambiente en que nos movemos y nos han educado, o por ambas cosas a la vez; que la sensación que tenemos de ser libres es un epifenómeno, una apariencia, una ilusión. Aunque las palabras han cambiado, no se trata de una postura nueva, pues se remonta a los orígenes de la humanidad: Todo está escrito. Somos esclavos del destino.

A esto se opone un consenso general de la humanidad que no se basa en teorías científicas ni en razonamientos cuidadosos, sino en nuestra propia percepción: nos sentimos dueños de nuestros actos y capaces de tomar decisiones basadas en la lógica y la ponderación de alternativas, más bien que determinadas por el juego de fuerzas ciegas sobre las que no tenemos control. Esto es palpable, de mil formas distintas, en el lenguaje corriente, que los mismos materialistas utilizan constantemente, contradiciendo en la práctica sus teorías. En palabras de Samuel Johnson: Señor, sabemos que nuestra voluntad es libre, y ahí se acaba la cuestión [15].

Para los que creemos que la vida no se acaba definitivamente con la muerte, la cuestión de la voluntad libre es crucial, pues de nuestras decisiones actuales dependerá nuestro porvenir. Cada vez que haces una elección, estás convirtiendo tu parte central, la que escoge, en algo un poco diferente de lo que era. Si consideras tu vida en conjunto, con todas sus innumerables elecciones, toda tu vida estás convirtiendo esta cosa central, bien en una criatura celestial que está en armonía con Dios, con las demás criaturas y consigo misma, bien en una que está en estado de guerra y odio contra Dios, con el prójimo y consigo misma. El cielo consiste en ser una clase de criatura... Ser la otra significa locura, horror, idiotez, rabia, impotencia y soledad eterna. Cada uno de nosotros progresa en este momento hacia uno o el otro estado [16].

Es cierto que nuestra libertad dista mucho de ser perfecta, que existen fuerzas que nos empujan, que tiran de nosotros, que nos mediatizan, pero también es verdad que, ante cualquier alternativa, por nimia que sea, estamos convencidos de que la última palabra es nuestra. Los materialistas suponen que, una vez descontadas todas las fuerzas que nos influyen, no queda nada; el consenso de la humanidad coincide en que nos queda al menos un residuo de libertad, sin el cual no tendrían sentido conceptos como culpa, moral, responsabilidad, justicia, y tantos otros que hacen posible la vida en sociedad.

Todo esto se remonta a la vieja disputa entre los filósofos dualistas (Platón, Aristóteles, Descartes, etc.), para quienes el hombre es un compuesto de cuerpo y alma, y la de los materialistas, para quienes no somos más que materia y con la muerte se acaba todo. Podríamos pensar que la navaja de Occam debería impulsar a los científicos a preferir la segunda teoría, pues recurre a una sola entidad, mientras el dualismo alma-cuerpo precisa dos. Pero hay que recordar que el principio de la parsimonia distingue entre dos explicaciones diferentes del mismo fenómeno, y la postura materialista no explica nada, pues se limita a negar la realidad de nuestra percepción de nosotros mismos. Para el materialismo especulativo, la afirmación de que el mundo material es lo único que existe y basta para explicarlo todo, es un axioma, pues no puede demostrarlo. Todo lo que parezca contradecir este principio, como ocurre con la voluntad libre, se considera automáticamente ilusorio e inexistente. El procedimiento dista de ser ejemplar, desde el punto de vista científico.

Un biólogo tan famoso como Francis Crick, descubridor de la estructura del ADN, ha tratado de demostrar la imposibilidad del libre albedrío, aduciendo que su existencia transgrediría el principio de la conservación de la energía, uno de los axiomas fundamentales de la Física, que ha permanecido incólume a través de las revoluciones del siglo XX. Al menos, en este caso no tenemos una pura y simple negación, sino un intento de demostración basado en razonamientos sacados de las ciencias físicas. Su argumento dice así:

Supongamos que un ser humano tiene que elegir entre dos alternativas diferentes de comportamiento, A y B. Las dos acciones antagónicas se diferencian únicamente en el disparo de una neurona. Si se elige A, la neurona se dispara; si se elige B, no se dispara. Según Crick, si se pudiera elegir entre las dos opciones con libertad, tendríamos una violación del principio de la conservación de la energía, pues la energía precisa para el disparo tendría que aparecer o desaparecer dependiendo, no de la distribución precedente de energías, sino de una decisión tomada a nivel macroscópico (la mente humana) por un ente inmaterial (el alma).

Desgraciadamente para Crick, la ciencia del siglo XX ha dejado de ser determinista. Su argumento pierde fuerza en un universo basado en las paradojas cuánticas, sobre un vacío cargado de potencialidades. En cualquier punto del espacio, puede surgir en cualquier momento un par de partículas virtuales que, bajo determinadas circunstancias, pueden convertirse en reales. Hemos visto que una de las paradojas de la Mecánica Cuántica es la influencia inesperada de los niveles macroscópicos sobre los microscópicos, justamente lo que Crick supone imposible en su tratamiento de la libertad humana.

Por otra parte, el argumento de Crick es incorrecto, pues no tiene en cuenta los avances realizados durante el siglo XX en el estudio de los sistemas complejos. La simulación de enjambres, por ejemplo, en los que gran número de agentes simples interaccionan entre sí, permite detectar comportamientos globales sorprendentemente complicados, que se llaman propiedades emergentes, porque no son predecibles en función del comportamiento de las unidades de rango inferior. En este contexto, la voluntad libre podría ser una propiedad emergente de los sistemas complejos del tipo del cerebro humano. Así como no sabemos explicar la vida estudiando el funcionamiento de las moléculas, tampoco se puede explicar el comportamiento humano analizando las descargas de las neuronas, ni podrá identificarse una decisión concreta con el disparo de una de ellas.

Una vez excluido el determinismo como explicación del funcionamiento del universo, podemos tener la tentación de pensar que la aleatoriedad probabilística resuelve perfectamente el problema del libre albedrío. Esto sería un error, una solución falsa, como ya señaló Kant. En realidad, los términos del problema no son dos, situados en los extremos de un segmento recto en una dimensión, sino tres, que forman un triángulo en dos dimensiones. Uno de sus vértices es el determinismo, el segundo la aleatoriedad ciega, pero el tercero es un indeterminismo ordenado y razonado, que no puede explicarse en función de los otros dos, aunque está indisolublemente unido a ellos, hasta tal punto que resulta dificilísimo separarlos.

En palabras de Martin Gardner: Un acto de libre albedrío no puede estar completamente predeterminado. Tampoco puede ser el resultado de la casualidad. De algún modo, es ambas cosas. De algún modo, no es ninguna de las dos. Gardner cree que ...la única solución al problema de la voluntad libre es admitir que no podemos conocer la solución... Ni siquiera sabemos cómo hacer la pregunta. Puede que Dios lo sepa. Puede que no. Cuando no se puede hablar, es mejor callarse [17].

Sin embargo, cabe preguntarse si Dios habrá elegido crear un universo basado en las paradojas y aleatoriedades cuánticas, precisamente para que puedan surgir en él seres conscientes, capaces de actuar con cierto grado de libertad. Creo que todos estamos de acuerdo en que un universo poblado de seres libres es mucho más interesante que uno de autómatas, a pesar de los riesgos que comporta. Quizá Dios juega a los dados para que nosotros podamos elegir. Quizá Uróboros debiera ser el símbolo de nuestra libertad.

Referencias