Consultar ensayos de calidad


Los quarks en Muster Mark




En 1911, un científico británico llamado C. T. R. Wilson,1 estaba estudiando formaciones de nubes y tenía que hacer excursiones periódicas a la cumbre de Ben Nevis, una montaña escocesa famosa por su humedad. Un día pensó que tenía que haber un medio más fácil de hacerlo. Así que, cuando regresó al Laboratorio Cavendish de Cambridge, construyó una cámara de nubes artificiales, un instrumento sencillo con el que podía enfriar y humedecer el aire, creando un modelo razonable de una nube en condiciones de laboratorio.

El artilugio funcionaba muy bien, pero produjo además un beneficio inesperado. Cuando aceleró una partícula alfa a través de la cámara para sembrar sus supuestas nubes, la partícula dejó un rastro visible, como las estelas de condensación que deja un avión al pasar. Acababa de inventar el detector de partículas. Este detector aportó una prueba convincente de que las partículas subatómicas existían realmente.

Luego otros dos científicos del Cavendish inventaron un instrumento de haz de protones más potente, mientras que, en California, Ernest Lawrence fabricó en Berkeley su famoso e impresionante ciclotrón o desintegrador de átomos, que fue elemocionante nombre que se dio a estos aparatos durante mucho tiempo. Todos estos artefactos funcionaban (y siguen haciéndolo) basándose más o menos en el mismo principio, en la idea de acelerar un protón u otra partícula cargada hasta una velocidad elevadísima a lo largo de una pista (unas veces circular, otras lineal), hacerla chocar con otra partícula y ver qué sale volando. Por eso los llamaron desintegradores de átomos. No era un procedimiento científico muy sutil, pero resultaba en general efectivo.



Cuando los físicos construyeron máquinas mayores y más ambiciosas, empezaron a descubrir o a postular partículas o familias de partículas aparentemente sin fin: muones, piones, hiperones, mesones, mesones K, bosones Higgs, bosones vectoriales intermedios, bariones, taquiones. Hasta los físicos empezaron a sentirse un poco incómodos. «Joven –contestó Enrico Fermi a un estudiante que le preguntó el nombre de una partícula concreta-, si yo fuese capaz de recordar los nombres de esas partículas me habría hecho botánico.»

Hoy los aceleradores tienen nombres que parecen de cosas que podría usar Flash Gordon en combate: el sincrotón superprotónico, la gran cámara de reacción electrón-positrón, la gran cámara de reacción hadrónica, la cámara de reacción relativista de iones pesados. Empleando enormes cantidades de energía -algunos operan sólo de noche para que los habitantes de las poblaciones del entorno no tengan que presenciar cómo se debilitan las luces de sus casas al ponerse en marcha elaparato-, pueden acelerar partículas hasta un estado de agitación tal que un solo electrón puede dar 47.000 vueltas a un túnel de siete kilómetros en menos de un segundo. Se han despertado temores de que los científicos pudiesen crear en su entusiasmo, e involuntariamente, un agujero negro o incluso algo denominado «quarks extraños» que podría interactuar en teoría con otras partículas subatómicas y propagarse incontrolablemente. Si estás leyendo esto es que no ha sucedido.

Encontrar partículas exige cierta dosis de concentración. No sólo son pequeñas y rápidas, sino que suelen ser también fastidiosamente evanescentes. Pueden aflorar a la existencia y desaparecer de nuevo en un periodo tan breve como 0,000000000000000000000001 de segundo (10-24 segundos). Ni siquiera las más torpes e inestables persisten más de 0,0000001 segundos (10-7 segundos).

Algunas partículas son casi ridículamente escurridizas. Cada segundo visitan la Tierra 10.000 billones de billones de diminutos neutrinos que casi carecen de masa -la mayoría disparados por los terribles calores nucleares del Sol- y prácticamente todos atraviesan el planeta y todo lo que hay en él, incluidos tú y yo, como si no existiéramos. Para atrapar sólo unos cuantos, los científicos necesitan depósitos que contengan hasta 57.000 metros cúbicos de agua pesada (es decir, agua con una abundancia relativa de deuterio) en cámaras subterráneas (normalmente antiguas minas) donde no pueden interferir otras radiaciones.

Uno de esos neutrinosviajeros chocará de vez en cuando con uno de los núcleos atómicos del agua y producirá un soplito de energía. Los científicos cuentan estos soplitos y, por ese medio, nos acercan más a una comprensión de las propiedades básicas del universo. Observadores japoneses informaron en 1998 que los neutrinos tienen masa, aunque no mucha… aproximadamente una diezmillonésima parte de la de un electrón.

Lo que hace falta hoy en realidad para encontrar partículas es dinero, y mucho. Existe una curiosa relación inversa en la física moderna entre la pequeñez de lo que se busca y la escala de los instrumentos necesarios para efectuar la búsqueda. La CERN es como una pequeña ciudad. Se extiende a ambos lados de la frontera francosuiza, cuenta con tres mil empleados, ocupa un emplazamiento que se mide en kilómetros cuadrados y se ufana de poseer una serie de imanes, que pesan más que la torre Eiffel, y un túnel subterráneo circular de unos 26 kilómetros.

Desintegrar átomos, como ha dicho James Trefil, es fácil; lo haces cada vez que enciendes una lámpara fluorescente. Desintegrar núcleos atómicos requiere, sin embargo, muchísimo dinero y un generoso suministro de electricidad. Descender hasta el nivel de los quarks (las partículas que componen las partículas) requiere aún más: billones de voltios de electricidad y el presupuesto de un pequeño estado centroamericano. La nueva gran cámara hadrónica de la CERN, que está previsto que empiece a funcionar en el año 2.005, dispondrá de 14 billones devoltios de energía y su construcción costará unos 1.500 millones de dólares. (Todo este costoso esfuerzo ha tenido consecuencias adicionales. La World Wide Web es un vástago de la CERN. La inventó un científico de la CERN, Tim Berlers-Lee, en 1989. (N. del A.)

Pero esos números no son nada comparado con lo que podría haberse conseguido, y lo que podría haberse gastado, con la inmensa supercámara de reacción superconductora, condenada ya por desgracia a la inexistencia, que empezó a construirse cerca de Waxahachie (Texas) en los años ochenta, antes de que sufriese una supercolisión propia con el Congreso estadounidense. El propósito de esa cámara de reacción era que los científicos pudiesen sondear «la naturaleza básica de la materia», como se dice siempre, recreando con la mayor exactitud posible las condiciones del universo durante sus primeras diezbillonésimas de segundo. El plan consistía en lanzar partículas por un túnel de 84 kilómetros de longitud, hasta conseguir 99 billones de voltios, algo verdaderamente escalofriante. Era un proyecto grandioso, pero habría costado 8.000 millones de dólares realizarlo (una cifra que acabó elevándose a 10.000 millones de dólares) y cientos de millones de dólares al año mantenerlo en marcha.

El Congreso, tal vez en el mejor ejemplo de la historia de lo que es tirar el dinero por un agujero, gastó 2…000 millones de dólares y luego canceló el proyecto en 1993, después de haberse excavado ya 22 kilómetros de túnel. Así que ahora Texas dispone delagujero más caro del universo. El lugar es, según me ha dicho mi amigo Jeff Guinn, del Fort Worth
Star-Telegraph, «básicamente un enorme campo despejado salpicado a lo largo de su circunferencia por una serie de poblaciones decepcionantemente pequeñas».

Desde el desastre de la supercámara de reacción, los físicos de partículas han puesto sus miras en objetivos algo más humildes. Pero hasta los proyectos relativamente modestos pueden resultar costosísimos si los comparamos, bueno, casi con cualquier cosa. La construcción de un observatorio de neutrinos en la antigua Mina Homestake de Lead (Dakota del Sur) costaría 500 millones -y se trata de una mina que ya está excavada-antes de que se pudiesen calcular siquiera los costes anuales de funcionamiento. Habría además 281 millones de dólares de «costes generales de conversión». Por otra parte, readaptar un acelerador de partículas en Fermilab (Illinois) sólo cuesta 260 millones de dólares.

En suma, la física de partículas es una empresa enormemente cara. Pero también es productiva. El número actual de partículas es de bastante más de 250, con unas cien más, cuya existencia se sospecha. Pero desgraciadamente, según Richard Feynman: «Es muy difícil entender las relaciones de todas esas partículas, y para qué las quiere la naturaleza, o bien cuáles son las conexiones que existen entre ellas». Cada vez que conseguimos abrir una caja, nos encontramos indefectiblemente con que dentro hay otra. Hay quien piensa que existen unas partículasllamadas taquiones, que pueden viajar a una velocidad superior a la de la luz. Otros ansían hallar gravitones, que serían la sede de la gravedad. No es fácil saber en qué momento llegamos al fondo irreductible. Carl Sagan planteó en Cosmos la posibilidad de que, si viajases hacia abajo hasta entrar en un electrón, podrías encontrarte con que contiene un universo propio, lo que recuerda todos aquellos relatos de ciencia ficción de la década de los cincuenta. «En su interior, organizados en el equivalente local de galaxias y estructuras más pequeñas, hay un número inmenso de partículas elementales mucho más pequeñas, que son a su vez universos del siguiente nivel, y así eternamente… una regresión infinita hacia abajo, universos dentro de universos, interminablemente. Y también hacia arriba.»

Para la mayoría de nosotros es un mundo que sobrepasa lo comprensible. Incluso el simple hecho de leer hoy una guía elemental de la física de partículas obliga a abrirse camino por espesuras léxicas como ésta: «El pión cargado y el antipión se desintegran respectivamente en un muón, más un antineutrino y un antimuón, más un neutrino con una vida media de 2,603 x 10-8 segundos, el pión neutral se desintegra en dos fotones con una vida media de aproximadamente 10,8 x 10-16 segundos, y el muón y el antimuón se desintegran respectivamente en…» y así sucesivamente. Y esto procede de un libro escrito para el lector medio, por uno de los divulgadores (normalmente) más lúcidos, Steven Winberg.

En la década delos sesenta, en un intento de aportar un poco de sencillez a las cosas, el físico del Instituto Tecnológico de California, Murray Gell- Mann inventó una nueva clase de partículas, básicamente, según Steven Winberg, «para reintroducir una cierta economía en la multitud de hadrones» un término colectivo empleado por los físicos para los protones, los neutrones y otras partículas gobernadas por la fuerza nuclear fuerte. La teoría de Gell- Mann era que todos los hadrones estaban compuestos de partículas más pequeñas e incluso más fundamentales. Su colega Richard Feynman quiso llamar a estas nuevas partículas básicas partones,'como en Dolly, pero no lo consiguió. En vez de eso, pasaron a conocerse como quarks.

Gell-Mann tomó el nombre de una frase de Finnegan's Wake: «Tres quarks para Muster Mark» (algunos físicos riman la palabra con storks, no con larks aunque esta última es casi con seguridad la pronunciación en la que pensaba Joyce). La simplicidad básica de los quarks no tuvo larga vida. En cuanto empezaron a entenderse mejor, fue necesario introducir subdivisiones. Aunque los quarks son demasiado pequeños para tener color, sabor o cualquier otra característica física que podamos identificar, se agruparon en seis categorías (arriba, abajo, extraño, encanto, superior e inferior), a las que los físicos aluden curiosamente como sus «aromas» y que se dividen a su vez en los colores rojo, verde y azul. (Uno sospecha que no fue simple coincidencia que estos términos se aplicaran por primeravez en California en la época de la siquedelia.)

Finalmente, emergió de todo esto lo que se denomina Modelo Estándar, que es esencialmente una especie de caja de piezas para el mundo subatómico. El Modelo Estándar consiste es seis quarks, seis leptones, cinco bosones conocidos y un sexto postulado, el bosón de Higgs (por el científico escocés Peter Higgs), más tres de las cuatro fuerzas físicas: las fuerzas nucleares fuerte y débil y el electromagnetismo.

Esta ordenación consiste básicamente en que entre los bloques de construcción fundamentales de la materia figuran los quarks; éstos se mantienen unidos por unas partículas denominadas gluones; y los quarks y los gluones unidos forman protones y neutrones, el material del núcleo del átomo. Los lectones son la fuente de electrones y neutrinos. Los quarks y los lectones unidos se denominan fermiones. Los bosones (llamados así por el físico indio S. N. Bose) son partículas que producen y portan fuerzas, e incluyen fotones y gluones. El bosón de Higgs puede existir o no existir en realidad. Se inventó simplemente como un medio de dotar de masa a las partículas.

Es todo, como puedes ver, un poquito difícil de manejar, pero es el modelo más sencillo que puede explicar todo lo que sucede en el mundo de las partículas. Casi todos los físicos de partículas piensan, como comentó Leon Lederman en un documental de televisión en 1985, que el Modelo Estándar carece de elegancia y de sencillez. «Es demasiado complicado. Tiene parámetrosdemasiado arbitrarios. No podemos imaginarnos en realidad al creador jugueteando con zo teclas para establecer parámetros para crear el universo tal como lo conocemos», comentó. La física sólo es en verdad una búsqueda de la sencillez básica, pero lo que tenemos hasta el momento es una especie de desorden elegante… O, en palabras de Lederman: «Existe el sentimiento profundo de que el cuadro no es bello».

El Modelo Estándar no sólo es incompleto y difícil de manejar. Por una parte, no dice absolutamente nada sobre la gravedad. Busca cuanto quieras en el Modelo Estándar y no encontrarás nada que explique por qué cuando dejas un sombrero en una mesa no se eleva flotando hasta el techo. Ni puede explicar la masa, como ya hemos comentado hace un momento. Para dar algo de masa a las partículas tenemos que introducir ese hipotético bosón de Higgs. Si existe en realidad o no es una cuestión que han de resolver los físicos en el sigloXIX. Como comentaba despreocupadamente Feynman: «Estamos, pues, apegados a una teoría y no sabemos si es verdadera o falsa, pero lo que sí sabemos es que es un poco errónea o, al menos, incompleta».

Los físicos, en un intento de agruparlo todo, se han sacado de la manga algo llamado la teoría de las supercuerdas, que postula que todas esas cositas, como los quarks22 y los lectones, que habíamos considerado anteriormente partículas, son en realidad «cuerdas», fibras vibrantes de energía que oscilan en 11 dimensiones, consistentes en las tres que ya conocemos, más eltiempo, y otras siete dimensiones que son, bueno, incognoscibles para nosotros. Las cuerdas son muy pequeñas… lo bastante pequeñas como para pasar por partículas puntuales.

La teoría de las supercuerdas, al introducir dimensiones extra, permite a los físicos unir leyes cuánticas y gravitatorias en un paquete relativamente limpio y ordenado. Pero significa también que cualquier cosa que digan los científicos sobre la teoría empieza a parecer inquietantemente como el tipo de ideas que te espantaría si te la expusiese un conocido en el banco de un parque. He aquí, por ejemplo, al físico Michio Kaku explicando la estructura del universo desde el punto de vista de las supercuerdas:

La cuerda heterótica está formada por una cuerda cerrada que tiene dos tipos de vibraciones, 24 una en el sentido de las agujas del reloj y, la otra, en el sentido contrario, que se tratan de una forma diferente. Las vibraciones en el sentido de las agujas del reloj viven en un espacio decadimensional. Las que van en el sentido contrario viven en un espacio de 26 dimensiones, 16 de las cuales han sido compactadas. (Recordamos que, en el espacio de cinco dimensiones, la quinta estaba compactada por hallarse agrupada en un círculo.)

La teoría de las cuerdas ha generado además una cosa llamada teoría M, que incorpora superficies conocidas como membranas… o simplemente branas, para las almas selectas del mundo de la física. Me temo que esto es la parada en la autopista del conocimiento en la que la mayoría denosotros debemos bajar. He aquí unas frases del New York Times explicándolo de la forma más simple para el público en general:

El proceso ekpirótico se inicia en el pasado indefinido con un par de branas planas y vacías, dispuestas entre sí en paralelo en un espacio alabeado de cinco dimensiones… Las dos branas, que forman las paredes de la quinta dimensión, podrían haber brotado de la nada como una fluctuación cuántica en un pasado aún más lejano y haberse separado luego.

No hay discusión posible. Ni posibilidad de entenderlo. Ekpirótico, por cierto, se deriva de la palabra griega que significa conflagración.

Las cosas han llegado a un extremo en física que, como comentaba en Nature Paul Davies, es «casi imposible para los no científicos diferenciar entre lo legítimamente extraño y la simple chifladura». La cosa llegó a un interesante punto álgido en el otoño de 2002 cuando dos físicos franceses, los hermanos gemelos Igor y Grichak Bogdanov, elaboraron una teoría de ambiciosa densidad que incluía conceptos como «tiempo imaginario» y la «condición Kubo-Schwinger-Martin» y que se planteaba describir la nada que era el universo antes de la Gran Explosión… un periodo que se consideró siempre incognoscible (ya que precedía al nacimiento de la física y de sus propiedades).

La teoría de los Bogdanov provocó casi inmediatamente un debate entre los físicos respecto a si se trataba de una bobada, de una idea genial o de un simple fraude. «Científicamente, está claro que se trata de undisparate más o menos completo -comentó al New York Times el físico de la Universidad de Columbia Peter Woid-, pero eso no la diferencia mucho de gran parte del resto de la literatura científica que se expone últimamente».

Karl Popper, a quien Steven Weinberg ha llamado «el decano de los filósofos de la ciencia modernos», dijo en cierta ocasión que puede que no haya en realidad una teoría definitiva para la física, que cada explicación debe necesitar más bien una explicación posterior, produciéndose con ello «una cadena infinita de más y más principios fundamentales». Una posibilidad rival es que ese conocimiento se halle simplemente fuera de nuestro alcance. «Hasta ahora, por fortuna -escribe Weinberg en El sueño de una teoría definitiva-, no parece que estemos llegando al límite de nuestros recursos intelectuales.»

Seguramente este campo sea un sector en el que veremos posteriores avances del pensamiento; y serán pensamientos que quedarán casi con seguridad fuera del alcance de la mayoría.

Mientras los físicos de las décadas medias del siglo XX examinaban perplejos el mundo de lo muy pequeño, los astrónomos se hallaban no menos fascinados ante su incapacidad de comprender el universo en su conjunto.

La última vez que hablamos de Edwin Hubble, había decidido que casi todas las galaxias de nuestro campo de visión se están alejando de nosotros y que la velocidad y la distancia de ese retroceso son perfectamente proporcionales: cuanto más lejos está la galaxia, más deprisa se aleja.Hubble se dio cuenta de que esto se podía expresar con una simple ecuación, Ho = v/d (donde Ho es una constante, ves la velocidad recesional de una galaxia en fuga y d la distancia que nos separa de ella). Ho ha pasado a conocerse desde entonces como la constante de Hubble y, el conjunto, como la Ley de Hubble. Valiéndose de su fórmula, Hubble calculó que el universo tenía unos dos mil millones de años de antigüedad, lo que resultaba un poco embarazoso porque incluso a finales los años veinte estaba cada vez más claro que había muchas cosas en el universo (incluida probablemente la propia Tierra) que eran más viejas. Precisar más esa cifra ha sido desde entonces una preocupación constante de la cosmología.

Casi la única cosa constante de la constante de Hubble ha sido el gran desacuerdo sobre el valor que se le puede asignar. Los astrónomos descubrieron en 1956 que las cefeidas variables eran más variables de lo que ellos habían pensado; había dos variedades, no una. Esto les permitió corregir sus cálculos y obtener una nueva edad del universo de entre siete mil y veinte mil millones de años… una cifra no demasiado precisa, pero lo suficientemente grande al menos para abarcar la formación de la Tierra.

En los años siguientes surgió una polémica, que se prolongaría interminablemente, entre Allan Sandage, heredero de Hubble en Monte Wil son, y Gérard de Vaucouleurs, un astrónomo de origen francés con base en la Universidad de Texas. Sandage, después de años de cálculos meticulosos, llegóa un valor para la constante de Hubble de 50, lo que daba una edad para el universo de 20.000 millones de años. De Vaucouleurs, por su parte, estaba seguro de que el valor de la constante de Hubble era 100. (Tienes derecho a preguntarte, claro está, qué es lo que quiere decir exactamente «una constante de 50» o «una constante de 100». La respuesta está en las unidades astronómicas de medición. Los astrónomos no utilizan nunca, salvo en lenguaje coloquial, los años luz. Utilizan una distancia llamada el parsec (una contracción de paralaje y segundo), basada en una medida universal denominada paralaje estelar y que equivale a 3,26 años luz. Las mediciones realmente grandes, como la del tamaño de un universo, se expresan en megaparsecs: 1 megaparsec millón de parsecs. La constante se expresa en kilómetros por segundo por megaparsec. Así que, cuando los astrónomos hablan de una constante Hubble de 50 , lo que en realidad quieren decir es «50 kilómetros por segundo por megaparsec». Se trata, sin duda, de una medida que para nosotros no significa absolutamente nada; pero bueno, en la mayoría de las mediciones astronómicas las distancias son tan inmensas que no significan absolutamente nada. (N. del A.). Esto significaba que el universo sólo tenía la mitad del tamaño y de la antigüedad que creía Sandage (diez mil millones de años). Las cosas dieron un nuevo bandazo hacia la incertidumbre cuando un equipo de los Observatorios Carnegie de California aseguraron, en 1994, basándose en mediciones delTelescopio Espacial Hubble, que el universo podía tener sólo ocho mil millones de años de antigüedad… una edad que aceptaban que era inferior a la de algunas de las estrellas que contenía. En febrero de 2003, un equipo de la NASA y el Centro de Vuelos Espaciales Goddard de Maryland, utilizando un nuevo tipo de satélite de largo alcance llamado la Sonda Anisotrópica Microndular Wilkinson, proclamó con cierta seguridad que la edad del universo es 13.700 millones de años, cien millones de años arriba o abajo. Así están las cosas, al menos por el momento.

Que sea tan difícil hacer un cálculo definitivo se debe a que suele haber un margen muy amplio para la interpretación. Imagina que estás en pleno campo de noche e intentas determinar a qué distancia están de ti dos luces eléctricas alejadas. Utilizando instrumentos bastante sencillos de astronomía puedes calcular sin mucho problema que las bombillas tienen el mismo brillo y que una está, por ejemplo, un 50% más alejada que la otra. Pero de lo que no puedes estar seguro es de si la luz más cercana es, por ejemplo, de una bombilla de 58 vatios que está a 37 metros de distancia o de una de 61 vatios que está a 36,5 metros de distancia. Amén de eso, debes tener en cuenta las perturbaciones causadas por variaciones en la atmósfera de la Tierra, por polvo intergaláctico, por luz estelar contaminante de fondo y muchos otros factores. El resultado final es que tus cálculos se basan inevitablemente en una serie de supuestos interdependientes,cualquiera de los cuales puede ser motivo de discusión. Además está el problema de que el acceso a telescopios es siempre difícil y medir las desviaciones hacia el rojo ha sido muy costoso históricamente en tiempo de telescopio. Podría llevar toda una noche conseguir una sola exposición. En consecuencia, los astrónomos se han visto impulsados (o han estado dispuestos) a basar conclusiones en pruebas bastante endebles. Como ha dicho el periodista Geoffrey Carr, en cosmología tenemos «una montaña de teoría edificada sobre una topera de pruebas». O como ha dicho Martin Rees: «Nuestra satisfacción actual [con los conocimientos de que disponemos] puede deberse a la escasez de datos más que a la excelencia de la teoría».

Esta incertidumbre afecta, por cierto, a cosas relativamente próximas tanto como a los bordes lejanos del universo. Como dice Donald Goldsmith, cuando los astrónomos dicen que la galaxia M8 está a sesenta millones de años luz de distancia, lo que en realidad quieren decir -«pero lo que no suelen resaltar para el público en general»- es que está a una distancia de entre cuarenta y noventa millones de años luz de nosotros… y no es exactamente lo mismo. Para el universo en su conjunto, esto, como es natural, se amplía. Pese al éxito clamoroso de las últimas declaraciones, estamos muy lejos de la unanimidad.

Una interesante teoría, propuesta recientemente, es la de que el universo no es ni mucho menos tan grande como creíamos; que, cuando miramos a lo lejos, alguna de lasgalaxias que vemos pueden ser simplemente reflejos, imágenes fantasmales creadas por luz rebotada.

Lo cierto es que hay mucho, incluso a nivel básico, que no sabemos… por ejemplo, nada menos que de qué está hecho el universo. Cuando los científicos calculan la cantidad de materia necesaria para mantener unidas las cosas, siempre se quedan desesperadamente cortos. Parece ser que un 90% del universo, como mínimo, y puede que hasta el 99%, está compuesto por la «materia oscura» de Fritz Zwicky… algo que es, por su propia naturaleza, invisible para nosotros. Resulta un tanto fastidioso pensar que vivimos en un universo que en su mayor parte no podemos ni siquiera ver, pero ahí estamos.

Por lo menos los nombres de los dos principales culpables posibles son divertidos: se dice que son bien WIMP (Weakly Interacting Massive Particles, o grandes partículas que interactúan débilmente, que equivale a decir manchitas de materia invisible que son restos de la Gran Explosión) o MACHO (Massive Compact Halo Objects, objetos con halo compactos masivos, otro nombre en realidad para los agujeros negros, las enanas marrones y otras estrellas muy tenues).

Los físicos de partículas han tendido a inclinarse por la explicación basada en las partículas, las WIMP, los astrofísicos por la estelar de los MACHO. Estos últimos llevaron la voz cantante durante un tiempo, pero no se localizaron ni mucho
menos los suficientes, así que la balanza acabó inclinándose por las WIMP… con el problema de que nunca se habíalocalizado ni una sola. Dado que interactúan débilmente, son -suponiendo que existan- muy difíciles de identificar. Los rayos cósmicos provocaban demasiadas interferencias. Así que los científicos deben descender mucho bajo tierra. A un
kilómetro de profundidad, los bombardeos cósmicos serían una millonésima de lo que serían en la superficie. Pero incluso en el caso de que se añadieran todas ellas, «dos tercios del universo no figuran aún en el balance» como ha dicho un comentarista. De momento podríamos muy bien llamarlas DUNNOS (de Dark Unknown Nonreflective Nondetectable Objects Somewhere, objetos oscuros desconocidos no reflectantes e indetectables situados en alguna parte).

Pruebas recientes indican no sólo que las galaxias del universo están huyendo de nosotros, sino que lo están haciendo a una tasa que se acelera. Esto contradice todas las expectativas. Además, parece que el universo puede estar lleno no sólo de materia oscura, sino de energía oscura. Los científicos le llaman a veces también energía del vacío o quintaesencia. Sea lo que sea, parece estar pilotando una expansión que nadie es capaz de explicar del todo. La teoría es que el espacio vacío no está ni mucho menos tan vacío, que hay partículas de materia y antimateria que afloran a la existencia y desaparecen de nuevo, y que esas partículas están empujando el universo hacia fuera a un ritmo acelerado. Aunque resulte bastante inverosímil, lo único que resuelve todo esto es la constante cosmológica de Einstein…, elpequeño añadido matemático que introdujo en la Teoría General de la Relatividad para detener la presunta expansión del universo y que él calificó como «la mayor metedura de pata de mi vida». Ahora parece que, después de todo, puede que hiciese bien las cosas.

Lo que resulta de todo esto es que vivimos en un universo cuya edad no podemos calcular del todo, rodeados de estrellas cuya distancia de nosotros y entre ellas no podemos conocer, lleno de materia que no somos capaces de identificar, que opera según leyes físicas cuyas propiedades no entendemos en realidad…

Y, con ese comentario bastante inquietante, regresemos al planeta Tierra y consideremos algo que sí entendemos…, aunque tal vez a estas alturas no te sorprenda saber que no lo comprendemos del todo y que, lo que entendemos, hemos estado mucho tiempo sin entenderlo.


Política de privacidad