Читать книгу Universo singular - Javier Sánchez Cañizares - Страница 9

Оглавление

El estudio físico del universo como un todo es bastante más reciente de lo que parece. Se podría decir que apenas data de un siglo. La filosofía de la naturaleza, la física premoderna y la física newtoniana concedían una dinamicidad, propia o derivada, a los sistemas que habitan nuestro universo, pero, en cierto modo, el universo mismo se consideraba algo estático y dado: bien porque fuese eterno y absoluto en sí mismo, sin origen ni final, como en el caso de la física aristotélica y newtoniana, bien porque la obra de la creación podía considerarse ya terminada, como en el caso de una filosofía de la naturaleza de inspiración judeo-cristiana. Entiéndase bien este último caso: aunque el universo tuviera un principio y un final, estos dependían exclusivamente de Dios (creación y escatología); mientras que entre ambos extremos tendríamos el despliegue de la historia natural y humana en un marco de referencia fijo definido por los límites de nuestro planeta.

Esta visión va a cambiar profundamente durante el siglo XX, gracias a la sinergia entre la nueva teoría física que desbancará la mecánica newtoniana, la teoría de la relatividad, y el asombroso salto en nuestra capacidad de observar el universo merced a mejores telescopios que, a partir sobre todo de la segunda mitad del siglo pasado, será posible incluso mandar al espacio más allá de la atmósfera terrestre, lo que favorecerá la recepción más pura de la luz proveniente de sistemas lejanos. Actualmente, la teoría física del Big Bang es la comúnmente aceptada sobre el origen y evolución del universo. La visión que ofrece dicha teoría es la de un universo en expansión, con enorme potencial para la aparición de nuevos procesos y sistemas gracias especialmente a la formación de estrellas y su capacidad para sintetizar nuevos elementos en su interior. Dichos elementos son parte principal de la diversidad física que vemos en la Tierra y, muy probablemente, en otros planetas.

Esta información es ya enormemente valiosa para una reflexión filosófica sobre la naturaleza, pero la cosmovisión que ofrece el Big Bang implica también una serie de datos y cuestiones menos conocidas en el mundo filosófico. Estas cuestiones profundizan en las razones últimas por las que es posible la existencia de un universo tan especial como el nuestro (Sánchez-Cañizares 2013; 2014a). En este capítulo, dedicaremos una primera sección a una presentación histórico-científica que explique cómo hemos llegado a la teoría del Big Bang: sus soluciones, sus problemas y la aparición de teorías alternativas, a día de hoy puramente especulativas, que intentan ir razonablemente más allá del Big Bang. En una segunda sección, explicaremos con más detalle en qué sentido nuestro universo es especial, abordaremos el problema del ajuste fino de las constantes fundamentales de la física y, sobre todo, el problema de la mínima entropía al comienzo del universo.

1. UNA INTRODUCCIÓN A LA TEORÍA DEL BIG BANG

Conocer, aunque solo sea someramente, la historia de cómo la humanidad ha intentado responder a las grandes cuestiones que se han planteado a lo largo de los siglos es uno de los mejores modos de familiarizarse con dichas cuestiones. Como decíamos, la consideración rigurosamente científica del origen del universo es un problema relativamente nuevo en la historia. Sin embargo, su aparición en el pensamiento humano puede considerarse como muy antigua.

1.1. LA HISTORIA DEL BIG BANG

Aunque nuestros conocimientos sobre la historia humana oral y escrita tienen menos de cinco mil años, se desprende de distintos datos arqueológicos que el hombre tiene preocupación por el mundo en el que vive y se forma ideas sobre el universo desde mucho antes. Podemos afirmar que los rastros se pierden en el tiempo. Cuando el hombre se hizo agricultor, necesitó escrutar los cielos para regular mejor los períodos de siembra y cosecha y así conseguir mayor eficiencia en su nuevo modo de supervivencia. Entonces la observación de la naturaleza, y fundamentalmente del comportamiento cíclico en los movimientos de los cielos, se convirtió en una tarea importante. Esa ocupación le permitió coleccionar durante un par de milenios un conjunto de observaciones que se acumularon paralelamente a las diferentes teorías que se desarrollaron para explicarlos.

1.1.1. El modelo geocéntrico

El primer modelo relativamente completo utilizado para predecir los movimientos celestes es el modelo geocéntrico, que se recuerda asociado al nombre de Claudio Ptolomeo (siglo II d. C.), quien recopiló muchos datos de siglos anteriores. Este modelo presenta un universo con la Tierra en el centro, la luna girando en torno a ella y el resto de los planetas (planeta significa ‘cuerpo errante’) describiendo complicados movimientos sobre un fondo de estrellas supuestamente fijas. Con este modelo se lograba comprender y predecir algunas regularidades de los movimientos celestes, como los eclipses, hasta entonces considerados como acontecimientos misteriosos por la mayoría de la humanidad. Más importante aún es la visión global del universo que ofrece el modelo de Ptolomeo. Se trata de una visión no unificada, donde se yuxtaponen el mundo sublunar —que engloba los cambiantes fenómenos que se dan en la tierra y su atmósfera, «por debajo» de la luna— y el mundo supralunar —en el que tendrían lugar los movimientos estables y sin ningún tipo de degradación de los astros celestes—. El mundo supralunar era, en definitiva, muy diverso del sublunar, y se asociaba a la idea de un universo inmutable y eterno.

Aunque algunos astrónomos habían concebido con anterioridad un modelo heliocéntrico (Aristarco de Samos, en el siglo III a. C.), este no presentaba ventajas evidentes. Por el contrario, parecía natural situar la Tierra como origen de un sistema de referencia absoluto para estudiar los movimientos celestes, debido a la existencia de la fuerza de la gravedad, que hace que todo caiga hacia el centro. La falta de explicación para el origen de esta fuerza, utilizando solo el sentido común, mantendrá durante muchos siglos el modelo geocéntrico como la solución más lógica.

1.1.2. Los modelos heliocéntricos

El cambio de una teoría física por otra suele venir motivado por avances en las mediciones experimentales de los fenómenos. Datos nuevos y más precisos hacen cada vez más complejas las explicaciones mediante la teoría antigua y apuntan hacia un nuevo modelo teórico que permita un esquema de comprensión más sencillo de todo lo que se sabe. Así, hubo que esperar hasta los siglos XVI y XVII para asistir a la sustitución del modelo geocéntrico por el modelo heliocéntrico gracias a las extraordinarias observaciones astronómicas de Tycho Brahe (1546-1601) y a las contribuciones teóricas de Nicolás Copérnico (1473-1543), Johannes Kepler (1571-1630) y Galileo Galilei (1564-1642).

Los modelos heliocéntricos —cada vez más refinados para tener en cuenta que las órbitas de los planetas no eran circulares (Copérnico), sino elípticas (Kepler)— pasaron a describir mejor los nuevos datos experimentales. No obstante, aún adolecían de un problema fundamental. Podían entenderse simplemente como hipótesis matemáticas que permitían cuadrar mejor los cálculos y las predicciones, pero no estaba claro si se referían a cómo se dan verdaderamente los fenómenos en la realidad.3 Para ello era necesario tener una teoría más profunda —no solamente cinemática, sino dinámica— que explicara qué fuerzas entre los planetas podían dar lugar a ese tipo de órbitas elípticas en torno al sol. En esa tesitura, el modelo heliocéntrico tenía soporte racional y disfrutaba de observaciones experimentales adecuadas, pero hasta los trabajos de Isaac Newton (1642-1727) dicho modelo no pudo considerarse como lo que actualmente se denomina una teoría científica.

Es Isaac Newton quien unifica la mecánica celeste y la mecánica sobre la Tierra —el mundo sublunar y el mundo supralunar— mediante una explicación común. Es decir, algo que ya es, propiamente hablando, una teoría física. En su trabajo, se abandona definitivamente la idea de la dualidad de mundos y se relacionan las observaciones astronómicas con las del movimiento terrestre. Newton formula sus tres leyes de la mecánica (ley de inercia, de la aceleración y de acción-reacción) para explicar el movimiento a partir de las fuerzas que actúan sobre un móvil. Estas tres leyes, junto con la ley de gravitación universal (la atracción entre dos cuerpos es proporcional a sus masas e inversamente proporcional al cuadrado de la distancia entre ellos), son capaces de explicar, con una aproximación extraordinaria, los movimientos de todos los astros que observamos en el universo. Las leyes de Newton se pueden expresar matemáticamente y, con dichas ecuaciones, se pueden realizar predicciones sobre fenómenos futuros, susceptibles de ser comprobadas experimentalmente. La mecánica celeste y universal de Newton se convierte en el paradigma del moderno método científico y produce la primera gran unificación de la física, que durará casi dos siglos.

Ahora bien, la mecánica newtoniana dará lugar a profundas reflexiones sobre el significado y la validez de los conceptos de espacio y tiempo. Para presentar su nueva teoría, Newton ha introducido la antigua idea de espacio concebida por Euclides: un lugar vacío, isótropo y homogéneo, en el cual reside o aparece la materia. En el espacio absoluto no existe un lugar privilegiado para situar un sistema de referencia, ya sea el centro de la Tierra, el Sol o cualquier otro punto del universo. Para Newton, el espacio y el tiempo están desacoplados entre sí y están desacoplados del resto de las magnitudes físicas. El espacio y el tiempo del universo físico permanecen infinitos e inmutables. El universo newtoniano no tiene necesidad de un origen en el espacio o en el tiempo.

1.1.3. La aparición de la teoría de la relatividad

Habrá que esperar hasta las primeras décadas del siglo XX para ver cambiar radicalmente esta concepción del universo, gracias a la teoría de la relatividad de Albert Einstein (1879-1955), que publica la versión especial en 1905 y la versión general en 1915. La teoría especial de la relatividad mantiene la constancia de la velocidad de la luz con independencia del estado de movimiento del observador que la está midiendo (algo tremendamente opuesto a nuestras percepciones habituales), de manera que la medida del espacio y del tiempo ha de ser relativa; debe cambiar según el estado de movimiento del observador. La teoría general de la relatividad (la extensión de la teoría a la dinámica) considera al espacio y al tiempo como variables fundamentales de la naturaleza que han de entrar en las ecuaciones que gobiernan todos los procesos físicos. Ya no son simples parámetros absolutos que hay que tener en cuenta solo para describir dónde y cuándo suceden los fenómenos. Ellos mismos pertenecen al ámbito de los fenómenos. De esta forma, la teoría de Einstein no habla del espacio y del tiempo por separado, desacoplados entre sí y del resto del mundo. El espacio-tiempo tiene una geometría (unas leyes de medida) que cambia dependiendo de la presencia de cuerpos masivos. La presencia de masa curva la geometría del espacio-tiempo, de tal manera que los movimientos de los cuerpos debidos a la interacción gravitatoria no provienen de fuerzas que se ejercen a distancia, sino de la curvatura del espacio-tiempo en que se hallan inmersos. Esta curvatura se puede imaginar como la que produciría un cuerpo suficientemente pesado situado en medio de un colchón elástico deformando la superficie plana a su alrededor y atrayendo hacia sí otros cuerpos más pequeños.

Por primera vez en la historia de la ciencia, el espacio y el tiempo entran en las ecuaciones de Einstein con el mismo rango lógico que otras magnitudes físicas, como la energía o la velocidad. De hecho, las ecuaciones de la relatividad pueden entenderse como un sistema acoplado en que la materia-energía modifica las propiedades geométricas del espacio-tiempo y el espacio-tiempo modifica las propiedades dinámicas de la materia-energía. La teoría de Einstein ha sido validada en varias ocasiones mediante la observación de fenómenos físicos que la mecánica de Newton era incapaz de resolver o explicar. Por ejemplo, la relatividad fue capaz de predecir con exactitud la variación del perihelio de Mercurio, que cambia una centésima de grado cada siglo. La teoría también predijo el valor de la desviación que se produce en un haz de luz al pasar cerca de una estrella de gran masa (una medición que realizó Arthur Eddington en 1919) y el cambio de la frecuencia de los movimientos periódicos de un reloj atómico a causa de la gravedad. En la actualidad, todos los sistemas GPS han de tener en cuenta este efecto.

La mecánica de Newton no fue desplazada en la física del día a día. De hecho, se sigue utilizando con gran éxito para la mayoría de los cálculos donde las velocidades de los cuerpos son mucho más pequeñas que la de la luz, donde conservan su rango aproximado de validez. Pero sí fue absorbida dentro de una teoría más general, la de Einstein. Y este hecho va a cambiar la manera de entender el universo, pues ya no tiene sentido tratar el espacio y el tiempo como realidades absolutas e invariables. La teoría de la relatividad pasaría a ser el nuevo marco para abordar la descripción científica global de todo el universo.

Con la relatividad general quedaron firmemente sentadas las bases sobre las cuales deberían construirse los nuevos modelos cosmológicos. Einstein, como todos los grandes científicos anteriores, continuó creyendo en un universo estático e inmutable. Sin embargo, al aplicar su modelo a todo el cosmos, fue consciente de que, en algún momento, se produciría el colapso del universo por causa de la gravedad, ya que dicha fuerza tiene siempre un carácter atractivo. Ese efecto había de ser equilibrado de alguna manera en sus ecuaciones para no llegar a un absurdo. Con este fin, el padre de la nueva teoría incluyó en sus ecuaciones un término repulsivo que contrarrestara la atracción gravitatoria. Denominó a dicho término la constante cosmológica y ajustó su valor exactamente para obtener un universo estable. No obstante, cuando algunos años más tarde se comprobó experimentalmente la expansión del universo (es decir, que el universo no es estático), Einstein consideró que introducir la constante cosmológica había sido el mayor error de su vida». Lo que resulta aún más curioso es que, hoy día, dicha constante es necesaria en las ecuaciones para poder describir la expansión acelerada del universo atestiguada por los datos experimentales actualmente disponibles, como veremos más adelante.

1.1.4. Un universo dinámico

Pero la ciencia no es una empresa meramente individual y se beneficia de muchas contribuciones. Si bien la primera hipótesis de un universo no estático parece corresponder al holandés Willem de Sitter (1872-1934) —quien plantea en 1917 que su curvatura debe crecer—, será entre 1922 y 1924 cuando el científico ruso Aleksandr Fridman (1888-1925) publique dos artículos en los que considera soluciones dinámicas a las ecuaciones de Einstein para todo el cosmos. En efecto, si se abandona la hipótesis de un universo estático, las ecuaciones relativistas admiten infinitas soluciones, en las cuales la distancia entre dos puntos cualesquiera del espacio-tiempo puede ir variando en función del tiempo. Surgen muchas posibilidades que permiten considerar un universo en evolución, de modo que la literatura científica se enriqueció notablemente con estas aportaciones.

La clasificación más sencilla de las posibles soluciones conduce a tres alternativas para el universo, dependiendo de la relación entre la inercia de la expansión y la interacción gravitatoria: un universo cerrado, un universo abierto o un universo plano. En un universo cerrado, la gravedad es más fuerte que la fuerza expansiva. En este caso, la expansión progresa hasta un punto en el cual la gravedad comienza a imponerse y causa la contracción del universo, que acabaría implotando sobre sí mismo. Por el contrario, si la inercia de la expansión es superior a la interacción gravitatoria, el universo es abierto y estará en expansión permanente. El universo plano es un caso límite entre las dos posibilidades anteriores; en esta situación, la expansión y la gravedad se compensan exactamente, de modo que el universo crece hasta alcanzar de modo asintótico una dimensión constante. Las mediciones actuales presentan pruebas evidentes a favor de un universo en expansión.

No obstante, resulta especialmente notable que, en los tres casos citados, la teoría de la relatividad siempre apunta a una singularidad en el origen del tiempo: un momento en el cual las magnitudes físicas relevantes se hacen infinitas o dejan de estar bien definidas. Si consideramos hacia atrás la historia del cosmos, todo parece apuntar a que el universo debió partir de un estado muy simple, de altísima concentración de materia y energía. Con esta constatación, la ciencia moderna comenzó a considerar por primera vez con su método el problema de un origen para el universo, para el mismísimo espacio-tiempo; una cuestión largamente enraizada en el pensamiento filosófico y teológico.

Fue el sacerdote y científico belga Georges Lemaître (1894-1966) el primero en formular lo que hoy se conoce como teoría del Big Bang. Además de desarrollar de manera independiente las soluciones cosmológicas dinámicas de la teoría de la relatividad, relacionó sus resultados con los incipientes resultados experimentales sobre la velocidad de desplazamiento de las galaxias lejanas (hablaremos de ello enseguida), lo que consideraba como un indicio evidente de la expansión del universo. Lemaître presentó en un artículo de 1931 la atrevida hipótesis de una evolución del universo a partir de un átomo primitivo. Según esta teoría, el universo debió comenzar a partir de una especie de átomo elemental, extremadamente denso, que fue creciendo mediante una gigantesca explosión, de modo que los diversos fraccionamientos y reagrupamientos sucesivos de la materia y energía allí contenida habrían dado lugar al cosmos que observamos hoy. No se trata de una explosión en el sentido habitual del término, mediante la que el espacio se va llenando a lo largo del tiempo con los fragmentos de un estallido. El mismo espacio-tiempo del universo se va agrandando, estirando, análogamente a como se hincha la superficie de un globo, sin que nada físico exista fuera de ese proceso de inflamiento.

La teoría de Lemaître tuvo en sus comienzos una mala acogida por algunos de los físicos más importantes de la época, que la veían como poco atractiva. Parecía dar pie a que dentro de la ciencia se introdujesen subrepticiamente la filosofía y la teología para hablar de una causa primera o de una creación. De hecho, el nombre popular de Big Bang fue acuñado por Fred Hoyle (1915-2001), quien utilizó por primera vez el término de modo irónico para referirse al modelo. Sin embargo, Lemaître siempre fue muy claro respecto de lo que pretendía con su teoría, y distinguía con claridad entre la búsqueda científica del origen del universo que observamos y la reflexión filosófico-teológica sobre la existencia de este. Durante la primera mitad del siglo XX, la teoría del Big Bang hubo de competir con otros modelos cosmológicos sobre la evolución del cosmos, como el universo estacionario con creación continua de materia del mismo Hoyle y de Dennis Sciama (1926-1999). La teoría del Big Bang fue enriqueciéndose durante estos años con mejoras y refinamientos teóricos y hubo de esperar la confirmación de varios resultados experimentales para su establecimiento como teoría estándar del origen del universo. Pasamos ahora a mencionar los más importantes.

1.2. EL BIG BANG Y SU RESPALDO EXPERIMENTAL

La contrastación de una teoría científica con los experimentos es esencial para el avance de la ciencia, de modo que se puedan aceptar o rechazar los modelos propuestos según su acuerdo o desacuerdo con los resultados obtenidos. Una consecuencia de lo que acabamos de decir es que el avance de la ciencia suele implicar tanto a la parte teórica como a la experimental y, necesariamente, el progreso tecnológico de los aparatos de medida.

1.2.1. El desplazamiento hacia el rojo de la luz emitida por las galaxias

La cosmología física no es ajena a este escenario. Así, gracias a la mejora en el diseño y la construcción de los telescopios, la calidad de los datos astronómicos disponibles aumentó notablemente durante las primeras décadas del siglo XX. Entre 1920 y 1930, los telescopios de Mount Wilson en California permitieron situar correctamente las nebulosas lejanas más allá de la Vía Láctea y, también, medir la diferencia entre la longitud de onda esperada y la realmente medida en la luz que provenía de dichas nebulosas. Las primeras observaciones al respecto se debieron a Vesto Slipher (1875-1969), pero en 1923 Edwin Hubble (1889-1953) concluyó que esas nebulosas lejanas en espiral, que por entonces se observaban en el límite de resolución, eran en realidad conjuntos de estrellas, es decir, galaxias como nuestra Vía Láctea. Un hecho que clarificó enormemente el panorama de evidencias experimentales astronómicas.

Estos resultados resultaron posteriormente claves para la consolidación de la teoría del Big Bang. ¿Qué información proporcionaba recibir una longitud de onda desplazada hacia el rojo? Que la fuente que emite esa luz está alejándose respecto de la Tierra. Se trata del conocido efecto Doppler: análogamente a como la frecuencia de la sirena de una ambulancia se hace más grave al alejarse el vehículo de nosotros, la luz de las galaxias lejanas llega a la tierra con una frecuencia menor (más grave) —y por tanto una longitud de onda mayor—4 de la que debería corresponderle.5 Además, las observaciones de Hubble en 1929 mostrarían que este efecto es directamente proporcional a la distancia que media entre la fuente de luz en cuestión y nuestro planeta. Es lo que se conoce como ley de Hubble, y es un primer indicio de que el mismo universo se halla en expansión. Siguiendo con la analogía del espacio-tiempo que se estira como la superficie de un globo, se pueda pensar en las galaxias como manchas en dicha superficie. Al inflar el globo, las manchas de la superficie se separan más rápidamente cuanto más lejos están unas de otras.

La ley de Hubble tiene entonces dos posibles explicaciones. O bien la Tierra se halla en el centro de una gran explosión de galaxias —algo insostenible, si se acepta el principio copernicano que rechaza la existencia de puntos privilegiados del espacio-tiempo—; o bien el universo se está expandiendo uniformemente, independientemente del lugar en que nos encontremos para observar dicha expansión. Dicho de otra manera, la velocidad relativa de alejamiento de las galaxias entre sí es proporcional a la distancia a la que se encuentran. Todas se ven alejándose entre sí.

Los datos de Hubble fueron rápidamente considerados como un apoyo evidente a la expansión del universo. Al verificarse la ley de Hubble, los científicos estaban midiendo nada más y nada menos que el ritmo de dicha expansión. Ahora bien, si la distancia entre las galaxias ha ido creciendo a lo largo de la historia del universo, todo ha tenido que estar mucho más cerca en el pasado… No obstante, en ese momento no se conocía ninguna interpretación teórica sobre el fenómeno, pues recordemos que la teoría del Big Bang es del año 1931. Los resultados de Hubble apuntaban al modelo de Lemaître, pero no eran aún totalmente decisivos. Hubo que esperar a la medición de la radiación de fondo de microondas (realizada inequívocamente apenas dos años antes de la muerte de Lemaître) para que el Big Bang recibiera el reconocimiento generalizado de la comunidad científica.

1.2.2. El descubrimiento de la radiación de fondo de microondas

En 1948, un antiguo estudiante de Fridman llamado George Gamow (1904-1968) había precisado que el estado primitivo del universo, además de ser extremadamente denso, tenía que haber sido mucho más caliente de lo que se pensaba. Gamow predecía en sus cálculos la existencia de un resto enfriado (a causa de la sucesiva expansión del universo) de radiación primitiva. Se trataría de algo parecido a un fósil de esos primeros instantes que debería estar presente en todos los rincones del universo. Esta radiación es lo que hoy se conoce como radiación de fondo de microondas.

¿Pero qué relación hay entre la magnitud física que se conoce como temperatura y las ondas electromagnéticas que pueblan el universo? ¿Acaso se puede medir la temperatura de la luz con un termómetro? La relación es más sutil de lo que parece. Los científicos sabían desde tiempo atrás que cualquier cuerpo que tiene una temperatura determinada y emite luz en equilibrio al exterior, sin ningún sesgo particular, lo hace según una curva universal que relaciona la cantidad de intensidad emitida con cada longitud de onda. Esta curva es universal en el sentido de que no depende del material, sino de la temperatura a la que se encuentra el cuerpo (es la ley de Planck). Así, por ejemplo, un hierro calentado a poco más de 1000 oC se ve de color rojo (emite preferentemente en la longitud de onda del rojo) y, si se calienta más, se pone blanco (todas las longitudes de onda participan de modo similar en la emisión). ¿Sería posible descubrir una radiación electromagnética en el universo que siguiera la ley de Planck?

Años más tarde, en 1964, dos científicos de la compañía Bell, Arno Penzias (1933-) y Robert Wilson (1936-), mientras estaban calibrando una antena de recepción de un telescopio de microondas, encontraron de modo casual un persistente ruido isótropo de fondo. Era una radiación muy pequeña, correspondiente a un espectro que cumplía perfectamente la ley de Planck para un cuerpo a una temperatura muy baja: en torno a 3 K (-270 oC). Intentaron por todos los medios hallar el origen de dicha radiación contaminante, incluso llegaron a desmontar el equipo. Todo fue inútil. Afortunadamente, alguien recordó que existía una predicción de Gamow sobre la radiación de fondo de un universo dinámico y que, dado el tiempo transcurrido en el universo desde la explosión original y debido a su enorme expansión, esta radiación debería corresponder a una temperatura muy baja. Se había descubierto la radiación de fondo de microondas casi por casualidad.

Hay que decir que esta radiación de fondo no se corresponde estrictamente hablando con los primerísimos instantes del cosmos, sino a lo que se conoce como la época del último scattering (dispersión), en torno a 380 000 años después del Big Bang. En esa época, el universo se ha enfriado lo suficiente para que los núcleos de los átomos y los electrones puedan recombinarse para formar ya átomos estables (sobre todo de hidrógeno), que dan lugar a la materia normal que hoy conocemos. Los fotones que componen la radiación electromagnética no suelen dispersarse al interaccionar con átomos estables, de modo que, en ese momento, el universo se habría hecho transparente a la luz. Y es esa luz la que continúa viajando por todo el cosmos sin impedimento alguno, como una reliquia electromagnética de aquella época. A causa de la expansión del universo, la longitud de onda de los fotones de la radiación de fondo se ha ido estirando hasta entrar en la región de las microondas. Sin embargo, estos fotones conservan la curva universal de la ley de Planck a una temperatura más baja (la curva correspondiente a 2,7 K es la que se mide en la actualidad). La radiación de fondo se podría observar en cualquier parte del universo, como de hecho ocurre, y proviene de todas direcciones con la misma intensidad (no hay ninguna dirección privilegiada).

En resumidas cuentas, la radiación de fondo era una prueba fehaciente de que la termodinámica del cosmos estaba de acuerdo con la termodinámica del Big Bang. Hoy día, esta radiación de fondo es, con diferencia, el dato empírico más importante para la cosmología física. Los telescopios la miden cada vez con más precisión y los científicos analizan la multitud de datos que se recogen para contrastarlos —mediante diversos tratamientos estadísticos muy serios— con las diversas hipótesis cosmológicas que buscan refinar el modelo del Big Bang.

1.2.3. La abundancia relativa de los elementos más ligeros

A grandes rasgos, se puede decir que el 99 % de la materia del universo que vemos está formada por hidrógeno y por helio, los dos elementos más ligeros de la tabla periódica. El 1 % restante corresponde a los elementos más pesados. El hidrógeno es el elemento más abundante, con una abundancia relativa del 75 %, mientras que al helio le corresponde un 24 %. ¿Hay alguna explicación dentro de la teoría del Big Bang para estas proporciones relativas en la abundancia de los elementos?

Sí. Sin entrar demasiado en detalles técnicos, podemos mencionar que la teoría del Big Bang afirma que los núcleos atómicos de los elementos más ligeros se formaron en los primeros segundos de vida del universo. Por ejemplo: si partimos de un universo extremadamente caliente, es lógico suponer que habría una cantidad similar de protones y de neutrones, pues la temperatura sería lo suficientemente grande para que se transformaran continuamente unos en otros, en un equilibrio dinámico. Cuando, a causa de la expansión, la temperatura empieza a disminuir (en torno a decenas de miles de millones de grados), los neutrones —que son ligeramente más pesados que los protones— continúan rompiéndose en partículas más pequeñas, pero ya no hay suficiente temperatura —energía disponible— para que vuelvan a formarse. La población de neutrones decae, mientras que los protones siguen manteniendo su número. Un poco de tiempo más tarde, la temperatura habrá descendido a solo unos cientos de millones de grados, momento en el que el protón y el neutrón se pueden unir para formar el núcleo de un átomo de deuterio (isótopo del hidrógeno), que ya es estable. Y la presencia del deuterio es clave para que, mediante otras reacciones nucleares, puedan empezar a formarse núcleos del átomo de helio. Es lo que se conoce como nucleosíntesis primordial. Si se realizan los cálculos de las proporciones esperadas, teniendo en cuenta la tasa de expansión y enfriamiento del universo prevista por la teoría, se obtienen los números que hoy día observamos.

Más aún, utilizando el modelo del Big Bang, es posible calcular la concentración de helio-4, helio-3, deuterio y litio-7 en relación con la cantidad total de hidrógeno que existe en el universo. Los cálculos —realizados a partir de 1948 por Ralph Alpher (1921-2007), Hans Bethe (1906-2005) y Gamow (1904-1968)— reproducen con enorme precisión las proporciones relativas de dichos elementos, de modo que la teoría del universo caliente y en expansión resulta la única explicación conocida para los datos de que se dispone. Después, cuando se comienzan a comprender los procesos de formación de los núcleos más pesados, producidos en el interior de las estrellas por las condiciones especiales de presión y temperatura que allí existen, se puede ir reconstruyendo el resto de la historia. El mundo de lo más pequeño y el mundo de lo más grande se unen para ir completando la teoría actual sobre la evolución del universo.

1.2.4. La anisotropía de la radiación de fondo y la formación de las galaxias

Como señalábamos antes, la radiación de fondo de microondas es el dato experimental más importante para el estudio científico sobre los orígenes del universo. Desde su descubrimiento, diversos telescopios y sondas espaciales —como el Cosmic Background Explorer (1989), la Wilkinson Microwave Anisotropy Probe (2001) y el Planck Spacecraft (2009)— han recogido esta radiación de manera cada vez más precisa. Después del descubrimiento de Penzias y Wilson, la preocupación de los científicos era la extraordinaria isotropía de la radiación de fondo: prácticamente idéntica en todos los lugares del espacio donde se medía. Esto era preocupante, porque, si el universo en sus primeros momentos era tan homogéneo como apuntaba la radiación de fondo, ¿cómo habían llegado a formarse las estructuras de materia (agujeros negros, galaxias, estrellas, planetas…) que hoy observamos? ¿Por qué en determinados lugares del cosmos existen esos conglomerados de materia, mientras que la mayoría del espacio parece vacío?

Los fotones que componen la radiación de fondo ofrecen una imagen directa de cómo era el universo en sus primeras épocas. Gracias a nuevas medidas más precisas, se ha detectado que dicha radiación posee una anisotropía intrínseca (es decir, la radiación no es idéntica en todos los lugares), de una parte en cada cien mil para una temperatura media de 2,726 K. Estas pequeñísimas variaciones en la intensidad de la radiación de fondo a lo largo y ancho del cielo indican cómo estaban distribuidas la materia y la energía cuando el universo era aún muy joven: había la suficiente inhomogeneidad para que, con el paso del tiempo y mediante los efectos de la gravedad, los pequeños grumos de materia pudieran desarrollarse hasta dar lugar a la estructura a gran escala del universo que contemplamos en la actualidad.

Una buena parte de la cosmología física contemporánea se dedica a estudiar el modo preciso de formación de las galaxias dentro del modelo estándar. Aunque quedan bastantes detalles por entender, las observaciones sobre la formación de estrellas y las distribuciones de galaxias, cuásares y cúmulos de galaxias están de acuerdo con las simulaciones numéricas que pueden hacerse acerca de la formación de estructuras en un universo procedente del Big Bang.

En resumen, la evolución del universo tal y como es descrita por la teoría del Big Bang (dentro del marco general de la teoría de la relatividad y el modelo estándar de partículas) es aceptada por la inmensa mayoría de los científicos y especialistas en cosmología. Sabemos a ciencia cierta que el universo visible se expande y se enfría, y que algunas etapas de la gran explosión inicial tienen una verificación experimental muy firme, pero quedan aún incógnitas por despejar y problemas por resolver dentro del actual modelo cosmológico.

1.3. PROBLEMAS SIN RESOLVER EN EL MODELO COSMOLÓGICO ESTÁNDAR

Como decíamos, a pesar del gran éxito de la teoría del Big Bang, este modelo no explica algunas cuestiones muy relevantes, tanto desde el punto de vista teórico como experimental, acerca del origen y la evolución del universo. Hasta cierto punto, es lógico que suceda así. La ciencia avanza poco a poco generando marcos conceptuales nuevos que mejoran a los anteriores, pero que suscitan a su vez nuevos interrogantes. Presentaremos ahora una pequeña muestra de algunos de los problemas sin resolver dentro del modelo.

1.3.1. El problema del horizonte y el modelo inflacionario

Si la radiación de fondo es prácticamente igual en todo el universo que alcanzamos a observar, esto solo podría explicarse porque todas las regiones del universo estuvieron juntas, en equilibrio dinámico, en los momentos iniciales. Ahora bien, el tiempo transcurrido desde el origen del universo se calcula en unos 13 700 millones de años, mientras que el radio (el horizonte) del universo que actualmente conocemos (se da por supuesto que hay más, pero aún no ha dado tiempo a que su luz llegue hasta nosotros) es de unos 46 000 millones de años luz. ¿Cómo es posible entonces que todo el universo esté termalizado, como parece indicar la homogeneidad de la radiación de fondo, si la información no puede viajar a una velocidad mayor que la de la luz?

O bien el universo es más grande de lo que debería ser, o bien no todas sus regiones estaban en contacto en sus inicios. Mas si esto último fuese cierto, ¿cómo es posible que regiones que no han estado en contacto tengan la misma temperatura? Ante este problema, conocido como problema del horizonte, científicos como Alan Guth (1947-) propusieron la hipótesis del modelo inflacionario. Se trata de un añadido a la teoría inicial del Big Bang, que postula que el universo sufrió una enorme expansión (un tremendo hinchamiento de varias decenas de órdenes de magnitud), poco tiempo después de nacer (en torno a los 10-36 s), en un gigantesco proceso exponencialmente acelerado, que hizo que las regiones del universo inicialmente en contacto y equilibrio térmico se separan enormemente. Esto explicaría la homogeneidad de la radiación de fondo. El universo, al ir enfriándose, pasó en el momento de la inflación por una especie de «transición de fase»: como un líquido subenfriado por debajo de los cero grados que, de repente, se congela cambiando radicalmente su aspecto y liberando una gran cantidad de energía.

Si la inflación ocurrió, la expansión exponencial del universo haría que quedasen todavía enormes regiones del espacio más allá de nuestro horizonte de observación. Pero la causa física de ese enorme crecimiento está actualmente en discusión, pues no se sabe aún lo suficiente para poder explicar por qué habría ocurrido. No obstante, si el proceso inflacionario tuvo verdaderamente lugar, tendría que haber producido ondas gravitacionales (pequeñas ondulaciones del mismo espacio que llegarían hasta nosotros como las olas que llegan a la playa después de una gran tormenta en el centro del océano). La medición directa de dichas ondas no es fácil, y solo podríamos conocerlas indirectamente por los efectos que habrían dejado en la radiación de fondo que viaja a caballo de ellas (como los restos que dejan las olas en la arena). Esta parecía ser la última medición importante que ha tenido lugar en el campo de la cosmología en el año 2014. El equipo del físico y astrónomo John Kovac (1970-) detectó patrones espirales de polarización en la luz de la radiación de fondo registrada por el telescopio Bicep2 en la Antártida, algo que se considera un indicio incuestionable de la presencia de ondas gravitacionales6 amplificadas durante el período inflacionario. De confirmarse dichas medidas, el modelo inflacionario del Big Bang pasaría a ser el modelo estándar del origen del universo. Sin embargo, en el momento de escribir, dicha interpretación comienza a ser rechazada por la mayoría de los expertos, al considerar que las mediciones se ven afectadas de modo crítico por los efectos del polvo intergaláctico.

1.3.2. El problema de la planitud del cosmos

Cuando hablamos de los posibles universos dinámicos que satisfacen las ecuaciones de Einstein, nos referimos anteriormente a tres posibilidades: un universo abierto, un universo cerrado o un universo plano. Geométricamente, en cuatro dimensiones, cada una de estas posibilidades se corresponde, respectivamente, con un universo de curvatura negativa (como la de una silla de montar), de curvatura positiva (como la de una esfera) o de curvatura cero (como la del espacio euclídeo habitual, con el que estamos familiarizados). Que se dé uno u otro tipo depende, a grandes rasgos, de la densidad total de energía del universo: de la proporción entre energía cinética, que se corresponde con la inercia de la expansión, y energía potencial, que depende de la cantidad total de materia y energía del cosmos. La curvatura del universo sería negativa si la energía cinética es mayor que la potencial, positiva si la energía cinética es menor que la potencial, y cero si la energía cinética y la potencial se compensan exactamente. A la densidad de materia y energía necesaria para esto último se la conoce como densidad crítica.

El problema es que, si en los inicios del universo la curvatura era distinta de cero, su valor debería haber crecido exponencialmente con el tiempo. Sin embargo, lo que observamos experimentalmente es un universo prácticamente plano de curvatura cero. Si se hacen algunos cálculos, eso implicaría que el universo naciente debía tener exactamente la densidad crítica, con una precisión de una parte en 1014, o no podría haber llegado a existir como lo conocemos hoy. ¿Por qué ese valor? Una solución al problema podría venir de la teoría inflacionaria: durante el período inflacionario, el espacio-tiempo se habría estirado de tal manera que su geometría —con independencia del valor que la curvatura hubiese tenido antes— resultó suavizada hasta quedar prácticamente plana.

1.3.3. La materia oscura

En el último cuarto del siglo XX, diversas observaciones demostraron que no hay suficiente materia visible en el universo que observamos para explicar las interacciones gravitatorias que se dan entre las galaxias y dentro de ellas mismas. Por una parte, si se consideraba que toda la materia del universo era la que se veía, se llegaba a importantes contradicciones con otros resultados experimentales (p. ej., la cantidad de materia visible está muy por debajo de la necesaria para la densidad crítica que parece tener el universo). Por otra parte, al medir la velocidad de las estrellas que se encuentran en la parte más exterior de las galaxias, el resultado era bastante mayor de lo esperado en comparación con los cálculos que tienen en cuenta el campo gravitatorio de toda la materia visible de la galaxia.

La conclusión que se ha impuesto en la comunidad científica es que hay más materia en el universo que la que se puede ver porque emite luz. Hoy día se considera que en torno al 90 % de toda la materia que debe existir en el cosmos es materia oscura (no emite luz). Se asume que la localización principal de dicha materia es en el halo de las galaxias (lo que explicaría las velocidades anómalas de las estrellas más exteriores), pero no se entiende cuál puede ser su composición, pues si fuera materia como la que conocemos en nuestra planeta, debería poder detectarse su radiación. La evidencia experimental de la materia oscura proviene únicamente de sus innegables efectos gravitacionales. La física de altas energías ha propuesto diversos candidatos teóricos para este tipo de materia, y están en marcha algunos proyectos para poder detectarla de manera directa. Pero, hoy por hoy, ninguna materia oscura se ha observado en los aceleradores de partículas.

1.3.4. La energía oscura

Las medidas más recientes del desplazamiento hacia el rojo de la luz emitida por un tipo de supernovas indican que el universo no solo se está expandiendo, sino que lo está haciendo de manera acelerada: su tasa de expansión crece conforme pasa el tiempo. Para explicar este fenómeno, el modelo del Big Bang necesita que la mayor parte de la energía presente en el universo contenga un componente de presión negativa. Se trataría de algo similar a la energía que contiene un muelle comprimido más allá de su posición de equilibrio, que le hace expandirse al ser liberado. La naturaleza concreta de esta energía que permea todo el espacio resulta ser uno de los grandes misterios para la teoría del Big Bang, de ahí que haya sido denominada como energía oscura.

La opinión común de los científicos es que el origen de la energía oscura tiene que ver con el origen mismo del cosmos. La energía oscura sería una energía de vacío (la energía fundamental que ha de tener todo sistema físico por el hecho mismo de existir) del espacio-tiempo; una especie de constante cosmológica, al estilo de la que quiso inicialmente introducir Einstein en sus ecuaciones. No obstante, para poder seguir avanzando en esa línea, sería necesario tener una teoría cuántica de la gravedad que unifique toda la física. A pesar de muchos intentos en esta dirección, no existe en la actualidad ninguna teoría cuántica de la gravedad universalmente aceptada por la comunidad científica. Los datos experimentales, por su parte, apuntan a que la suma de toda la materia y energía visibles del universo, más la materia y la energía oscuras, alcanza precisamente la densidad crítica que se necesita para tener un universo de geometría plana. En concreto, la distribución actual de toda la materia y energía del universo que da lugar al 100 % de la densidad crítica sería la siguiente: 70 % de energía oscura, 25 % de materia oscura, 4,5 % de materia visible regular (estrellas y planetas junto a hidrógeno y helio libres) y 0,5 % de neutrinos y elementos pesados. Pero no existe hoy por hoy ningún cálculo teórico que explique esos valores.

Se supone, además, que la densidad de energía oscura permanece constante a pesar de la expansión del universo, de modo que su peso relativo en la distribución de materia y energía que da lugar a la densidad crítica irá aumentando (pues la densidad de materia irá disminuyendo). En cualquier caso, resulta digno de mención que aproximadamente el 95 % de la materia y energía que forman el universo sean actualmente desconocidas dentro del modelo estándar del Big Bang.

1.3.5. Otros problemas

Los problemas que acabamos de estudiar pueden considerarse como los más importantes dentro del marco conceptual del Big Bang. No obstante, existen además otra serie de problemas, de menor entidad, que también concentran la atención de los investigadores:

Ausencia de monopolos magnéticos. Mientras que en la naturaleza pueden existir cargas positivas y negativas por separado (pensemos, por ejemplo, en un protón o en un electrón aislados) como fuentes de la interacción eléctrica, nunca se ha observado tal fenómeno para el magnetismo: todos los imanes tienen un polo norte y un polo sur (análogos a la carga eléctrica positiva y negativa), pero no existen polos norte y polos sur (monopolos magnéticos) por separado. Así lo predicen también las ecuaciones de Maxwell, que unifican la interacción electromagnética.

Sin embargo, las teorías físicas más recientes predicen la aparición de monopolos magnéticos en los primeros momentos de un universo extremadamente denso y caliente, como defectos topológicos del espacio tiempo. ¿Por qué no los vemos en la actualidad? El modelo inflacionario podría dar una respuesta asumiendo que el enorme estiramiento inicial del universo eliminaría todos los defectos topológicos (y por consiguiente los monopolos magnéticos) de la geometría del espacio-tiempo. Otras explicaciones también son posibles, aunque gozan hoy en día de menor popularidad.

La asimetría materia-antimateria. Cada partícula fundamental de la que está hecha la materia —quarks y leptones— posee una especie de imagen especular de ella misma, llamada antipartícula. Las partículas y sus antipartículas tienen signo opuesto en algunas de las propiedades que las definen. Así, por ejemplo, la antipartícula del electrón es el positrón (con carga positiva en vez de negativa). En principio, el universo no debería ser más favorable a la materia que a la antimateria, pero, curiosamente, observamos un universo compuesto casi exclusivamente por materia (la antimateria ha de ser producida artificialmente en condiciones muy especiales). ¿Por qué? ¿Es realmente así? ¿Existen zonas del universo aún desconocidas que están compuestas únicamente por antimateria?

No se entiende por qué el cosmos tiene más materia que antimateria. Existen hipótesis que sugieren que, al comienzo del universo, mediante procesos físicos aún no bien comprendidos, como la bariogénesis, se produjo una asimetría fundamental entre partículas y antipartículas, de manera que solo la materia compuesta por partículas ha logrado perdurar hasta nuestros días.

La edad de los cúmulos globulares. Los cúmulos globulares son aglomeraciones de una enorme cantidad de estrellas que orbitan en torno a las galaxias. Resultan ser de los objetos más antiguos en el universo. En torno al año 1990, algunas de las observaciones de estos cúmulos parecían ser inconsistentes con el modelo del Big Bang: determinadas simulaciones numéricas predecían una antigüedad de unos 15 000 millones de años para dichos objetos, mayor que la del mismo universo. El progreso en la comprensión de la dinámica y la evolución de los cúmulos globulares ha mejorado las estimaciones de su edad, que ya parece ser compatible con la del Big Bang. Sin embargo, los márgenes de error en los cálculos son aún lo suficientemente grandes para considerar el problema definitivamente resuelto.

1.4. HIPÓTESIS ALTERNATIVAS A LA TEORÍA DEL BIG BANG

Además de los problemas que hemos presentado en el epígrafe anterior, el modelo del Big Bang es problemático respecto de la cuestión del origen del tiempo. Dentro del marco de la teoría de la relatividad hay teoremas matemáticos que, para condiciones muy genéricas, demuestran la existencia inevitable de una singularidad en el espacio-tiempo del universo para valores finitos del tiempo (es decir, dentro de una historia del universo que está acotada y no es infinita). Por singularidad ha de entenderse una situación en que las magnitudes físicas relevantes se hacen infinitas o dejan de estar bien definidas: el modelo deja de funcionar.

Este orden de cosas ha llevado a un buen número de científicos a intentar mejorar el modelo del Big Bang con hipótesis alternativas, que puedan resolver el problema de la singularidad en el origen del tiempo. Son hipótesis que buscan ir más allá del Big Bang, tanto en el sentido de avance científico como en el de la búsqueda de un escenario físico anterior —al menos conceptualmente— al Big Bang. Casi todos estos modelos se apoyan en teorías de gravedad cuántica que, hoy por hoy, son incompletas y no poseen ningún apoyo empírico. Sin embargo mantienen el interés científico por su eventual mayor simplicidad explicativa y posibilidad de contrastación experimental.

1.4.1. La propuesta de Hartle y Hawking

James Hartle (1939-) y Stephen Hawking (1942-) han propuesto una extensión del modelo el Big Bang en el que no habría una singularidad al comienzo del tiempo. Al igual que el espacio podría curvarse sobre sí mismo sin que se llegara a una frontera abrupta,7 con el tiempo podría suceder algo similar. Conforme nos acercáramos al Big Bang, la dimensión temporal se curvaría sin que llegásemos a encontrar un punto singular. Una analogía válida podría ser la siguiente: imaginemos un cono invertido, cuya superficie representa el espacio-tiempo del universo. El tiempo avanza hacia arriba, en el sentido en que se abre cada vez más el cono. Todos los puntos del cono pueden describirse entonces de manera unívoca mediante dos variables, una espacial y otra temporal. Ahora bien, si retrocedemos en el eje del tiempo, todos los puntos del cono colapsarían en un punto singular: el vértice. La idea de Hartle y Hawking es que el espacio-tiempo representado por el cono no tuviese ese inicio abrupto en el tiempo, en punta, que ocurre en el vértice. En las cercanías del vértice, el cono podría suavizarse o redondearse, de forma que el vértice dejase de ser tal y se convirtiera en un conjunto de puntos que formaran una superficie suave, sin punta. El precio a pagar por evitar la singularidad temporal es que, en esa zona, el tiempo dejaría de tener el significado que le atribuimos en la física ordinaria. De hecho, el modelo de Hartle y Hawking conlleva una serie de dificultades técnicas añadidas, al tener que usar una variable temporal con valores imaginarios que hacen dudar de su aplicación a la geometría del universo que conocemos.

1.4.2. La hipótesis de los multiversos

La hipótesis de los multiversos sugiere que el Big Bang no es más que el crecimiento exponencial de un universo dentro del enorme conjunto de todos los universos posibles (compatibles con las leyes fundamentales de la física). El Big Bang no sería propiamente dicho un comienzo, puesto que provendría de una especie de humus de universos (cada uno con sus constantes cosmológicas y sus leyes físicas particulares), de los que solo algunos como el nuestro llegan a expandirse. Si bien todo ello suena exótico, dentro del marco de las teorías de supercuerdas es posible dar una cierta consistencia teórica a la hipótesis utilizando seis o siete dimensiones más de las tres espaciales y una temporal que percibimos, así como las propiedades de los espacios de Calabi-Yau.

Aunque resulta muy controvertida la mera posibilidad de chequear experimentalmente la existencia de universos paralelos al nuestro, algunos científicos, como Max Tegmark (1967-), defienden la relevancia de la hipótesis, al ser una consecuencia directa de determinados modelos teóricos de gravedad cuántica aplicada a la cosmología. Otros físicos teóricos, como Lee Smolin (1955-), han criticado la hipótesis no solo por la aparente imposibilidad de ser falsificada empíricamente, sino por sus inconsistencias teóricas. La posibilidad de la existencia de universos paralelos ya había sido pensada por algunos filósofos siglos atrás, pero por ahora, y parece que por mucho tiempo más, todas estas teorías son puramente especulativas desde el punto de vista científico.8

1.4.3. Los universos cíclicos y la cosmología cíclica conforme

Una versión atenuada de los multiversos es la que considera no una existencia en paralelo de diferentes tipos de mundos, sino una secuencia temporal de universos, de los que unos son en cierto sentido padres y otros hijos. Nuestro universo sería una etapa o especie más dentro del gran árbol de la vida de los posibles universos: una verdadera historia universal, donde el tiempo sería la dimensión primaria y fundamental para la física.

Una versión simple de esta hipótesis general es la de los universos cíclicos, en la que, después de alcanzar una expansión máxima, el universo implotaría sobre sí mismo en un Big Crunch inverso al Big Bang. Cada Big Crunch daría lugar a un nuevo Big Bang en una especie de rebote cósmico indefinido. Sin embargo, este modelo cuenta con varios obstáculos prácticamente irresolubles: en primer lugar, la segunda ley de la termodinámica parece impedir un rebote cíclico de universos, que irían desgastando su capacidad de generar nuevos big bangs; en segundo lugar, la transición de un Big Crunch a un Big Bang resulta en principio prohibida por la relatividad general (no se puede pasar de manera suave de la geometría del agujero negro final del Big Crunch a la geometría del Big Bang), y, en tercer lugar, porque sería necesario que el universo tuviese una densidad de materia y energía superior a la densidad crítica, que es lo contrario de lo que actualmente observamos.

Un modelo cíclico más refinado sería el de la cosmología cíclica conforme del físico matemático inglés Roger Penrose (1931-) (Penrose 2010; 2016; Sánchez-Cañizares 2017a). En dicho modelo, después de la evaporación de todos los agujeros negros y la pérdida de la información que contienen, el resto de la masa del universo terminaría por desaparecer, para quedarnos únicamente con energía en forma de radiación. En ese momento, una parte del universo podría convertirse en el Big Bang de un nuevo universo (un nuevo eón) mediante un simple cambio de escala. Aunque la propuesta es altamente especulativa, tiene el mérito de predecir algunas consecuencias que deberían ser detectables empíricamente. En concreto, el modelo de Penrose predice la existencia de correlaciones circulares en las anisotropías de la radiación de fondo de microondas, que serían fruto de la radiación proveniente de choques de agujeros negros en un universo anterior al nuestro (Gurzadyan y Penrose 2010; 2013). Pero, hoy por hoy, no existe ninguna evidencia experimental al respecto (Moss, Scott y Zibin 2011).


¿Qué resumen podemos hacer después de este viaje por los modelos científicos que estudian el origen y la evolución del universo? La teoría del Big Bang continúa siendo el modelo estándar, comúnmente aceptado por la comunidad científica mundial. Sin embargo, esta teoría no dice ni explica nada acerca del instante mismo de la gran explosión. Describe simplemente la evolución del universo a partir de dicho instante, bajo condiciones geométricas, físicas y termodinámicas muy generales.

Desde luego, no sabemos nada de lo que pudo haber ocurrido antes del tiempo de Planck (10-43 s), para lo que sería necesario disponer de una teoría de la gravedad cuántica. Se piensa que, a partir de los 10-36 s, el universo entró en la etapa inflacionaria, en la que se expandió diversos órdenes de magnitud en unas cuantas trillonésimas de trillonésimas de segundo, pero no conocemos las razones físicas por las que pudo ocurrir dicho proceso. Después de la inflación, la expansión y enfriamiento más calmados del universo empezarían a permitir la diferenciación de las partículas e interacciones fundamentales que conocemos hoy mediante un proceso aún no del todo bien comprendido que conlleva diversas rupturas espontáneas de simetrías. Tras unos cuantos segundos, empezarían a formarse de manera estable los núcleos de los átomos de deuterio y helio y, después de unos 378 000 años, los núcleos atómicos ya serían capaces de captar los electrones necesarios para formar los átomos de materia ordinaria, momento en el cual la radiación también se libera de la materia y viaja libremente por el cosmos como el fondo de microondas que medimos en la actualidad. La descripción prosigue considerando que, en aquellas regiones donde la materia fuera ligeramente más densa, tendería a juntarse gravitacionalmente dando lugar a nubes, estrellas, galaxias y el resto de las estructuras que se observan. Y serán las estrellas los auténticos reactores termonucleares donde tenga lugar la síntesis de nuevos elementos más pesados (carbono, nitrógeno y oxígeno), necesarios para la vida. Pero eso es ya otro capítulo.

Desde el punto de vista de lo que se considera como ciencia aceptada, la imagen del universo que tenemos en la actualidad se puede considerar muy completa a partir de 10-11 s, porque, a partir de ese momento, la energía de las partículas es suficientemente baja para poder reproducirse en los experimentos de los aceleradores de partículas y permitirnos chequear experimentalmente la validez de los modelos teóricos. Pero no existe una teoría unificada y universalmente aceptada que describa el universo antes de 10-15 s. Por eso, llegar a comprender qué y por qué ocurrió en las épocas más tempranas del cosmos es el mayor problema de la actual cosmología científica.

Universo singular

Подняться наверх