LOS MODELOS COSMOLOGICOS
Einstein
sienta su teoría matemática de la gravedad sobre dos supuestos críticos, el
primero, que el universo no cambia con el tiempo y el segundo, que la materia
esta esparcida en forma pareja a través del universo.
Ambos
supuestos vendrianse a derrumbar con las observaciones. El de la inmutabilidad
del universo tendría la negativa de los descubrimientos de Hubble en 1929, que
gracias a los datos obtenidos por el telescopio del monte Wilson, California,
podría afirmar que el Universo se expande a la velocidad de su alejamiento. El
segundo supuesto también vendría a ser falso en los hechos, pues como
actualmente manifiesta el astrónomo Alan Lightman :
“El
supuesto de la homogeneidad que subyace al modelo del Big Bang es evidentemente
falso para nuestro universo cercano. Este no presenta un fluido uniforme e
indiferenciado que lo colme de modo regular. Por el contrario, es bastante
desigual. La materia se aglomera en galaxias y las galaxias forman racimos de
galaxias, y así sucesivamente.” [1]
Por lo
tanto, ¿cómo puede obtenerse una fiel conceptualización de la gravedad con dos
supuestos falsos?
Y en
esto el mismo Newton tiene su cuota de responsabilidad por argumentar en una
carta al teólogo Richard Bentley que el universo no podía estar contrayéndose o
expandiéndose globalmente porque tales movimientos requieren por necesidad de
un centro, tal como una explosión tiene su centro.
Y este
relajo en el pensamiento del gran físico, acomodado en la opinión mantenida por
siglos, fue como la cizaña al trigo, que cuando amabas son pequeñas se
confunden y por eso se la llama falso trigo, pero a medida que crecen la
primera perjudica a la segunda. De este modo nos vemos hoy con un estado de
situación un tanto contradictorio porque las teorías modernas se encuentran
apoyadas en formas caducas por la observación.
Un
ejemplo de esto es el modelo cosmológico del Big Bang, creado por Alexander
Friedman y redescubierto en el año 1927 por George Lemaître. Este modelo que se
fundó como una alternativa al universo estático, tuvo como contrapartida, el
aceptar la teoría de la gravedad de Einstein. De hecho, esta teoría generaría
en el transcurso del tiempo una ciencia
especulativa llamada hoy cosmología.
Si el
lector me permite, trataré de fundamentar esta afirmación con una breve
explicación:
Hoy
día, la ciencia se apoya en un método experimental en el cual basa todas sus
leyes. Pero es el caso que sus propias leyes son violadas a la hora de explicar
sus teorías.
Si se
afirma, como hoy se hace, que la gravedad proviene de la masa, entonces no se
tendrá problemas en explicar porque Neptuno que se encuentra a más de 4500
millones de kilómetros puede tener un periodo de rotación de 15, 7 horas cuando
la tierra a tan solo 156 millones de kilómetros tarda 24 horas nada más; como
es que Júpiter posee una densidad de 1,3 g/cm3 inferior al agua y
tiene una aceleración de la gravedad de 25,99 m/s2 , mientras que
Mercurio con una densidad mayor de 6,2 g/cm3 posee un aceleración
menor en superficie de 4 m/s2 . Pero la respuesta es que la ciencia,
sí posee grandes inconvenientes en fundamentar estas incongruencias, como posee
grandes obstáculos en explicar cómo es que Mercurio que esta tan cerca del sol
puede tener un periodo rotativo tan lento comparado con Júpiter que se
encuentra a 780 millones de km del astro rey.
Estas
cuestiones y otras tantas se les podría adjudicar a la teoría gravitatoria
actual como un peso muerto que no ha podido superar, pues aun ni con la teoría
relativista tales escollos dejarían de ser. Si se postula con ella que la
gravedad es producto de una inclinación del espacio (gravedad Einsteniana)
podría preguntarse de que manera esa inclinación, esa curvatura, se produce. Es
decir, habitualmente se nos explica que el planeta genera una deformación
estacionaria en la tela espacio temporal y que esa deformación hace las veces
de plano inclinado por el cual los planetas se deslizan geodésicamente; pero ¿qué
es lo que produce esa deformación?
Si
decimos que es el peso, estamos encerrándonos en una concepción falsa, ya que
el planeta no tiene peso alguno según la teoría relativista, es decir las cosas
solo pesan por una diferencia geométrica entre el espacio-tiempo y la masa. Por
otro lado si la masa es la causa del espacio curvo, ¿quién o que genera la
masa?
Por lo
tanto nos vemos enfrentados ante otro gran cuestionamiento: ¿Puede un cuerpo
deformar el espacio-tiempo?
Einstein
rechazo de cuajo la idea del éter que han sostenido tantos físicos en la
historia, tales como Newton, Huygens, el padre Pardies, Fresnel, Maxwel,
Neuman, Lorentz, Fizeau, cada uno con una visión distinta de él. El abandono
del Éter clásico fue debido igualmente al surgimiento del concepto de campo -de
Faraday, pasando por Maxwell hasta Einstein y la Dinámica Cuántica. El Espacio
pasó a ser tratado como algo dado, que está penetrado por campos presentes y
propagándose incluso en el vacío careciente de materia ordinaria. Los campos
pueden ser electromagnéticos, gravitacionales o supermasivos, y más
recientemente han resucitado con cierta dificultad en el concepto de
"espuma cuántica" o una "espuma espacial", un campo de
punto cero (ZPF) o la energía oscura de las partículas ausentes de Higgs
Einstein
en un principio adopto la idea del éter con las siguientes palabras: "Una reflexión más precisa nos enseña,
no obstante, que la teoría de la relatividad especial no nos obliga a negar el
éter. Podemos asumir la existencia de un éter; sólo (...) tenemos que extraer
por abstracción la última característica mecánica que Lorenz aún le ha dejado
(...), eso es, su inmovilidad. (...) Negar el éter es en última instancia
asumir que el espacio vacío no tiene ningún tipo de cualidad física. (...)
Recapitulando, podemos decir que según la teoría de la relatividad general el
espacio está dotado de cualidades físicas; en este sentido, pues, existe un éter" (A. Einstein,
"Éter y Relatividad", 1920).Pero, como se sabe, Einstein mismo
después descartó esta noción.
La
idea de Einstein es original, ya que descarta la noción de “fuerza” en la gravedad,
y postula en cambio, una diferencia entre geometrías, es decir, que la gravedad
es el resultado de la deformación de la tela espacio-temporal. Es interesante
el planteamiento ya que saca de foco la noción tradicional, pero si uno se fija
con cuidado, no resuelve en absoluto el origen de las fuerzas, ni mucho menos
el de la gravedad, porque si la tela se
deforma es gracias a una fuerza ¿Cuál es esta?. No se nos puede responder que
esta fuerza es la masa, la masa por sí sola no posee fuerza, ni tampoco se nos
puede decir que es por una inclinación espacio temporal ya que esta inclinación
debería producirse por la masa la cual en realidad no es nada por sí misma.
Pero
entonces ¿qué es lo que genera la gravedad?
Cualquier
modelo cosmológico deberá ser rechazado posteriormente si carece de una
contemplación hacia realidades meta-físicas. Así le ha ocurrido al modelo del
universo oscilante de Richard Tolman, creado en 1930. Este modelo supuso un
universo en oscilaciones constantes, que atravesase periodos de expansión
seguidos por otros de contracción. Este atisbo de verdad había nacido con un
defecto mortal, el universo era de tipo cerrado. Para la década de 1960, Roger
Pernose y Steve Hawking aprovecharían este defecto, que violaba la segunda ley de la termodinámica [2], para argumentar que no existía ningún mecanismo plausible capaz de producir
oscilaciones.
Aquí
cabría preguntar lo siguiente ¿No es considerado el Universo como un organismo?
Y si lo es ¿No poseen los organismos pulsaciones repetidas, oscilaciones
energéticas constantes?
Pero
lejos de responder a esto, los modelos han venido siguiéndose uno tras otro,
tratando de conciliar lo que se observaba experimentalmente con lo que estaba
establecido por sistema. De esta forma, y tratando de encontrar una manera de
explicar la constancia de las leyes universales, fue que nació el modelo del
universo en estado continuo [3]. Este modelo proponía que el universo no cambiaba
no el paso del tiempo, siendo la densidad promedio de la materia y la temperatura,
una constante invariable. Puede verse aquí un intento por explicar la ley de la
conservación de la energía, llevado a un extremo Aristotélico y que por no
poder reunir en un solo modelo las leyes de creación, conservación y
destrucción de la energía, tuvo que limitarse a una concepción artificial.
Observaciones posteriores, como la de los Quasars (descubiertos en 1963)
hicieron que el modelo perdiese credibilidad.
Otro
modelo tendría la oportunidad de reivindicar a la ciencia cosmológica, este
sería el modelo del universo inflacionario, postulado en el año 1980, y fue un
intento de unificar las grandes teorías de la física [4]. A saber, la teoría de
la fuerza electromagnética, la de la fuerza nuclear fuerte (que une las
sub-partículas al núcleo atómico), la de la fuerza nuclear débil (que es la que
genera radioactividad) y la de la gravedad, en donde todas estarían unidas en
el comienzo del universo, alrededor de los10-8 segundos cuando su
materia estaría a una temperatura aproximada a los 1014 grados centígrados.
Con este modelo se pretendía solucionar el problema de la cosmología plana y el
problema del horizonte sosteniendo que poco después del Big Bang, se produjo
una pequeña expansión de tipo exponencial, llamada por algunos “Fase de
Sitter”, que duraría milésimas de segundo pero que aun así, realizo una
homogenización general que es la que hoy se conoce como radiación de fondo.
Este
modelo, tuvo sus dificultades, resueltas en 1982, por Paul Steindhard, Andres
Albrech y Andrei Linde, pues la gravedad negativa estipulada no llenaba el
universo en forma pareja, pero aun así, con estos arreglos o retoques al mejor
estilo “ o sale o sale”, el modelo sufrió la refutación teórica que argüía que,
aunque éste era mucho más homogéneo que el modelo anterior, no dejaba de
predecir inhomogeneidades en la infancia del universo y suficientemente grandes
como para desnivelar la uniformidad que se observa en la radiación cósmica
actual. Además de esto, este modelo necesitaba verificar una enorme cantidad de
masa faltante que hoy día no es observable y para mayor confusión aun, el
problema entrópico siguió siendo irresoluto.
Lo que
los científicos no pueden explicar más allá de la amplia variedad de modelos
creados, es como y porque las aglomeraciones se forman, y como y porque (sin
mencionar el para qué) las galaxias se generan espiraloidalmente en torno a un
centro, y para explicar esto, tratan en vano, de justificar tales congregaciones
con movimientos uniformes que le den al principio y origen del universo una
tendencia que genere dichas formaciones.
El
modelo de materia oscura fría[5] desechado ya por observaciones realizadas en
el año 1990 por S.J. Maddox, G. Efstathiou, W.Sutherland y J. Loveday, de la
Universidad de Oxford, es otro ejemplo más de esta típica actitud de querer
hacer del universo, una maquina automática en la cual antes de comenzar se le
hecha un producto, se le regula la velocidad y se le fija una temperatura, para
obtener como resultado, un universo a medida de muy acotadas concepciones.
Pero
esto, no les ha eximido de enorgullecerse de sus inventos y comprobaciones,
como los realizados por el satélite GP-B (Gravity Probe-B). En estos últimos
años y en donde pudieron probar mediante un sistema de giroscopios la curvatura
de lo que los llaman espacio-tiempo. Mas, y a despecho de la precisión
proclamada por los expertos, no puede ser negado que, el 95 % de la sustancia
que, según ellos, existe en el universo y lo hace funcionar, permanece sin
clasificar y es totalmente desconocida[6].
Esta
materia oscura, inventada por los científicos en los límites de la
desorientación fue prevista después de que en el año 1933 el astrónomo
suizo-norteamericano Fritz Zwicky llegó a obtener la cantidad de masa de una
aglomeración de galaxias calculando la gravedad para que el grupo no se
disperse. El resultado fue una masa total que era unas veinte veces mayor de lo
que debería ser de acuerdo con las estrellas observables de esa galaxia. Así
mismo en el año 1973 Jeremiah Ostriker y James Peebles dedujeron según análisis
teóricos que la cantidad de masa en los discos de típicas galaxias en rotación
no era suficiente para que ellas se separasen.
De
esta forma, debería asumirse que la “masa oscura” según la llaman, gobierna el
movimiento estelar de manera casi unánime ya que si se guían por la masa
visible, el valor Omega [7] se reduciría a 0.01 lo que daría como resultado un
universo abierto y totalmente contrario a lo esperado, negando rotundamente las
bases del Big Bang. Aun incluyendo la masa oscura el resultado de Omega seria
de 0.1 y por este motivo los científicos no solo están buscando
desesperadamente a la masa oscura, sino a otra masa que ellos llaman “masa
faltante”.
Creo
que, esto último da una visual poco seria de la cuestión. ¿Cómo pueden
mantenerse las mismas bases teóricas que hoy se utilizan cuando las fuerzas que
gobiernan los movimientos estelares son completamente desconocidos? “En estos últimos años los astrónomos no
dejan de inquietarse porque han comprendido que la materia luminosa que han
observado y examinado durante siglos constituye un simple decimo de la
totalidad. El descontento no solo se relaciona con la desconocida identidad de
la materia oscura; tampoco se conocen su cantidad y su disposición en el
espacio, lo que frustra cualquier intento por comprender porque la masa luminosa está dispuesta como
lo está” [8]
¿Por
qué se siguen inventando masas oscuras para avalar los desconcertantes cálculos
gravitatorios?
Esto
no debe sorprendernos. Es la herencia que les ha tocado a los que renegaron de
los verdaderos sabios como Platón que encontraba en este mundo una réplica
inexacta de aquel otro que era geométrico y exacto, intuido por Kepler cuando
le aplicaba al mecanismo orbital estructuras semejantes a los poliedros.
Y es
por esto que los científicos se han ocupado de develar el origen del vasto
universo cuando todavía desconocen el origen de su propio planeta. Sean
perdido, indudablemente, en la extensión sin recabar en la profundidad y, como
los niños, se han puesto a ensayar con las herramientas de los mayores, cuando
deberían seguir con la palita y el balde en el arenero.
De
acuerdo con las teorías ampliamente aceptadas, las vecindades de un sol galáctico
deberían estar llenas de materia oscura. Ahora bien, un estudio realizado en
Chile en el año 2012 utilizando, junto con otros telescopios, el telescopio
MPG/ESO [9] de 2.2 metros en
el laboratorio La Silla, ha cartografiado los movimientos de más de 400
estrellas situadas a más de 13.000 años luz del sol y con esos datos han
calculado la masa de materia en las vecindades de nuestro sol teniendo en
cuenta un volumen que supera cuatro veces el utilizado anteriormente. Cuando el
líder del equipo Cristian Moni Bidin del departamento de Astronomía de la
universidad de Concepción en Chile tuvo que referir lo que dieron los
resultados explico lo siguiente: “La
cantidad de masa derivada encaja muy bien con lo que vemos -estrellas, polvo y gas- en la región que
rodea al sol, pero esto no deja espacio
para materia extra –la materia oscura- que esperábamos encontrar. Nuestros
cálculos muestran que debería haberse visto claramente en nuestras medidas.
Pero, simplemente, ¡No estaba allí! (…) Pese a los nuevos resultados, la vía
láctea rota sin duda más rápido de lo que cabría esperar si solo fuera materia
visible. Por tanto, si la materia oscura
no está presente donde suponíamos que debía estar, debemos encontrar una nueva
solución para el problema de la materia que falta. Nuestros resultados contradicen los modelos aceptados actualmente. El
misterio de la materia oscura acaba de hacerse aún más misterioso” [http://www.eso.org/public/spain/news/eso1217/]
Esto
deja ya sin mucho ánimo para seguir creyendo en la teoría de la materia oscura
que no solo va en contra de la gravedad comúnmente aceptada, sino de la teoría
del Big Bang.
A
propósito de ello, cabe mencionar aquí otra observación reciente que se efectuó
en el año 2011, la estrella encontrada por un equipo de astrónomos europeos con
el Very Large Telescope de ESO en Cerro Paranal, Chile, compuesta casi
totalmente de hidrógeno y helio con cantidades muy pequeñas de otros elementos
químicos colocándola por ello en la “zona prohibida del Big Bang. Esta tenue
estrella en la constelación de Leo llamada SDSSJ102915+172927 tiene una masa
más pequeña que el sol y más de 3000 millones de años. La autora principal del
estudio, Elizabetta Caffau dice: “Una teoría ampliamente aceptada predice que
las estrellas de este tipo, con poca masa y cantidades extremadamente baja en
metales, no debiera existir, porque las nubes de material en donde se formaron
nunca podrían haberse condensado”. “Fue sorprendente encontrar por primera vez
en esta <zona prohibida>, y esto significa que tendrán que revisarse
algunos de los modelos de formación estelar”[
http://www.eso.org/public/spain/news/eso1132/]
En
efecto, la teoría del Big Bang afirma que poco después de la explosión fueron
creados tres elementos básicos, el Helio, el Hidrógeno y el Litio, mientras que
todos los demás elementos se formaron posteriormente en el interior de las
estrellas, siendo después expulsados gracias a las explosiones de supernova.
Las estrellas que se formaron después, adquirieron estos elementos más pesados
que los cosmólogos llaman metales. Pero esta estrella antigua no presenta la
cantidad de litio esperado, llegando a tener unas cincuenta veces menos de lo
que se cree produjo el Big Bang. Pircarlo Bonifacio proveniente del
observatorio de Paris, Francia y miembro del equipo de investigación menciona
lo siguiente. “Es un misterio como el
Litio que se formó justo después del origen del universo fue destruido en esta
estrella” y el confundido científico agrega para el colmo de sus males
“Hemos identificado varias estrellas
candidatas que podrían tener niveles de metales similares o incluso inferiores
a la de SDSSJ102915+172927”.
Por lo
que puede verse la ciencia transita por un camino más misterioso aún que la
misma espiritualidad, porque ni siquiera ella en su esoterismo más oculto ha
dejado en un desconcierto tan pronunciado al estudiante como en el que vemos en
el científico de hoy.
La
estrella en cuestión, aturde al científico por su falta de Litio, elemento que
debiera existir por la antigüedad de la misma, pero su aturdimiento es mayor
por la carencia de carbono que esta estrella presenta. Este último elemento junto
al oxigeno son para los astrónomos los principales agentes de enfriamiento, sin
los cuales, la presión, producto del calentamiento de la estrella, sería
demasiado fuerte.
Así
que ¿Cómo se formó esta estrella? Lamentablemente nadie lo sabe.
Esto
demuestra la insuficiencia de una ciencia que, cargada de fórmulas, ecuaciones,
transformaciones, tensores, vectores, etc, no puede ir más allá de lo que
ofrece el plano físico. En resumen los modelos cosmológicos no nos han aportado
mucho, ofrecidos ante el público como mecanismos fríos, matemáticamente observados,
pero con una matemática desligada de la metafísica, una combinación
verdaderamente infructuosa. De allí han nacido y permanecen hasta hoy en día,
las concepciones irreales de las cuales la ciencia se basa para decirnos “Esta
es la realidad de las cosas”, pero tal vez uno debería hacerse eco de las
afirmaciones citadas por científicos rechazados del sistema cuando escriben
que: “Usted debe darse cuenta de que, en
general, sólo aproximadamente el 90% de los físicos son capaces de dar sentido
a menos del 10% de lo que otros físicos dicen.”[10] y entonces en ese
momento podrá entenderse cabalmente la frase del filosofo griego cuando dijo: “si se deja pasar un absurdo se llega a
otros, y en eso no hay ninguna dificultad” [11]
NOTAS:
1. Alan Lightman. Luz Antigua Cap. 7
2. La cantidad de entropía del universo tiende a incrementarse
en el tiempo.
3. Concebido por Hermann Bondi, Thomas Gold y Fred Hoyle en
1948
4. Las grandes teorías de la física son llamadas G.U.T, (Grand
Unified Theories) Estas proponen que tres de las cuatro fuerzas fundamentales
de la naturaleza son en realidad distintas versiones de una sola fuerza. Estas
tres fuerzas son: La electromagnética, la nuclear fuerte y la fuerza nuclear
débil. La fuerza gravitatoria seria la cuarta pero no ha podido ser unificada a
estas tres por su dificultad de combinación con la mecánica cuántica.
5. Materia Oscura
Fria:
La materia oscura fría o CDM (del inglés cold dark matter)
es uno de los tipos de materia oscura propuesto a principios de los años 1980
para explicar la formación de estructura cósmica en el modelo del Big Bang.
Partiendo con una cierta distribución para las fluctuaciones iniciales, la
manera en que estas se amplifican y crecen depende de las características de la
materia Las fluctuaciones en pequeñas escalas no son borradas, y la materia
colapsa empezando por pequeñas escalas (menores que galaxias), y luego a
escalas cada vez mayores, en una formación "de abajo arriba"
(bottom-up). Según este modelo, en la época actual la materia aún está
colapsando en las escalas de cúmulos. Durante más de una década la materia
oscura fría fue la favorita, y las simulaciones computacionales la favorecían.
6. Esto fue afirmado por Jeremiah Ostriker, James Peebles y
Amos Yahil, entre otros tantos. Esta masa faltante es una hipótesis científica
y es según ellos, una masa invisible que no emite radiación, ni luz óptica, ni
ondas de radio, ni infrarojo, ni ultravioleta, ni rayos x. Lo que no es una
hipótesis y forma parte de la cruel realidad es que el 95 % de la masa que regula
el mecanismo del universo es completamente desconocida.
7. Omega es la tasa que nivela la expansión actual con su
densidad promedio. Es decir, Omega es igual a 1 cuando amabas fuerzas
(expansión y densidad) están
estabilizadas. Es menor a 1 cuando la gravedad, la fuerza de concentración o
centrípeta es mayor que la centrifuga o de expansión y es mayor a 1 cuando la
expansión es mayor a la contracción. Esta medición significa que si Omega es 1
el universo es plano, si menor a 1 es cerrado, es decir en algún momento el
universo se desintegrará, si es mayor a 1, el universo es abierto, o sea
eterno. Por lo que se ve uno podría deducir de esto las tres etapas del
crecimiento de cualquier organismo. La primera etapa ponderará en una mayor
dinámica expansiva, la segunda nos remite a la etapa de estabilidad del
universo en donde ambas corrientes se neutralizan y es por esto que la
constante Omega les otorga a los científicos de hoy una total correspondencia
entre la tasa de expansión y el promedio de densidad resultando un valor que
oscila entre 0.1 y 2.0 pero que la mayoría de los científicos intuye muy
cercanos al 1, es decir, una relación equilibrada entre densidad y expansión.
La tercera posibilidad nos habla de la etapa de vejez del universo en donde las
fuerzas expansivas disminuyen y las centrípetas aumentan hasta que el cuerpo,
ya sin alma, comience a desintegrarse. Esto último explicaría el material
formativo de los nuevos universos.
8. Alan Lightman. Luz Antigua. Capítulo 7
9. ESO es la principal organización astronómica
intergubernamental de Europa
10. 156.NDMermin, Physics Today, 45 (11), 9 (1992). [Citado por Bryan Wallace]
11. Aristóteles. Física. Libro I.