martes, 4 de febrero de 2014

LOS MODELOS COSMOLÓGICOS






LOS MODELOS COSMOLOGICOS

Einstein sienta su teoría matemática de la gravedad sobre dos supuestos críticos, el primero, que el universo no cambia con el tiempo y el segundo, que la materia esta esparcida en forma pareja a través del universo.
Ambos supuestos vendrianse a derrumbar con las observaciones. El de la inmutabilidad del universo tendría la negativa de los descubrimientos de Hubble en 1929, que gracias a los datos obtenidos por el telescopio del monte Wilson, California, podría afirmar que el Universo se expande a la velocidad de su alejamiento. El segundo supuesto también vendría a ser falso en los hechos, pues como actualmente manifiesta el astrónomo Alan Lightman :
 “El supuesto de la homogeneidad que subyace al modelo del Big Bang es evidentemente falso para nuestro universo cercano. Este no presenta un fluido uniforme e indiferenciado que lo colme de modo regular. Por el contrario, es bastante desigual. La materia se aglomera en galaxias y las galaxias forman racimos de galaxias, y así sucesivamente.” [1]
Por lo tanto, ¿cómo puede obtenerse una fiel conceptualización de la gravedad con dos supuestos falsos?

Y en esto el mismo Newton tiene su cuota de responsabilidad por argumentar en una carta al teólogo Richard Bentley que el universo no podía estar contrayéndose o expandiéndose globalmente porque tales movimientos requieren por necesidad de un centro, tal como una explosión tiene su centro.
Y este relajo en el pensamiento del gran físico, acomodado en la opinión mantenida por siglos, fue como la cizaña al trigo, que cuando amabas son pequeñas se confunden y por eso se la llama falso trigo, pero a medida que crecen la primera perjudica a la segunda. De este modo nos vemos hoy con un estado de situación un tanto contradictorio porque las teorías modernas se encuentran apoyadas en formas caducas por la observación.
Un ejemplo de esto es el modelo cosmológico del Big Bang, creado por Alexander Friedman y redescubierto en el año 1927 por George Lemaître. Este modelo que se fundó como una alternativa al universo estático, tuvo como contrapartida, el aceptar la teoría de la gravedad de Einstein. De hecho, esta teoría generaría en el transcurso del tiempo una ciencia especulativa llamada hoy cosmología.

Si el lector me permite, trataré de fundamentar esta afirmación con una breve explicación:
Hoy día, la ciencia se apoya en un método experimental en el cual basa todas sus leyes. Pero es el caso que sus propias leyes son violadas a la hora de explicar sus teorías.
Si se afirma, como hoy se hace, que la gravedad proviene de la masa, entonces no se tendrá problemas en explicar porque Neptuno que se encuentra a más de 4500 millones de kilómetros puede tener un periodo de rotación de 15, 7 horas cuando la tierra a tan solo 156 millones de kilómetros tarda 24 horas nada más; como es que Júpiter posee una densidad de 1,3 g/cm3 inferior al agua y tiene una aceleración de la gravedad de 25,99 m/s2 , mientras que Mercurio con una densidad mayor de 6,2 g/cm3 posee un aceleración menor en superficie de 4 m/s2 . Pero la respuesta es que la ciencia, sí posee grandes inconvenientes en fundamentar estas incongruencias, como posee grandes obstáculos en explicar cómo es que Mercurio que esta tan cerca del sol puede tener un periodo rotativo tan lento comparado con Júpiter que se encuentra a 780 millones de km del astro rey.

Estas cuestiones y otras tantas se les podría adjudicar a la teoría gravitatoria actual como un peso muerto que no ha podido superar, pues aun ni con la teoría relativista tales escollos dejarían de ser. Si se postula con ella que la gravedad es producto de una inclinación del espacio (gravedad Einsteniana) podría preguntarse de que manera esa inclinación, esa curvatura, se produce. Es decir, habitualmente se nos explica que el planeta genera una deformación estacionaria en la tela espacio temporal y que esa deformación hace las veces de plano inclinado por el cual los planetas se deslizan geodésicamente; pero ¿qué es lo que produce esa deformación?
Si decimos que es el peso, estamos encerrándonos en una concepción falsa, ya que el planeta no tiene peso alguno según la teoría relativista, es decir las cosas solo pesan por una diferencia geométrica entre el espacio-tiempo y la masa. Por otro lado si la masa es la causa del espacio curvo, ¿quién o que genera la masa?
Por lo tanto nos vemos enfrentados ante otro gran cuestionamiento: ¿Puede un cuerpo deformar el espacio-tiempo?
Einstein rechazo de cuajo la idea del éter que han sostenido tantos físicos en la historia, tales como Newton, Huygens, el padre Pardies, Fresnel, Maxwel, Neuman, Lorentz, Fizeau, cada uno con una visión distinta de él. El abandono del Éter clásico fue debido igualmente al surgimiento del concepto de campo -de Faraday, pasando por Maxwell hasta Einstein y la Dinámica Cuántica. El Espacio pasó a ser tratado como algo dado, que está penetrado por campos presentes y propagándose incluso en el vacío careciente de materia ordinaria. Los campos pueden ser electromagnéticos, gravitacionales o supermasivos, y más recientemente han resucitado con cierta dificultad en el concepto de "espuma cuántica" o una "espuma espacial", un campo de punto cero (ZPF) o la energía oscura de las partículas ausentes de Higgs

Einstein en un principio adopto la idea del éter con las siguientes palabras: "Una reflexión más precisa nos enseña, no obstante, que la teoría de la relatividad especial no nos obliga a negar el éter. Podemos asumir la existencia de un éter; sólo (...) tenemos que extraer por abstracción la última característica mecánica que Lorenz aún le ha dejado (...), eso es, su inmovilidad. (...) Negar el éter es en última instancia asumir que el espacio vacío no tiene ningún tipo de cualidad física. (...) Recapitulando, podemos decir que según la teoría de la relatividad general el espacio está dotado de cualidades físicas; en este sentido, pues, existe un éter" (A. Einstein, "Éter y Relatividad", 1920).Pero, como se sabe, Einstein mismo después descartó esta noción.
La idea de Einstein es original, ya que descarta la noción de “fuerza” en la gravedad, y postula en cambio, una diferencia entre geometrías, es decir, que la gravedad es el resultado de la deformación de la tela espacio-temporal. Es interesante el planteamiento ya que saca de foco la noción tradicional, pero si uno se fija con cuidado, no resuelve en absoluto el origen de las fuerzas, ni mucho menos el de la gravedad, porque  si la tela se deforma es gracias a una fuerza ¿Cuál es esta?. No se nos puede responder que esta fuerza es la masa, la masa por sí sola no posee fuerza, ni tampoco se nos puede decir que es por una inclinación espacio temporal ya que esta inclinación debería producirse por la masa la cual en realidad no es nada por sí misma.
Pero entonces ¿qué es lo que genera la gravedad?

Cualquier modelo cosmológico deberá ser rechazado posteriormente si carece de una contemplación hacia realidades meta-físicas. Así le ha ocurrido al modelo del universo oscilante de Richard Tolman, creado en 1930. Este modelo supuso un universo en oscilaciones constantes, que atravesase periodos de expansión seguidos por otros de contracción. Este atisbo de verdad había nacido con un defecto mortal, el universo era de tipo cerrado. Para la década de 1960, Roger Pernose y Steve Hawking aprovecharían este defecto, que violaba la segunda ley de la termodinámica [2], para argumentar que no existía ningún mecanismo plausible capaz de producir oscilaciones.
Aquí cabría preguntar lo siguiente ¿No es considerado el Universo como un organismo? Y si lo es ¿No poseen los organismos pulsaciones repetidas, oscilaciones energéticas constantes?
Pero lejos de responder a esto, los modelos han venido siguiéndose uno tras otro, tratando de conciliar lo que se observaba experimentalmente con lo que estaba establecido por sistema. De esta forma, y tratando de encontrar una manera de explicar la constancia de las leyes universales, fue que nació el modelo del universo en estado continuo [3]. Este modelo proponía que el universo no cambiaba no el paso del tiempo, siendo la densidad promedio de la materia y la temperatura, una constante invariable. Puede verse aquí un intento por explicar la ley de la conservación de la energía, llevado a un extremo Aristotélico y que por no poder reunir en un solo modelo las leyes de creación, conservación y destrucción de la energía, tuvo que limitarse a una concepción artificial. Observaciones posteriores, como la de los Quasars (descubiertos en 1963) hicieron que el modelo perdiese credibilidad.
Otro modelo tendría la oportunidad de reivindicar a la ciencia cosmológica, este sería el modelo del universo inflacionario, postulado en el año 1980, y fue un intento de unificar las grandes teorías de la física [4]. A saber, la teoría de la fuerza electromagnética, la de la fuerza nuclear fuerte (que une las sub-partículas al núcleo atómico), la de la fuerza nuclear débil (que es la que genera radioactividad) y la de la gravedad, en donde todas estarían unidas en el comienzo del universo, alrededor de los10-8 segundos cuando su materia estaría a una temperatura aproximada a los 1014 grados centígrados. Con este modelo se pretendía solucionar el problema de la cosmología plana y el problema del horizonte sosteniendo que poco después del Big Bang, se produjo una pequeña expansión de tipo exponencial, llamada por algunos “Fase de Sitter”, que duraría milésimas de segundo pero que aun así, realizo una homogenización general que es la que hoy se conoce como radiación de fondo.

Este modelo, tuvo sus dificultades, resueltas en 1982, por Paul Steindhard, Andres Albrech y Andrei Linde, pues la gravedad negativa estipulada no llenaba el universo en forma pareja, pero aun así, con estos arreglos o retoques al mejor estilo “ o sale o sale”, el modelo sufrió la refutación teórica que argüía que, aunque éste era mucho más homogéneo que el modelo anterior, no dejaba de predecir inhomogeneidades en la infancia del universo y suficientemente grandes como para desnivelar la uniformidad que se observa en la radiación cósmica actual. Además de esto, este modelo necesitaba verificar una enorme cantidad de masa faltante que hoy día no es observable y para mayor confusión aun, el problema entrópico siguió siendo irresoluto.
Lo que los científicos no pueden explicar más allá de la amplia variedad de modelos creados, es como y porque las aglomeraciones se forman, y como y porque (sin mencionar el para qué) las galaxias se generan espiraloidalmente en torno a un centro, y para explicar esto, tratan en vano, de justificar tales congregaciones con movimientos uniformes que le den al principio y origen del universo una tendencia que genere dichas formaciones.
El modelo de materia oscura fría[5] desechado ya por observaciones realizadas en el año 1990 por S.J. Maddox, G. Efstathiou, W.Sutherland y J. Loveday, de la Universidad de Oxford, es otro ejemplo más de esta típica actitud de querer hacer del universo, una maquina automática en la cual antes de comenzar se le hecha un producto, se le regula la velocidad y se le fija una temperatura, para obtener como resultado, un universo a medida de muy acotadas concepciones.

Pero esto, no les ha eximido de enorgullecerse de sus inventos y comprobaciones, como los realizados por el satélite GP-B (Gravity Probe-B). En estos últimos años y en donde pudieron probar mediante un sistema de giroscopios la curvatura de lo que los llaman espacio-tiempo. Mas, y a despecho de la precisión proclamada por los expertos, no puede ser negado que, el 95 % de la sustancia que, según ellos, existe en el universo y lo hace funcionar, permanece sin clasificar y es totalmente desconocida[6].
Esta materia oscura, inventada por los científicos en los límites de la desorientación fue prevista después de que en el año 1933 el astrónomo suizo-norteamericano Fritz Zwicky llegó a obtener la cantidad de masa de una aglomeración de galaxias calculando la gravedad para que el grupo no se disperse. El resultado fue una masa total que era unas veinte veces mayor de lo que debería ser de acuerdo con las estrellas observables de esa galaxia. Así mismo en el año 1973 Jeremiah Ostriker y James Peebles dedujeron según análisis teóricos que la cantidad de masa en los discos de típicas galaxias en rotación no era suficiente para que ellas se separasen.
De esta forma, debería asumirse que la “masa oscura” según la llaman, gobierna el movimiento estelar de manera casi unánime ya que si se guían por la masa visible, el valor Omega [7] se reduciría a 0.01 lo que daría como resultado un universo abierto y totalmente contrario a lo esperado, negando rotundamente las bases del Big Bang. Aun incluyendo la masa oscura el resultado de Omega seria de 0.1 y por este motivo los científicos no solo están buscando desesperadamente a la masa oscura, sino a otra masa que ellos llaman “masa faltante”.

Creo que, esto último da una visual poco seria de la cuestión. ¿Cómo pueden mantenerse las mismas bases teóricas que hoy se utilizan cuando las fuerzas que gobiernan los movimientos estelares son completamente desconocidos? “En estos últimos años los astrónomos no dejan de inquietarse porque han comprendido que la materia luminosa que han observado y examinado durante siglos constituye un simple decimo de la totalidad. El descontento no solo se relaciona con la desconocida identidad de la materia oscura; tampoco se conocen su cantidad y su disposición en el espacio, lo que frustra cualquier intento por comprender  porque la masa luminosa está dispuesta como lo está” [8]
¿Por qué se siguen inventando masas oscuras para avalar los desconcertantes cálculos gravitatorios?

Esto no debe sorprendernos. Es la herencia que les ha tocado a los que renegaron de los verdaderos sabios como Platón que encontraba en este mundo una réplica inexacta de aquel otro que era geométrico y exacto, intuido por Kepler cuando le aplicaba al mecanismo orbital estructuras semejantes a los poliedros.
Y es por esto que los científicos se han ocupado de develar el origen del vasto universo cuando todavía desconocen el origen de su propio planeta. Sean perdido, indudablemente, en la extensión sin recabar en la profundidad y, como los niños, se han puesto a ensayar con las herramientas de los mayores, cuando deberían seguir con la palita y el balde en el arenero.
De acuerdo con las teorías ampliamente aceptadas, las vecindades de un sol galáctico deberían estar llenas de materia oscura. Ahora bien, un estudio realizado en Chile en el año 2012 utilizando, junto con otros telescopios, el telescopio MPG/ESO [9]  de 2.2 metros en el laboratorio La Silla, ha cartografiado los movimientos de más de 400 estrellas situadas a más de 13.000 años luz del sol y con esos datos han calculado la masa de materia en las vecindades de nuestro sol teniendo en cuenta un volumen que supera cuatro veces el utilizado anteriormente. Cuando el líder del equipo Cristian Moni Bidin del departamento de Astronomía de la universidad de Concepción en Chile tuvo que referir lo que dieron los resultados explico lo siguiente: “La cantidad de masa derivada encaja muy bien con lo que vemos  -estrellas, polvo y gas- en la región que rodea al sol, pero esto no deja espacio para materia extra –la materia oscura- que esperábamos encontrar. Nuestros cálculos muestran que debería haberse visto claramente en nuestras medidas. Pero, simplemente, ¡No estaba allí! (…) Pese a los nuevos resultados, la vía láctea rota sin duda más rápido de lo que cabría esperar si solo fuera materia visible. Por tanto, si la materia oscura no está presente donde suponíamos que debía estar, debemos encontrar una nueva solución para el problema de la materia que falta. Nuestros resultados contradicen los modelos aceptados actualmente. El misterio de la materia oscura acaba de hacerse aún más misterioso [http://www.eso.org/public/spain/news/eso1217/]

Esto deja ya sin mucho ánimo para seguir creyendo en la teoría de la materia oscura que no solo va en contra de la gravedad comúnmente aceptada, sino de la teoría del Big Bang.
A propósito de ello, cabe mencionar aquí otra observación reciente que se efectuó en el año 2011, la estrella encontrada por un equipo de astrónomos europeos con el Very Large Telescope de ESO en Cerro Paranal, Chile, compuesta casi totalmente de hidrógeno y helio con cantidades muy pequeñas de otros elementos químicos colocándola por ello en la “zona prohibida del Big Bang. Esta tenue estrella en la constelación de Leo llamada SDSSJ102915+172927 tiene una masa más pequeña que el sol y más de 3000 millones de años. La autora principal del estudio, Elizabetta Caffau dice: “Una teoría ampliamente aceptada predice que las estrellas de este tipo, con poca masa y cantidades extremadamente baja en metales, no debiera existir, porque las nubes de material en donde se formaron nunca podrían haberse condensado”. “Fue sorprendente encontrar por primera vez en esta <zona prohibida>, y esto significa que tendrán que revisarse algunos de los modelos de formación estelar”[ http://www.eso.org/public/spain/news/eso1132/]

En efecto, la teoría del Big Bang afirma que poco después de la explosión fueron creados tres elementos básicos, el Helio, el Hidrógeno y el Litio, mientras que todos los demás elementos se formaron posteriormente en el interior de las estrellas, siendo después expulsados gracias a las explosiones de supernova. Las estrellas que se formaron después, adquirieron estos elementos más pesados que los cosmólogos llaman metales. Pero esta estrella antigua no presenta la cantidad de litio esperado, llegando a tener unas cincuenta veces menos de lo que se cree produjo el Big Bang. Pircarlo Bonifacio proveniente del observatorio de Paris, Francia y miembro del equipo de investigación menciona lo siguiente. “Es un misterio como el Litio que se formó justo después del origen del universo fue destruido en esta estrella” y el confundido científico agrega para el colmo de sus males “Hemos identificado varias estrellas candidatas que podrían tener niveles de metales similares o incluso inferiores a la de SDSSJ102915+172927”.
Por lo que puede verse la ciencia transita por un camino más misterioso aún que la misma espiritualidad, porque ni siquiera ella en su esoterismo más oculto ha dejado en un desconcierto tan pronunciado al estudiante como en el que vemos en el científico de hoy.
La estrella en cuestión, aturde al científico por su falta de Litio, elemento que debiera existir por la antigüedad de la misma, pero su aturdimiento es mayor por la carencia de carbono que esta estrella presenta. Este último elemento junto al oxigeno son para los astrónomos los principales agentes de enfriamiento, sin los cuales, la presión, producto del calentamiento de la estrella, sería demasiado fuerte.
Así que ¿Cómo se formó esta estrella? Lamentablemente nadie lo sabe.

Esto demuestra la insuficiencia de una ciencia que, cargada de fórmulas, ecuaciones, transformaciones, tensores, vectores, etc, no puede ir más allá de lo que ofrece el plano físico. En resumen los modelos cosmológicos no nos han aportado mucho, ofrecidos ante el público como mecanismos fríos, matemáticamente observados, pero con una matemática desligada de la metafísica, una combinación verdaderamente infructuosa. De allí han nacido y permanecen hasta hoy en día, las concepciones irreales de las cuales la ciencia se basa para decirnos “Esta es la realidad de las cosas”, pero tal vez uno debería hacerse eco de las afirmaciones citadas por científicos rechazados del sistema cuando escriben que: “Usted debe darse cuenta de que, en general, sólo aproximadamente el 90% de los físicos son capaces de dar sentido a menos del 10% de lo que otros físicos dicen.”[10] y entonces en ese momento podrá entenderse cabalmente la frase del filosofo griego cuando dijo: “si se deja pasar un absurdo se llega a otros, y en eso no hay ninguna dificultad” [11]


NOTAS:
1.      Alan Lightman. Luz Antigua Cap. 7
2.      La cantidad de entropía del universo tiende a incrementarse en el tiempo.
3.      Concebido por Hermann Bondi, Thomas Gold y Fred Hoyle en 1948
4.      Las grandes teorías de la física son llamadas G.U.T, (Grand Unified Theories) Estas proponen que tres de las cuatro fuerzas fundamentales de la naturaleza son en realidad distintas versiones de una sola fuerza. Estas tres fuerzas son: La electromagnética, la nuclear fuerte y la fuerza nuclear débil. La fuerza gravitatoria seria la cuarta pero no ha podido ser unificada a estas tres por su dificultad de combinación con la mecánica cuántica.
5.       Materia Oscura Fria: La materia oscura fría o CDM (del inglés cold dark matter) es uno de los tipos de materia oscura propuesto a principios de los años 1980 para explicar la formación de estructura cósmica en el modelo del Big Bang. Partiendo con una cierta distribución para las fluctuaciones iniciales, la manera en que estas se amplifican y crecen depende de las características de la materia Las fluctuaciones en pequeñas escalas no son borradas, y la materia colapsa empezando por pequeñas escalas (menores que galaxias), y luego a escalas cada vez mayores, en una formación "de abajo arriba" (bottom-up). Según este modelo, en la época actual la materia aún está colapsando en las escalas de cúmulos. Durante más de una década la materia oscura fría fue la favorita, y las simulaciones computacionales la favorecían.
6.      Esto fue afirmado por Jeremiah Ostriker, James Peebles y Amos Yahil, entre otros tantos. Esta masa faltante es una hipótesis científica y es según ellos, una masa invisible que no emite radiación, ni luz óptica, ni ondas de radio, ni infrarojo, ni ultravioleta, ni rayos x. Lo que no es una hipótesis y forma parte de la cruel realidad es que el 95 % de la masa que regula el mecanismo del universo es completamente desconocida.
7.      Omega es la tasa que nivela la expansión actual con su densidad promedio. Es decir, Omega es igual a 1 cuando amabas fuerzas (expansión y densidad)  están estabilizadas. Es menor a 1 cuando la gravedad, la fuerza de concentración o centrípeta es mayor que la centrifuga o de expansión y es mayor a 1 cuando la expansión es mayor a la contracción. Esta medición significa que si Omega es 1 el universo es plano, si menor a 1 es cerrado, es decir en algún momento el universo se desintegrará, si es mayor a 1, el universo es abierto, o sea eterno. Por lo que se ve uno podría deducir de esto las tres etapas del crecimiento de cualquier organismo. La primera etapa ponderará en una mayor dinámica expansiva, la segunda nos remite a la etapa de estabilidad del universo en donde ambas corrientes se neutralizan y es por esto que la constante Omega les otorga a los científicos de hoy una total correspondencia entre la tasa de expansión y el promedio de densidad resultando un valor que oscila entre 0.1 y 2.0 pero que la mayoría de los científicos intuye muy cercanos al 1, es decir, una relación equilibrada entre densidad y expansión. La tercera posibilidad nos habla de la etapa de vejez del universo en donde las fuerzas expansivas disminuyen y las centrípetas aumentan hasta que el cuerpo, ya sin alma, comience a desintegrarse. Esto último explicaría el material formativo de los nuevos universos.
8.      Alan Lightman. Luz Antigua. Capítulo 7
9.      ESO es la principal organización astronómica intergubernamental de Europa
10.  156.NDMermin, Physics Today, 45 (11), 9 (1992).  [Citado por Bryan Wallace]
11.  Aristóteles. Física. Libro I.