miércoles, 14 de diciembre de 2011

Bosón de Higgs: científicos están más próximos de la Partícula de Dios

Los investigadores están más próximos de probar la existencia de los bosones de Higgs. O de reinventar la física.

En los últimos días, muchos comentarios surgieron al respecto de las “Partículas de dios”. Los bosones de Higgs (nombre real del elemento) son hipotéticos, pero los científicos de CERN (Organización Europea de Investigaciones Nucleares) están muy próximos de conseguir probar su existencia.
En caso de que lo logren, estaremos un poco más próximos de explicar los orígenes del universo y de todos los materiales que existen. Teóricamente los bosones de Higgs fueron los primeros elementos que presentaron masa y energía, lo que significa que toda la materia existente en los planetas y el espacio surgió de un único punto.

¿Qué falta para confirmar?

Anteriormente cuando abordamos el asunto, dijimos que todavía no existía confirmación sobre la existencia del Bosón, pues faltaba una serie de pruebas que deberían ser realizadas. Ahora los dos grupos del CERN (Atlas y CMS) que investigan el elemento independiente anuncian resultados similares.
Midiendo la masa de las partículas en gigaelectrón-volt (GeV), los científicos logran analizar todo como si fuera energía. Es por esta unidad que los dos grupos están entrando en congruencia. El Atlas afirma que la Partícula de Dios debe estar entre 116 y 130 GeV. Ya el CMS de valores que van de 115 a 127 GeV. Ahora las nuevas pruebas deben limitarse a este rango energético para intentar localizar el bosón de Higgs.
Fuente de la imagen: Reproducción/CERN

¿Por qué es tan importante?

En caso de que sea probada la existencia de los bosones, una serie de explicaciones sobre la expansión del universo podrán entenderse mejor. Esto también significa que tendremos evidencias irrefutables de la explosión primordial (Big Bang), dándole fin a buena parte de las hipótesis que intentan derribar las teorías referentes a ellas.
Pero si ocurre lo contrario y se prueba que los bosones de Higgs no existen, los científicos tendrán un gran problema para resolver, según se explica en New Scientist. Todo lo que imaginamos sobre la expansión del universo con base en masa y energía necesitará ser redefinido. O sea, necesitaremos de una nueva gama de teorías para intentar explicar el origen de todo.
Autor del artículo: Renan Hamann

lunes, 8 de noviembre de 2010

El gran desplazamiento del subcontinente Gondwana

El supercontinente Gondwana sufrió una rotación de 60 grados sobre la superficie de la Tierra durante el Período Cámbrico
Foto:Ross Mitchell/Yale University

El supercontinente Gondwana sufrió una rotación de 60 grados sobre la superficie de la Tierra durante el Período Cámbrico, según las nuevas evidencias descubiertas por un equipo de geólogos de la Universidad Yale.
(NC&T) Gondwana fue la mitad meridional de Pangea, el supercontinente gigante que constituía la masa de tierra de nuestro planeta antes de separarse en continentes, que a su vez se fragmentaron y reorganizaron hasta dar lugar a los continentes actuales. El nuevo estudio aporta datos capaces de cambiar sustancialmente la visión que se tiene de algunos aspectos de las condiciones ambientales existentes durante un período crucial en la historia evolutiva de la Tierra, la época en la que se desencadenó la inmensa proliferación de formas de vida conocida como la explosión del Cámbrico. En esa explosión biológica, la mayoría de los principales grupos de animales complejos surgió con gran rapidez.
El equipo de Ross Mitchell estudió el registro paleomagnético de la Cuenca Amadeus en el centro de Australia, que formaba parte del supercontinente precursor. Basándose en las direcciones de magnetización de las rocas antiguas, los investigadores descubrieron que toda la masa continental de Gondwana sufrió un rápido desplazamiento rotatorio de 60 grados hace unos 525 millones años, con algunas regiones que alcanzaron una velocidad de al menos 16 (+12 / -8) centímetros por año. En comparación, los cambios actuales más rápidos alcanzan velocidades de alrededor de 4 centímetros por año.
El desplazamiento pudo deberse al resultado de la tectónica de placas (el movimiento individual de unas placas continentales con respecto a otras), o bien a otro fenómeno en el que la masa de tierra sólida del planeta (hasta la parte más externa del núcleo líquido, a casi 3.000 kilómetros de profundidad) giró con respecto al eje de rotación del planeta, cambiando la ubicación de los polos geográficos.
Sea cual sea la causa, el desplazamiento masivo tuvo algunas consecuencias importantes. Como resultado de la rotación, el área que hoy es Brasil pudo haberse movido rápidamente desde cerca del polo sur hacia el trópico. Estos grandes movimientos de masas de tierra podrían haber afectado a factores medioambientales tales como las concentraciones de carbono y el nivel del mar.
Hubo dramáticos cambios ambientales durante el Cámbrico temprano, justo al mismo tiempo que Gondwana experimentaba ese desplazamiento tan notable, lo que pudo tener consecuencias importantes para la explosión cámbrica de la vida animal en aquellos tiempos.

Suzanne Taylor Muzzin
USA
Tel.: 203-432-8555
E-mail: suzanne.taylormuzzin@yale.edu

martes, 8 de junio de 2010



POSIBLE, QUE EL BIG BANG NO FUESE EL INICIO DEL TIEMPO Y EL ESPACIO
 

Los trabajos de los expertos del IM de Alejandro Corichi Rodríguez, y del Instituto Perimeter de Física Teórica en Canadá, Parampreet Singh, podrían cambiar las teorías del origen del universo. Antes de ese fenómeno podrían haber existido otras fases del cosmos, revelan ecuaciones del experto de la Unidad Morelia del Instituto de Matemáticas de la UNAM, Alejandro Corichi Rodríguez Gil

· Se trataría del Big Bounce o “gran rebote”, un universo en contracción que en lugar de llegar a un colapso final o Big Crunch, brincó y comenzó a expandirse de nuevo

· Los resultados han sido dados a conocer en la revista Physical Review Letters, la de mayor prestigio en el área de la Física a escala mundial

· El estudio lo hizo en colaboración con el integrante del Instituto Perimeter de Física Teórica en Canadá, Parampreet Singh

La teoría del Big Bang sobre el origen del Universo podría cambiar radicalmente, pues resultados de estudios recientes del especialista de la Unidad Morelia del Instituto de Matemáticas de la UNAM, Alejandro Corichi Rodríguez Gil, sugieren que antes de esa "gran explosión" existieron otras fases del cosmos.
El universitario –en colaboración con el integrante del Instituto Perimeter de Física Teórica en Canadá, Parampreet Singh–, resolvió las ecuaciones que señalan que ese fenómeno podría no haber sido el inicio del tiempo y del espacio, sino que antes pudieron existir uno u otros ciclos.
Se trataría del Big Bounce o “gran rebote”, es decir, un universo en contracción que, en lugar de llegar a un colapso final o Big Crunch, brincó y comenzó a expandirse de nuevo. Los resultados han sido publicados en la revista Physical Review Letters, considerada la de mayor prestigio en Física del mundo.
Antes del Big Bang, podrían haber existido otras fases del cosmos, según se desprende de las ecuaciones realizadas por el experto de la UNAM, Alejandro Corichi Rodríguez Gil.

Según la teoría de la Relatividad General, planteada por Albert Einstein en 1915, se vive en un universo dinámico y en expansión que se originó en un punto hace 14 mil millones de años, explicó el científico.

No obstante, refirió el doctor en Física Teórica por la Universidad Estatal de Pennsylvania, Estados Unidos, en ese sitio, diferentes parámetros físicos, como la temperatura, la densidad o la energía, “se fueron al infinito”. Si se hiciera un viaje hacia el pasado, a los inicios del cosmos, se vería cómo la temperatura creció y todo fue cada vez más denso hasta llegar a serlo indefinidamente.

En ese instante, argumentó, la Relatividad dejó de funcionar y, por ello, se requiere el desarrollo de una nueva teoría que resuelva esos infinitos y posibilite saber qué pasó: sería la gravedad cuántica, que trata de conjuntar la Relatividad General de Einstein y la teoría cuántica –que describe lo que pasa en los átomos y en su núcleo–. Una propuesta reciente es en específico, la Cosmología Cuántica de Lazos (LQC, por sus siglas en inglés).

Ésta última supone que el universo es homogéneo y que, para describirlo, basta con concentrarse en una porción suficientemente grande de él, al describir el estado actual del universo, que contenga millones y millones de galaxias, porque ese "fragmento cósmico" será parecido a cualquier otro del mismo tamaño pero en otro lugar, indicó.

La teoría también hace que las ecuaciones se simplifiquen tanto, que se pueden resolver de manera exacta. "Eso permitió avanzar y hacer preguntas que antes no se planteaban; por eso, este modelo da soluciones precisas, sin 'infinitos'", dijo Corichi.

La LQC se basa en la Gravedad Cuántica de Lazos (LQG), y se retoman algunos preceptos de la Relatividad General; en particular, el hecho de que el campo gravitatorio debe verse como una manifestación de la geometría del espacio-tiempo, puntualizó.

Así como la mecánica cuántica describe los átomos, la LQG especifica la geometría misma del espacio y del tiempo en la llamada "escala de Planck", cien mil billones de veces más pequeña que el núcleo atómico, refirió.

Si existiera un microscopio tan potente que permitiera ver esos pequeñísimos tamaños, no se observarían objetos con ancho, largo y profundidad, en tres dimensiones, sino de una sola dimensión o “lazos”, una especie de "espagueti". Si se hiciera un viaje al pasado, al origen del tiempo y del espacio, se podría acercarse a tales escalas.

Con estos trabajos, Corichi Rodríguez Gil y Parampreet Singh confirman la idea del Big Bounce, planteada hace dos años por científicos de la Universidad Estatal de Pennsylvania, quienes, sin embargo, no pudieron resolver de manera exacta lo que el investigador de la UNAM y su colega han logrado con las ecuaciones: demostrar que lo que pudo existir fue un "rebote cósmico".

Existen otras teorías referentes a un universo "cíclico", aclaró Corichi, es decir, que se expande, se contrae, rebota y se vuelve a ensanchar, como los modelos Ekpyroticos o de ‘pre-Big Bang’, cercanos a la teoría de cuerdas. Empero, no "curan" los infinitos, que siguen existiendo al momento del rebote. "La cosmología cuántica de lazos, tiene la gran virtud de que la evolución está perfectamente comportada en cualquier momento".

Los resultados establecen que no sólo existiría un Bounce, sino que antes del Big Bang el universo sería similar al actual, se comportaría igual y serían válidas las leyes físicas como se conocen, sería como un gemelo del actual, pero no idéntico. El trabajo de Corichi y Singh demuestra que, a través del rebote y después de éste, se preserva intacta la evolución.

Además, no choca con la sugerencia de que el cosmos está en expansión acelerada. "Se va a extender eternamente y cada vez más rápido, como algunos de los escenarios proponen. Entonces el universo es de segunda generación, primero pasó por una contracción, luego por el rebote y ahora se está acelerando y lo hará para siempre", expuso.

Con esa evolución será posible saber con exactitud qué pasó antes del Big Bang. Se “está en buenas posibilidades de incrementar el nivel de sofisticación de los modelos que se desarrollan para que pronto se tengan respuestas concretas”, sostuvo.

Mientras tanto, la reacción de la comunidad científica que trabaja en la gravedad cuántica de lazos, es positiva al artículo Quantum Bounce and Cosmic Recall en la publicación referida, aparecida en abril del presente año.

Pero los retos no paran. Ahora es necesario observar si la teoría de la gravitación cuántica puede definir lo ocurrido en el Big Bang, por ejemplo. "Los físicos y cosmólogos del mundo están pendientes de estos avances", finalizó Corichi.

Boletín UNAM-DGCS-351
Ciudad Universitaria


domingo, 30 de mayo de 2010

Crean una interfaz cuántica que conecta partículas de luz y átomos

Físicos alemanes han creado una interfaz cuántica que conecta partículas de luz y átomos, algo esencial para mejorar las capacidades de las tecnologías cuánticas. La interfaz puede incluso acercar a la física a la creación del primer ordenador cuántico. Los resultados de la investigación se han publicado en un artículo en la revista Physical Review Letters.
 
n dicho artículo, científicos de la Universidad Johannes Gutenberg de Maguncia (Alemania) explican que atrapar y establecer una interfaz óptica con átomos neutros enfriados por láser son acciones básicas para avanzar hacia la consecución de nuevas tecnologías cuánticas. El equipo logró ambos hitos haciendo interactuar átomos de cesio con un campo evanescente multicolor situado alrededor de una nanofibra óptica.
Estos átomos se atrapan mediante un haz de láser que atraviesa una fibra de vidrio cónica y extremadamente delgada, tan delgada que su diámetro es una centésima parte del de un cabello humano. El centro de la fibra es incluso más fino que la propia luz. Una vez liberada de la nanofibra, la luz se extiende por el espacio que rodea la fibra, creando un campo evanescente, y se acopla a los átomos atrapados.
De este modo se obtiene una interfaz cuántica basada en fibra de vidrio que puede utilizarse para transmitir información cuántica y que es básica para sistemas de comunicación cuántica a gran escala como la transmisión segura de información mediante criptografía cuántica. Sus descubridores opinan que la interfaz creada es adecuada para lograr sistemas cuánticos híbridos que combinen átomos con, por ejemplo, dispositivos cuánticos de estado sólido.
El director de la investigación, el Dr. Arno Rauschenbeutel de la Universidad de Maguncia, añadió que la interfaz «también podría ser útil para lograr un ordenador cuántico». Los ordenadores modernos se basan en transistores, mientras que el concepto de ordenador cuántico se fundamenta en fenómenos mecánicos cuánticos. Los ordenadores cuánticos a gran escala, de los que aún se está lejos, cambiarán radicalmente la forma en la que trabajamos.
Las redes de fibra óptica, por otro lado, ya forman parte de las comunicaciones modernas, pues los teléfonos e Internet se basan sobre todo en la transmisión de datos mediante cables de fibra óptica. La luz que viaja a través de estas redes consiste en fotones o cuantos de energía indivisibles, un descubrimiento realizado por Albert Einstein. Cada fotón es capaz de transmitir un bit de información que se corresponde con dos estados, cero o uno. En su estado cuántico, los fotones pueden existir de forma simultánea en ambos estados. En esta propiedad se basa, por ejemplo, la criptografía cuántica, que protege las comunicaciones frente a intrusiones.
Para aprovechar al máximo las posibilidades que brinda la comunicación cuántica es necesario almacenar la información cuántica que contiene cada fotón. Debido a que dichas partículas de luz no facilitan esta precisa tarea, los físicos indican que sería mejor transmitir a átomos la información cuántica que contienen. Para ello es necesario crear una interfaz entre fotones y átomos cuya aplicación sea sencilla en redes de fibra óptica.

lunes, 24 de mayo de 2010

Las claves de la inmunidad natural contra el SIDA

Un equipo de científicos del Instituto de Tecnología de Massachussets (MIT), el Instituto Ragon del Hospital General de Massachusetts (MGH) y la Universidad de Harvard ha descubierto que el gen especial que poseen las personas inmunes por naturaleza al Virus de la Inmunodeficiencia Humana (VIH), el HLA B57, hace que el cuerpo fabrique un mayor número de células del sistema inmune eficaces. El descubrimiento, publicado en la revista Nature, podría ayudar a los investigadores a desarrollar vacunas que provoquen la misma respuesta ante el virus del VIH que la que los individuos con este gen especial generan por sí mismos.

Cuando las personas se infectan del VIH, lo normal es que sea sólo cuestión de tiempo, a menos que se evite con fármacos, que su organismo desarrolle sida. Sin embargo, existe un pequeño grupo de gente que, expuesta a este virus, desarrolla con mucha lentitud la enfermedad e incluso, en algunos casos, no llegan ni siquiera a desarrollarla.

En los últimos años de la década de los 90, los investigadores demostraron que un alto porcentaje de esas personas que se mostraban inmunes por naturaleza al VIH, que representaban a uno de cada 200 individuos, eran portadores de un gen denominado HLA B57. Ahora los investigadores, dirigidos por el profesor del MIT Arup Chakraborty, han descubierto que el gen HLA B57 hace que el organismo fabrique más linfocitos T más potentes y letales.

Este efecto contribuye a que estos individuos tengan un mejor control de la infección por VIH y de otros virus que se desarrollan rápidamente, pero también presenta un lado negativo: hace que sean pacientes más susceptibles a sufrir enfermedades autoinmunes, en las que los linfocitos T atacan a las células del propio organismo.

Fuente: muyinteresante

miércoles, 19 de mayo de 2010

El mayor instrumento científico jamás construido para demostrar la Teoría de la Relatividad General de Einstein

EinsteinTres naves espaciales volaran a una distancia de 5 millones de kilómetros para dispararse rayos láser las unas a las otras a través del vacío del espacio en un intento de demostrar si la teoría de Albert Einstein es correcta.
Los físicos esperan que la ambiciosa misión les permita demostrar la existencia de las ondas gravitatorias – un fenómeno predicho en la famosa teoría de Einstein de la Relatividad General y la última pieza de su teoría que aún no está confirmada.

La misión, una colaboración entre la NASA y ESA (Agencia Especial Europea), usará tres naves volando en formación mientras orbitan el Sol,  conteniendo cada una cubos flotantes de oro-platino. Luego, se usarán los rayos láser entre las naves para medir diminutos cambios en los en la distancia entre cada uno de los cubos, causados por las débiles ondas gravitatorias que se propagan desde los grandes eventos del espacio profundo.
La Teoría de la Relatividad General predecía que cuando los grandes objetos del espacio, como los agujeros negros, chocan, se producen ondulaciones en el espacio y el tiempo hacia el exterior. Tales ondulaciones llevan el nombre de ondas gravitatorias.
Un panel de expertos internacionales han configurado un plan detallado para la misión, tratando de explicar cómo ésta puede revelarnos pistas acerca del universo que nos rodea.
El profesor Jim Hough, experto en ondas gravitatorias de la Universidad de Glasgow y miembro del comité que bosquejó el plan, dijo: “Las ondas gravitatorias son la última pieza de la Teoría de la Relatividad General de Einstein que aún necesita ser demostrada”. “Se producen cuando objetos masivos como los agujeros negros o las estrellas colapsadas aceleran a través del espacio, tal vez porque son empujadas hacia un objeto con mayor fuerza gravitatoria como un agujero negro masivo”.
“Desafortunadamente no hemos sido capaces de detectarlas aún porque son muy débiles. De cualquier manera, los nuevos experimentos están trabajando para tener un gran potencial y permetir la detección”.
Los intentos en tierra para detectar las ondas gravitatorias han sido hasta ahora insuficentes y sólo pueden buscarlas con altas frecuencias relativas.
Los científicos ya han sido capaces de demostrar un número de predicciones propuestas por la Teoría de la Relatividad General de Einstein, incluyendo que la luz es curvada por la gravedad, que ésta viaja a velocidad constante, que el tiempo puede ser deformado por ella y que el tiempo y el espacio pueden “doblarse”.
Las otras teorías de Einstein, incluyendo la famosa fórmula E=mc2, también han resistido los exámenes científicos.
La Antena Espacial de Interferómetro Láser, o LISA, como es llamada la nueva misión espacial, será capaz de detectar las ondas gravitatorias de frecuencias muy bajas por medio de la gran distancia entre las tres naves. Será el mayor detector jamás construído.
Está previsto que una misión más pequeña de experimentación, llamada LISA Pathfinder, la cual está siendo construída por ingenieros británicos en la compañía espacial Astrium EADS, que espera ser lanzada el próximo año, se lleve a cabo con la finalidad de preparar el camino de esta tecnología que será usada para detectar las ondas.
Los científicos ya han empezado a reconstruir los intrumentos que serán usados en la misma LISA, pero no se espera que se comience antes del 2020.
Esperan que una vez detectadas, las ondas gravitatorias podrían proporcionar información del Universo que no puede ser vista ni obtenida en la actualidad usando radiación electromagnética como la luz, las ondas de radio y los rayos-X.
La profesora Sheila Rowan, que también estudia esta especie de ondas en la Universidad de Glasgow, añadió: “Los agujeros negros son tan densos que ni la radiación ni la luz pueden escapar de ellos”. “Las ondas gravitatorias alrededor del espacio-tiempo deformado fuera de los agujeros negros podría darnos nuevas maneras para observarlos”. “También podemos aprender acerca del estado de la materia dentro de las estrellas que han colapsado”.
El Dr. Ralph Cordey, gerente de la empresa del desarrollo de ciencia y exploración de Astrium UK, que construye LISA Pathfinder, dijo: “Tratar de medir eventos cósmicos como sistemas de estrellas colapsadas o la colisión de agujeros negros masivos requiere de alta tecnología de precisión”. “La última meta es probar que ésta tecnología funciona, antes de que nos decidamos a poner las tres naves en órbita a una distancia de 5 millones de kilómetros entre ellas, conectadas sólo por rayos láser que medirán sus posiciones exactas a 40 millónesimas de millónesimas de un metro”.

Autor: Richard Gray
Fecha Original: 9 de mayo de 2010
Enlace Original

sábado, 8 de mayo de 2010

El LHC obtiene resultados espectaculares

En menos de un mes de funcionamiento, el LHC (Gran Colisionador de Hadrones) ha obtenido resultados espectaculares, entre otros la detección de partículas como el bosón W, una de las responsables de la interacción débil en la naturaleza. Los científicos prevén confirmar asimismo la existencia de partículas supersimétricas, con lo que se “podría dar una explicación a la materia oscura”, que compone alrededor de un cuarto del Universo

Los físicos de partículas de todo el mundo están viviendo momentos emocionantes. El LHC (Gran Colisionador de Hadrones) ha alcanzado la energía más alta jamás lograda hasta el momento para colisionar artificialmente haces de partículas, lo cual augura importantes descubrimientos.
 
El británico Nick Ellis, responsable de la selección de datos de ATLAS (uno de los cuatro experimentos del LHC) avanzó la semana pasada en Valencia los primeros resultados obtenidos y las perspectivas de nuevos hallazgos científicos.

El científico reveló que, en menos de un mes de funcionamiento, ya se han detectado partículas como el bosón W, una de las responsables de la interacción débil en la naturaleza cuyo descubrimiento requirió meses de análisis en experimentos anteriores.

Ellis fue invitado a participar en uno de los coloquios que organiza el Instituto de Física Corpuscular (IFIC, centro mixto del CSIC y la Universitat de València), que junto al Instituto de Microelectrónica de Barcelona (CNM-IMB-CSIC), el Institut de Fisica d’Altas Energies (IFAE, consorcio entre la Generalitat de Catalunya y la Universitat Autònoma de Barcelona) y la Universidad Autónoma de Madrid ha participado en la construcción de detectores y el análisis de datos de ATLAS.

Según Ellis, tras el accidente con el helio superfluido en 2008 ya superado, los científicos están gratamente sorprendidos por la respuesta del acelerador ya que, en el poco tiempo (desde el pasado 30 de marzo) que lleva funcionando a una energía de colisión de 7 TeV (1 Teraelectronvoltio = un billón de electronvoltios), “se han podido detectar bosones W”.

El bosón W es una de las partículas responsables de la interacción débil (una de las cuatro fuerzas fundamentales de la naturaleza) cuyo descubrimiento constituyó uno de los mayores éxitos en los años 80 del CERN (Laboratorio Europeo de Física de Partículas, organismo que gestiona el LHC), y supuso el Nobel de Física a Carlo Rubbia y Simon van der Meer tras un prolongado análisis.

Partículas supersimétricas

Ahora bien, al operar a niveles de energía mucho más elevados, el LHC ha sido capaz de reproducir estos resultados en menos de un mes de funcionamiento. A partir de estos “espectaculares resultados”, los científicos son “tremendamente optimistas previendo poder llevar a cabo fascinantes descubrimientos en el LHC”, aseguró Ellis. En los dos años que se mantendrá operando a la energía actual, los investigadores de ATLAS esperan obtener datos que confirmen la existencia de partículas supersimétricas, con lo que se “podría dar una explicación a la materia oscura”, que compone alrededor de un cuarto del Universo.

Sin embargo, según Ellis, “a pesar de tan prometedor comienzo, el (bosón de) Higgs será muy difícil de observar a estas energías”, por lo que los científicos previsiblemente deberán esperar hasta que el LHC alcance la energía final para la cual está diseñado, 14 TeV (7 TeV por haz de partículas), algo que ocurrirá probablemente en 2013. El bosón de Higgs es, según la teoría, el responsable de conferir masa al resto de partículas, aunque su existencia no haya sido todavía comprobada experimentalmente. Pero, además del Higgs, los científicos confían en detectar nuevas partículas o, incluso nuevas dimensiones espaciales, algo “fundamental para unificar la gravedad con el resto de fuerzas”, remarcó Ellis

Más allá del modelo estándar

Y es que el LHC “es una máquina para descubrir”, para abrir nuevas puertas más allá del modelo estándar, el paradigma actual que describe las interacciones entre las partículas fundamentales conocidas. “Esta teoría funciona bien a una determinado escala de energía, pero cuando ésta se incrementa, ya no es consistente”, manifestó el físico británico. Por eso, el LHC es el instrumento adecuado para “buscar algo diferente de lo que está escrito en los libros de física actuales”, exigiendo para ello una mentalidad abierta por parte de los científicos.

En esta búsqueda de lo desconocido el sistema de selección de datos (denominado Trigger) juega un papel fundamental. Entre la enorme cantidad de datos resultantes de las colisiones (según Ellis, los procedentes de un solo detector de ATLAS suponen un volumen similar al del tráfico diario de comunicaciones telefónicas en todo el mundo), se seleccionan sólo aquellos que pueden revelar nuevos fenómenos. Como responsable del Trigger de ATLAS, Ellis reconoció que su desarrollo es específico para estos experimentos, aunque el trabajo en este sistema de toma de decisiones ultrarrápido es un “magnífico entrenamiento” para estudiantes que posteriormente desarrollarán su carrera en el campo de la Electrónica o la Computación.

En cuanto a la participación española en el LHC, que se coordina a través del Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN, Consolider 2010), Ellis la consideró “extremadamente positiva”. Además de los centros participantes en ATLAS, en CMS participan el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), el Instituto de Física de Cantabria (IFCA, CSIC-Universidad de Cantabria) la Universidad de Oviedo y la Autónoma de Madrid. En LHCb, participan la Universitat de Barcelona (UB), la Universitat Ramon Llull (URL) y el Instituto Galego de Física de Altas Enerxias (IGFAE, Universidad de Santiago de Compostela), centro que, junto al CIEMAT, participa también en ALICE. España dispone además de un Puerto de Información Científica (PIC) del sistema de computación GRID, un consorcio formado por la Generalitat de Catalunya, el CIEMAT, la Universitat Autònoma de Barcelona y el IFAE.
Fuente: tendencias21

miércoles, 5 de mayo de 2010

Una breve guía para la cosmología

Big Bang¿Confundido por la inflación y el fondo cósmico de microondas (CMB en inglés) ? ¿Perplejo por la energía oscura y la materia oscura? ¿Quieres saber que pasó después del Big Bang? Entonces, continúa leyendo para saber cómo encaja todo.
Edwin Hubble hizo los dos descubrimientos más importantes en la cosmología. Primero, demostró que muchas nebulosas son galaxias o “universos isla”, más allá de los límites de la Vía Láctea, nuestra galaxia.

Luego, trabajando con colegas en el observatorio Mount Wilson, descubrió que esas galaxias se están alejando unas de otras. El universo se expande.
En la segunda mitad de la década de los años 20 del siglo pasado, Hubble estaba interesado principalmente en medir la distancia a las galaxias. Estaba intrigado por un descubrimiento hecho en la década anterior por Vesto Slipher, un astrónomo que trabajaba en el observatorio Lowell, en Flagstaff, Arizona.
Slipher había estado trabajando con un telescopio refractor de 61 cm que tenía un instrumento nuevo llamado espectrógrafo, el cual podía tomar fotografías de los espectros de objetos celestes débiles con tiempos de exposición de varias noches si fuera necesario. Entre los objetos que Slipher estudió habían unos cuantos de la familia de las conocidas por aquel entonces como nebulosas, que Hubble más tarde descubrió que eran galaxias externas a la nuestra.
En 1925, cuado Hubble estaba comenzando a medir distancias a las galaxias, Slipher había medido 41 de esos espectros, y había encontrado que sólo dos de ellos (incluyendo el de la nebulosa de Andrómeda) mostraban desplazamientos al azul, mientras que los 39 restantes mostraban desplazamientos al rojo. Éste fue el límite de lo que podía hacer con el telescopio del que disponía, pero la evidencia apuntaba que las galaxias que parecían más grandes y más brillantes tenían desplazamientos al rojo menores.
La deducción obvia fue que las galaxias que parecían más grandes y brillantes estaban más cerca de nosotros – así que Hubble intuyó que la medida de sus desplazamientos al rojo podría ser una forma de medir la distancia a esas galaxias, y propuso a su colaborador Milson Humason probar la idea con un telescopio de 250 cm de diámetro. Humason midió los desplazamientos al rojo, mientras Hubble estimaba las distancias a las mismas galaxias usando otros métodos.

EL DESPLAZAMIENTO AL ROJO
Al principio de la década de 1930, Hubble y Humason habían hecho suficientes observaciones para demostrar que la relación entre los desplazamientos al rojo y las distancias era tan simple como podía ser: el desplazamiento al rojo es proporcional a la distancia, o como había propuesto Hubble, la distancia proporcional al desplazamiento al rojo.
Ésta es ahora conocida como la Ley de Hubble. Significa que si una galaxia tiene el doble de desplazamiento al rojo que otra, está dos veces más lejos que ésta última. Una vez que las distancias a algunas galaxias cercanas habían sido medidas por otros medios, la relación entre la distancia y el desplazamiento al rojo podía ser calibrada, y las distancias a otras galaxias, mucho más lejos en el universo, podían ser medidas simplemente midiendo sus desplazamientos al rojo.
De hecho, esta simple ley sólo se aplica con exactitud a las galaxias relativamente cercanas, y una relación más sútil se aplica a todo el universo, pero ésto no resta importancia al descubrimiento de Hubble.
El mismo Hubble no estaba interesado en por qué la luz de las galaxias mostraba un desplazamiento al rojo. Lo que le preocupaba era, independientemente de su causa, cómo el desplazamiento al rojo podía usarse para medir distancias. Pero la propuesta natural al principio fue que los desplazamientos al rojo se debían al efecto Doppler.
Si esto fuera así, significaba que sólo dos galaxias están acercándose a nosotros, y el resto se están alejando – no individualmente, sino como miembros de cúmulos como el de Virgo. Enseguida se vio que ,sin embargo, la recesión de las galaxias no era debida al movimiento de las galaxias y los cúmulos en el espacio.
La teoría de la relatividad de Albert Einstein, que había terminado en 1915, describía cómo el espacio mismo podía ser curvado en presencia de materia, como una goma estirada con un objeto pesado sobre ella. Las ecuaciones también describían cómo el espacio podía estirarse como un todo, pero en 1915 las nebulosas todavía no habían sido siquiera identificadas como otras galaxias, y Einstein había dejado esto como un truco matemático sin ningún significado físico.
Después del descubrimiento de la relación desplazamiento al rojo – distancia, Einstein y otros matemáticos se dieron cuenta de que esto era exactamente lo que sus ecuaciones describían – el espacio mismo estirándose y llevándose consigo los cúmulos de galaxias. Éste fue el comienzo de la cosmología moderna.
El desplazamiento al rojo cosmológico no es un efecto Doppler. No está provocado por el movimiento de las galaxias a través del espacio, sino por el estiramiento del espacio entre las galaxias durante el tiempo que le lleva a la luz ir de una galaxia a otra, estirando también la longitud de onda de la luz (haciéndola mayor).
Las galaxias se mueven a través del espacio, produciendo el efecto Doppler en sus espectros, pero éste se suma o se resta al desplazamiento al rojo cosmológico (aquel que proviene del estiramiento del espacio entre las galaxias), que es por el que por ejemplo, Andrómeda muestra un desplazamiento al azul. Se está moviendo hacia nosotros a través del espacio más rápido que la expansión del espacio entre nosotros y Andrómeda. Pero excepto para las galaxias más cercanas, el desplazamiento al rojo cosmológico predomina sobre el resto de las contribuciones.
La forma habitual de visualizar esto, es imaginar un balón de goma perfectamente esférico, con puntos dibujados sobre ésta. Si el balón se infla y se expande, todos los puntos se alejarán unos de otros, no debido a que se estén moviendo, sino debido a que la goma se está moviendo.
Y, crucialmente, no habrá ningún centro en la expansión – desde cualquier punto observarás que los otros puntos se están alejando, exactamente en la línea de la ley de Hubble. De nuevo, vemos que la Vía Láctea no tiene nada de especial respecto a otras galaxias. La visión de la expansión del universo sería la misma desde cualquier galaxia del universo.

EL BIG BANG
La primera consecuencia de este descubrimiento fue que si el universo se está haciendo cada vez más grande, tuvo que ser más pequeño en el pasado. Tuvo que haber un instante en el que las galaxias estaban todas juntas.
Si todavía vas más atrás en el tiempo, llegaría un instante en el que todo el universo estaba concentrado en un punto. Usando la Ley de Hubble y la última calibración de la relación desplazamiento al rojo-distancia, podemos calcular que esto ocurrió hace aproximadamente 14 000 millones de años.
Esto es lo que llevó a la idea de que el universo emergió a partir de una “bola de fuego caliente”, el Big Bang, y se ha estado expandiendo y enfriando desde entonces. Pero el modelo cosmológico del Big Bang sólo fue tomado en serio a partir de la década 1960 del siglo pasado, cuando los radioastrónomos Arno Penzias y Robert Wilson descubrieron una señal de radio de ruído que identificaron como el eco remanente del Big Bang.
Esta radiación de fondo se encuentra en el rango de frecuencias de las microondas, y procede de todas las direcciones del espacio, y por tanto, se la conoce con el nombre de radión de fondo cósmico de microondas, o simplemente, radiación de fondo cósmica. Cósmica porque procede de todas las direcciones del espacio, y de fondo, porque la detectamos como una señal de ruido.
La radiación electromagnética de origen térmico, emite en un rango de frecuencias (su espectro de emisión) que depende sólo de la temperatura, lo que se conoce como radiación de cuerpo negro. Así, si el máximo de radiación emitida se encuentra en la zona del espectro electromagnético correspondiente al color blanco-amarillo del sol, la temperatura correspodiente será de unos cuantos miles de grados en la escala Kelvin; un trozo de hierro al rojo vivo está más frío, la emisión invisible infrarroja más fría aún, y así sucesivamente.
Similarmente, los objetos que emiten fundamentalmente en el ultravioleta o en rayos-X son mucho más calientes que el Sol. La temperatura del fondo cósmico de microondas, sin embargo, es de tan sólo, 2,7 K, -270,5 ºC. Pero se encuentra extendida por todo el universo.

RADIACIÓN DE FONDO CÓSMICO DE MICROONDAS
La explicación de la existencia del fondo cósmico de microondas es que el universo empezó siendo una “bola de fuego caliente”, mucho más caliente que una estrella. A medida que se fue expandiendo, esa “bola de fuego” se fue enfriando, como un gas expandiéndose al salir de un “spray aerosol”.
Al principio, los fotones (radiación) colisionaban con las partículas cargadas del mismo modo que lo hacen en el interior del Sol. Pero cuando el universo entero se enfrió lo suficiente, se formaron los primeros átomos neutros, y la radiación comenzó a viajar libremente por el espacio, como escapa de la superficie de una estrella.
Inevitablemente, esto ocurrió cuando la temperatura de todo el universo era aproximadamente la misma que en la superficie de una estrella que observamos en el cielo actualmente, unos cuantos miles de grados.
Cuando la radiación electromagnética escapó, unos cuantos cientos de miles de años después del comienzo de la expansión, era muy similar a la luz del Sol. Pero desde entonces, se ha desplazado al rojo debido a la expansión del universo, y se ha estirado hacia longitudes de onda más grandes, convirtiéndose en microondas.
Ahora, todo el universo está lleno de esta radiación, como un horno microondas, pero muy frío. Cuando usamos radio-teslescopios para observar el fondo cósmico de microondas, estamos observando una imagen directa del mismo Big Bang, pero muy desplazada al rojo. La luz de esta “foto” que tomamos hoy en día se emitió hace 13 500millones de años.
Naturalmente, este conocimiento del fondo cósmico de microondas no surgió de repente. Siguiendo el descubrimiento de la radiación de fondo en la década de 1960, fue estudiado usando primero radiotelescopios terrestres, y más tarde usando satélites diseñados específicamente para su observación.
Ha sido sólo en los diez últimos años cuando los estudios más detallados del fondo cósmico de microondas que han sido realizados con satélites, han mostrado que esta radiación no es perfectamente uniforme, y se ha usado para conocer un poco más acerca de la naturaleza del universo en el que vivimos, y de dónde vienen las galaxias.
Justo antes de que el universo alcanzara la temperatura para que la radiación y la materia dejaran de interaccionar, éstos estaban fuertemente “unidos”, como leche dispersa en una taza de té.
Donde la materia era un poco menos densa que la media, la radiación pudo enfríarse un poco, pero donde era más densa no. Así, estas diferencias en la temperatura quedaron impresas en la radiación, justo después de que ésta se desacoplara de la materia, y al mismo tiempo la materia comenzó a condensarse bajo la influencia de la gravedad, colapsando en planos y filamentos dentro de los cúmulos de galaxias que se formaron.
Llevando un poco más allá la analogía, es como si la leche formase grumos en el té, en vez de dispersarse uniformemente. Si el universo fue perfectamente uniforme cuando la materia y la radiación se desacoplaron, entonces, el fondo cósmico de microondas sería perfectamente uniforme hoy en día. Pero nadie lo podría observar actualmente, ya que en tal caso, la materia no habría colapsado nunca para formar galaxias y nosotros no estaríamos aquí.
Las fluctuaciones necesarias son tan pequeñas, que durante mucho tiempo se pensó que parecía improbable que pudieran ser medidas alguna vez. Cuando los satélites fueron lo suficientemente sofisticados, en la primera década del siglo XXI, encontraron que la temperatura media del fondo cósmico de microondas es 2,725 K, y cuyas fluctuaciones están entre 2,7249 y 2,7251 K.

MATERIA OSCURA
Esto puede parecer casi insignificante, pero de hecho, detallados estudios del fondo cósmico de microondas muestran exactamente que el patrón de las fluctuaciones en la temperatura coincide con el de las variaciones de densidad que llevarían a formar el tipo de estructuras que observamos en el universo.
Pero se necesita un elemento más para formar las galaxias. Tiene que haber mucha materia oscura en el universo para explicar la naturaleza de las galaxias como la Vía Láctea.
Incluso se necesita más materia oscura todavía para explicar por qué los cúmulos de galaxias se mantienen unidos. Los cúmulos de galaxias son como enjambres de abejas, donde cada elemento del cúmulo se mueve dentro del cúmulo bajo la influencia de la gravedad, mientras que todo el cúmulo se mueve como un todo, debido a la expansión del universo.
Midiendo las velocidades de las galaxias individuales dentro de los cúmulos, usando el efecto Doppler, se obtiene mediante cálculos directos cuánta masa tiene que haber en el cúmulo para evitar que las galaxias se escapen. Esta cantidad es siempre mucho mayor que la cantidad de materia que podemos observar en las galaxias brillantes en el cúmulo.
El fondo cósmico de microondas nos dice lo mismo de forma independiente.
Simulaciones por ordenador de cómo las estructuras se forman el universo a medida que éste se expande, muestran que el patrón de galaxias y cúmulos que observamos sólo puede haberse formado a partir de fluctuaciones del tamaño de las que vemos en el fondo cósmico de microondas si hay cerca de seis veces más materia oscura que materia bariónica (materia atómica). Entonces, todo encaja perfectamente.
Pero aún así, éste no es el final de la historia de lo que podemos aprender del fondo cósmico de microondas. En la década 1930, poco después de que la expansión del universo fuese descubierta, los cosmólogos empezaron a preguntarse si la expansión duraría para siempre, o si por el contrario, se frenaría en algún momento, e incluso, que pudiera invertirse alguna vez. La respuesta depende de la curvatura del espacio, de acuerdo a cómo se define en la teoría de la relatividad general.
Hay tres posibilidades. Si hay más densidad de materia-energía que un determinado valor, el espacio tridimensional está curvado de la misma forma que una la superficie de una esfera, y entonces, el universo no tiene bordes.
En tal situación, si caminas en una dirección el tiempo suficiente, terminarás donde empezaste, como si lo hicieras en la superficie de la tierra.
Éste tipo de universo se denomina “cerrado”, y si el universo real es así, se expandirá durante un período de tiempo, se frenará debido a la gravedad, y terminará colapsando sobre sí mismo. Como un balón lanzado en el aire hacia arriba.
En el otro extremo, si hay menos densidad que el anterior valor determinado, el universo es abierto, y se expandirá para siempre. Como una nave espacial lanzada con suficiente velocidad, que escapará del campo gravitatorio terrestre.
La geometría es difícil de visualizar en este caso, pero es el equivalente tridimensional de la superficie de “una silla de montar”, o un paso de una montaña, extendiéndose al infinito en todas las direcciones.
En el medio de los dos extremos, se encuentra el espacio plano en tres dimensiones, como una hoja de papel en dos dimensiones.
Si el universo es así, seguirá expandiéndose a una velocidad cada vez menor, hasta llegar al borde del colapso, pero sin llegar realmente a colapsar. Al menos, ése se pensaba que sería el destino de un universo plano.

ENERGÍA OSCURA
Ahora, los cosmólogos tienen otra idea. Si el espacio estuviera curvado, curvaría la trayectoria de la luz, como una lente. Así, las imágenes de objetos muy distantes y el patrón de fluctuaciones del fondo cósmico de microondas estarían distorsionados de una determinada forma si el universo fuese cerrado y de otra bien distinta si fuese abierto.
Las observaciones no revelan ninguna señal de tales distorsiones, así que los cosmólogos están seguros de que el universo es plano. Esto significa que tiene que haber una determinada cantidad de materia en el universo, que se traduce en una determinada densidad “ahora”. Pero la cantidad de materia (oscura y bariónica) en el universo proporciona sólo cerca del 27 % de esta densidad, que se denomina densidad crítica.
Así que las observaciones del fondo cósmico de microondas dicen que tiene que haber otra forma de materia-energía dominando el universo. Ésta se denomina energía oscura. Y como la materia (bariónica y oscura), afecta a la curvatura del espacio, y por tanto, a la forma en la que el universo se expande.
El hecho de que el espacio es plano, nos dice cuánta materia-energía tiene que haber en total; si hay un 27 % de materia, tiene que haber un 73 % de energía oscura.
La energía oscura muestra su influencia en el universo directamente por la forma en que afecta a la expansión. Cuando las distancias a las galaxias distantes son medidas usando observaciones de explosiones de supernovas, se observa que dichas galaxias están un poco más lejos de nosotros de lo que debieran estar de acuerdo a la interpretación más simple de sus desplazamientos al rojo.
Todo encaja de nuevo, sin embargo, si la expansión del universo es acelerada, las galaxias distantes están un poco más lejos que lo que implica la ley de Hubble. El efecto es muy pequeño para ser medido observando galaxias cercanas, que es por lo que no fue detectado hasta el final del siglo XX.
Se piensa que la energía oscura actúa como una especia de antigravedad, estirando el espacio, y que este efecto será mayor a medida que el universo envejece – como las galaxias se alejan unas de otras, la gravedad entre ellas se debilita, pero la energía oscura continúa  empujandolas.
Si éstas nuevas ideas son correctas, entonces el espacio siempre será plano, pero la expansión del universo será cada vez mayor, hasta que dentro de unos 100 000 millones de años a partir de ahora, las galaxias estarán tan lejos unas de otras que será imposible ver nada más allá de la Vía Láctea y el resto de galaxias que forman el lamado Grupo Local. Qué sucede después sólo podemos suponerlo.
Cómo empezó el universo también es algo que sólo podemos suponer; pero es asombroso cómo de lejos podemos ir en el tiempo antes de que los cosmólogos tengan que recurrir a una “suposición cualificada”.
Debido a que conocemos la temperatura del fondo cósmico de microondas hoy, y la densidad promedio del universo, y cómo de rápido el universo se está expandiendo, podemos ir atrás en el tiempo para deducir la temperatura y la densidad en cualquier instante del pasado.
Sabemos que el universo comenzó hace aproximadamente unos 14 000 millones de años en el Big Bang, y uno de los objetivos de la cosmología es deducir qué condiciones había tan cerca como sea posible del principio, al que se denomina a veces “tiempo cero”.
Las condiciones más extremas de densidad que existen hoy en la tierra se encuentran en los núcleos de de los átomos, y gracias a experimentos en grandes aceleradores de partículas, los físicos están seguros de que entienden profundamente la física de las densidades nucleares – y, por tanto, entienden al menos igual de bien, qué sucede a bajas densidades.
Si vamos hacia atrás en la expansión del universo hacia el instante en que la densidad en todas partes era del orden de la densidad del núcleo de un átomo hoy en día, nos iríamos a un diezmilésima de segundo después del tiempo cero. Los cosmólogos están seguros de que entienden, en términos generales, todo lo que ha sucedido en el universo desde entonces.

FORMACIÓN DE GALAXIAS
En ese instante, la temperatura del universo era de un billón de Kelvin, y los fotones de lo que se convertiría después en el fondo cósmico de microondas llevaban tanta energía que eran intercambiables por partículas.
A medida que el universo se fue expandiendo y enfriando en los cuatro minutos siguientes, algunos de los fotones se condensaron en protones y neutrones, los elementos constitutivos de los núcleos atómicos, mientras que la temperatura seguía disminuyendo.
Un cuarto de esas partículas terminaron como núcleos de helio, y el resto permanecieron como protones y núcleos de hidrógeno. Pero todavía, la temperatura era muy alta como para que dichos núcleos atrajeran a los electrones, volviéndose átomos neutros; durante un tiempo los electrones continuaron interactuando con la radiación.
Llevó entre 300 000 y 400 000 años que la temperatura del universo cayera por debajo de la temperatura en la superficie de una estrella, momento en el cual los fotones pudieron desacoplarse de la materia y se volvieron la radiación de fondo que observamos hoy en día en la región de las microondas.
Durante todo este tiempo, la materia bariónica estuvo sumergida en el mar de materia oscura, que no interacciona con la radiación. Pequeñas irregularidades en la distribución de materia oscura produjeron regiones de mayor densidad, mientras que la gravedad atrajo tanto a la materia oscura como a la bariónica, condensándose, y uniéndose estas concentraciones a lo largo de filamentos de materia oscura como cuentas en una cuerda. Estas condensaciones atrajeron más materia gracias a su gravedad, como el agua fluyendo hacia un hoyo en un camino.
Alrededor de 20 millones de años después del tiempo cero, los “hoyos” de materia oscura fueron atrayendo corrientes de materia bariónica, que formaron estrellas y galaxias a medida que se iba condensando por efecto de la gravedad de la materia oscura.

EL MULTIVERSO
Casi después de más de mil millones de años desde el tiempo cero, menos de una décima parte de la edad actual del universo, había junto con muchas galaxias pequeñas, algunas proto-galaxias tan grandes como la Vía Láctea, embebidas en halos de materia oscura conteniendo del orden de un billón de masas solares de materia, con cuásares u otras formas de actividad de agujeros negros en sus centros.
Desde entonces, las galaxias crecieron y evolucionaron a través de procesos de “fusión”, como describimos anteriormente. Las fusiones son interacciones gravitatorias entre dos o más galaxias a través de las cuales las galaxias terminan formando una sola.
Pero los cosmólogos no están contentos con conocer cómo el universo se ha desarrollado desde 0,0001 segundos después del tiempo cero. Quieren conocer también lo que sucedió antes. Y aquí es dónde “el trabajo de suposición cualificada” entra en juego, y no hay una teoría o modelo único, con el que todo el mundo esté de acuerdo.
Qué modelo prefiere cada uno depende de su gusto personal, y como nosotros no tenemos suficiente espacio para discutirlos todos, describiremos el que más nos gusta.
De acuerdo con este modelo, todo el universo que vemos es tan sólo una parte de una burbuja dentro de una región más grande del espacio-tiempo. Éste puede ser literalmente infinito en el espacio y en el tiempo; para distinguirlo de lo que denominamos usualmente con el termino universo, es llamado a veces cosmos, y la implicación es que pueden haber otros universos burbuja esparcidos a lo largo del cosmos como burbujas hay en una bebida gaseosa.
Si el cosmos es infinito en el tiempo, significa que siempre ha existido y siempre existirá, y que no hay ni un principio ni un final del tiempo del que preocuparnos. Si es infinito en el espacio, significa que se extiende para siempre en todas las direcciones y no hay bordes de los que preocuparse.

INFLACIÓN
Todo esto es relativamente simple de describir en términos matemáticos, y una característica de tal descripción es que las ecuaciones nos dicen que es posible que las fluctuaciones cuánticas produzcan pequeñas burbujas dentro del espacio-tiempo del cosmos.
La física cuántica es una rama de la física que describe lo que sucede en la escala de los átomos y las partículas fundamentales. Como esas fluctuaciones cuánticas son mucho más pequeñas que un átomo, podrían no tener mucho en común con un universo tan grande como el nuestro, que ha estado expandiéndose durante cerca de 14 000 millones de años y que contiene cientos de miles de millones de galaxias.
Pero al principio de la década de 1980, el teórico Alan Guth se dio cuenta de que hay una forma de hacer que una de esas fluctuaciones cuánticas se expandan muy rápido durante un período muy corto de tiempo, creciendo hasta convertirse en una semilla del Big Bang.
El proceso se denomina inflación, y funciona exactamente de la misma forma en la que la energía oscura acelera la expansión del universo, pero más violentamente.
La energía oscura asociada con la inflación pudo tomar una fluctuación cuántica aproximadamente 10 trillones de veces más pequeña que un proton e inflarla en una región de unos 10 centímetros de diámetro en una pequeña fracción de segundo.
Después, Guth mostró que la energía oscura se convierte en la energía de una “bola de fuego caliente”, expandiéndose tan rápidamente después del estallido inicial que incluso aunque la gravedad comenzase inmediatamente después a detener la expansión, tardaría en pararla cientos de miles de millones de años.
La inflación trae consigo un regalo. Durante ese primer instante, el que es ahora nuestro universo visible habría duplicado su tamaño cien veces. Esto tendría el efecto de suavizar cualquier irregularidad, del mismo modo que la superficie rugosa de una ciruela se suaviza cuando es introducida en agua y se hincha.
La inflación hace también el espacio muy pero que muy plano, como lo observamos en el universo real. La superficie de la tierra ya parece muy plana, aunque sabemos que vivimos en la superficie de una esfera. Imagina duplicar el diámetro de la esfera cien veces; duplicar su tamaño una vez la hace dos veces más grande, duplicarla dos veces la hace cuatro veces más grande, duplicarla  tres veces la hace ocho veces más grande, y así sucesivamente.
Finalmente, duplicarla cien veces, la hace 2100 veces más grande. Sería casi imposible para las personas que viven en la superficie de una esfera tan grande decir si la superficie tiene curvatura o no. De acuerdo con muchas observaciones, sería indistinguible de una superficie plana.
La inflación predice que el universo debería ser plano, en el sentido ya descrito, y que debería contener sólo pequeñas irregularidades en el instante del Big Bang. Éstas son exactamente el tipo de pequeñas irregularidades que vemos en el fondo cósmico de microondas, que nosotros sabemos que son del tamaño adecuado para la existencia de las galaxias.
La impresionante consecuencia de la teoría de la inflación es que las galaxias existen (y por tanto, los planetas y las personas) gracias a las fluctuaciones cuánticas que fueron dejadas cuando todo el universo que observamos a nuestro alrededor era más pequeño que un átomo.
La inflación es una explicación tan satisfactoria de la forma en la que el Big Bang empezó, que está incluída en casi todas las ideas modernas sobre cómo nació el universo, no sólo el modelo de Cosmos eterno que a nosotros nos gusta en particular.
El gran debate en cosmología ahora se centra en la forma en la que comenzó la inflación, pero la enorme expansión del universo durante la inflación suavizó tanto la información de lo que ocurrió antes, que puede que nunca sepamos cómo empezó exactamente el universo.
Puede ser, sin embargo, que la inflación esté conectada con el destino del universo, así como con su origen. Cuando la energía oscura en su forma habitual haya realizado su trabajo, mucho después de que las galaxias se hayan alejado tanto unas de otras que sean invisibles entre ellas, la energía oscura desgarrará la estructura de la materia misma y producira el vacío final.
Éstas son las condiciones ideales para los tipos de fluctuaciones cuánticas que se han conectado con el nacimiento de nuestro universo. Puede ser que la muerte de nuestro universo lleve al nacimiento de otros universos, y que nosotros seamos sólo un eslabón de una cadena cósmica de universos extendiéndose infinitamente tanto en el espacio como en el tiempo hacia el pasado y hacia el futuro. Otra idea es que cada fluctuación cuántica produce un “universo burbuja” diferente.
Esta imagen tan sobrecogedora nos hace parecer muy insignificantes a escala cósmica. Pero poniendo esta especulación aparte, volviendo a la Tierra y concentrándonos en nuestro propio universo, encontramos que hay íntimas conexiones entre la vida y el universo.

Autor: John Gribbin / Mary Gribbin
Fecha Original: 13 de mayo de 2009
Enlace Original

martes, 4 de mayo de 2010

Combustible Solar

Cuando Noubar Afeyan, director general de Flagship Ventures en Cambridge, Massachusetts, se propuso inventar el combustible renovable ideal, decidió prescindir de los intermediarios. Los biocombustibles proceden, en última instancia, del dióxido de carbono y el agua, así que ¿por qué insistir en elaborarlos a partir de la biomasa—maíz, pasto o algas? "Lo que queríamos saber," afirma Afeyan, "es si podíamos diseñar un sistema capaz de convertir el dióxido de carbono directamente en cualquier combustible que quisiéramos."

La respuesta parece ser afirmativa, según apunta Joule Biotechnologies, la compañía que fundó Afeyan (también en Cambridge) para el diseño de este nuevo combustible. Mediante la manipulación y el diseño de genes, Joule ha creado microorganismos fotosintéticos que utilizan la luz solar para convertir el dióxido de carbono de manera eficiente en etanol o diesel—la primera vez que esto se ha hecho jamás, según señala la compañía. Joule cultiva los microbios en fotobioreactores que no necesitan agua dulce y ocupan sólo una fracción de los terrenos necesarios para los métodos basados en biomasa. Las criaturas secretan el combustible continuamente, por lo que su recolecta resulta sencilla. Los exámenes de laboratorio y los ensayos a escala reducida llevan a Afeyan a estimar que el proceso produciría 100 veces más combustible por hectárea que la fermentación de maíz para producir etanol, y 10 veces más que a partir de fuentes como los residuos agrícolas. Afirma que los costes podrían ser competitivos con los de los combustibles fósiles.
Si Afeyan tiene razón, los biocombustibles podrían ser una alternativa al petróleo en una escala mucho más amplia de lo que nunca hubiera parecido posible. El suministro de biocombustibles convencionales, tales como los derivados del maíz, se ve limitado por la gran cantidad de agua y tierras agrícolas necesarias para cultivar las plantas de las que están hechos. Y mientras que los biocarburantes avanzados requieren menos agua y no necesitan tierra de alta calidad, su potencial está limitado por los procesos múltiples, y de alto coste, necesarios para fabricarlos. Como resultado, la Agencia Internacional de Energía estima que en 2050, el biodiesel y el etanol sólo cubrirán el 26 por ciento de la demanda mundial de combustible para el transporte.

Los bioingenieros de Joule han equipado a sus microorganismos con un interruptor genético que limita el crecimiento. Los científicos les permiten multiplicarse sólo un par de días antes de activar el interruptor para desviar la energía de los organismos del crecimiento a la producción de combustible. Mientras que otras compañías tratan de cultivar la mayor cantidad de biomasa posible, Afeyan afirma querer "generar la menor cantidad de biomasa que pueda." A nivel retrospectivo, el método podría parecer obvio. De hecho, la startup Synthetic Genomics y un grupo académico en el Instituto de Biotecnología de la Universidad de Minnesota también están trabajando para que los combustibles se fabriquen directamente del dióxido de carbono. Joule espera tener éxito gracias al desarrollo de sus organismos y de sus fotobiorreactores desde cero, para que así funcionen perfectamente juntos.
Aún así, es una estrategia arriesgada, puesto que se aparta de los procesos ya establecidos. Por lo general, las startups se establecen con la determinación de hacer algo novedoso, afirma James Collins, profesor de ingeniería biomédica en la Universidad de Boston y miembro del comité científico asesor de Joule, "y rápidamente pasan a tratar de encontrar algo que funcione ... algo no tan novedoso y que esté bien establecido." Afeyan, sin embargo, ha hecho que la empresa siga al frente de la innovación. Este verano, pasará de hacer ajustes a escala de laboratorio a una planta piloto al aire libre que en la actualidad se encuentra bajo construcción en Leander, Texas.

Tanto como capitalista de riesgo y técnico—que recibió su doctorado en ingeniería química de MIT en 1987—Afeyan es plenamente consciente de los retos a la hora de demostrar que un nuevo proceso puede operar económicamente y generar combustible en grandes volúmenes. Para minimizar los riesgos financieros, dirigió a Joule hacia un proceso modular que no requiere la instalación de plantas de demostración grandes y costosas.
"No estoy diciendo que sea fácil, o que esté a la vuelta de la esquina, porque llevo haciendo esto desde hace mucho tiempo", señala Afeyan. No obstante, cree que Joule tiene algo grande entre manos: un combustible renovable que podría competir con los combustibles fósiles en cuanto a costes y a escala. Afirma: "Tenemos los elementos de una tecnología potencialmente transformadora".

viernes, 30 de abril de 2010

La belleza en la que nacen las estrellas



Las nebulosas, agrupaciones de gas y polvo en las cuales nacen las estrellas, llamadas a veces maternidades, son en muchas ocasiones de una belleza deslumbrante Una vez más, el telescopio VISTA (acrónimo de Visible and Infrared Survey Telescope) aporta una visión espectacular de una de estas nebulosas, tarea a la que parece estar predestinado por su nombre. En esta ocasión se trata de la Nebulosa Pata de Gato (NGC 6334), que se encuentra a 500 años luz de la Tierra en la constelación del Escorpión. Situado en el Observatorio de Paranal, en el Desierto de Atacama (Chile), este telescopio trabaja en el visible y el infrarrojo. Este último tipo de radiación electromagnética atraviesa el polvo haciendo posible distinguir objetos de otro modo invisibles, como podemos ver al comparar la imagen tomada en el infrarrojo con la tomada en el visible.
Créditos imagen: La Nebulosa Pata de Gato mide 50 años luz de ancho, en infrarrojo (izquierda) y visible (derecha)- ESO/J. Emerson/VISTA
Más información:
Vista captura los secretos del gato cósmico
Nebulosas

martes, 27 de abril de 2010

La ionosfera de la Tierra se ha encogido

Observaciones hechas por instrumentos de la NASA a bordo de un satélite de la Fuerza Aérea de EE.UU. (USAF, por sus siglas en inglés) han mostrado que la frontera entre la atmósfera superior de la Tierra y el espacio exterior ha bajado considerablemente. Estas mediciones fueron obtenidas con el conjunto de instrumentos científicos conocido por las siglas CINDI, embarcado a bordo del satélite C/NOFS de la USAF, que fue lanzado el 16 de Abril de 2008.
Descripción El satélite C/NOFS
Foto: NASA
(NC&T) CINDI y C/NOFS están diseñados para estudiar las perturbaciones en la ionosfera de la Tierra que puedan perjudicar las señales de navegación y de comunicación. La ionosfera es una envoltura gaseosa de partículas cargadas eléctricamente que rodea nuestro planeta, y es importante porque las ondas de radio, las señales de radar y las de los sistemas de posicionamiento global pueden ser interrumpidas por las perturbaciones en esta capa.
El primer descubrimiento de CINDI fue que la ionosfera no estaba donde se había esperado que estuviera. Durante los primeros meses de funcionamiento de CINDI, la capa de transición entre la ionosfera y el espacio exterior fue encontrada a unos 420 kilómetros de altitud durante la noche, subiendo escasamente por encima de los 800 kilómetros durante el día. Estos valores son extremadamente bajos si se les compara con los valores históricos más típicos de 640 kilómetros durante la noche y 960 kilómetros durante el día.
La altura de dicha capa de transición se controla en parte por la cantidad de energía de la banda ultravioleta extrema emitida por el Sol. Podría esperarse una ionosfera algo contraída porque el C/NOFS fue lanzado durante uno de los mínimos del ciclo solar de 11 años. Sin embargo, el tamaño real de la reducción cogió por sorpresa a los investigadores. De hecho, cuando examinaban los archivos históricos de actividad solar, encontraron que el C/NOFS se había lanzado durante el mínimo solar más tranquilo desde que empezó la era espacial.
Esta circunstancia extraordinaria proporciona a los científicos una oportunidad incomparable de estudiar la conexión entre la dinámica interior del Sol y la respuesta del entorno espacial de la Tierra.


Para saber más:
http://www.scitech-news.com/ssn/index.php?option=com_content&view=articl...

lunes, 26 de abril de 2010

¿Cómo se formó el petroleo localizado a gran profundidad?


El petróleo y el gas que utilizamos como combustibles en nuestras casas y automóviles comenzaron como organismos vivos que murieron, y fueron comprimidos y calentados bajo pesadas capas de sedimentos en la corteza terrestre.
Los científicos han debatido durante años si algunos de estos hidrocarburos también podrían haber sido creados a mayor profundidad en la Tierra, y sin materia orgánica. Ahora por primera vez, se ha constatado que el etano e hidrocarburos más pesados pueden ser sintetizados bajo las condiciones de temperatura y presión del manto superior, la capa del planeta inmediatamente por debajo de la corteza terrestre.
Descripción: El etano e hidrocarburos más pesados pueden ser sintetizados bajo las condiciones de temperatura y presión del manto superior
Crédito de la imagen: Carnegie I

(NC&T) Esta investigación ha sido llevada a cabo por científicos del Laboratorio Geofísico del Instituto Carnegie, y otros expertos de Rusia y Suecia.
El metano (CH4) es el componente principal del gas natural, mientras que el etano (C2H6) es usado como materia prima para la industria petroquímica. Ambos hidrocarburos, y otros relacionados con los combustibles, son llamados hidrocarburos saturados, y están saturados de hidrógeno.
Usando una celda de yunque de diamante y una fuente de calor láser, los científicos sometieron al metano a presiones de más de 20.000 veces la presión atmosférica a nivel del mar, y a temperaturas entre 700 y 1.230 grados centígrados aproximadamente. Estas condiciones imitan las existentes en el subsuelo terrestre a una profundidad de entre 64 y 153 kilómetros.
En estos experimentos, el metano reaccionó y formó etano, propano, butano, hidrógeno molecular, y grafito.
Los científicos sometieron entonces al etano a las mismas condiciones, y se produjo metano. Las transformaciones sugieren que pueden existir hidrocarburos más pesados en esas profundidades, y que la síntesis de hidrocarburos saturados está controlada termodinámicamente y no requiere de materia orgánica.
Los científicos descartaron la posibilidad de que los catalizadores empleados como parte del instrumental para los experimentos estuvieran influyendo en los resultados con un papel no tenido en cuenta, pero reconocen que podría haber catalizadores en las profundidades de la Tierra, con su mezcla de compuestos.
En el estudio intervino Alexander Goncharov, del Instituto Carnegie.

Para saber más::
http://www.scitech-news.com/2009/08/hydrocarbons-in-deep-earth.html

domingo, 25 de abril de 2010

Desalación con energía solar

Arabia Saudí cubre gran parte de sus necesidades de agua potable mediante la eliminación de la sal y otros minerales del agua marina. En la actualidad, el país tiene previsto utilizar uno de sus recursos más abundantes para hacer frente a su escasez de agua dulce: el sol. La agencia nacional de investigación de Arabia Saudí, la Ciudad para la Ciencia y la Tecnología del rey Abdulaziz (la KACST, en sus siglas en inglés), está construyendo lo que será la mayor planta mundial de desalinización mediante energía solar en la ciudad de Al-Khafji.
La planta utilizará un nuevo tipo de tecnología de concentración solar fotovoltaica (FV), así como nuevas tecnologías de filtración de agua, que la KACST ha desarrollado junto a IBM. Cuando se haya completado a finales de 2012, la planta producirá 30.000 metros cúbicos de agua desalada al día para satisfacer las necesidades de 100.000 personas.
El objetivo principal de la KACST es reducir el coste de la desalinización del agua. La mitad de los gastos de funcionamiento de una planta de desalación en la actualidad provienen del consumo de la energía, y la mayoría de las plantas actuales funcionan con combustibles fósiles. Dependiendo del precio del combustible, producir un metro cúbico cuesta en la actualidad entre 40 y 90 centavos.

La reducción de costes no es la única razón por la que llevamos soñando con la unión de las energías renovables y el proceso de desalación durante décadas, afirma Lisa Henthorne, directora de la Asociación Internacional de Desalación. "Será buena cualquier cosa que podamos hacer para reducir este coste a lo largo del tiempo, o para reducir las emisiones de gases de efecto invernadero asociados con ese consumo de energía", afirma Henthorne. "Esta es realmente una demostración con el fin de pulir los errores, y ver si las tecnologías pueden funcionar bien juntas."
Si bien la nueva tecnología FV concentrada podría generar electricidad a precios asequibles, la energía solar todavía cuesta más que los combustibles fósiles en muchas partes del mundo. No obstante, a pesar de los altos costes, utilizarla para los procesos de desalinización tiene sentido, señala Henthorne. "No lo hacemos porque sea lo más barato ahora mismo, sino porque sería lo más barato a largo plazo."

Las plantas de desalinización suelen utilizar procesos de destilación. La mayoría de las plantas de próxima apertura, entre ellas la de Al-Khafji, utilizarán un proceso llamado ósmosis inversa, que hace pasar el agua marina a través de una membrana de polímero y utilizando la presión para filtrar la sal. Ambos métodos son de alto consumo energético. Arabia Saudí, el principal productor de agua desalinizada en el mundo, utiliza 1,5 millones de barriles de petróleo al día en sus plantas, según Arab News.
La FV concentrada de la nueva planta y los sistemas de ósmosis inversa utilizarán materiales avanzados y desarrollados por IBM para la fabricación de chips de ordenador.

En una instalación fotovoltaica concentrada, las lentes o espejos enfocan la luz del sol en unas células solares ultra-eficientes que convierten la luz en electricidad. La idea es reducir los costes al utilizar menos materiales semiconductores de células solares. Sin embargo, al multiplicar la energía del sol cientos de veces se crea una gran cantidad de calor. "Si no enfriamos el dispositivo, se terminan sobrecalentando los circuitos y podemos destruirlos", afirma Sharon Nunes, que ocupa la vicepresidencia de Grandes Innovaciones Verdes de IBM. La solución de IBM consiste en utilizar un metal líquido altamente conductor—una aleación de galio indio—en la parte inferior de los chips de ordenador de silicio para extraer el calor. Al usar este metal líquido, los investigadores han sido capaces de concentrar el poder del sol 2.300 veces sobre un dispositivo solar de un centímetro cuadrado. Eso es tres veces superior a lo que es posible con los sistemas de concentración actuales, afirma Nunes.
Para la desalinización, IBM ha trabajado con investigadores de la Universidad de Texas en Austin para desarrollar una membrana sólida que hace que la ósmosis inversa sea más eficiente en cuanto a energía. La desalinización se lleva a cabo hoy día con membranas de poliamida que acaban atascándose con el aceite y los organismos del agua marina. El cloro utilizado para el tratamiento previo del agua marina también acaba descomponiendo las membranas con el paso del tiempo.

La nueva membrana de polímero contiene alcoholes de hexafluoro, un material que IBM utiliza para los patrones de los circuitos de cobre en los chips de ordenador. A un pH elevado, los grupos de flúor se cargan y protegen la membrana contra el cloro y las obstrucciones. Como resultado, el agua fluye a través de ellas entre un 25 y un 50 por ciento más rápidamente que a través de las membranas de ósmosis inversa usadas en la actualidad, según señala IBM.
La nueva membrana elimina el 99,5 por ciento de la sal en el agua marina. Esto es comparable con las membranas de poliamida convencionales, afirma Menachem Elimelech, presidente de ingeniería química en la Universidad de Yale. "Hay que lograr este alto nivel de rechazo, de lo contrario no podríamos conseguir una buena calidad de agua con sólo una pasada, y habría que desalar de nuevo".

La planta desalinizadora de Al-Khafji es el primer paso dentro de un programa de energía solar de tres pasos puesto en marcha por la KACST para reducir los costes de la desalinización. El segundo paso será una instalación de 300.000 metros cúbicos, y en la tercera fase participarán varias plantas de desalinización mediante energía solar localizadas en diversos puntos.

viernes, 23 de abril de 2010

Joven y enfriándose: Los inicios de la vida de una estrella de neutrones

Cassiopeia ALos científicos pueden utilizar las observaciones de los cambios de temperatura para investigar qué está pasando en el núcleo de una estrella de neutrones.
Las observaciones de cómo la estrella de neutrones más joven conocida se ha enfríado en la última década está dando a los astrónomos nuevas pistas sobre el interior de estas superdensas y moribundas estrellas.

Wynn Ho, de la Universidad de Southampton, y Craig Heinke, de la Universidad de Alberta, en Canadá, midieron la temperatura de la estrella de neutrones en el remanente de supernova  Cassiopeia A, usando datos obtenidos por el Observatorio Chandra de rayos X de la NASA, entre el año 2000 y el 2009.
“Esta es la primera vez que los astrónomos han tenido la posibilidad de mirar una joven y fresca estrella de neutrones con constancia a través del tiempo”, dijo Ho. “En la última década, Chandra nos ha dado una fotografía de la temperatura, cada 2 años aproximadamente,  y hemos visto alrededor de un 3% de la caída de la temperatura durante ese intervalo de tiempo”.
Las estrellas de neutrones están compuestas principalmente por el choque de neutrones a causa de la gravedad, comprimidos a más de un millón de millones de veces la densidad del plomo. Son los núcleos densos de las estrellas masivas que se han quedado sin combulstible nuclear y han colapsado en explosiones de supernova. La explosión de la supernova de Cassiopeia A, que tuvo lugar probablemente en el año 1680, habría calentado la estrella de neutrones a temperaturas cercanas a  miles de millones de grados centígrados, de lo que se ha enfríado alrededor de dos millones de grados.
“Las jovenes y frías estrellas de neutrones se enfrían por la emisión de neutrinos de alta energía – partículas similares a los fotones, pero que no interectúan mucho con la materia normal, lo que las hace difíciles de detectar”, dijo Ho. “Dado que la mayoría de los neutrinos son producidos en el  interior de la estrella, podemos usar las observaciones de los cambios de temperatura para examinar qué está pasando en el núcleo de la estrella de neutrones. La estructura de la estrella de neutrones determina cómo se enfrían, así que este descubrimiento nos permitirá entender mejor de qué están hechas.  Nuestros observaciones de las variaciones en la temperatura ya han descartado algunos modelos propuestos para explicar el enfríamiento y nos han dado ideas sobre las propiedades de la materia, que en este caso no pueden estudiarse en los laboratorios de la Tierra”.
Inicialmente, el núcleo de la estrella de neutrones se enfría más rápidamente que las capas exteriores. Después de unos pocos cientos de años, el equilibrio se alcanza, y todo el interior se enfría a un ritmo uniforme. A los 330 años de edad aproximadamente, la estrella de neutrones de Cassiopeia A estuvo cerca del límite de cambio de estado. Si el enfríamento es sólo a causa de la emisión de neutrinos, debe haber una disminución constante de la temperatura. Sin embargo, y a pesar de que Ho y Heinke observaron una tendencia durante el período de 10 años, hubo un gran cambio alrededor del 2006, que sugiere que otros procesos podrían estar activos.
“La estrella de neutrones aún no se ha relajado en la fase de enfríamiento constante, o podríamos estar viendo cómo pasan otros procesos”, dijo Ho. “No sabemos si el interior de la estrella de neutrones contiene más partículas exóticas, como quarks, u otros estados de la materia, tales como superfluídos y superconductores. Esperamos que con más observaciones seamos capaces de explicar, con mucho más detalles, qué está pasando en el interior”.

Fecha Original: 19 de abril de 2010
Enlace Original

jueves, 22 de abril de 2010

Publicadas las primeras y espectaculares imágenes del nuevo observatorio solar

Imagen ultravioleta del Sol por SDOLas primeras imágenes del Sol retornadas a casa desde el último observatorio solar de la NASA, han dejado con la boca abierta a los científicos de la misión debido a su extraordinario detalle y a algunos hallazgos inesperados.
La NASA publicó las nuevas imágenes hoy, procedentes del Observatorio de Dinámica Solar (SDO), una sonda lanzada el 11 de febrero para estudiar las capas profundas del Sol, monitorizar tormentas solares e investigar los misterios del funcionamiento interno del astro.

“La nave y los instrumentos están funcionando muy bien”, dice Richard Fisher, director de la División de Heliofísica en las Oficinas Centrales de la NASA en Washington, D.C. “Lo que hemos visto es verdaderamente, en mi opinión, espectacular”.
El Observatorio de Dinámica Solar (SDO) transporta tres instrumentos que observan constantemente el Sol, generando imágenes que tienen una resolución 10 veces superior a una televisión HD.
“Creo que esta va a ser una vista revolucionaria” del Sol, dice Fisher a SPACE.com, quien equiparó el impacto del nuevo observatorio al del Telescopio Espacial Hubble.
SDO será revolucionario para el estudio del Sol “de la misma forma que el Hubble fue revolucionario para la astrofísica”, comenta.
El joven observatorio solar también generará una asombrosa cantidad de datos.
Enviará el equivalente a medio millón de canciones cada día a una estación en tierra desde su órbita geosíncrona. Esto son aproximadamente 150 millones de bits de datos por segundo, 24 horas al día siete días a la semana — casi 50 veces más datos científicos que cualquier otra misión en la historia de la NASA.
La monitorización simultánea de varias longitudes de onda de la luz solar, junto con el ritmo más rápido de observación dará a los científicos una visión con unos detalles sin precedentes de las características presentes en el Sol. También ayudará a monitorizar las llamaradas solares y tormentas que pueden impactar en la Tierra, así como arrojar luz sobre la influencia del campo magnético del Sol en los procesos que tienen lugar en su interior.
“Lo bueno de SDO es que tenemos todo el Sol durante todo el tiempo”, comenta Philip H. Scherrer investigador principal del Instrumento de Cámara Heliosísmica y Magnética de SDO en la Universidad de Stanford en Palo Alto, California. Las observaciones de las características solares y su evolución están demostrando que “el campo magnético es mucho más predominante de lo que pensábamos”, comenta Fisher.
También es muy dinámico: “El campo magnético nunca es el mismo dos veces, siempre está cambiando”, dice Dean Pesnell, científico del proyecto SDO en el Centro de Vuelo Espacial Goddard en Greenbelt, Maryland.
Y aunque la nave aún está en su fase de puesta en servicio — lo que significa que todos los instrumentos están siendo calibrados adecuadamente y la sonda está entrando en su órbita final — ha tomado imágenes que ya están haciendo revelaciones inesperadas.
Una observación particularmente interesante, señala Fisher, muestra la evolución de una región activa del Sol, también conocida como mancha solar. Las manchas oscuras de la superficie del Sol están conectadas con la intensa actividad magnética. SDO captó esta mancha solar en su declive, y no tenía el aspecto que los científicos esperaban.
“Es un poco desconcertante lo que ha pasado”, comenta Fisher.
SDO observó que los diminutos cambios en el campo magnético debido al declive de la mancha solar “tenían un gran impacto en la atmósfera solar superior”, señala Fisher, comparando esto a la situación en la Tierra de que un rayo en Indiana provocara un huracán en la Costa Este.
La mancha solar está asociada a un estallido de material solar hacia el espacio, en lo que se conoce como eyección de masa coronal o CME. SDO fue capaz de ver la mancha solar asociada con esta CME así como las ondas que cruzaban la superficie del Sol asociadas con la llamarada que las provocó.
La CME expulsó tanto material como el contenido en todo el Río Mississippi a una velocidad de aproximadamente 1,6 millones de kilómetros por hora; el material fue acelerado a esta velocidad en apenas un segundo, dice Alan Title, investigador principal del Instrumento de Ensamblaje de Imagen Atmosférica de SDO en el Laboratorio Solar y Astrofísico de Lockheed Martin en Palo Alto, California.
Que SDO ya esté asombrando a los científicos con sus hallazgos incluso sin estar en un modo completo de observación (lo que sucederá el mes próximo) demuestra que es una nave muy útil, dice Fisher.
“La señal de un experimento científico exitoso es que no comprendes lo que estás obteniendo”, comenta.
Tales eventos solares no son sólo interesantes para los científicos — pueden tener un gran impacto en la Tierra dejando fuera de servicio a los sistemas de comunicación, satélites GPS e incluso redes eléctricas. Los científicos esperan que SDO ayude a hacer mejores predicciones de cuándo estallen llamaradas solares y CMEs en dirección a la Tierra.
“Cuanto más sepamos sobre estas llamaradas, mejor podremos dar una respuesta proactiva en lugar de reactiva” al clima espacial, dice Tom Woods investigador principal del instrumento Experimento de Variabilidad del Ultravioleta Extremo en la Universidad de Colorado en Boulder.
Y permitiendo a los científicos comprender mejor el Sol, SDO ayudará también a arrojar luz sobre el funcionamiento de otras estrellas.

Enlace Original