lunes, 25 de abril de 2011

Crean un nuevo material capaz de repararse a sí mismo

Evolución de la reparación del nuevo material con luz ultravioleta
Caso 1: Su hijo de seis años encuentra un clavo en el garaje y se dedica a explorar sus dotes artísticas dibujando monigotes en la carrocería de su coche nuevo. Usted lo descubre y queda horrorizado. Caso 2: Después de dar vueltas con su coche por un aparcamiento público en busca de una plaza, la única que queda libre es pequeña y se encuentra delimitada por un par de pilares de hormigón. Entre las prisas, los nervios, la incapacidad para medir las distancias y algo de torpeza, aparca como puede. Suena un chirrido. Cuando sale del vehículo descubre un enorme arañazo en un lateral y queda horrorizado.

Actualmente, reparar unos rasguños semejantes supondría un gasto económico que da miedo calcular, pero un grupo de investigadores suizos y norteamericanos ha desarrollado un material que tiene la capacidad de autorrepararse en menos de un minuto mediante la exposición a la luz ultravioleta. Ni talleres ni costosas facturas. Lo hace solo, con la única ayuda de una lámpara muy común, como las que utilizan los dentistas. El trabajo, que puede tener importantes aplicaciones en la vida cotidiana, como en el área de los transportes o la construcción, aparece publicado en la prestigiosa revista Nature.

«Esta es una investigación sobre materiales ingeniosa y transformadora», dice Andrew Lovinger, científico experto en polímeros de la Fundación Nacional de Ciencia de EE.UU. En efecto, mientras la mayoría de los materiales a base de polímeros se reparan mediante el calentamiento directo de la zona afectada, este material gomoso contiene compuestos metálicos que absorben la luz ultravioleta y la convierten en calor localizado, lo que permite la autorreparación.

Descubren ocho nuevas especies de avispas en Panamá














Un grupo de investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha descubierto la existencia de ocho nuevas especies de avispas en las agallas de seis variedades de árboles predominantes en los bosques de Panamá. Las agallas son deformaciones del árbol, su respuesta ante parásitos e infecciones.

El estudio, dirigido por los investigadores José Luis Nieves Aldrey del CSIC y Enrique Medianero de la Universidad de Panamá, ha localizado estas especies en las agallas de seis variedades de árboles del género 'Quercus' (robles), predominantes en los bosques montañosos del país centroamericano.

Las ocho nuevas variedades pertenecen al género 'Synergus' del que los investigadores han encontrado otras dos especies que hasta el momento sólo se habían registrado en Guatemala y Nicaragua. Esta investigación "pone de manifiesto la sorprendente y rica biodiversidad de las agallas de los bosques montanos de Panamá que, además, es un ecosistema muy amenazado", ha asegurado Nieves.

Avispas 'con agallas'

El tipo de avispas descubierto posee la facultad de inducir agallas en las plantas, dentro de las cuales encuentran cobijo para su desarrollo larvario, nutrición y protección frente a las condiciones climáticas externas y los predadores.

La mayoría de las agallas de hojas en los robles causan poco o ningún daño a la salud del árbol, pero las agallas de ramitas o ramas pueden causar daños o incluso la muerte a árboles altamente infestados. Estas formaciones constituyen también microhábitats de los que dependen, no sólo el insecto huésped, sino multitud de organismos a lo largo de varios niveles tróficos.

Los niños de Chernóbil

Marta nació en Ucrania 13 años después del mayor accidente nuclear de la Historia. Le han contado lo que ocurrió, ha visto las imágenes, pero no llega ni a imaginarse la magnitud de la catástrofe. Su organismo, sin embargo, podría haber sufrido las secuelas si Ángel y María no se hubiesen cruzado en su camino.
Como ella, cada verano llegan a España decenas de niños de las zonas de Ucrania y Bielorrusia más cercanas a la central. Han crecido en una tierra manchada de radiación y, aunque el accidente les suena a pasado, el suelo que pisan y los alimentos que ingieren siguen marcados por el desastre. «Hay una zona de exclusión alrededor de la central en la que no se recomienda vivir, pero hay otras áreas que sí están habitadas y en las que persiste la contaminación, sobre todo por yodo 131 y cesio 137, los isótopos más ligeros y que mejor pudieron desplazarse. Allí la contaminación se ha incorporado al suelo y a los terrenos del cultivo, de donde pasa cada día a la cadena alimenticia», explica Miguel Zafra, pediatra del hospital de Fuenlabrada de Madrid y especialista en tratar a estos niños cuando llegan a España.
La vida en sus países no es fácil. Los expertos señalan que la explosión en la central contribuyó a dejar poblaciones deprimidas, en las que las enfermedades y las lacras sociales como el alcoholismo son el pan de cada día. El sueldo medio no supera los 100 euros mensuales, lo que impide a la mayoría de las familias comprar alimentos importados; tienen que abastecerse de lo que produce esa tierra contaminada. Las complicaciones se disparan en las zonas rurales, menos controladas por unos gobiernos y organismos internacionales que respondieron los años siguientes al accidente, pero que han centrado ya su atención en otros puntos del planeta.

martes, 19 de abril de 2011

Las colillas de tabaco envenenan a los peces















Las colillas de cigarrillos dañan a los peces de agua dulce y a los de agua salada, según un estudio divulgado en el último número de la revista científica 'British Medical Journal'. Las colillas son uno de los residuos más ubicuos, si se tiene en cuenta que al año se fuman unos 5,6 billones de cigarrillos y que las colillas tardan mucho tiempo en degradarse y, además, flotan.

Todo esto llevó a los autores, de la Universidad de San Diego (EEUU), a investigar si, además del visible golpe estético de esta basura, hay además una repercusión sobre los seres vivos. Para ello, realizaron una serie de experimentos introduciendo a peces de agua salada y a peces de agua dulce en un medio en el que había distintas cantidades y tipos de colillas de cigarro.

Los autores utilizaron diferentes tipos de colillas con mayor o menor cantidad de tabaco -filtros de pitillos fumados con restos de tabaco, filtros fumados sin restos de tabaco y filtros de cigarrillos no fumados y sin tabaco- para averiguar si esos efectos dañinos se concentraban sólo en el filtro o también en los restos del tabaco.

Pusieron las colillas en agua mineral diluida y en agua del mar durante 24 horas. Con el líquido obtenido hicieron una mezcla diluida en seis concentraciones diferentes, cada una de las cuales se dividió en cuatro, y en esas cuatro se introdujeron cinco peces. Usaron dos especies de peces, una marina ('Atherinops affinis') y una de agua dulce ('Pimephales promelas').

Los autores sometieron a los peces a ese ambiente durante cuatro días y comprobaron que todos los tipos de colillas eran tóxicas para ambas especies. Las más dañinas fueron las colillas que tenían filtro y restos de tabaco fumado: la mitad de los peces enfermó o murió al introducirlos en una solución de una colilla de este tipo por litro de agua. Les fue mejor con las colillas fumadas pero que no tenían restos de tabaco: la dosis letal era de 1,8 colillas/litro para la especie de agua marina y de 4,3 colillas/litro para la especie de agua dulce.

En el caso de las colillas que se componían de un filtro nuevo, no fumado y sin tabaco, hicieron falta entre 5,1 y 13,5 colillas por litro para dañar a los peces. Los autores creen que el hecho de que el filtro sin usar también sea tóxico para los peces se debe al pegamento que se usa para apelmazar la celulosa de la que está hecha esta parte de los cigarrillos.

Arranca el primer centro de captura de CO2 en España














La Ciudad de la Energía (Ciuden) de El Bierzo (León) lleva años siendo una promesa a punto de despegar. Desde que se creó en 2006 como una apuesta personal del presidente del Gobierno, José Luis Rodríguez Zapatero, para desarrollar su tierra, sus impulsores la presentaron como el futuro puntal de la investigación de soluciones viables para reducir las emisiones de gases de efecto invernadero en las centrales térmicas.

Ahora, la promesa ha dejado de ser sólo un proyecto y ha dado su primer paso hacia la posibilidad de capturar el CO2 procedente de las instalaciones térmicas y almacenarlo de forma estable. El sábado se puso en marcha, por primera vez, la planta térmica que servirá de laboratorio a escala real para investigar las soluciones del futuro. Arrancaba de esta forma, uno de los centros de investigación dedicados al secuestro de CO2 más puntero del mundo.

Aún faltan algunos meses para que la planta esté a pleno rendimiento y se puedan comenzar a ensayar las técnicas que marcarán el futuro de la captura de CO2. Pero el Centro de Desarrollo de Tecnologías de Captura de CO2, ubicado en Cubillos del Sil y que ha contado con una inversión de 128,4 millones de euros, ha superado la fase más tediosa del proceso hasta su puesta en marcha.

Única en el mundo

"El sábado, día 16 de abril, a las 19:30 horas se consiguieron encender los cuatro quemadores de la caldera de Carbón Pulverizado (CP), de forma simultánea y estable, con lo cual se da por cumplido este importante hito de la puesta en marcha de las instalaciones del Centro de Desarrollo de Tecnologías de Captura de CO2 desarrollado por la Fundación Ciudad de la Energía en Cubillos del Sil (León)", confirmó José Ángel Azuara, director general de Ciuden.

El proceso principal de captura de CO2 de las instalaciones de CIUDEN se basa en la oxicombustión (combustión del carbón utilizando oxígeno mezclado con gases de recirculación como comburente, en lugar de aire). De este modo se consigue obtener directamente una corriente concentrada de CO2 en los gases de escape y se evita la separación del nitrógeno introducido con el aire en la combustión convencional.

«Este primer encendido se logró con gas natural como paso previo al encendido con carbón pulverizado», señaló Pedro Otero, director técnico del Proyecto.

La planta es singular porque permite investigar con todo tipo de carbones e incorpora dos tecnologías distintas de oxicombustión, carbón pulverizado (CP) y lecho fluido circulante (LFC), siendo esta última única en el mundo. Quizá lo ideal para luchar contra el cambio climático sean las fuentes de energía renovables, pero las estrategias Españolas de Cambio Climático y Desarrollo Sostenible señalan la CAC como una de las opciones tecnológicas para contribuir a la estabilización de la concentración de los gases de efecto invernadero en la atmósfera.

El cambio climático 'devora' las costas del Ártico
















El calentamiento global está devorando las costas del Ártico, donde la erosión está afectando a las poblaciones humanas y amenazando la supervivencia de especies locales de plantas y animales.

Ésta es la principal conclusión de un doble estudio hecho público este lunes por un consorcio de treinta científicos de diez países que ha analizado la situación de 100.000 kilómetros de costa o cerca del 25% de las fronteras terrestres de los ocho países que lindan al norte con el océano Ártico.

"Parece que la erosión de las costas del Ártico se está acelerando de forma dramática. El recorte medio es de medio metro al año, pero en algunas zonas llega a ser de diez metros al año", señaló Volker Rachold, investigador del Instituto Alfred Wegener de Potsdam (este de Alemania).

El Ártico ruso es el más afectado

Las áreas más afectadas son, según este novedoso informe científico, el mar de Laptev y el este de Siberia, ambos en Rusia, y el mar de Beaufort, que limita con las costas de Canadá y Alaska (Estados Unidos).

El estudio alerta de que, como las costas del Ártico suponen un tercio del total de las costas del planeta, "la erosión puede llegar a afectar a áreas enormes en el futuro".

Este retroceso de las costas es consecuencia del calentamiento global, un problema que se agrava en el Círculo Polar Ártico, donde los incrementos doblan el aumento térmico medio global, explica el investigador alemán.

Este proceso climatológico está descongelando parte del 'permafrost' costero, la capa de hielo permanente de los niveles superficiales del suelo propia de regiones muy frías, lo que desbarata el de por sí fragmentario terreno sobre el que se asienta y lo deja totalmente expuesto al fuerte oleaje del océano Ártico.

"Vemos rápidos cambios en una situación que ha permanecido estable durante milenios", denuncia el estudio, el primero de carácter comprensivo que analiza las consecuencias físicas (geológicas y químicas), ecológicas y humanas de la erosión de las costas árticas.

Los afectados

Su impacto es "sustancial" para los ecosistemas árticos costeros y para la población humana asentada en esas regiones, apunta el documento "Estado de la Costa Ártica 2010", de 170 páginas y disponible en internet.

Los más afectados por estos cambios son los animales salvajes que habitan en esas regiones, especialmente los extensos rebaños de renos y caribús, y los frágiles ecosistemas de los lagos de agua dulce próximos a la costa.

El hombre también se ve afectado por este grave proceso erosivo, pero dada la escasa población en las costas más septentrionales del planeta, el estudio le retrata más como acicate que como víctima en este problema medioambiental.

Rachold reconoce que hay "grandes intereses" económicos y comerciales para que no se tomen medidas para frenar este proceso: la región ártica es una fuente de recursos naturales como petróleo aún virgen y su deshielo podría abrir codiciadas rutas marítimas de transporte de mercancías.

Tímidas legislaciones nacionales

Además, las tímidas legislaciones que ya se han aprobado para frenar la erosión costera son de carácter nacional y no está siquiera prevista la negociación de una normativa internacional de protección.

El trabajo científico, que precisará de estudios subsiguientes para confirmar la tendencia y evolución de este proceso, ha estado liderado por el Comité Científico Internacional del Ártico (IASC), del que España es miembro desde 2009, y alentado por otros programas e instituciones científicas internacionales.

"Tenemos que seguir investigando en los próximos años. Aún nos faltan datos y no podemos hacer comparaciones con la situación de las costas del Ártico en el pasado", indica Rachold.

viernes, 15 de abril de 2011

Fracasa el intento de detectar materia oscura

Después de cien días de intenso trabajo en una instalación a 1.400 metros bajo tierra, los científicos han sido incapaces de encontrar señales del misterioso material que se supone forma el 20% del Universo

Los científicos del mejor y más sofisticado experimento creado hasta la fecha para detectar partículas de materia oscura tuvieron que admitir ayer jueves que, después de cien días de intensa investigación y análisis, no han sido capaces de encontrar ni rastro del invisible y misterioso material del que se supone está hecho más del 20% del Universo en que vivimos. Un jarro de agua fría para la Física, y también para los resultados obtenidos por otros equipos de investigación, convencidos de haber hallado ya pruebas de su existencia.
Tras analizar cuidadosamente los datos del XENON100, Elena Aprile, de la Universidad de Columbia, y sus colegas, no encontraron evidencia alguna de la existencia de WIMPs (Partículas Masivas de Interacción Débil), de las que se cree que se compone la materia oscura. El experimento XENON100 se encuentra en el Laboratorio Nacional Gran Sasso, en Italia, a 1.400 metros de profundidad.
Este nuevo y exhaustivo trabajo (se analizaron durante cien días los datos obtenidos por XENON100 entre enero y junio de 2010) contradice abiertamente los resultados anunciados anteriormente por otros equipos de investigadores, que aseguran haber hallado pruebas de que los WIMPs existen.
A pesar de todo, no significa que la materia oscura no exista en absoluto, sino que ésta resulta mucho más elusiva y difícil de detectar de lo que se creía hasta ahora. Y es precisamente la contradicción de este experimento con otros anteriores lo que supone, según Rafael Lang, miembro del equipo de Aprile "el mayor de los resultados de este análisis".
En efecto, son muchos los que piensan que el trabajo realizado en el detector de materia oscura más sofisticado construido hasta el momento servirá para ajustar los actuales modelos y teorías sobre las partículas de materia oscura, lo que ayudará a su vez en los futuros intentos de detectar al esquivo WIMP. La investigación será publicada por Physical Review Letters y puede ya consultarse en arXiv.
Universo acelerado
Los físicos creen que en nuestro Universo la materia ordinaria, la que forma todas las estrellas, galaxias y planetas que podemos ver, sólo supone un 4% de la masa total. Del resto, cerca de un 23% está hecho de materia oscura y el 73% restante de algo aún más misterioso y desconocido que los científicos llaman "energía oscura" y que se cree que es la responsable de que la expansión del Universo se esté acelerando.
XENON100 es un dispositivo de una sensibilidad extraordinaria y especialmente concebido para "capturar" partículas que no interaccionan (o lo hacen muy poco) con la materia ordinaria. Consta de varias capas de agua, plomo, cobre y otros materiales que, a modo de escudo, retienen cualquier radiación o fuente de energía procedente del exterior que pudiera provocar una falsa señal en el detector.
Es por eso, también, que el laboratorio mismo se encuentra bajo casi un km. y medio de dura roca, bajo la cordillera de los Apeninos. No existe un lugar mejor para proteger un detector así de las radiaciones cósmicas que bombardean continuamente la Tierra.
Tras todos esos filtros, naturales y artificiales, el XENON100 consiste en un tanque que contiene 62 kg. de xenón líquido, un gas cuyos grandes núcleos atómicos constituyen una diana perfecta para que los WIMPS, tras pasar limpiamente a través de la roca y las barreras construidas por los investigadores, choquen con ellos y provoquen una debil reacción que delate su presencia.
Si alguna de estas colisiones se hubiera producido y un WIMP hubiera chocado contra un núcleo de xenón, se habrían producido un débil resplandor de color azul y una pequeña carga eléctrica que los científicos habrían detectado de inmediato con las cámaras y sensores que rodean por completo el detector.
Pero no ha sido así, lo que abre nuevas e inquietantes vías de investigación. Por ejemplo, que la interacción de las partículas de materia oscura con la materia ordinaria (los átomos de los que todos estamos hechos) esté controlada de alguna manera por el bosón de Higgs, el otro gran objetivo de la Física actual, la partícula que sería la responsable de que la materia tenga masa y cuya existencia se está intentando demostrar en el gran colisionador de hadrones europeo, el LHC. Si fuera así, el XENON100 podría empezar a aportar pruebas de esta relación y, por lo tanto, aunque de una forma indirecta, de la existencia del Higgs.
Tres falsas detecciones
Durante los cien días de análisis, los investigadores creyeron haber encontrado un WIMP hasta en tres ocasiones diferentes. Sin embargo, pudieron comprobar poco después que, en los tres casos, se trató de falsas detecciones. "Fue como una ducha de agua fría", admite Elena Aprile.
La investigadora y sus colegas confían en que cuando se analicen los datos del XENON100 de un año completo podrán, por fin, anunciar sin ninguna duda la detección de un WIMP. Mientras, los investigadores están ya trabajando en una nueva y mucho mayor versión del detector, en la que se utilizará una tonelada de gas líquido. Estará lista en unos pocos años y dispuesta, de nuevo, a intentar resolver uno de los mayores misterios de la naturaleza.


El misterio de la bicicleta sin ciclista

Científicos crean una bici revolucionaria que aplica distintas leyes de la física y consigue avanzar sola

Una bicicleta sin ciclista puede conseguir recorrer una distancia considerable si se producen las circunstancias adecuadas, aunque, irremediablemente, tarde o temprano, la máquina terminará en el suelo. Para que el pequeño milagro ocurra, todas las bicis se fabrican teniendo en cuenta dos principios de la física relacionados con la estabilidad. Esta lógica se emplea prácticamente de forma universal y nunca había sido puesta en duda, pero, ¿y se tratara de una gran equivocación?
Un grupo internacional de científicos ha diseñado una bicicleta absolutamente revolucionaria, distinta a todas las demás, que puede convertirse en la base para crear el vehículo de dos ruedas del futuro. La estructura, que tiene en cuenta un principio físico llamado balanceo de masas que es más determinante de lo que se pensaba, es capaz de autocorregirse cuando está a punto de inclinarse hacia un lado y avanzar sola de manera estable. El hallazgo sugiere que los diseños de los velocípedos del futuro todavía no han alcanzado su máximo potencial. Sus autores publican los detalles en la revista Science.
Para que una bicicleta sea estable aunque nadie le dé a los pedales, los fabricantes actuales tienen presentes dos principios de la física. Uno de ellos tiene que ver con la energía de torsión alrededor de un eje en movimiento y es el mismo que hace que una peonza gire. Este se aplica a la parte delantera de la bicicleta. El segundo se refiere a los ángulos que se forman cuando una estructura mantiene su equilibrio en puntos muy pequeños sobre el suelo.
La nueva investigación, dirigida por J.D.G. Koojman, de la Universidad de Tecnología en Delft (Holanda), no responde a ninguno de estos dos principios. Los científicos creen que, para perfeccionar una bicicleta, en lo que hay que fijarse es en lo que se conoce como balanceo de masas (Cuando un objeto está en movimiento, ese mismo movimiento dará más masa al objeto, razón por la que la velocidad es tan importante en los accidentes de tráfico). Según los investigadores, la distribución de la masa juega un papel clave en el equilibrio de la bici. De esta forma, han construido una estructura estable y eficiente a la que han llamado patín de dos masas o TMN, que puede ser el pricipio para diseñar las bicicletas del futuro.
La máquina se distingue por tener unas ruedas muy pequeñas, como las de los carritos de supermercado. Koojman y su equipo creen que todavía estamos muy lejos de tener la bici perfecta y que queda mucho recorrido para lograrla. Quien sabe si alguna vez veremos a los ciclistas del Tour de Francia sobre unos velocípedos parecidos.

Captan imágenes del objeto que rozará la Tierra

La veloz roca de 50 metros, descubierta hace tan solo unos días, ya se ha dejado ver en el cielo nocturno

Como se esperaba, el asteroide descubierto hace unos días por uno de los telescopios de vigilancia espacial del Observatorio Astronómico de Mallorca se acercó la noche del jueves a la Tierra y pudo ser observado por astrónomos de todo el mundo. Los aficionados a mirar al cielo ya llevaban varios días pendientes de la roca, de unos 60 metros de diámetro, y habían conseguido capturarla con sus cámaras. El interés de este bólido radica en su cercanía a nuestro planeta -esta noche, sobre las 21.00 horas, realizará su máxima aproximación y se situará a 533.000 kilómetros de la distancia, cerca de la órbita de la Luna-, pero también en su rápido período de rotación, superior a los siete minutos, que ha sorprendido a los científicos. Imágenes de vídeo obtenidas el pasado lunes muestran cómo el objeto, denominado 2011 GP59, parpadea cada cuatro minutos en su viaje a través del cielo nocturno.
El vídeo, obtenido por el astrónomo aficionado Nick James de Chelmsford (Essex, Inglaterra) con un telescopio Schmidt-Cassegrain de 11 pulgadas, es una compilación de 137 cuadros individuales, cada uno con 30 segundos de exposición. En ese momento, el asteroide se encontraba a aproximadamente a 3.356.000 kilómetros de distancia. Desde entonces, la roca espacial se ha convertido en la favorita de la comunidad de aficionados a la astronomía, con muchos vídeos como éste disponibles en la Red.
«Por lo general, cuando vemos un asteroides cuyo brillo aparece y desaparece de esa forma, eso significa que el cuerpo es alargado y que lo estamos viendo de costado a lo largo de su eje mayor, y luego en su extremo más estrecho a medida que gira», explica Don Yeomans, director del programa de Objetos Cercanos a la Tierra (NEOs, por sus siglas en inglés) en el Laboratorio de Propulsión a Chorro de la NASA en Pasadena (California). GP59 tiene aproximadamente 50 metros de largo y un período de rotación de siete minutos y medio. Esto hace que el brillo del objeto cambie cada cuatro minutos.
Ningún peligro para la Tierra
El asteroide fue descubierto la madrugada del pasado sábado por los astrónomos el Observatorio Astronómico de Mallorca situado en La Sagra (Granada). Hará su máximo acercamiento a la Tierra esta tarde a las 21.09 horas (hora peninsular española), a una distancia cercana a la órbita de la Luna, unos 533.000 kilómetros. «Aunque recién descubierto, la posición orbital a corto plazo del asteroide 2011 GP59 se puede trazar con precisión», señala Yeomans. Para tranquilidad de todos, «no hay posibilidad de que la roca espacial pueda entrar en la atmósfera de la Tierra durante este paso o en un futuro previsible».
La NASA detecta, rastrea y analiza los asteroides y cometas que pasan cerca de la Tierra usando telescopios terrestres y espaciales. El programa de observación de estos objetos, comúnmente llamado «Guardián Espacial», los descubre y determina sus órbitas para conocer si alguno podría ser potencialmente peligrosos para nuestro planeta. De momento, GP59 se queda en un maravilloso espectáculo.

jueves, 14 de abril de 2011

¿Por qué corren más los avestruces que los humanos?

Un avestruz que compitiera en la Golden League contra Usain Bolt, alcanzaría en la mitad de tiempo la velocidad máxima del atleta jamaicano

 
Un avestruz que compitiera en la Golden League contra Usain Bolt, alcanzaría en la mitad de tiempo la velocidad máxima del atleta jamaicano. Un grupo de científicos australianos ha comprobado que el secreto reside en los tendones: estas aves acumulan dos veces más energía elástica que nosotros en cada paso.
La investigación comparó los movimientos de cinco dóciles avestruces con los de cinco voluntarios humanos. Mientras varias cámaras filmaban desde distintos ángulos a las personas, los biomecanismos adosados a las extremidades de los pájaros comunicaban a los expertos interesantes datos sobre la longitud de sus articulaciones o la fuerza con la que cada pie golpea el suelo.
Secretos de agilidad
«Los resultados evidencian cómo evolucionó el bipedismo en dinosaurios, avestruces y humanos. Los tres encierran una gran cantidad de secretos biológicos sobre la agilidad que han condicionado el desarrollo de prótesis de miembros o incluso robots», señala el profesor Jonas Rubenson, uno de los autores del estudio.
Rubenson y su equipo eligieron a los avestruces porque su masa muscular y manera de andar son similares a las humanas. Pero se sorprendieron al constatar que cuando corren ambas especies usan «casi exactamente la misma cantidad de trabajo mecánico para girar/doblar sus extremidades una y otra vez».

Los pájaros urbanos cantan más para compensar el ruido

Emplean hasta el 60% de su tiempo en emitir trinos que superan los 70 decibelios.

Los verdecillos, unas aves que han colonizado las regiones urbanas europeas, consiguen compensar los efectos negativos del ruido de las ciudades dedicando más tiempo a cantar. Esta es una de las conclusiones de un estudio en el que han participado investigadores del Consejo Superior de Investigaciones Científicas (CSIC) y que ha sido publicado en la revista Behavioral Ecology.
“Estas aves pueden emplear hasta el 60% del tiempo en cantar a niveles de 70 decibelios, pero a partir de ese nivel empiezan a cantar menos, probablemente porque dedicar más tiempo al canto puede interferir en exceso con tareas tan importantes como estar atento a los depredadores o a otros verdecillos vecinos”, explica el investigador del CSIC Mario Díaz, del Museo Nacional de Ciencias Naturales.
Según el estudio, el ajuste a los niveles de ruido indica que cantar conlleva riesgos. “Incluso aves que han colonizado ambientes ruidosos, como los verdecillos, pueden verse condicionadas por el aumento del riesgo asociado a compensar los efectos del ruido cantando” añade Díaz. Estos resultados sugieren que podrían producirse cambios bruscos en la distribución de las aves al sobrepasar ciertos umbrales de ruido.
Por otra parte, los investigadores han observado que los individuos cambian rápidamente su comportamiento en función de la variación del nivel de ruido entre los días laborables y los fines de semana.
Respuesta a los cambios globales
La investigación se hace eco del creciente interés de la sociedad sobre la posible respuesta de los organismos a los cambios globales derivados de la influencia de los humanos en el funcionamiento del planeta. “Casi todas las predicciones son bastante catastrofistas, porque en general no contemplan la flexibilidad de los organismos a los cambios de su entorno. Nuestro trabajo muestra que las especies pueden compensar estas variaciones mediante comportamientos flexibles, pero solo hasta cierto punto”, continúa Díaz.
Saber hasta qué punto son efectivas las diferentes respuestas de los seres vivos a los niveles crecientes de ruido impuestos por las actividades humanas permitirá, según esta investigación, realizar predicciones más fiables sobre futuros cambios en las distribuciones de los organismos.



un científico acusa a Japón de utilizar un método erróneo para prevenir terremotos

Asegura que los sismólogos del país estaban equivocados en sus predicciones, lo que ha impedido proteger la central de Fukushima

Un mes después de que un terrible terremoto de magnitud 9 y un posterior tsunami asolaran Japón, en lo que fue el mayor desastre de este tipo en la historia del país, la metodología utilizada por las autoridades del país para prevenir los seísmos ha sido puesta en cuestión. Robert J. Geller, investigador del Departamento de Ciencias de la Tierra de la Universidad de Tokio, ha acusado al gobierno nipón utilizar un método «defectuoso» para hacer previsiones de movimientos telúricos a lago plazo que, a su juicio, son completamente «inútiles» y suponen «una pérdida de tiempo». El científico ha pedido a los sismólogos japoneses que dejen de esperar al ya famoso terremoto de Tokai, un gran seísmo que se produciría cada cien o 150 años y que se espera en la costa sudeste de Japón. Geller, que expone sus críticas en la última edición de la revista Nature, considera incluso que si Japón hubiera utilizado un método distinto, hubiera podido predecir que el terremoto de Tohoku del 11 de marzo -en el que hasta la fecha han muerto más de 13.000 personas y otras 14.300 permanecen desaparecidas-, aunque, matiza, conocer el momento en que se produjo, el epicentro exacto y su magnitud hubiera sido imposible.
Geller asegura que los mapas nacionales de amenaza sísmica realizados por el gobierno japonés tienen una base científica «obsoleta». Cada año, las autoridades presentan un nuevo mapa con los puntos «calientes» de riesgo, pero, desde 1979, los terremotos que han causado diez o más muertos en la isla han ocurrido en lugares designados como de «bajo riesgo». El científico incluso aboga por la derogación de la ley de contramedidas contra los grandes terremotos, que responde a las iniciales LECA, porque supone, «implícitamente y sobre la base de escasas pruebas», que es posible prevenir un terremoto con unas horas o días de antelación. El investigador no está de acuerdo en absoluto y considera que el gobierno japonés debería admitirlo públicamente.
Fukushima podría haber sido preparada
A su juicio, si en vez de haber utilizado esta metodología «errónea» se hubiera tenido en cuenta como base para la estimación de riesgos la sismicidad global y el registro histórico de Tohoku -como el tsunami de 38 metros de 1896-, el terremoto en ese lugar podría haber sido fácilmente previsto, aunque, por supuesto, no podría señalarse ni la fecha en la que produciría ni su epicentro ni su magnitud. «Las contramedidas para hacer frente (al seísmo) podrían y deberían haberse incorporado plenamente en el diseño inicial de la central nuclear de Fukushima», afirma.
El científico recuerda que todo Japón se encuentra en riesgo de terremotos, y que «las futuras investigaciones en sismología deberían tener una base sólida en física, imparcialmente examinada, y ser guiadas por los mejores científicos de Japón y no por burócratas sin rostro».
El autor también se refiere al terremoto de Tokai, algo así como el «big one» que se espera en la costa sudeste de Japón y que produce 1,78 millones de resultados en lenguaje japonés en Google. Considera que esta «profecía» confunde a los ciudadanos, que temen que un movimiento de al menos magnitud 8 ocurra inexorablemente en el futuro. Para Geller, semejante término «debería ser eliminado».

miércoles, 13 de abril de 2011

Tecnología 'Made in Spain' en la próxima misión de la NASA

Instantes después del Big Bang, el Universo estaba formado por materia y antimateria casi a partes iguales. En ese momento, por cada 1.000 millones de partículas de antimateria, había 1.000 millones más una de materia, según explican los físicos. Y esa una extra se generó evolutivamente como consecuencia de las diminutas diferencias entre el comportamiento de las partículas de materia y de las de antimateria.
La batalla entre ambos tipos de partículas la ganó la materia y gracias a ello el Universo "nos contiene a nosotros y no tiene solamente radiación" (cuando una partícula de materia se encuentra con su homólogo de antimateria ambas chocan produciendo radiación, sobre todo en forma de luz), explicaba el físico teórico del CERN Álvaro de Rújula recientemente a ELMUNDO
Sin embargo, aunque la teoría indica que en el Universo no hay antimateria, en la próxima misión del transbordador 'Endeavour' de la NASA se enviará a la Estación Espacial Internacional un instrumento de alta precisión que tratará de detectar la presencia de antimateria primaria y materia oscura en el Universo. El detector, llamado Espectrómetro Magnético Alpha (AMS-02), ha sido construido gracias a un proyecto internacional en el que España ha colaborado con 11,4 millones de euros (el 4% del coste total de 285 millones de euros) y la participación de investigadores del Ciemat y del Instituto Astrofísico de Canarias.
Dosis de radiación en el espacio
La detección de este tipo de partículas primarias es sólo uno de los objetivos del instrumento, que también medirá las propiedades de la radiación cósmica primaria. "Se instalará en la ISS y permitirá, por ejemplo, medir la dosis de radiación a la que se expondrán los astonautas en misiones futuras de larga duración", explicó la ministra de Ciencia e Innovación, Cristina Garmendia, durante un desayuno con periodistas donde anunció que asistirá el próximo día 29 de abril al último lanzamiento del Endeavour en Cabo Cañaveral, misión que que portará el AMS-02.
El lanzamiento de esta misión, que junto al CIEMAT en España, lideran EEUU, Italia, Alemania, Francia, Suiza y Taiwán, coincide con el centenario en 2011 del descubrimiento de los rayos cósmicos por el físico austríaco Víctor F. Hess, según dijo la ministra. El proyecto lo lidera el Premio Nobel de Física de 1976, Samuel C. C. Ting.
Además, el instrumento podría encontrar antipartículas procedentes de 'antimundos', algo que imaginó el premio Nobel de Física Paul Dirac cuando propuso la idea de la antimateria en 1930.
Económicamente rentable
La titular del Departamento de Ciencia e Innovación destacó la relevancia de este tipo de colaboraciones del más alto nivel científico, que pueden repercutir muy favorablemente desde el punto de vista económico, social y del empleo en España. "La rentabilidad económica de la carrera espacial está demostrada en términos de aplicaciones tecnológicas", dijo Garmendia.El detector de física de partículas operará acoplado a la ISS, a donde llegará tras un viaje de cuatro días, con el objetivo de recoger datos de gran precisión estadística y sistemática durante toda la vida útil de la estación espacial. La órbita de la ISS, entre 370 y 420 kilómetros de altitud, elimina los efectos de las colisiones con la atmósfera que enmascaran la naturaleza y propiedades de la radiación cósmica primaria.

De chernobil a el sushi radiactivo

Más de un mes después del tsunami que provocó el accidente nuclear de Fukushima, la desinformación sigue rodeando lo que ocurre en la planta japonesa. He aquí algunos de los mitos y exageraciones sobre la crisis nuclear:
1. Fukushima es Chernobil: No importa las veces que la mayoría de los medios de comunicación, y en especial los españoles, lo repitan: Fukushima no es otro Chernobil (lo que no quiere decir que no vaya a serlo en el futuro). La central japonesa ha liberado una décima parte de las partículas de la planta ucraniana en 1986. La elevación de la gravedad del accidente al nivel 7 no está basada en ninguna novedad de los últimos días, como sugieren los titulares, sino en una revisión de lo que ya se conocía desde hacía semanas. Lo que se ha equiparado es ese nivel de alarma, no la gravedad del accidente o la contaminación provocada. La cantidad de radiactividad que la planta japonesa libera, en realidad, se ha reducido en los últimos días.
2. La central ha provocado muchas víctimas: Entre 4.000 y 9.000 personas han muerto de cáncer desde el accidente de Chernobil, según la conclusión a la que llegó un panel de expertos de Naciones Unidas en 2006. La negligencia de las autoridades soviéticas al permitir que los niños de las poblaciones cercanas tomaran leche contaminada fue una de las causas de los cánceres. Las medidas tomadas por el Gobierno japonés, incluido el establecimiento de un perímetro de seguridad alrededor de la central, la evacuación de poblaciones cercanas y el control sobre los alimentos, deberían evitar una repetición de lo sucedido. Aunque se tardará años en conocer los efectos de la radiación liberada, a día de hoy sólo dos personas han muerto en Fukushima Daiichi, ninguna de ellas por la radiación. Los fallecidos son los trabajadores Kazuhiko Kokubo y Yoshiki Terashima, que sufrieron severos traumatismos al ser sorprendidos en el interior de la planta cuando el terremoto y el tsunami golpearon Japón el pasado 11 de marzo.
3. Sushi radiactivo: Algunos restaurantes japoneses, en España y otros países, han visto como el negocio se resentía por lo sucedido en Fukushima. Poco importa que no se haya detectado radiactividad perjudicial para la salud pescados tradicionalmente utilizados para el más popular de los platos japoneses o que el que se sirve en España no proceda de Japón, y mucho menos de los 20 kilómetros de aguas cercanas a la central donde la pesca ha sido prohibida. Que incluso concesionarios de coches japoneses hayan tenido que garantizar que sus vehículos no son radiactivos prueba hasta qué punto la desinformación puede provocar temores infundados.
4. Los samurái, sacrificados: Las únicas personas que a día de hoy han recibido dosis de radiactividad superiores al límite recomendable son varios trabajadores que luchan por enfriar los reactores. Cinco han sido hospitalizados -y dados de alta- y una veintena puestos bajo observación. El resto han sido reemplazados cuando han alcanzado el límite máximo recomendable de radiación en un año. La instalación de medidores más modernos que cubren toda la central y la utilización de equipos de aislamiento más avanzados han mejorado su protección, deficiente en los primeros días. Aún así, los operarios son quienes más posibilidades tienen de pagar las consecuencias del accidente a medio y largo plazo.
5. Tokio Blues: Leyendo algunas informaciones, se diría que la capital japonesa lleva semanas paralizada. La realidad es que permanece en calma, los comercios y restaurantes están abiertos y los únicos que se han marchado han sido los miles de expatriados que huyeron al principio de la crisis, a pesar de que todos los expertos aseguraban que los residentes de la ciudad no corrían peligro. Tokio está algo más apagada, es cierto, pero sólo porque los japoneses han atendido las peticiones del Gobierno para que ahorren energía.
6. La situación empeora. La selección de las noticias negativas y la marginación de cualquier información sobre los avances logrados ofrecen la impresión de que Fukushima se encuentra en constante deterioro. La realidad es diferente. Los gobiernos de EEUU y Japón creen que la situación mejora lentamente, pero mejora. En los últimos días los ingenieros han logrado sellar la grieta en el reactor 2, reducir la filtración de agua radiactiva al mar, empezar a almacenar la que inunda la central, contener el peligro de fusión de los reactores con la inyección masiva de agua y reducir la cantidad de partículas contaminantes liberadas. Los técnicos siguen enfrentándose a numerosos problemas, es probable que surjan nuevos, un agravamiento de la situación no es descartable y la lucha por asegurar la central durará meses, quizá años. Es indudable que Fukushima es un accidente nuclear muy grave. No hace falta exagerarlo con desinformación, rumorología y sensacionalismo.

Los transbordadores ya tienen nuevo hogar

Con la jubilación de los dos transbordadores que aún quedan en activo, la NASA cerrará un destacado capítulo de la historia espacial. Quedaba por decidir el nuevo hogar en el que descansará la flota de vehículos que tantos éxitos ha cosechado para la carrera espacial estadounidense. Numerosos museos e instituciones han pujado en los últimos meses por acoger de manera permanente estos "tesoros nacionales", como los definió el administrador de la NASA, Charles Bolden.
Coincidiendo con el 30 aniversario del lanzamiento del primer 'shuttle', el 12 de abril de 1961, la NASA ha anunciando el nombre de los museos en los que se exhibirán el Discovery, el Enterprise, el Endeavour y el Atlantis. También ha decidido ya qué instituciones custodiarán cientos de artefactos y simuladores de vuelos del programa de transbordadores.
Muchos eran los centros que se los disputaban así que la decisión no ha sido fácil, según aseguró Bolden, que agradeció a todas las instituciones su interés por custodiar las naves. "Ha sido una decisión muy difícil, que se ha tomado pensando en los ciudadanos estadounidenses". El objetivo, según explicó, es que el mayor número posible de estadounidenses y de visitantes extranjeros tengan la oportunidad de compartir la historia y los logros del Programa de Transbordadores Espaciales de la NASA.
El Discovery, el más disputado
Para ver de cerca el Discovery, el 'shuttle' más veterano y el más deseado por los museos de EEUU, habrá que viajar hasta Virginia. Allí, en Chantilly, se encuentra el Centro Udvar-Hazy, del Museo Nacional del Aire y del Espacio Smithsonian.
En contrapartida, el Enterprise (el primero en construirse) tendrá que abandonar sus instalaciones para ser trasladado al Museo del Mar, del Aire y del Espacio de Nueva York (Intrepid Sea, Air & Space Museum). Tras hacerse público el anuncio, el museo, que recopiló más de 150.000 firmas para hacerse con el 'shuttle', celebraba la decisión y anunciaba la preparación de una gran exposición para exhibir como se merece tan preciada pieza.
El Endeavour, que está siendo preparando para acometer su última misión a finales de mes, será el único que pueda visitarse en la costa oeste de EEUU. Cuando se jubile, será trasladado desde Florida al Centro de Ciencia de California, en los Ángeles, donde será exhibido.
Si no se producen retrasos, el último transbordador de la flota despegará en junio. El Atlantis será exhibido de forma permanente en el Centro de Visitantes del Espacio Kennedy, en Florida.
Limpieza de las naves
Los aficionados a la astronáutica tendrán que esperar algún tiempo hasta poder ver de cerca estos vehículos, pues antes de exhibirlos es necesario limpiarlos en profundidad para retirar el combustible y los componentes tóxicos.
Por ejemplo, las tareas de limpieza del Discovery, que se jubiló el pasado mes de marzo tras completar su misión nº39, se prolongarán durante nueve meses. La factura, que correrá a cargo del museo que lo acoge, superará los 20 millones de euros.
Con la retirada del Atlantis concluirá un exitoso programa espacial que ha llevado a cabo más de 130 misiones a lo largo de 30 años. Sin embargo, no todo han sido alegrías. En la memoria de los aficionados al espacio sigue muy vivo el recuerdo de los accidentes del Challenger, en 1986, y del Columbia, en 2003. Las dos naves hicieron explosión en pleno vuelo, matando a toda la tripulación y obligando a la NASA a replantearse la seguridad de su programa espacial. En total, murieron 14 astronautas.
Astronautas de la NASA en naves rusas
Las consecuencias del fin programa de transbordadores, que Barack Obama decidió el año pasado, van más allá de la nostalgia. Los astronautas de la NASA se quedarán durante algún tiempo sin transporte propio para viajar a la Estación Espacial Internacional (ISS) por lo que EEUU tendrá que recurrir a las naves rusas Soyuz. Al menos, hasta que esté lista la cápsula Orion en la que trabajan los ingenieros de EEUU y que la NASA utilizará como vehículo espacial.
Mientras tanto, Las empresas privadas ya han entrado en la carrera espacial desarrollando cohetes y nuevos sistemas de transporte para el futuro.
Los 'shuttles' pasarán pronto a formar parte del pasado aunque la NASA confía en que su conservación en los museos estadounidenses servirá para inspirar a las futuras generaciones de ingenieros y exploradores del espacio.


El CSN dice que elevar la seguridad de las centrales 'llevará tiempo y es muy difícil'

El vicepresidente del Consejo de Seguridad Nuclear (CSN), Luis Gámir, ha advertido en Valencia de que el incremento de la seguridad en las centrales españolas "va a llevar mucho tiempo" porque "es muy difícil".

Gámir ha reconocido, momentos antes de ofrecer una conferencia, que el CSN desconoce todavía el tipo de pruebas de seguridad a las que deberá someter a las centrales nucleares españolas, entre ellas a la valenciana de Cofrentes.

El responsable del CSN, de visita en Valencia para ofrecer una conferencia sobre la energía en España, organizada por el Grupo Valenciano del Club de Roma, ha asegurado que los cambios en la normativa que permitirán aumentar la seguridad en las centrales "es un tema que va a llevar mucho tiempo y es muy difícil".

No en vano, ha reconocido que el CSN, organismo encargado de practicar las pruebas de seguridad a nucleares españolas, todavía no sabe "ni en qué consisten estas medidas".

Según ha explicado, a preguntas de los periodistas, se van a desarrollar a nivel europeo una serie de pruebas cuya finalidad es "incrementar la seguridad en las centrales europeas".

No obstante, Gámir considera que "lo normal" es que los acuerdos en torno al tipo de pruebas que se van a practicar se decidan en el marco de "cada país". Con todo, ha alertado de que "pasará bastante tiempo antes de que se tomen estas decisiones, y serán los reguladores nacionales los que las apliquen".
Cambio en la normativa

Por otra parte, el pleno del Congreso de los Diputados ha aprobado este martes una transacción a una proposición no de ley del grupo socialista para instar al Ejecutivo a modificar el marco normativo que regula el funcionamiento de las centrales nucleares en España y llevar a término las acciones conducentes al cierre de Garoña. La transaccional ha sido aprobada por 183 votos a favor y 155 abstenciones, correspondientes en su mayoría a los diputados del Grupo Popular.

Concretamente se pide modificar el marco normativo que regula el funcionamiento de las centrales nucleares en España adecuándolo a las recomendaciones que dentro de la UE, incluyendo la realización de las pruebas de resistencia que se establezcan a nivel comunitario.

Conforme a lo acordado en el seno de las instituciones europeas, estos estudios, añade la iniciativa, "deberán tener en cuenta las causas técnicas que han provocado la situación de crisis en Japón en las centrales nucleares e España".

Asimismo se solicita llevar a término todas las acciones conducentes a hacer efectivo el acuerdo del Consejo de Ministros del cierre de la central de Santa María de Garoña, cumplido su ciclo de vida útil, "en consonancia con las exigencias y garantías que se deduzcan del estudio".

Localizan galaxias viejas en un Universo joven

Los astrónomos, utilizando telescopios terrestres y espaciales, acaban de descubrir un nuevo misterio al que buscar respuesta: tan sólo 200 millones de años después del Big Bang que dio origen al Universo, ya existían las galaxias.

Este hallazgo es un reto para las teorías sobre cuándo surgieron las galaxias y podría ayudar a resolver el misterio de cómo la niebla de hidrógeno del Universo primitivo se fue aclarando, según asegura el responsable del equipo investigador, el francés Johan Richard, del Observatorio de Lyon, que ha publicado los resultados en la 'Review Astronomical Society'.

El equipo de Richard detectó la galaxia tras unas recientes observaciones del telescopio espacial Hubble, puesto en órbita por la NASA y la Agencia Espacial Europea (ESA), que se verificaron luego con otro satélite, el Spitzer.

Lo curioso es que esta galaxia se hizo visible a través de un racimo de galaxias llamado Abell 383. "Por una coincidencia, este cúmulo está muy próximo a la misma línea de mirada de la galaxia lejana y opera como una lente gravitatoria, una especie de enorme telescopio proporcionado por la propia naturaleza", explica Rafael Bachiller, director del Observatorio Astronómico Nacional.
Descomposición de la luz

Después de detectarla con los satélites espaciales, el equipo utilizó el espectroscopio del telescopio Keck-II, en Hawai (EE. UU.) para descomponer la luz en sus diferentes colores. El análisis de ese espectro es el que permitió al equipo determinar lo que se denomina corrimiento al rojo, un fenómeno que permite saber la distancia de objetos muy lejanos por su radiación electromagnética. En este caso, era de 6,027, lo que significa que los astrónomos observaban el Universo de hace 950 millones de años.

No era pues la galaxia más primitiva detectada, pues se ha localizado una de 8,6 (unos 600 millones) y hay otra, de momento solo posible, de un índice de 10 (400 millones). Sin embargo, ésta es especial por algo distinto de su edad: hasta ahora, las más primitivas brillaban intensamente porque sus estrellas son jóvenes, pero no es el caso de la nueva. La observación del infrarrojo por el Spitzer reveló que la galaxia es sorprendentemente vieja y sus estrellas más débiles de lo que era esperable.

"Esto significa que hay estrellas que parecen tener 750 millones de años, luego si las observamos a 950 millones, quiere decir que su origen fue 200 millones después del Big Bang, un momento excesivamente temprano que podría entrar en conflicto con las ideas estándar sobre la evolución temprana del Universo", afirma Bachiller.

Los astrónomos pueden saber la edad de las estrellas por la cantidad de hidrógeno y otros elementos que contienen sus radiaciones. Con mucho hidrógeno son jóvenes, pero a medida que lo consumen los astros se metalizan, hasta el punto que pueden tener planetas, como ocurre con el Sol.

"Todo parece indicar que el Universo primitivo contiene galaxias sorprendentemente evolucionadas. La formación de estrellas y galaxias debió ser muy eficaz y muy rápida en las etapas primeras tras el Big Bang", concluye el astrónomo español.
El Universo pierde la niebla

Por otro lado, el descubrimiento puede ayudar a explicar cómo el Universo fue aclarándose en los primeros 1.000 millones de años después del Big Bang. En aquella infancia cósmica, una difusa niebla neutral de hidrógeno bloqueó la luz ultravioleta. Alguna fuente de radiación debió ionizar progresivamente ese gas, aclarando la niebla para hacerla transparente a los rayos ultravioleta, proceso que se llama reonización.

Los astrónomos creen que esa radiación tuvo que venir de las galaxias, aunque hasta ahora no se había encontrado ninguna que generara la suficiente. Ahora, quizás se tenga la respuesta: si había más galaxias en el Universo primitivo de lo que se pensaba, y por ello muy pronto fueron viejas y débiles, y por tanto difíciles de observar, podrían haber proporcionado la radiación suficiente para aclarar esa neblina.

De momento, la única forma de llegar a descubrirlas es utilizando racimos masivos de galaxias que actúan como telescopios cósmicos. Quizás el futuro Telescopio Espacial James Webb, que se lanzará en esta década, y que estará especializado en observación de objetos distantes, logre dar respuesta a este misterio.

Despedido de una central nuclear de EEUU por alertar sobre la seguridad


Las olas rompen a los pies del muro de ocho metros de altura que protege la central nuclear de San Onofre. Los dos reactores usan el agua del mar para refrigerarse, ante la mirada cómplice de decenas de surfistas que acuden a diario a su playa favorita del sur de California, a medio camino entre Los Ángeles y San Diego, en las inmediaciones de la falla geológica de Cristianitos y en una zona de alta actividad sísmica.

Las dos "jorobas" de la central, visibles desde la autopista número 5, parecen aún más vulnerables vistas desde la orilla. San Onofre fue construida para soportar temblores de magnitud siete en la escala Richter, pero no hace falta echarle mucha imaginación para pronosticar lo que ocurriría ante un "tsunami" como el de Japón.

Paul Díaz trabajó hasta el año pasado en la central hasta que fue despedido por denunciar las preocupaciones sobre la seguridad de los propios empleados. Y aunque admite que San Onofre está mejor preparada ante un desastre que Fukushima, lo que realmente le preocupa es "la seguridad de cada día".
Actuó en nombre de sus compañeros

Díaz –35 años, de origen dominicano, ex miembro de los Marines- ejercía como gerente de administración en la central cuando se le ocurrió hacerse eco de las quejas por "fatiga laboral". Los propios trabajadores advertían que las jornadas prolongadas y los turnos excesivamente largos afectaban a su nivel de alerta y podían llegar a comprometer la seguridad.

"Cuando trasmití la preocupación del personal a mis superiores, la respuesta fue: "Ellos no necesitan que te hagas el superhéroe"", asegura Díaz. "Volví a mi trabajo, pero al poco tiempo me enteré de que se había dado orden a los trabajadores para no elevaran sus quejas a nadie fuera de la cadena de mando".

Fue entonces cuando Díaz acudió directamente a los inspectores federales y denunció la situación a la Comisión Regulatoria Nuclear (NRC): "Está claro que en San Onofre no existe eso que los expertos llaman un "ambiente consciente de seguridad". Si tienen miedo a hablar, los trabajadores pueden decidir que es mejor no informar de la existencia de una filtración o de una fuga de vapor".

"A mí me despidieron como represalia", asegura el ex gerente de la central. "Durante diez años tuve un expediente sin tacha y ellos mismos me habían promocionado meses antes. Yo cumplí con mi deber, porque una central no es 100% segura si el nivel de alerta no se mantiene entre los trabajadores".
El caso ya se encuentra en los tribunales

Díaz ha llevado a los tribunales a la central de San Onofre, y su abogada Maria Severson confía que su caso sirva para extremar las medidas de seguridad en las 65 centrales norteamericanas tras el accidente de Fukushima.

""Si ves algo, di algo", ésa debería ser la regla número uno de seguridad en cualquier central nuclear", asegura Maria Severson. "La manera más obvia de garantizar la seguridad es mantener abierta la comunicación entre los trabajadores, y no intentar silenciarlos".

"En marzo del 2010, la Comisión Regulatoria Nuclear envió una carta alertando sobre lo esencial que es mantener abierto el flujo de comunicación entre los trabajadores", recuerda Stevenson. "Nada ha cambiado desde entoces, y sólo esperamos que el caso de Paul Díaz sirva para extremar las precauciones y extremar la cultura de la seguridad, no sólo en San Onofre sino en todas las centrales nucleares".

Paul Diaz sigue viviendo (y buscando trabajo) en Oceanside, a unos 20 kilómetros de la central... "Yo me siento seguro aquí porque conozco a las personas que trabajan allí dentro y sé que los dispositivos de seguridad están entre los mejores del mundo. Pero también es cierto que existen lo que yo llamo "bolsillos de cáncer" que pueden comprometer todo el sistema. Espero que los tribunales me concedan una compensación, pero no aspiro a volver a trabajar en la central. Me conformo con que la nueva directiva tome de verdad medidas y consiga erradicar el "cáncer" en beneficio de todos".
Denuncias previas en San Onfre

Otros dos supervisores de San Onofre, Rick Busnando y Mike Mason, denunciaron en el 2009 a la compañía Southern California Edison alegando que fueron despedidos por revelar violaciones de las normas de seguridad en San Onofre, que ha sido apercibida en varias ocasiones por la Comisión Regulatoria Nuclear.

El portavoz de la central, Gill Alexander, no ha respondido a los emails de elmundo.es para ofrecer su versión sobre el caso Díaz. En declaraciones a la cadena ABC, Miller sostiene que su despido estuvo relacionado con su "rendimiento" en el trabajo. Según Alexander, la compañía ha tomado las "medidas oportunas" para responder a la carta del NCR que alertaba sobre las preocupaciones del personal y el medio a represalidas por cuestionar la seguridad de la central.

sábado, 9 de abril de 2011

Este objeto rozará la tierra el día ocho de Noviembre

Se trata de un asteroide de unos 400 metros de diámetro y forma parte de la lista de objetos potencialmente peligrosos.


Se le conoce como 2005 YU55. Se trata de un asteroide de unos 400 metros de diámetro y forma parte de la lista de objetos potencialmente peligrosos para la Tierra. El próximo 8 de noviembre pasará a algo más de 200.000 km. de nuestro planeta lo que, en términos astronómicos, equivale a una bala silbando en el oido.
Debido a su tamaño y a lo cerca que pasará de nosotros, numerosos observatorios de todo el mundo están ya poniendo a punto sus instrumentos para no perder detalle del «encuentro». Descubierto en el año 2005 por astrónomos de la Universidad de Arizona, se calcula que una roca de esas dimensiones pasa cerca de la Tierra una vez cada treinta años.
Para Don Yeomans, director del programa de Objetos Cercanos a la Tierra (NEO) de la NASA, cuando pase se podrán obtener imágenes de radar a una resolución incluso mayor que la obtenida por las últimas misiones enviadas a estudiar asteroides.
Podría terminar cayendo a la Tierra2005 Yu55 tiene una rotación muy lenta y forma parte de la lista de asteroides que, en algún momento del futuro, podrían terminar cayendo a la Tierra. «Ya estamos preparados para esta visita», asegura por su parte Lance Benner, científico del Jet Propulsion Laboratory y especialista en obtener imágenes de radar de objetos cercanos.
El asteroide no fue descubierto hasta 2010«Será el asteroide que haya pasado más cerca desde 1976», añade Benner. «Dicho lo cual, añadiré que nadie pudo ver a 2010 XC15 durante su acercamiento de aquél año, a sólo la mitad de la distancia lunar». Un asteroide, por cierto, que no fue descubierto hasta 2010, cuatro años después de su «visita».«Por eso -continúa Benner - la pasada de 2005 YU55 será la mejor y la más cercana de todas las observadas hasta ahora de objetos tan grandes, lo que representa una oportunidad única. Literalmente, podremos obtener imágenes de una resolución comparable o incluso mejor que la de muchas sondas».
A pesar de que en el futuro podría volverse peligroso, la cita del próximo 8 de noviembre no entraña peligro alguno para nuestro planeta. Un objeto de 400 metros como 2005 YU55 podría, en caso de impactar contra una gran ciudad, destruirla por completo y causar graves daños en varios centenares de km. a la redonda.

viernes, 8 de abril de 2011

La tensión nuclear se traslada a la planta de Onagawa después del último temblor














La central nuclear de Onagawa, en la provincia de Miyagi (noreste de Japón), podría sufrir filtraciones de agua tras el fuerte terremoto de 7,1 grados en la escala de Richter del día 7, aunque no se ha detectado por el momento un aumento de la radiactividad, informó la cadena NHK.

El operador de la central de Onagawa confirmó que la nueva réplica había causado el desbordamiento de agua con pequeños niveles de radiactividad, pero ninguna filtración.

Otras dos centrales nucleares del este de Japón han tenido que recurrir a generadores de emergencia tras perder el suministro eléctrico externo tras el seísmo, que ha causado al menos cuatro muertos y 132 heridos.

La planta de Onagawa, muy cercana al epicentro del seísmo, ha perdido dos de sus tres líneas eléctricas externas, aunque por el momento está refrigerando sus piscinas de combustible usado con la línea de suministro restante, informó la Agencia de Seguridad Nuclear de Japón.

Onagawa, que estaba parada desde el devastador seísmo del 11 de marzo, sufrió la suspensión temporal de los sistemas de refrigeración tras el terremoto de ayer, aunque finalmente los técnicos los recuperaron.

"Debido al temblor, numerosas anomalías han sido detectadas en los edificios de los reactores", ha explicado un responsable de la Agencia nuclear en una rueda de prensa, a la vez que ha subrayado que el nivel de radiactividad es "muy inferior" al límite legal.

"El agua ha desbordado la piscina del reactor 2", ha precisado el portavoz de la compañía de electricidad Tohoku Electric Power, empresa que explota la central, que cuenta con tres reactores. El agua también ha sido detectada en el suelo de varias plantas de los edificios.

La central de Higashidori, en Aomori, se quedó tras el terremoto sin el suministro eléctrico externo y ahora está funcionando con generadores diésel de emergencia, aunque en el momento del seísmo estaba siendo revisada y no se ha informado de problemas.

También en Aomori, la central de procesamiento de residuos nucleares de Rokkasho se quedó sin electricidad y opera con generadores de emergencia.

En la central de Fukushima Daiichi, afectada por graves filtraciones por el terremoto y posterior tsunami de hace casi un mes, no se ha detectado un aumento de la radiación fuera de lo normal, según la agencia nuclear. Las plantas de Fukushima Daiini y Tokai (Ibaraki) tampoco han registrado problemas y registros fuera de lo normal.

'Falcon Heavy': un cohete para ir a Marte















La compañía dedicada al desarrollo de tecnología espacial SpaceX ha presentado un potente cohete con gran capacidad de carga que puede llegar hasta Marte, indicó su consejero delegado, Elon Musk. Según explicó, el cohete será capaz de llevar a cabo un viaje de ida y vuelta al Planeta Rojo y traer muestras a la Tierra.

"Falcon Heavy transportará más carga en la órbita o más rápido que cualquier vehículo en la historia, excepto el cohete lunar Saturno V, que fue dado de baja después de que el programa Apolo", señaló Musk en una conferencia de prensa.

Musk afirmó que este nuevo cohete espacial "abre un nuevo mundo de capacidad de Gobierno y misiones comerciales en el espacio", sobre todo después de que la NASA concluya su programa de transbordadores este año, con los que ha llevado carga y tripulación hasta la Estación Espacial Internacional (ISS) durante 30 años.

Privatización de la carrera espacial

El Gobierno estadounidense ha hecho especial hincapié en asociarse con la empresa privada para desarrollar la tecnología necesaria para emprender una nueva conquista espacial, que tiene como objetivo llegar a un asteroide en 2025 y a Marte en 2030.

De momento, no hay ninguna oferta formal que se pueda desvelar, pero Musk aseguró que "ha habido un gran interés en el Gobierno estadounidense".

El Falcon Heavy llegará a la base de Vandenberg (California, EEUU), donde la compañía tiene un complejo de lanzamiento, a finales de año que viene y tienen previsto hacer un vuelo de prueba "poco después", en noviembre o diciembre.

"Nuestro primer lanzamiento desde la base de lanzamiento de SpaceX a Cabo Cañaveral, en Florida (sudeste), está programado para fines de 2013 o 2014", agregó.

El 'Falcon Heavy' se compone de tres núcleos de nueve motores, que se utilizan como primera etapa y tiene una capacidad de 53 toneladas, una cifra que supera la carga máxima de un avión Boeing 737-200 con 136 pasajeros.

Estará propulsado por motores Merlín modificados que la compañía está probando en el centro de desarrollo de cohetes que SpaceX tiene en McGregor (Texas). SpaceX, con sede en California, fue fundada en 2002.

Kepler logra captar la 'música' de las estrellas














El telescopio espacial Kepler, de la NASA, ha logrado captar las vibraciones sonoras que emiten las estrellas de la constelación hacia la que dirige su lente, la Cygnus-Lyra, en la Vía Láctea. Los espectros que ha enviado a la Tierra han permitido identificar una población de 500 estrellas del mismo tipo que el Sol.

Antes del lanzamiento del Kepler, en 2009, sólo se conocían unas 25 estrellas como el Sol en la galaxia, dado que la atmósfera terrestre impedía detectarlas, pero eso cambió con el telescopio espacial, cuya misión básica es encontrar planetas susceptibles de ser habitados.

Pero sus datos están dando más resultados que los esperados para la astrofísica. Con el hallazgo de estos soles, publicado en la revista 'Science' esta semana, no solo se conocerán mejor los procesos de formación y evolución de las estrellas, sino que sus conclusiones pueden cambiar algunas de las teorías mejor asentadas en la comunidad científica.

Lo que Kepler ha captado son variaciones minúsculas en el brillo estelar que son la manifestación de oscilaciones o vibraciones que se producen por ondas acústicas -sonido- atrapadas en el interior de las estrellas.

Antoni Jiménez, del Instituto de Astrofísica de Canarias (IAC) y uno de los dos coautores españoles, junto a Clara Régulo, lo explica con una metáfora musical: "El espectro de vibración de un violín es distinto al de un saxofón u otro instrumento. Escuchando la música podemos identicar qué instrumento es y del mismo modo, escuchando los sonidos de las estrellas podemos conocer sus características".

Con los espectros sonoros, han podido averiguar su radio, su masa, su estado evolutivo, etcétera, y han descubierto que, entre el medio millar, hay soles más jóvenes y más viejos que el Sol. Ello permitirá a los astrofísicos reconstruir su pasado y aventurar su futuro.

Los 'ladrillos' del Cosmos

Pero además de ayudar a conocer los procesos de formación y la evolución de las estrellas, que son los 'ladrillos' que contruyen el conjunto del Universo, esta música estelar, que según Jiménez suena como un murmullo constante, ha servido para probar si las teorías que se tenían son correctas.

Y la conclusión es que lo referente a los modelos sobre los radios si son correctos, pero los relativos a las masas estelares, sin embargo, no se corresponden con lo que se preveía y este es un dato fundamental para la evolución de estos astros.

Desde que Kepler fue puesto en órbita también ha logrado identificar 1.235 posibles planetas, de los que 65 tienen un tamaño similar al de la Tierra y cinco están en una zona que podría ser habitales, por la distancia a la que están de su estrella. Sus datos deben ser contrastados con telescopios terrestres.

jueves, 7 de abril de 2011

La primera imagen de Mercurio desde cerca














La NASA ha hecho pública una fotografía que ha calificado de «histórica». Se trata de la primera imagen de la superficie de Mercurio, capturada por la sonda Messenger, que obtiene una nave espacial en órbita sobre el planeta del Sistema Solar más próximo al Sol. No es la única, ya que la sonda ha obtenido más de 300 instantáneas que irá enviando poco a poco a la Tierra.

La primera de las fotografías, en blanco y negro, muestra el árido paisaje gris en el sur de Mercurio en una toma dominada por un cráter de 85 kilómetros de diámetro, llamado Debussy, y causado por el impacto de asteoritos. «Ésta es la primera imagen obtenida desde un artefacto espacial en órbita del primer planeta del sistema solar», han señalado en un comunicado los científicos que dirigen la misión. También puede verse en la imagen otro cráter de unos 24 kilómetros de diámetro, llamado Matabei, al oeste del Debussy, y que se caracteriza por sus «líneas de rayos oscuras poco habituales». Se espera que las imágenes cubran áreas de Mercurio hasta ahora no observadas por el Messenger durante las tres travesías a las cercanías del planeta efectuadas antes de entrar en su órbita.

La sonda Messenger llegó a Mercurio a mediados de marzo después de un viaje de siete años y casi 8.000 millones de kilómetros. Es el primer artefacto humano que orbita el planeta. Sus instrumentos realizarán detallados mapas de su superficie y estudiarán su composición, su campo magnético y su casi inexistente atmósfera.

Messenger ha alcanzado Mercurio tras un complicadísimo viaje en el que ha realizado ocho órbitas completas alrededor de Sol. Las razones para tan compleja ruta son la proximidad del planeta a nuestra estrella y la práctica ausencia de una atmósfera en Mercurio. Para poder insertarse en su órbita, la sonda ha tenido que reducir drásticamente su velocidad y ser «capturada» por la gravedad del planeta antes de que el Sol le atrapara sin remedio.

Cuando acabe su misión, que durará dos días de Mercurio (352 días terrestres), es posible que la sonda termine por estrellarse contra la superficie del planeta que ha ido a estudiar.

Los chimpancés bostezan por empatía con los miembros de su manada

Cuando se ve a alguien bostezar, pensamos que la razón está en que tiene sueño o se está aburriendo. Sin embargo, el ser humano no es el único primate que lo hace y en el caso de nuestros primos genéticos más cercanos, los chimpancés, el contagioso bostezo no tiene el mismo significado: en su caso puede ser una muestra de conexión social entre individuos.

Así se deduce de la investigación realizadas en el Yerkes National Primate Research Center, en la Universidad de Emory (EEUU), que podría ayudar a los científicos a entender cómo la empatía está detrás de este mecanismo automático tanto en estos simios como en los humanos. La investigación podría también ayudar a demostrar cómo se consolida o debilita esa empatía.

Los científicos de Yerkes descubrieron que los chimpancés bostezaban más después de que congéneres familiares lo hicieran, que cuando eran bostezos de extraños, según publican en la revista 'PLoS ONE'.

Matthew Campbell y Frans de Waal proponen que cuando el bostezo se contagia entre dos chimpancés es reflejo de que entre ellos hay una empatía subyacente. "La idea es que son contagiosos por la misma razón que también lo son las sonrisas, los ceños fruncidos y otras expresiones faciales", argumentan. "Nuestros resultados apoyan la idea que el bostezo contagioso se puede utilizar como medida de empatía, porque las relaciones que observamos son similares a las que previvamente observamos en seres humanos", apuntan.

Los investigadores estudiaron 23 chimpancés adultos, que fueron separados en dos grupos. Los chimpancés vieron varios videoclips de nueve segundos de otros chimpancés, en ambos grupos, bostezando o haciendo otras cosas. Observaron que bostezaban con una frecuencia un 50% mayor cuando veían a miembros de su grupo bostezar, respecto a cuando eran los del otro quienes lo hacían.

Una ventana de conexiones sociales

En los seres humanos, los científicos ya han identificado que ciertas partes del cerebro se activan cuando alguien experimenta dolor y cuando creen que algún otro lo experimenta. Pero según estos experimentos, la gente tiende a demostrar más sensibilidad con los miembros del mismo grupo social.

Los resultados plantean la cuestión de si el bostezo contagioso entre las personas tiene la misma característica que entre los chimpancés, es decir, si favorece a los miembros del mismo grupo social.

Los expertos de Yerkes recuerdan que los chimpancés viven en pequeñas comunidades donde los desconocidos son de otro grupo social ajeno, pero entre los humanos no todos los desconocidos son extranjeros. Por ello, creen que entre chimpancés la distinción de pertenencia a un grupo es más absoluta. De hecho, los que están en estado salvaje son extremadamente hostiles a los grupos externos.

En todo caso, los autores afirman que el bostezo contagioso podría ser una ventana en conexiones sociales y emocionales entre los individuos, y sugieren que conocer la empatía de los chimpancés puede ayudar a analizarla en los seres humanos.

"La empatía es difícil de medir directamente porque es una respuesta interna, por ello la mímica emocional, como puede ser un bostezo contagioso, puede servir de medida de este comportamiento", afirma Campbell.