Archivo

Archive for the ‘Noticias’ Category

El primer ejemplar de plesiosaurio embarazado se puede ver en Los Ángeles

agosto 17, 2011 1 comentario

FUENTE | elpais.com

Hace unos 80 millones de años, en la era de los dinosaurios, los grandes predadores de los mares eran los plesiosaurios, reptiles acuáticos carnívoros con cuatro aletas cuya forma de reproducirse ha sido un misterio desde que hace 200 años empezaron a identificarse los fósiles hallados, bastante numerosos. El estudio de una hembra de plesiosaurio embarazada ha empezado a desvelar el misterio.

Este fósil del cretácico fue encontrado en 1987 en el Estado de Kansas (EE UU) y estaba almacenado en un museo pero hasta ahora no había sido preparado para su análisis, que han realizado Robin O’Keefe y Louis Chiappe. Este último es el director del Instituto de Dinosaurios del Museo de Historia Natural de Los Ángeles (EE UU), donde el fósil ha quedado expuesto tras su estudio, que se publica en Science.

El animal fosilizado estudiado, de cinco metros de largo, es un ejemplar bastante completo de Polycotylus latippinus, una especie de plesiosaurio. El gran tamaño del feto que contiene indica que los plesiosaurios eran vivíparos y que, al contrario de lo que sucedía con otros reptiles acuáticos de la época, parían una sola cría en vez de una camada de crías menos desarrolladas.

«Hace mucho tiempo que los científicos sabían que los cuerpos de los plesiosaurios no estaban bien adaptados a salir del agua y poner huevos en un nido», dice O’Keefe. «La falta de pruebas de que dieran a luz ha resultado un misterio. Este fósil indica por primera vez que los plesiosaurios eran vivíparos y lo resuelve. Además, el embrión es de gran tamaño en comparación con la madre, mucho mayor de lo que se podría esperar si se compara con otros reptiles».

Otros animales marinos vivíparos actuales, como las ballenas y los delfines, cuidan de sus crías durante bastante tiempo. «Creemos que los plesiosaurios tuvieron un comportamiento social y de cuidado materno, con una vida social más parecida a la de los delfines modernos que otros reptiles», añade O’Keefe.

La presencia de plesiosaurios en lo que hoy es Kansas se explica porque en el mesozoico existía una enorme vía de agua que partía en dos el continente norteamericano y se formó por inundación al encontrarse las aguas del océano Ártico y el golfo de México.

Un experimento de hace años pudo decir cómo se originó la vida

abril 5, 2011 Deja un comentario

FUENTE | abc.es

En 1953, un joven investigador, Stanley Miller, se hizo mundialmente famoso por sus estudios sobre el origen de la vida, al reproducir en laboratorio las condiciones que supuestamente se produjeron en la Tierra primigenia. Cinco años después, el científico creó de nuevo esa «sopa primordial» en un segundo experimento similar, pero las muestras fueron olvidadas y, por lo que se sabe, Miller, que falleció en 2007, nunca volvió a trabajar con ellas. Ahora, científicos de la Institución de Oceanografía Scripps en La Jolla (Estados Unidos) han recuperado ese tesoro científico con resultados que pueden suponer un importante paso en el esclarecimiento de una de las preguntas fundamentales. Tras analizar las muestras, el equipo ha llegado a la conclusión de que los relámpagos, la actividad volcánica y los gases asociados a estos fenómenos podrían haber reaccionado entre sí para producir los primeros elementos creadores de vida. El hallazgo aparece publicado en la revista Proceedings of the National Academy of Sciences (PNAS).

Todo comenzó cuando Jeffrey Bada, un ex alumno de Miller, encontró las muestras entre el material de laboratorio del profesor de química. Bada y sus colegas, dirigidos por Eric T. Parker, analizaron de nuevo las muestras archivadas del experimento, que nunca antes se habían dado a conocer. Simulaban las condiciones primitivas de la Tierra al exponer una mezcla de sulfuro de hidrógeno, agua, metano, dióxido de carbono y gas amoniaco a descargas eléctricas similares a los relámpagos.

Las técnicas modernas de análisis químico, que son hasta 1.000 veces más sensibles que los métodos de investigación de los 50, detectaron los aminoácidos que contenían sulfuro, con proteínas y sin ellas y otros componentes en los residuos de la prueba original de Miller. Sólo se detectó una contaminación mínima. Los nuevos hallazgos apoyan la idea de que los volcanes -una fuente importante de sulfuro de hidrógeno en la actualidad- y los rayos convirtieron los gases simples en una gran cantidad de aminoácidos, que a su vez fueron indispensables para la creación de proteínas simples.

Los autores también creen que los aminoácidos producidos en el experimento de Miller con el sulfuro de hidrógeno son similares a los encontrados en los meteoritos. Por este motivo, estudiaron dos meteoritos con base de carbono, cada uno con concentraciones de aminoácidos similares a las sintetizadas por Miller. Según los investigadores, estos descubrimientos sugieren que el sulfuro de hidrógeno, en particular, jugó un importante papel en las reacciones químicas que fueron las precursoras del origen de la vida sobre la Tierra y posiblemente en cualquier otro lugar en los inicios del sistema solar. La hipótesis respalda, en buena parte, la polémica teoría de la Panspermia, que dice que los asteroides pudieron esparcir la vida por el Universo, lo que abre la puerta a la existencia de la misma en otros planetas.

Choque de agujeros negros provoca temblores en el Universo

abril 5, 2011 Deja un comentario

FUENTE | europapress.es

El catedrático de Física Teórica de la Universidad de Caltech (California), Kip Thorne, ha explicado que el choque entre agujeros negros provoca vibraciones y temblores en el espacio-tiempo que se propagan a través de ondas gravitatorias por todo el universo a la velocidad de la luz.

Se trata del último hallazgo realizado por el físico en el Observatorio de Interferometría Láser de Ondas Gravitacionales (Proyecto LIGO, en sus siglas en inglés) y que trata de buscar respuestas a lo que Thorne llama ‘el universo curvo’ y que se ha convertido «en una de las áreas más activas de la investigación actual», según ha señalado.

Durante su participación en una conferencia, dentro del ciclo de Astrofísica y Cosmología de la Fundación BBVA, Thorne ha señalado que su investigación actual gira en torno a los efectos de la fuerza de la gravedad en el espacio-tiempo. En este sentido ha indicado que los «objetos masivos», como los cúmulos en que se agrupan miles de galaxias o las estrellas de neutrones; deforman el espacio-tiempo por efecto de su gravedad y «en ocasiones la gravedad es tan intensa que el tejido del espacio-tiempo se curva infinitamente».

Esta teoría ha sido aplicada por Thorne en relación a los agujeros negros. De este modo, ha destacado la teoría de cómo la materia que se acerca a estos objetos forma los llamados ‘discos de acreción’, que se forman a su alrededor atraídos por el núcleo del cuerpo central y contribuyendo a su aumento de masa.

Esta teoría también ha demostrado que «cuando se produce un choque entre agujeros negros es que el espacio tiempo vibra y ese temblor es transportado por las llamadas ondas gravitatorias, se propaga a la velocidad de la luz por todo el universo», ha apuntado. El científico Albert Einstein ya predijo la existencia de estas ondas, cuya detección, según ha señalado Thorne, no se ha conseguido hasta ahora.

Por ello, el investigador estadounidense continúa adelante con este proyecto. Concretamente, en los años 70 y 80 desarrolló una teoría sobre la emisión de ondas gravitatorias y actualmente ha decidido centrarse en el problema de la detección. Para ello, ha explicado que deberán «detectar variaciones en distancias inferiores a un protón».

Otro de los hallazgos realizados en relación a los agujeros negros es que los vórtices que los acompañan se mantienen después de una colisión o una fusión, es decir, «existen agujeros negros con cuatro o seis vórtices», ha explicado Thorne.

En cuanto a la posibilidad de crear agujeros negros con el Gran Colisionador de Hadrones (LHC), el científico ha explicado que se trata de unos cuerpos tan pequeños «como el núcleo de un átomo» por ello no está relacionado con la «física natural» en la que él se maneja, sino con la física cuántica. Sin embargo se ha mostrado «muy ilusionado» con este avance del LHC.

La conferencia de Thorne inaugura el ciclo sobre Cosmología y Astrofísica de la Fundación BBVA y que repasa, según ha explicado la fundación, las cuestiones más candentes de la investigación astrofísica actual. Entre los ponentes se encuentran los premios Nobel de física James Cronin y Gerard Hooft; la astroquímica Ewine Van Dishoeck; y el director del Instituto Max Planck, Martin Asplund.

Matemáticos de España resuelven una conjetura de John Nash

marzo 31, 2011 Deja un comentario

FUENTE | elpais.com

Dos jóvenes matemáticos españoles, Javier Fernández de Bobadilla y María Pe Pereira, han resuelto un problema que John Nash enunció a mediados de los años sesenta en el que se plantea una conjetura relacionada con un concepto que los matemáticos llaman ‘singularidad’.

Según ha asegurado la plataforma del proyecto Consolider Ingenio Mathematica (i-Math), los dos expertos han demostrado la conjetura con un abordaje que los matemáticos han definido como «muy novedoso y sencillo» pues han empleado «sólo» tres años de trabajo, por eso su descubrimiento ha sido toda una sorpresa para los especialistas en el problema de Nash, el científico que inspiró la película «Una mente maravillosa».

Fernandez de Bobadilla ha explicado que «lo importante en este caso ha sido dar con la idea y haber resuelto el problema con técnicas sorprendentemente sencillas, casi elementales, aunque por supuesto basadas en desarrollos previos de otros investigadores».

El problema de Nash es de matemáticas ‘puras’, es decir, no tiene aplicaciones fuera de la propia matemática aunque, en opinión del matemático español «acabará teniendo aplicaciones».

Concretamente, el principio enunciado por Nash tiene que ver con la comprensión de las ‘singularidades’, un concepto matemático que sí se percibe en el mundo físico. Los fenómenos en que aparecen cambios instantáneos de comportamiento tienen singularidades: la formación de tornados en la atmósfera, cuando un metal se rompe al ser sometido a temperaturas muy altas o cuando el espacio-tiempo se curva tanto que se forma un agujero negro.

Un cilindro retorcido
Sin embargo, el tipo de singularidades de las que trata el problema de Nash proceden de la geometría y se visualizan con un ejemplo más modesto: si se retuerce completamente un cilindro, el punto entre los dos conos resultantes es una singularidad. Y es que todas las singularidades se pueden imaginar a partir de un objeto liso en que una parte se comprime dando lugar a la ‘singularidad’. Este conjunto que se comprime o colapsa es lo que los matemáticos llaman ‘lugar excepcional’.

Así, las preguntas de Nash son: ¿Qué puede llegar a saberse de esa ‘singularidad’? ¿Sería posible, por ejemplo, hacer correr la película marcha atrás y deducir cuál es el lugar excepcional que ha sido comprimido para generarla? Los matemáticos, y en concreto los llamados singularistas, investigan intensamente en estas cuestiones desde la primera mitad del siglo XX.

En este sentido, el i-Math ha explicado que los ‘singularistas’ han aprendido, por ejemplo, a extraer información a partir de las posibles trayectorias de las partículas que atraviesan una ‘singularidad’ o, lo que es lo mismo, de los posibles recorridos de una canica microscópica rodando por la pared interna del cilindro retorcido. Estas trayectorias se agrupan en familias según su comportamiento.

«Un problema bonito»
«Desde el punto de vista matemático es un problema muy bonito, con un enunciado sencillo, y que además ha podido ser entendido con técnicas relativamente elementales, lo que es una suerte para un matemático», ha señalado Pe Pereira.

Pe Pereira, de 30 años, actualmente en el Instituto Jussieu de París con una beca postdoctoral de Caja Madrid, y Fernández Bobadilla, de 38 años e investigador del Instituto de Ciencias Matemáticas (ICMAT) de Madrid con una beca del Consejo Europeo de Investigación, han publicado su trabajo hace unas semanas en internet y ya han tenido ocasión de exponerlo ante especialistas del tema. En este sentido, el I-Math ha señalado que la publicación en revistas de prestigio sólo se producirá tras una revisión cuidadosa por investigadores anónimos, que puede prolongarse más de un año.

La crisis de Japón encarece los chips

marzo 21, 2011 2 comentarios

FUENTE | abc.es

Las catástrofes que están sacudiendo Japón han paralizado su economía, con un fuerte enfoque hacia el sector tecnológico. Además de las consecuencias internas, el cierre de sus fábricas impactará en todo el mundo. El mercado de chips ha sido uno de los primeros en desestabilizarse con subidas de casi el 25%.

Aunque la destrucción de los terremotos y el tsunami no ha afectado a las zonas más industriales de Japón, el caos global hace imposible el desempeño de la vida normal de los trabajadores nipones. La crisis nuclear está obligando al estado a movilizar sus recursos para evitar un desastre mayor, mientras que la reconstrucción avanza en el resto del territorio. Sin embargo, el cierre de las plantas nucleares ha obligado al país a detener el trabajo ya que el suministro eléctrico se interrumpe periódicamente y se ha pedido el ahorro máximo de energía.

A esta falta de producción se le suman los numerosos obstáculos a la distribución. Carreteras rotas y vías ferroviarias cortadas impiden que los productos lleguen a su destino. Y las vías de salida del país están saturadas por nacionales y extranjeros que intentan huir del peligro.

Según recoge Reuters, Japón produce en torno al 20% de los semiconductores que se utilizan en el mundo. Un parón prologando de su prolongado de su producción provocará un aumento de los precios, ya que la demanda internacional sigue con la misma fortaleza.

El fabricante Kingtom denuncia que los especuladores han anticipado este impacto y han provocado los primeros encarecimientos. Las memorias NAND flash se encarecieron un 23% entre lunes y martes mientras que los chips DRAM han subido un 7,2%.

El desastre japonés ha coincidido con un momento de presión sobre la producción provocado desde dos segmentos. Por un lado, el mercado de las tabletas y los teléfonos está viviendo una segunda juventud con el iPad 2 y todas las tablets de segunda generación, que ya están en las fábricas.

Por otro lado, el mercado de los videojuegos asiste a un cambio generacional en el sector portátil con el lanzamiento de Nintendo 3DS. La compañía de Kioto tenía intención de vender 4 millones de unidades en todo el mundo tan solo durante este mes de marzo. La videoconsola se puso a la venta en Japón hace tan solo 10 días, mientras que Europa y América la recibirán a finales de marzo. Nintendo ha garantizado el stock por el momento.

Un salto al resto de Asia
La solución sigue estando en Asia. Los elevados costes de producción en Japón han contribuido a fomentar un proceso de deslocalización de la producción durante las últimas décadas que ha favorecido la diversidad. A pesar de su enemistad política y social, numerosas compañías japonesas han instalado fábricas propias o empresas subsidiarias en la vecina China y en su región autónoma de Taiwan como medida de ahorro de costes y de aumento de la rentabilidad.

Compañías como ARM, Sony o Texas Instrument advierten ante Reuters de que podrían afrontar retrasos en la cadena de producción. O quizá no, si las cosas comienzan a calmarse en las centrales nucleares de Japón. Entonces todo habrá quedado en un juego de especuladores.

Se plantea que hubo pocas dimensiones en el universo primitivo

marzo 21, 2011 Deja un comentario

FUENTE | abc.es

La teoría más aceptada sobre la formación del Universo dice que éste se originó hace alrededor de 13.750 millones de años, fruto de una gran explosión de energía, el Big Bang. Mucho se ha especulado sobre cómo sería ese primer universo. Se cree que poseía la energía primordial de la materia, que era caliente e incluso algunos científicos sugieren que podría haber sido una especie de líquido. Ahora, dos investigadores norteamericanos, Jonas Mureika, de la Universidad Loyola Marymount de Los Ángeles, y Dejan Stojkovic, de la Universidad Estatal de Nueva York en Buffalo, vienen a complicar aún más las cosas. Según el nuevo estudio, publicado en la revista Physical Review Letters, las tres dimensiones espaciales y la temporal que hoy conocemos no existieron siempre. En el pasado, el Universo pudo haber tenido menos dimensiones.

La hipótesis de las dimensiones que desaparecen predice que, en energías y temperaturas extremadamente altas, las tres dimensiones del espacio que nos son familiares se reducen a dos, o incluso se desvanecen. Según esta hipótesis, poco después del Big Bang, el Universo, que ardía en altísimas temperaturas, tenía solo una dimensión del espacio y otra del tiempo. Era una línea recta. A medida que el cosmos comenzó a enfriarse, apareció una segunda dimensión del espacio -como si fuera un plano-. Después, el Universo siguió expandiéndose y enfriándose aún más, hasta que apareció la tercera dimensión y el cosmos se convirtió en el que conocemos hoy en día.

Pero los investigadores creen que, en realidad, el Universo podría tener una cuarta dimensión espacial que no somos capaces de experimentar. A su juicio, la aparición de esa cuarta dimensión podría haber generado la energía extra necesaria para la expansión del Universo, un impulso que se descubrió en 1998 y que se considera provocado por una misteriosa energía oscura.

Stojkovic y Mureika creen que el futuro observatorio espacial LISA de la NASA y la Agencia Espacial Europea (ESA), que estudiará las ondas gravitatorias, podrá confirmar su teoría. La sonda investigará si la hipótesis de los dos investigadores es posible, pero el trabajo llevará años. La propuesta, totalmente teórica, resulta inquietante de cara al futuro, ya que deja la puerta abierta a que aparezcan nuevas dimensiones desconocidas. La investigación se relaciona con la Teoría de las Cuerdas, que predice que podría haber nuevas dimensiones ocultas.

Escriben información en una molécula

marzo 21, 2011 Deja un comentario

FUENTE | europapress.es

Un estudio internacional en el que ha colaborado el Consejo Superior de Investigaciones Científicas (CSIC) ha logrado escribir información, en forma de ceros y unos, como la que se usa en los ordenadores, sobre una superficie cubierta de moléculas magnéticas.

Según ha señalado el CSIC, los resultados de esta investigación, publicados en la revista ‘Nature Communications’, «constituyen un avance en el camino hacia el almacenamiento de datos a gran escala».

«En los ordenadores, los discos duros almacenan datos codificando ceros y unos mediante magnetismo en pequeños sectores de superficie. Hacer lo mismo a escala atómica supondría multiplicar la capacidad de almacenamiento en millones de veces, reducir el gasto de energía del ordenador y aumentar la velocidad de lectura y escritura», explica el investigador del CSIC Nicolás Lorente, del Centro de Investigación en Nanociencia y Nanotecnología.

La ventaja que ofrecen las moléculas respecto a los átomos a la hora de codificar datos es su asimetría. «Un átomo es esférico respecto a su momento magnético. Es decir, es igual desde cualquier ángulo, y para poder escribir sobre él es necesario primero romper esa simetría, lo que es extremadamente difícil», apunta Lorente.

Convertir las moléculas en minúsculas unidades de almacenamiento de un bit tampoco ha sido tarea sencilla para los investigadores. «La imantación es lo que permite escribir sobre las moléculas. Para transmitirles ese magnetismo lo que hicimos fue bombardearlas con haces de electrones. Sin embargo, vimos que el magnetismo variaba de una molécula a otra y nos preguntamos por qué unas se imantaban y otras no», continúa Lorente.

Los investigadores encontraron que la explicación de este fenómeno se hallaba en la geometría de las moléculas que modifica su estructura electrónica. La investigación ha demostrado que los cambios en la geometría molecular alteran la imantación de las moléculas y que, además, esos cambios pueden ser reversibles, y por tanto controlables, mediante la exposición de las moléculas a bombardeos de electrones.

El método para comprobar si una molécula está imantada es el efecto Kondo, que caracteriza el comportamiento de algunos conductores eléctricos a baja temperatura. «A voltajes pequeños, la aparición o ausencia del efecto Kondo implica grandes variaciones de la resistencia eléctrica. Esa resistencia es fácilmente medible», añade el investigador del CSIC.

Esta tecnología tiene, por ahora, la limitación de que sólo es posible a muy bajas temperaturas, de 30 grados kelvin (unos -243ºC), muy alejadas de las habituales en la vida cotidiana.

Fabrican el primer material antivaho

marzo 18, 2011 Deja un comentario


El invento podrá ser utilizado con parabrisas, cámaras, gafas y cascos impidiendo que se empañen.

FUENTE | europapress.es

Investigadores bajo la supervisión del profesor de la Universidad Laval Gaétan Laroche han desarrollado el primer material antivaho permanente. Laroche y sus colegas informan en la edición en línea de Applied Materials de los detalles de esta innovación que podría eliminar de una vez por todas el molesto vaho de las gafas, parabrisas, lentes de las cámaras, y sobre cualquier superficie de cristal transparente o de plástico.

El vaho se forma en una superficie cuando el vapor de agua en el aire se condensa en gotas finas. «A pesar de las apariencias, el vaho que se forma sobre los vidrios no es una película continua. De hecho, se trata de pequeñas gotas de agua que se unen en la superficie y reducen la transmisión de la luz», explica Laroche, profesor de la Facultad de Ciencias e Ingeniería de la Universidad Laval. «Una buena capa anti vaho impide la formación de tales gotas», afirmó.

Los investigadores utilizaron el alcohol de polivinilo, un compuesto hidrófilo que permite que el agua se distribuya de manera uniforme. El reto consistía en fijar firmemente el compuesto a la superficie de cristal o de plástico. Para lograr esto, los investigadores aplicaron cuatro capas sucesivas de moléculas, que forman fuertes lazos con sus capas adyacentes, antes de añadir el compuesto antivaho sobre esta base. El resultado fue una fina capa transparente, de varias capas que no altera las propiedades ópticas de la superficie sobre la que se superpone. Además, los enlaces químicos que unen las diferentes capas garantizan la dureza y la durabilidad de la capa entera.

«Los actuales tratamientos antivaho no tienen estas propiedades y no soportan el lavado, por lo que la aplicación del producto debe repetirse periódicamente», señala el profesor Laroche. «Nuestra capa, en cambio, es permanente.»

Dos patentes ya protegen este invento, que tiene numerosas aplicaciones potenciales, incluyendo parabrisas de vehículo, viseras protectoras, lentes de cámara, binoculares, instrumentos ópticos utilizados en química y medicina, y lentes correctoras. Las negociaciones ya están en marcha con una importante empresa de gafas interesada en obtener una licencia para esta tecnología, informa la Universidad Laval.

El terremoto de Japón desplaza el eje terrestre 15 centímetros

marzo 18, 2011 1 comentario

También hace variar la duración del día acortándolo 1,8 millonésimas de segundo.

FUENTE | abc.es

Richard Gross, científico del Jet Propulsion Laboratory, de la NASA, ha comprobado que, tras el terremoto del pasado viernes en Japón, el eje de la Tierra se ha desplazado alrededor de 15 centímetros, el doble que durante el terremoto de Chile de 2010. «Según mis cálculos -asegura el investigador- la duración del día se ha acortado en 1,8 millonésimas de segundo». Un tiempo al que hay que añadir las 1,2 millonésimas de segundos que perdimos tras el terremoto chileno.

Los datos iniciales sugerían, el viernes, que el terremoto desplazó 2,4 metros la isla de Honsu, la principal del archipiélago, y que movió el eje de la Tierra unos diez centímetros. Pero análisis posteriores y más detallados han hecho crecer esa cifra hasta los 15 centímetros lo que tiene una consecuencia directa sobre la duración de los días. Al principio se dijo que como consecuencia del seismo los días se habían acortado en 1,6 millonésimas de segundo. Ahora los expertos creen que se han acortado en 1,8 millonésimas de segundo y advierten que posteriores estudios podrían volver a modificar estas cantidades.

Un día terrestre dura cerca de 24 horas, o lo que es lo mismo, unos 86.400 segundos. A lo largo del año, esa duración varía cerca de un milisegundo (o mil millonésimas de segundo), debido a las variaciones estcionales en la distribución de la masa del planeta. Además, la Tierra realiza, de forma natural, sus propias redistribuciones de masa, la mayor parte de las cuales tiene lugar como consecuencia de las interacciones de las placas tectónicas.

En febrero de 2010, por ejemplo, la placa de Nazca se movió y la consecuencia fue un seismo destructivo en Chile. Esta clase de movimientos «de empuje», sin embargo, tienen también el efecto de alterar la rotación terrestre. «En un evento de empuje -explica Gross- una placa tectónica se desliza debajo de otra, y puede desplazarla hacia arriba o hacia abajo».

Y cuando la placa de Nazca se deslizó bajo la placa suramericana y la movió hacia el eje terrestre, las leyes de la Física nos dicen que la rotación de nuestro planeta sufrió una pequeña aceleración. De la misma forma, el terremoto de 2004 en Sumatra también redistribuyó la masa de la Tierra, causando una aceleración en su velocidad de rotación (los días se acortaron entonces 6,8 millonésimas de segundo).
Un efecto, por otra parte, que se contraarresta con la pérdida de grandes masas heladas en Groenlandia durante los últimos años (que también es una redistribución de masas), y que ha provocado el efecto contrario, ralentizando la Tierra y «devolviendo» al día una parte del tiemo perdido.

En resumen, según se distribuya la masa alrededor del eje de rotación terrestre, ésta ejerce un efecto de aceleración o de frenado. Se trata del mismo principio gracias al que funcionan algunos juguetes infantiles, generalmente pelotas de plástico en cuyo interior hay una bola metálica. Al hacerlas rodar, la bola metálica también se mueve, y según sea su posición, hace que la pelota acelere a peqqueños tirones o se frene.

Por supuesto, en el caso de la Tierra, los desplazamientos de masa, sean del origen que sean, afectan a su velocidad de rotación, y por lo tanto a la longitud del día.

Un desastre nuclear de grado 6 en Japón provoca un éxodo

marzo 15, 2011 1 comentario

La localidad de Fukushima (Japón) vive ahora, después del terremoto y el tsunami, un desastre nuclear como producto de los mismos -. Francia eleva de 4 a 6 la advertencia de desastre nuclear, en una escala de 7. -. El desastre nuclear de Txernóbil tuvo grado 7, sólo un grado inferior en Japón.

FUENTE | elpais.com

La alarma de un desastre nuclear crece en torno a la central de Fukushima, afectada en cuatro de sus seis reactores por el terremoto que devastó el país el viernes. Un incendio se ha desencadenado en el reactor 4, aunque ya está controlado, mientras que en el número 2 se produjo una explosión en torno a las seis de la mañana locales (22.00 en España). Aunque el agua utilizada para rebajar la temperatura en el interior está sufriendo el efecto contrario y podría estar empezando a hervir, según informa la agencia de noticias Kyodo. Japón acaba de informar a la ONU de que los niveles de radiactividad en la puerta de la central está descendiendo: llegaron a estar en niveles muy peligrosos aunque han descendido en las últimas seis horas hasta alcanzar cifras normales, siempre según la información que el Gobierno japonés proporciona al Organismo Internacional de la Energía Atómica (OIEA). Además, la Agencia de Seguridad Nuclear japonesa (NISA, por sus siglas en inglés) ha confirmado que el incendio ha dejado dos agujeros de ocho metros en el muro del reactor 4. Mientras tanto, la zona continúa viviendo réplicas del temblor. Fukushima ha vivido hoy una réplica de magnitud 6,3. Desde el viernes, se han producido más de 200 réplicas del grave terremoto.

El primer ministro japonés, Naoto Kan, ha reprendido a varios ejecutivos de la compañía eléctrica que gestiona la central -Tokyo Electric Power Co. (Tepco)- inglés) por haber tardado demasiado tiempo en informarle de que se había producido la última explosión en un reactor de Fukushima 1. «¿Qué demonios está pasando?», les preguntó Kan, según Kyodo. «La televisión ha informado de una explosión, pero durante una hora no se ha dicho nada a la oficina del primer ministro», añadió. Kan ha ordenado, además, que Tepco no saque a sus empleados de la central. Hay 50 operarios trabajando en la central, los únicos que no han sido evacuados. Todo está en sus manos: tienen que refrigerar las piscinas de los reactores. En las centrales había 800 operarios trabajando, pero Tepco está desbordada y ha pedido que se retiren todos menos este medio centenar. Por otro lado, el gobernador de Fukushima, Yuhei Sato, ha llamado por teléfono a Kan para decirle que «el miedo y el enfado de los habitantes de la prefectura está llegando a un límite», informa EP.

El sistema de contención del reactor número 2 de la central nuclear de Fukushima «ya no es hermético», ha añadido

en París el presidente de la Autoridad de la Seguridad Nuclear de Francia (ASN, por sus siglas en francés), André-Claude Lacoste, según ha informado EFE. «Está absolutamente claro que estamos en el nivel 6 del INES (Escala Internacional Nuclear y de Sucesos Radiológicos, por sus siglas en inglés), aseguró Lacoste en relación con la situación de Fukushima. «No se sabe hasta qué punto el sistema de contención está dañado», pero aseguró que éste «ya no es hermético».

El Gobierno japonés admitió a primera hora que «puede haberse producido una fuga de materiales radiactivos», especialmente por causa del incendio, «que pueden afectar a la salud humana». Sin embargo, la Organización Mundial de la Salud ha querido enviar un mensaje tranquilizador: «Japón está tomando las medidas de salud públicas adecuadas para proteger a la población de la radiación», ha dicho Gregory Hartl, portavoz citado por la agencia Reuters. Además, añaden que dicho organismo no ha recibido ninguna petición de ayuda por parte de este país, aunque sus expertos en radiación están alerta.

A las tres de la mañana (hora española) el primer ministro japonés, Naoto Kan, ha comparecido para hacer un llamamiento a la población y anunciar nuevas evacuaciones, la de los residentes en torno a 10 kilómetros de la central Fukushima I ya está completada; los que viven entre 10 y 20 serán rescatados en breve; y los que residen entre 20 y 30 kilómetros de la central no deben salir a la calle. El portavoz del Ejecutivo que sucedió a Naoto Kan en la tribuna de oradores pasó del mensaje de calma de los días previos a inequívocas señales de alarma. «Cuanto más lejos estén de la central, más seguros estarán», advirtió Yukio Edano, que apareció ante las cámaras con muestras evidentes de sudor en la frente.

La radiación en los alrededores de la central ha llegado a sobrepasar diez mil veces los límites legales. La situación ha generado una gran preocupación en el país; los locutores de televisión repiten mensajes que parecen salidos de una película de serie B sobre una catástrofe nuclear: «Cierren las ventanas, no utilicen sistemas de ventilación y tiendan la ropa en casa». Unas 200.000 dosis de yodo (que ayudan a proteger la glándula tiroides de los efectos de la radiación) se han repartido ya entre la población. Mientras, la Embajada francesa en Japón ha recomendado a sus nacionales que vivan en Tokio que no salgan al exterior, porque el viento que sopla hacia la capital podría arrastrar hasta allí las partículas radiactivas. Hacia las cinco de la mañana (hora española) ya se habían detectado pequeñas cantidades de radiación en Tokio, alertó Kyodo.

Unos minutos después de la tercera explosión los niveles de radiación en los alrededores de Fukushima subieron hasta 8.217 microsieverts por hora, frente a los 1.941 que se registraban 40 minutos antes, según mediciones de la Agencia de Seguridad Nuclear japonesa. Estos 8.000 microsieverts por hora serían el triple de la cantidad de radiación a la que está sometida una persona en un año. En un clima de confusión, se pensó primero que era por culpa de la explosión del reactor 2, pero posteriormente se aclaró que era consecuencia de un incendio en el reactor 4 en el que estaban ardiendo sustancias radiactivas. La buena noticia, si las hay, es que el reactor 4 estaba inoperativo en el momento del terremoto y no contenía barras de combustible.

Yukio Edano ha reconocido que «hay una alta probabilidad» de que la vasija de contención del reactor 2 se haya agrietado, pero el Ejecutivo insiste en que el edificio de contención -el último muro ante una fuga, y de cuya resistencia depende que Fukushima no sea Chernóbil- no ha quedado dañado, descartando la posibilidad de una fuga de radiactividad de grandes dimensiones.

El Gobierno admite también que puede haber daños en la cámara de despresurización, el sistema circular de refrigeración dentro del edificio de la contención. Un portavoz de Tepco explicó en una confusa rueda de prensa retransmitida y doblada al inglés por Al Yazira: «Hay una posibilidad de que haya daño», pero inmediatamente añadió que eso no tenía por qué significar una fuga o que podía tratarse simplemente de una válvula que estuviera midiendo mal la presión.

Aún con la confusión reinante, la situación parece cualitativamente distinta -más grave- que la de los días previos. La eléctrica responsable de la planta, Tepco ha constatado es que el nivel del agua ha bajado sensiblemente dentro del reactor 2, lo que denotaría daños en la piscina de condensación destinada a enfriar el reactor y controlar las condiciones en el interior del recinto. Al menos 2,7 metros de las varillas de combustible (de los cuatro que miden) no están cubiertas por el agua, y Tepco no puede confirmar si el nivel del agua está subiendo aunque haya vuelto a inyectar agua de mar. Esto implica que la mitad del uranio está sin refrigeración, el paso previo a la fusión del núcleo de la central.

La central de Fukushima parece un boxeador sonado: encajaba y encajaba golpes mientras la grada -en este caso el planeta entero- contemplaba con angustia deseando que no cayera a la lona ni tirara la toalla. Si una explosión en una nuclear es una imagen insólita, Fukushima suma tres en tres días, por eso desde horas antes de la última deflagración la crisis ya había desbordado a Japón, y Tokio había pedido ayuda a la agencia nuclear de EE UU (NRC, en sus siglas en inglés) y a la Agencia Internacional de la Energía Atómica (OIEA), con la que debatía los detalles de cómo sería esa misión técnica.

Tras la explosión junto al reactor 1, ocurrida el pasado sábado, a las 11.01 de ayer (las 3.01 del lunes hora peninsular española) estalló el hidrógeno junto al reactor número 3 y se llevó de nuevo parte del edificio. Las autoridades insistieron en que en los dos casos había aguantado la contención.

Tepco insistió en que la explosión se debió a la salida de hidrógeno, un gas que, en contacto con el oxígeno del aire, produce una deflagración. Así que la explosión no fue nuclear pero sí reveló que las autoridades estaban dejando salir gases del interior de la planta -con la consiguiente radiactividad- para reducir la excesiva presión. Los trabajos se centraban en conseguir refrigerar esos dos reactores hasta que el problema saltó en el reactor número 2. Ese reactor puede acabar siendo el más problemático. Su explosión, ocurrida cuando Japón amanecía al martes, ha sido diferente.

Cada día que pasa el riesgo de que cedan los edificios de la contención de los dos primeros reactores afectados es menor, según coinciden todos los expertos. Aunque sea de forma precaria y a la desesperada con agua de mar, Japón estaba consiguiendo enfriar los núcleos de esos dos reactores. María Teresa Domínguez, presidenta del Foro Nuclear, el lobby de las seis nucleares españolas, afirmó que el problema en el primer reactor estaba casi solucionado. «Cuando paró la central, en el núcleo quedaba un 7% del calor residual del núcleo. Ya solo queda el 0,05%», afirmó en una concurrida rueda de prensa. El uso de agua de mar, que dejará inservibles los reactores, demuestra lo desesperado de la situación.

Domínguez defendió que Fukushima estaba resistiendo a la combinación terremoto-tsunami y defendió que esa era la prueba de la fiabilidad atómica. Ese es el argumento que usa insistentemente el lobby nuclear. Los detractores de esta energía, en cambo, ven en el accidente la prueba de que la seguridad total no existe y de que el excesivo riesgo no compensa su uso.

Related Articles