miércoles, 31 de marzo de 2010

Resuelto el enigma de DI Herculis, la estrella que desafiaba a Einstein


El movimiento de esta estrella binaria fue un misterio durante más de 30 años, e incluso se presentó como un posible fracaso de la Relatividad General de Einstein. Ahora un trabajo encabezado por el Instituto de Astrofísica de Andalucía (IAA-CSIC) ha resuleto el misterio.

DI Herculis, un sistema de dos estrellas que giran alrededor de un centro común, llevaba 30 años poniendo en jaque a Einstein. Según la Teoría de la Relatividad General, una órbita elíptica como la de DI Herculis debería rotar de forma progresiva en el mismo sentido en el que orbitan sus estrellas, fenómeno que se conoce como movimiento apsidal y que sí que se produce, aunque cuatro veces más despacio de lo que debería.

El año pasado se confirmó que la lentitud de giro se debe a que ambas estrellas giran casi tumbadas, pero la observación y la teoría seguían mostrando discrepancias de un 50%. Ahora, un grupo de astrónomos con participación del Instituto de Astrofísica de Andalucía (IAA-CSIC) ha publicado nuevas medidas del movimiento apsidal, con modelos estelares mejorados y parámetros estelares (masas, radios y temperaturas) más precisos, que reducen las incertidumbres a un 10%. Los resultados han sido publicados en la revista Astronomy & Astrophysics.

Antonio Claret, astrofísico del Instituto de Astrofísica de Andalucía (IAA-CSIC) y primer autor del artículo, lleva más de diez años estudiando esta peculiar estrella binaria: “Curiosamente, el movimiento apsidal de Mercurio fue una de las primeras aplicaciones de la Relatividad General, pero parecía fallar en este caso”.

De hecho, trabajos anteriores de Claret demostraron que en otros sistemas la Relatividad General se ajusta perfectamente, lo que acentuaba el problema de DI Herculis, y también ayudaron a descartar algunas hipótesis para explicar la lentitud del giro de su órbita, como la presencia de una nube interestelar en el sistema o una teoría alternativa de la gravitación.

Tirones gravitatorios que ralentizan el giro de la órbita

La hipótesis que mejor explica las anomalías de DI Herculis, propuesta en 1985 y sólo confirmada el pasado año, apunta a la inclinación de los ejes de rotación de las estrellas que forman el par. Como ambas estrellas giran sobre sí mismas casi tumbadas, algo poco habitual pero posible en un sistema tan joven, se producen tirones gravitatorios que ralentizan el giro de la órbita.

“Utilizando estos resultados – apunta Antonio Claret -, la discrepancia fue reducida pero todavía presentaba un significativo desacuerdo, quizá debido a errores en la medición del movimiento apsidal, a modelos estelares anticuados o parámetros estelares imprecisos”.

El grupo encabezado por Claret ha reexaminado todos estos ingredientes: nuevas medidas del tiempo que transcurre entre cada eclipse, o momento en el que una estrella oculta a otra y que equivale a una órbita, han mostrado que este es mayor de lo que pensaba (un poco más de 10,55 días).

También las temperaturas de ambas estrellas han resultado más elevadas y se han adoptado modelos actualizados que apuntan a una mayor concentración de masa en las regiones centrales de las estrellas, lo que implica una ralentización del movimiento apsidal. Así se ha obtenido un acuerdo entre observación y teoría con un error menor del 10%, perfectamente dentro de los errores observacionales y en pleno acuerdo con la Relatividad General.

Sin embargo, quedan aún incógnitas con respecto a DI Herculis: las dos estrellas que forman el par, ambas calientes y masivas, deben haberse formado a partir de una única nube de gas y polvo. Así, sus ejes de rotación deberían ser casi perpendiculares al plano en el que orbitan, lo que ocurre en la mayoría de sistemas binarios y sobre todo en aquellos con separaciones pequeñas como DI Herculis (las estrellas distan un quinto de la distancia de la Tierra al Sol). Queda, por tanto, resolver por qué las componentes de este sistema muestran una inclinación tan acentuada y poco común.

martes, 30 de marzo de 2010

Crean un pie artificial que recicla la energía de cada paso




Científicos de la Universidad de Michigan, en Estados Unidos, han desarrollado un pie artificial que recicla la energía que, de otra forma, se perdería en cada paso. Este pie podría facilitar a las personas amputadas la actividad de caminar con una prótesis.

Según publica dicha universidad en un comunicado, el prototipo creado, en comparación con las prótesis tradicionales, reduciría significativamente la energía que se emplea en cada paso.

Para los amputados, señala el ingeniero Art Kuo, uno de los desarrolladores del dispositivo, tratar de caminar con una prótesis corriente requiere de un esfuerzo similar al de arrastrar un peso extra de más de 13 kilos. De ahí la importancia de ahorrar energía en el movimiento.

Aprovechar la energía disipada

La forma de andar de los humanos supone un gasto energético natural, que se produce cuando los pies entran en contacto con el suelo.

En el caso de las prótesis tradicionales, este gasto energético aumenta en un 23%, porque los tobillos artificiales no reproducen el esfuerzo que hace un tobillo real para “empujar” el suelo al caminar.

Con el nuevo pie artificial, los ingenieros consiguieron que la energía perdida al andar fuese reciclada por el pie artificial, y aprovechada para aumentar la potencia del empuje de su tobillo.

Para comparar el ahorro energético del nuevo dispositivo, los investigadores realizaron diversos experimentos con personas no amputadas, a las que se colocó una bota rígida en un pie, a la que iba acoplada un simulador protésico.

El pie artificial demostró así su eficiencia en la captura de la energía disipada, lo que consigue gracias a un microcontrolador que le indica en qué momento preciso debe devolver la energía capturada al sistema.

Reducción del gasto energético

Las mediciones realizadas en las pruebas demostraron que los participantes empleaban un 14% más de energía caminando con el pie artificial de energía reciclada que caminando con sus propios pies.

Este porcentaje supuso una reducción significativa (del 9%) del gasto energético, con respecto al porcentaje empleado en el caso de las prótesis convencionales.

Los ingenieros explican que la diferencia entre el nuevo dispositivo y las prótesis corrientes radica en que éstas, aunque almacenan y devuelven energía, no dan la oportunidad de elegir cómo hacerlo y cuándo. Simplemente, devuelven la energía aleatoriamente.

Con este nuevo sistema, en cambio, la energía se libera de la manera adecuada para complementar el empuje de cada paso, y lo hace sin la ayuda de una fuente externa de energía.

Otros dispositivos protésicos usan motores o grandes baterías para proporcionar un complemento energético similar, pero el nuevo pie artificial, dado que aprovecha la potencia de cada paso para recuperar energía disipada, sólo necesita un vatio de energía, que le suministra una pequeña batería portátil.

Para qué sirve

El aprovechamiento de la energía en el caso de las prótesis de pie permitirá que individuos que han sufrido amputaciones por accidentes, conflictos bélicos o enfermedades como la diabetes, reduzcan el esfuerzo que supone caminar con un pie artificial, explican los científicos.

En sus pruebas, cuyos resultados han aparecido publicados en la revista PlosOne se ha demostrado que el sistema funciona y que, con mejoras futuras, podría llegar a aplicarse en otros tipos de prótesis.

Tal y como explican los científicos en PlosOne, el sistema de reciclado energético serviría igualmente para extremidades artificiales y dispositivos ortopédicos, que aprovecharían la producción de fuerza para reducir el coste energético de los movimientos.

Otra posible fuente de energía aprovechable por este sistema sería el trabajo que realiza la rodilla en sus movimientos, y que podría ser reciclado mecánicamente para potenciar la movilidad de una pierna ortopédica o almacenado por un generador para alimentar otros dispositivos.

El reciclado energía para miembros y extremidades artificiales podría aplicarse en un futuro, asimismo, a robots andantes.

lunes, 29 de marzo de 2010

El problema de la Bella Durmiente

Los filósofos y matemáticos a menudo evidencian una habilidad especial para complicar las cosas. Un buen ejemplo de esto es El problema de la Bella Durmiente, una vuelta de tuerca que convierte un cuento para niños en una pesadilla para adultos. Sigue leyendo, y averigua por qué las brujas no deberían tener monedas, los príncipes ya no besan como antes y -sobre todo- cómo un par de cerebritos pueden encontrar una paradoja dentro de un cuento para niños. Sin desperdicio.


Todos conocemos la clásica historia de la Bella Durmiente, que se hiere con una rueca embrujada y cae en un profundo sueño del que solo el beso de un príncipe la podrá sacar. Seguro que el argumento te resulta familiar, porque Disney ha hecho una fortuna con él. Pero un filosofo llamado Adam Elga, famoso por haber creado varios puzles difíciles de resolver, basándose en el trabajo de Arnold Zuboff (publicado como “One Self: The Logic of Experience”), le ha dado una vuelta de tuerca para convertirlo en un problema lógico de difícil solución. Supongamos que es domingo, y que la Bella Durmiente se pincha el dedo con la rueca. En ese instante, se hace presente la bruja y -antes que la muchacha se duerma- arroja una moneda al aire. Si sale cara, la Bella Durmiente se despertará de la maldición el lunes y ahí se acabará la historia, sin necesidad de príncipes salvadores y sin paradojas de ninguna clase. Pero si sale sello, también se despertará el lunes, aunque solo para volver a dormirse hasta el martes. Cuando despierte el martes estará libre de la maldición pero tendrá una pequeña secuela: gracias a las malas artes de la bruja, no se acordará si se despertó o no el lunes.


Puestas así las cosas, y con el Príncipe ausente del relato, nuestra Bella Durmiente se despierta sin saber si es lunes o martes. Dado que si despertó el lunes dicho evento fue borrado de su mente por la bruja, no tiene forma de saber en qué día se encuentra. Adam Elga asume que La Bella Durmiente es perfectamente racional y que el domingo, antes de quedar dormida, se ha enterado del plan elaborado por la bruja. Con estos datos, la niña puede asignar probabilidades al hecho de que sea lunes y al hecho de que sea martes. O, dicho de otro modo, puede asignar probabilidades al hecho de que la moneda cayera en cara o que cayera en sello. La cuestión a resolver es: ¿qué probabilidad subjetiva debería otorgarle ella a la hipótesis de que la moneda cayó en cara? Existen dos formas de encarar el problema.

La primera asume que como el domingo la Bella Durmiente sabía que la moneda no estaba trucada, tenía un 50% de probabilidades que cayera en cara. Dado que al ser despertada el lunes no recibe ningún dato adicional que pueda ayudarla a deducir su situación (ya que su memoria es borrada), la probabilidad es de un 50% de que sea lunes, y de un 50% de que sea martes. ¿Parece lógico, verdad? Pero antes de festejar, veamos la segunda forma en que se puede encarar este problema.


Supongamos que el experimento de la bruja se lleva a cabo un elevado número de veces. Al igual que antes, como la moneda no esta trucada, la mitad de las veces caerá cara y la otra mitad caerá en sello. Sabemos que la Bella Durmiente se despierta una vez tras salir “cara” y dos veces tras salir “sello”. Como ambas caras de la moneda tienen las mismas probabilidades de ocurrir, todos los despertares de la muchacha tienen también la misma probabilidad. Si la bruja hace 100 veces su truco, la Bella Durmiente despertaría 50 veces en lunes (luego de salir cara), 50 veces en lunes (tras salir sello) y 50 veces en martes tras sello. Si cada vez se le pregunta a la niña “¿Qué día es hoy?”, sabe que tiene el doble de probabilidades de ser despertada tras sello que tras cara. Las probabilidades que asignará a “sello” serán 66,66% y a “cara” sólo el 33,33%.

¿Confundido? No te preocupes, no eres el único. ¿Cuál es la respuesta correcta? Adam Elga sostiene que la segunda situación es la correcta, y que existe un 33,33% de posibilidades de que la Bella Durmiente despierte el martes tras haber salido cara. David Lewis, otro experto en temas de lógica, piensa que la primera respuesta es la correcta, y que al arrojar una moneda al aire no hay otra alternativa que asignar un 50% de probabilidades a cada posible resultado.

viernes, 26 de marzo de 2010

No sólo como combustible: Los hidrocarburos también superconducen

Átomos de potasio intercalados en cristales del compuesto orgánico piceno logran superconductividad a temperaturas relativamente altas.

La superconductividad es una de esas propiedades casi mágicas que parecen desafiar toda intuición sobre cómo debería funcionar el mundo físico. En un superconductor, las corrientes eléctricas fluyen sin resistencia — un electrón pasa sin impedimento a través del material como un torpedo a través de un océano sin fricción. Tras descubrir el fenómeno en 1911, el físico holandés Heike Kamerlingh Onnes demostró que una corriente eléctrica encerrada en un bucle superconductor de mercurio se mantendría fluyendo mucho después de que se eliminase el potencial; demostró su descubrimiento llevando tal corriente persistente de los Países Bajos a Inglaterra.

Desde entonces, los físicos han descubierto superconductores basados en otros metales, e incluso en cerámica. La última entrada es una que tiene su raíz en los hidrocarburos, el cual superconduce a una temperatura relativamente alta comparado con los metales elementales.

Los hallazgos proceden de un equipo de investigadores japoneses, que informan en el ejemplar del 4 de marzo de la revista Nature de que la molécula de hidrocarburo piceno, normalmente un semiconductor, se transforma en superconductor potencial cuando se le intercala un metal alcalí como el potasio o el rubidio. Y cuando el piceno (C22H14) es dopado con potasio, superconduce a la relativamente alta temperatura de 18 kelvins (–255 grados C). Aunque la temperatura de transición está muy por debajo de la de los superconductores basados en óxidos de cobre similares a los cerámicos, donde la electricidad puede fluir sin resistencia a unos 160 kelvins, o –113 grados C, el descubrimiento podría llevar al desarrollo de nuevos superconductores de alta temperatura basados en la química orgánica.

Yoshihiro Kubozono, profesor de química y física del estado sólido en la Universidad de Okayama en Japón y un coautor del estudio, dicen que el piceno es el primer ejemplo de un hidrocarburo superconductor. (Los investigadores habían tenido un éxito similar logrando que compuestos estrictamente de carbono superconducieran, por ejemplo, dopando el fullereno C60 con potasio). Los hidrocarburos son mejor conocidos por su combustibilidad que por sus propiedades eléctricas: La gasolina es un derivado del hidrocarburo, incluyendo el conocido octano (C8H18); el gas natural que calienta la mitad de los hogares de los Estados Unidos es mayormente metano (CH4).

El piceno aparece en la naturaleza en el alquitrán y se encuentra en residuos del refinado de petroleo, pero Kubozono y sus colegas sintetizaron el compuesto para el nuevo estudio. La molécula del piceno es plana, y forma cristales comprimiendo capas apiladas. Cocinando el compuesto durante días con un metal alcalí como el potasio, introdujeron átomos metálicos entre las capas de hidrocarburos, lo cual mejora su conductividad en los planos paralelos a los bloques de piceno.

Kubozono dice que él y sus colegas están ahora dopando el piceno con otros metales – en el nuevo estudio, el grupo informa de sus intentos con sodio y cesio, junto al potasio y rubidio — para aumentar más la temperatura de superconducción del material. También están experimentando con otros hidrocarburos paara ver cuáles pueden superconducir, dice Kubozono.

Brian Maple, físico de la Universidad de California en San Diego, dice que la investigación es un paso interesante para expandir el dominio de la superconductividad, particularmente en el régimen de alta temperatura. “Esto es sólo otro ejemplo de cómo de predominante es la superconductividad entre un amplio rango de materiales si puedes convertirlos en metales”, dice. “Globalmente, creo que esto demuestra que se debería ser optimista sobre la posibilidad de encontrar superconductores con temperaturas de transición más altas, mirando en direcciones que hasta ese momento nadie había pensado que fuese muy prometedora”.

jueves, 25 de marzo de 2010

Se desprende una parte del glaciar Mertz de la Antartida del tamaño de Luxemburgo


A principios de febrero, B-9B, un enorme iceberg de casi cien km de longitud chocó violentamente con la lengua helada del glaciar Mertz, en la zona oriental de la Antártida, provocando su ruptura. El acontecimiento fue recogido por las cámaras del satélite meteorológico Envisat, de la Agencia Espacial Europea. La propia ESA ha publicado esta espectacular secuencia de imágenes, que abarcan desde el 10 de febrero al 4 de marzo, en la que se aprecian con claridad las rápidas consecuencias del titánico choque.

miércoles, 24 de marzo de 2010

Por primera vez, exponen el manuscrito completo de la teoría de la relatividad

Tiene 94 años y nunca había visto la luz. Así entero, como se los puede ver hoy en la Academia de Ciencias de Israel. El manuscrito original de la teoría de la relatividad, redactado en 1916 por el físico Albert Einstein, está siendo expuesto en Jerusalén.

El manuscrito, que tiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, fue ofrecido por Einstein a la Universidad hebraica de Jerusalén en 1925, con motivo de su inauguración en Palestina, entonces bajo mandato británico.

El premio Nobel de 1921, que participó en esa ceremonia, legó en su momento todos sus escritos a esa universidad.

"Este documento es la obra intelectual más importante de Albert Einstein y describe nuestra comprensión del espacio, el tiempo y la gravedad", declaró el responsable de la exposición, Hanoch Gutfreund.

"Es fundamental para nuestra comprensión del universo, la investigación moderna en cosmología", agregó. "Es como si leyéramos por detrás de los hombros de Einstein cuando trabajaba, con su escritura elegante, las correcciones y las ecuaciones, los tachones y los agregados", añadió.

"Los comentarios agregados a muchas páginas muestran las ideas fundamentales de Einstein, los desafíos a los que se enfrentaba, las dificultades que encontró", explicó.

Para preservar esos documentos inestimables y prevenir la degradación del papel y la tinta, cada página es presentada por separado dentro de una vitrina cuya temperatura y la higrometría son cuidadosamente controladas, dijo por su parte Timna Elper, directora del laboratorio para la conservación y la restauración de los documentos en la Biblioteca Nacional de Israel. "Es la primera vez que exponemos todas las páginas", dijo.

El manuscrito, que se podrá ver hasta el 25 de marzo, se expone en el marco del jubileo de la Academia israelí de ciencias.

Forzado a dejar a Alemania a causa del nazismo, el gran sabio de origen judío simpatizó con el movimiento sionista, en especial antes de la creación del Estado hebreo en 1948, al mismo tiempo que expresaba reservas motivadas por su ideal pacifista.

En 1952, rechazó una oferta de convertirse en presidente de Israel, hecha por el Primer ministro de la época David Ben Gourion.

La relatividad general describe la influencia sobre el movimiento de los astros de la presencia de la materia y, de manera más general, de la energía, teniendo en cuenta los principios de la relatividad restringida que había teorizado diez años antes.

La relatividad general parte del principio de que la gravitación no es una fuerza -como pensaba Newton- sino la manifestación de la curvatura del espacio-tiempo, producida por la distribución de la materia.

martes, 23 de marzo de 2010

Descubierto método para bajar la grasa en la sangre

Investigadores canadienses de la Universidad de Alberta individualizaron un nuevo método para reducir los niveles de grasa en sangre. Condición que expone a toda una serie de riesgos como enfermedades cardiovasculares, diabetes, y hasta enfermedades propias del hígado graso.

Como se sabe, la epidemia de obesidad está involucrando a todo el mundo occidental y no perdona a nadie, ni siquiera a los niños. Los costos sociales de esta situación son cada vez más altos. Asistimos a una reducción de la calidad de vida. Muchas más personas están afectadas de patologías más o menos graves con un incremento de los costos sanitarios y, no menos importante, el aumento de muertes prematuras.

En este estudio, investigadores coordinados por el Dr. Richard Lehner, descubrieron que disminuyendo la actividad de una enzima llamada hidrolasa triglicéridos (TGH), tomando como base experimentos con animales, se obtienen resultados significativos para reducir la cantidad de grasa en sangre y mejorar el metabolismo de la glucosa. Entre otras cosas se descubrió que la grasa tiende a depositarse en órganos que no tienen la función de almacenarla, como el hígado.

El estudio de Lehner será publicado en la edición de marzo de la revista especializada Cell Metabolism.

Durante las pruebas también se descubrió que la disminución o ausencia de TGH protege a las células beta del páncreas normalmente abocadas a la producción de insulina. Este hecho es potencialmente positivo en la protección del posible desarrollo de diabetes en pacientes obesos. Además, la escasez o la falta de la enzima en individuos analizados mostró cómo eran propensos a quemar grasas y cómo eran físicamente más activos que aquellos con la enzima presente y activa.

Según el Dr. Lehner y sus colegas, este descubrimiento es muy importante y podrá llevar al desarrollo de nuevos fármacos para combatir todas las complicaciones vinculadas a la obesidad como la ya citada diabetes, las enfermedades cardiovasculares y el síndrome metabólico, una asociación de factores de riesgo.

lunes, 22 de marzo de 2010

La importancia de beber agua


Gracias al agua nuestro organismo realiza funciones vitales como regular la temperatura corporal o transportar alimentos y gases

La vida es agua, sin agua no hay vida. El hecho de que el agua constituya alrededor del 60_ del peso corporal en los hombres y cerca del 50_ en las mujeres prueba ampliamente su importancia para la vida humana. Dado que el tejido graso o adiposo contiene escasa cantidad de agua, el porcentaje total de agua en el individuo obeso es inferior al que presenta el no obeso. La relación entre el peso corporal total del agua y el peso corporal libre de grasas, que se denomina peso magro, es bastante constante: en un adulto el peso total del agua representa alrededor del 72_ de la masa magra corporal. Este espacio acuoso se distribuye en tres compartimentos: el agua de dentro de las células o espacio intracelular, el líquido intersticial (situado entre las células) y el líquido intravascular, que circula por dentro de los vasos sanguíneos. Como curiosidad hay que señalar que el líquido extracelular tiene una composición iónica similar a la del agua del mar, aunque más diluida. Estos tres compartimentos acuosos están en continuo intercambio para mantener un equilibrio correcto dentro del organismo.

Dependencia total hacia el agua


El agua es un alimento verdaderamente extraordinario y esencial para la vida: los alimentos y los gases se transportan en medio acuoso, los productos de desecho se expulsan del cuerpo mediante la orina y las heces, el agua regula nuestra temperatura, lubrica nuestras articulaciones y contribuye de forma decisiva a dar estructura y forma al cuerpo mediante la rigidez que proporciona a los tejidos, debido a que este preciado líquido no es comprimible. Además, una correcta hidratación contribuye a mantener la piel tersa y joven, ya que la deshidratación aguda o crónica provoca que la piel se arrugue y resquebraje con facilidad.

Aunque la pérdida de agua puede exceder a menudo al consumo, su contenido en el cuerpo permanece relativamente estable a lo largo del tiempo y, en caso de desequilibrio, una nueva ingesta de líquido permite ajustar en poco tiempo el nivel de agua que nuestro cuerpo precisa.

Un adulto sedentario, en un ambiente sin exceso de calor y humedad, requiere unos dos litros y medio de agua al día, que obtiene de tres fuentes: del líquido que ingiere (alrededor de 1200 ml), de los alimentos que consume (aproximadamente 1000 ml), y del que produce dentro del organismo como consecuencia del metabolismo, que equivale a cerca de 350 mililitros. Las frutas y vegetales son los alimentos que más agua contienen.

Por dónde se elimina el agua


El agua del cuerpo se pierde a través de la orina, la piel, la respiración y la defecación. Por la orina excretamos algo más de un litro diario, y este camino deviene fundamental para eliminar determinados productos resultantes del metabolismo, especialmente de la urea, producto final de la degradación de las proteínas. Cuantas más proteínas incluya una dieta, más agua se requerirá para expulsar los desechos que se generan.

Otra pequeña cantidad de agua se pierde por la piel, en forma de sudor producido por las glándulas sudoríparas. A menudo esta sudoración es invisible, pero en condiciones normales se secretan entre 0,5 litros y 0,7 litros, cantidad que se multiplica cuando la temperatura exterior aumenta. La sudoración es el sistema de refrigeración más importante que tiene el organismo. Por último, la pérdida de agua a través de la respiración y de las heces asciende aproximadamente a 0,4 litros.

Beber sin esperar a la sed


Con el sol y el calor sudamos más y, consecuentemente, la pérdida de líquidos se incrementa. Si a esto se le añade que cuanto más liquido se pierde, más disminuye la capacidad del organismo para regular la temperatura, se entiende lo fundamental que resulta reponer ese agua. Pero no debemos esperar a sentir sed para tomar agua: la boca seca ya es síntoma de deshidratación, y el instinto de beber se pierde con la deshidratación progresiva. Por ello, no hay que confiar en la sed y conviene beber regularmente de 8 a 10 vasos a lo largo del día. Y cuanto más humedad, mayor cantidad de agua ingeriremos. Calor, humedad y ejercicio físico son las condiciones idóneas para que aparezca un cuadro de deshidratación. Una pérdida del 2_ del agua corporal supone la pérdida del 20_ de la energía física, el agotamiento se acelera con la pérdida de líquido y cuando se pierde el 20_ del agua del organismo se eleva el riesgo de sufrir complicaciones graves.

Pero aparte del sol, el calor y el ejercicio, otras circunstancias requieren el aporte extraordinario de líquidos: la fiebre, y, especialmente, la diarrea y los vómitos, cuya incidencia aumenta en verano a causa de las gastroentiritis, más frecuentes en esta época del año.

Síntomas de la deshidratación


Sed, sequedad de las mucosas y de la piel, sensación de ardor y acidez gástrica, somnolencia, fatigabilidad extrema, y si es más grave, ojos hundidos, pulso acelerado, descenso de la tensión arterial, fiebre, retención de líquidos (por lo que algunos órganos, como los riñones, comienzan a fallar, pudiéndose llegar al colapso y la muerte) son algunos de los síntomas de la deshidratación.

No sólo para clamar la sed...


* Beba de 1,5 a 2 litros diarios de agua, y si es verano y practica ejercicio, ingiera un aporte extra de líquido sin esperar a que la sed le avise.
* Las dietas ricas en grasas y proteínas requieren más líquido para eliminar sus restos metabólicos, ya que estos alimentos contienen menos agua que otros productos.
* El calor, la humedad y el ejercicio físico aumentan notablemente los requerimientos de agua de nuestro organismo.
* Quienes padecen cálculos de riñón, arenillas o infecciones urinarias deben beber más líquido.
* Café, alcohol, te y otras bebidas similares son diuréticos e incrementan la eliminación de líquido por la orina. Cuidado con ellos.
* Infecciones, fiebre, vómitos y diarrea ocasionan una rápida pérdida de líquidos, a la que los ancianos y niños son más sensibles, que hay que reponer de inmediato. Un preparado de farmacia o un suero casero (agua con una pizca de bicarbonato y unas gotas de limón y azúcar) ayudarán a restituir de inmediato el liquido necesario.
* El envejecimiento va asociado a la desecación, a la pérdida de agua, que afecta a todos los tejidos del organismo, pero especialmente a la piel. Una óptima hidratación desde la infancia ayuda a mantener una piel joven.

Creencias erróneas

Muchas personas se preocupan porque piensan que retienen líquidos y no quieren beber agua. Pero una persona sana no retiene líquidos, el organismo se las arregla perfectamente para mantener el equilibrio y si hay exceso de líquido aumenta la eliminación por orina. Es lo contrario, el "defecto de líquido", lo que debe preocuparnos, ya que es más que probable que como consecuencia padezcamos estreñimiento y más problemas articulares y tendinosos, la piel parezca más arrugada y la orina la expulsemos más concentrada y densa, lo que favorece la formación de cálculos, arenillas y hasta infecciones urinarias. Sólo en caso de enfermedades renales, hepáticas, cardiacas o varices muy desarrolladas se puede, por indicación médica, disminuir la ingesta de líquidos.

Otro error frecuente es acudir a la sauna para bajar de peso. En la sauna perdemos única y exclusivamente líquido que hay que reponer de inmediato. Además, mediante ese líquido se pierden también electrolitos y sales que debemos reponer. Lo mejor para ello es el zumo de frutas, especialmente el de naranja.

No hay que tomar diuréticos para perder peso. Los diuréticos no se pueden ingerir sin la expresa indicación del médico, ya que provocan efectos secundarios que hay que controlar.

El agua no engorda: su exceso se elimina. Pero, además, ¿ha pensado que la ingerimos a 14 grados y la eliminamos a 37 grados y que esto supone que hemos utilizado mucha energía para calentarla? Cabe pensar, pues, que el agua no sólo no engorda, sino que adelgaza.

miércoles, 17 de marzo de 2010

Curiosidades sobre el cero absoluto

Las curiosas cosas que suceden a temperaturas ultrabajas sorprenden a los científicos. La semana pasada, científicos informaron que las moléculas de un gas ultrafrío pueden reaccionar químicamente a distancias más de 100 veces mayores de lo que lo hacen a temperaturas ordinarias.

A temperaturas normales se observa que al disminuir la temperatura las reacciones tienden a decrecer. Sin embargo, los científicos descubrieron que las moléculas situadas a unas pocas billonésimas de grado por encima del cero absoluto (-273º C o O Kelvin) todavía pueden intercambiar átomos y forjar nuevos enlaces químicos en el proceso, gracias a los extraños efectos cuánticos que se producen a temperaturas tan bajas.

Es perfectamente razonable esperar que "cuando cuando existen temperaturas ultrafrías no habría ningún proceso químico del que hablar", señala Deborah Jin de la Universidad de Colorado en Boulder, cuyo equipo informó de este descubrimiento en Science. "Este artículo dice que suceden muchos procesos químicos."

Embarquémonos ahora en una apasionante expedición hacia el maravilloso umbral del ultrafrío.

¿Por qué llegar al está cero absoluto (-273º C o O Kelvin) es una meta imposible?

En la práctica, la energía necesaria para eliminar el calor de un gas se hace mayor cuanto menor es la temperatura, y sería necesaria una energía infinita para enfriar algo al cero absoluto. En términos cuánticos, podemos culpar al principio de incertidumbre de Heisenberg, que nos dice que sólo se puede conocer con precisión la velocidad de la partícula o su posición, pero no ambas a la vez. Los átomos de tu experimento, tiendrán algo de incertidumbre en su momento al mantenerlos por encima del cero absoluto, a menos que tu experimento fuera del tamaño del universo entero.

¿Cuál es el lugar más frío del sistema solar?

La temperatura más baja medida la obtuvo la sonda Lunar Reconaissance Orbiter (LRO) de la NASA el pasado año. LRO midió temperaturas de -240º C cerca del polo sur lunar. Unos 10 grados más frío que las temperaturas de Plutón. Sin embargo, en los confines del sistema solar exterior en la nube de Oort las temperaturas podría caer aún más, hasta tal vez a 10 Kelvin.

¿Cuál es el objeto natural más frío en el universo?

El lugar más frío conocido en el universo es la Nebulosa Boomerang, a 5000 años-luz de distancia. Los científicos informaron que los gases que se expandían de la estrella central agonizante lo hacían tan rápidamente que alcanzaban tan sólo 1 kelvin, tan sólo 1º C por encima del cero absoluto. Normalmente, las nubes de gas en el espacio se calientan a temperaturas de 2,7 kelvin debido a la temperatura residual del fondo cósmico de microondas, esta radiación fósil remanente del Big Bang constituye un congelador cósmico, que permite que los gases mantengan esta tremenda frialdad.

¿Cuál es el objeto más frío en el espacio?

Si contamos a los satélites artificiales, podemos esperar cosas aún más frías. Algunos instrumentos del satélite Planck de la Agencia Espacial Europea, lanzado en mayo de 2009, están a tan sólo 0,1 kelvin, para suprimir el ruido de microondas que de otra forma nublaría la visión del satélite. El ambiente espacial, combinado con sistemas de refrigeración criogénica que utilizan hidrógeno y helio a temperaturas ultrabajas, mantienen a los instrumentos a temperaturas de 0.1 Kelvin en cuatro pasos secuenciales.

¿Cuál es la mínima temperatura conseguida hasta ahora?

Las temperatura más baja fue registrada en un laboratorio en la Tierra. En septiembre de 2003 los científicos del Massachusetts Institute of Technology (MIT) anunciaron que habían enfriado una nube de átomos de sodio a una temperatura récord de 0,45 nanokelvins. Anteriormente en el Universidad de Tecnología de Finlandia se consiguió una temperatura de 0,1 nanokelvin en un trozo de rodio en 1999. Sin embargo, esta fue una temperatura para un tipo particular de movimiento (una propiedad cuántica llamada spin nuclear) no la temperatura mínima para todos los movimientos posibles.

¿Qué extraño comportamiento muestran los gases cerca del cero absoluto?

En los sólidos, líquidos y gases ordinarios, el calor o energía térmica es el resultado del movimiento de los átomos y moléculas que chocan unas contra otras. A temperaturas muy bajas, las extrañas leyes que rigen el mundo cuántico son las que mandan. Las moléculas no pueden colisionar en sentido convencional; en lugar de eso sus ondas mecánicas cuánticas se estiran y se solapan. Cuando se solapan forman lo que se llama un condensado Bose-Einstein, en el cual todos sus átomos actúan de forma idéntica como un único superátomo. La primera imagen de un condensado Bose-Einstein se creó en Colorado en 1995 usando una nube de átomos de rubidio enfriados a menos de 170 nanokelvins.

¿Por que hay una posición específica en los microondas para descongelar?

Cualquier cosa que tenga agua se calienta muy bien en el microondas porque el agua absorbe las microondas. Lo que realmente hace estas ondas electromagnéticas con el agua es hacerla girar de un lado a otro a gran velocidad. Esto se produce porque el campo eléctrico que oscila a un ritmo de 2450 millones de veces por segundo agita todas las moléculas de agua al unísono, vibrando unas con otras y, en definitiva, calentando el objeto.

En el microondas cocinamos un alimento en menos tiempo que en el horno convencional porque se cocina todo el alimento al mismo tiempo, mientras que en el convencional el calor tiene que fluir de la superficie al interior.

¿Pero qué ocurre si metemos un alimento congelado? Aunque el hielo esté formado por moléculas de agua, dichas moléculas no están libres y las que forman parte del hielo no pueden ser movidas por las microondas. En cuanto unas pocas moléculas de agua se calienten, fundirían a sus vecinas, que ahora también responderán a las microondas y se calentarán. Por eso puede haber partes de comida que esté cocinada y otras congeladas.

Para solucionar esto lo que tenemos que haces es calentar los alimentos congelados a intervalos cortos, dejando que descansen unos segundos y se vayan descongelando antes de que se formen puntos calientes. En la posición de descongelar el magnetrón (aparato que se utiliza para crear microondas) se enciende y apaga continuamente haciendo que la comida se descongele homogéneamente. Si lo ponemos a mayor potencia debemos de mover la comida de vez en cuando para que se mezclen las partes congeladas con las calientes.

Por cierto, si te estás preguntando por qué gira el plato, es por lo siguiente: las ondas, al estar en un recinto cerrado, rebotan en las paredes y se afectan una a otras. Unas ondas pueden ser canceladas por otras mientras que otras pueden salir reforzadas. Así que algunas partes del alimento pueden recibir ondas más potentes. El plato gira para que el alimento pueda recibir más o menos las misma cantidad de radiación.

martes, 16 de marzo de 2010

La NASA podría llevar un robot a la Luna

El Johnson Space Center de la NASA acaba de afirmar que, en tan sólo 1000 días, podrían poner un robot humanoide en la Luna. El cacharro se controlaría desde la Tierra por control remoto, y sus cámaras y sensores le permitirán a los científicos instalados cómodamente en casa “ver” y “sentir” lo mismo que experimenta el robot. Al no necesitar de caros y complejos sistemas de mantenimiento vital, la misión seria relativamente barata. Pero ¿Que beneficios aportaría a la investigación Lunar disponer de un robot humanoide en nuestro satélite?

La administración del presidente Obama ha efectuado duros recortes al ya malogrado presupuesto de la NASA. Como ocurre en otros ámbitos, la falta de fondos obliga a utilizar el ingenio, y los científicos del Johnson Space Center (JSC) han encontrado la forma de seguir investigando nuestro satélite sin necesidad de desembolsar astronómicas cantidades de los tan preciados dólares en el camino. La idea, tal como acaban de afirmar en el JSC, consiste en construir un robot humanoide que recorra la superficie Lunar mientras recoge datos. El artefacto seria controlado mediante un sistema de telepresencia por diferentes científicos que se quedarían en Tierra. De alguna manera, seria como si cada uno de ellos viajase a la Luna en busca de la información que necesita. La NASA ha llamado a esta iniciativa “Proyecto M” (Project M).



En realidad, la idea no deja de ser interesante. Al no incluir un humano como parte del grupo de trastos a trasportar y mantener en la Luna, se eliminan un montón de factores que son siempre grandes devoradores de dinero: alimentos tratados especialmente, provisión de oxigeno y sistemas de reciclado de la atmósfera de la nave, tratamiento de los desechos de los astronautas y reciclado del agua, protección contra radiaciones, etcétera. Un robot no necesita de nada de esto. Por otro lado, si algo se sale de madre y la misión fracasa estrepitosamente, no hay cadáveres que lamentar. De hecho, no son pocos los que sostienen que las misiones tripuladas de la época del Apolo XI no tenían sentido más allá del impacto político. Cuarenta años más tarde la NASA estaría contemplando finalmente prescindir de los astronautas a la hora de recorrer la Luna, y estaría en condiciones de poner allí el primer robot dentro de poco menos de 3 años.

Hace años, Carl Sagan repetía una y otra vez que era una locura gastar dinero en transportar humanos por el espacio (y exponerlos a la muerte), cuando una sonda robótica nos podría proporcionar más datos con un coste menor. El Proyecto M apunta exactamente a eso. No parece tener mucho sentido hacer que el robot tenga aspecto humanoide. En realidad, es bastante más practico montar algo sobre ruedas, similar a los robustos rovers que hemos enviado a Marte. Un robot que se desplaza sobre dos piernas es difícil de mantener en equilibrio, puede tropezar con alguna roca, y tiene más articulaciones de las que son estrictamente necesarias, cada una de ellas puede ser fuente de problemas en un ambiente polvoriento como el de la Luna. Un “carrito robot” seguramente se desempeñaría mejor. Pero esos son detalles. Lo interesante del comunicado es la intención de utilizar un robot, y que el plazo para la ejecución de la misión seria de sólo 1000 días. Aunque los románticos seguramente estarán de parte de Neil Amstrong (“Si no llega un hombre allí, es como si nunca hubiéramos estado”), lo cierto es que el dinero manda y posiblemente nuestro satélite sea recorrido por un frío robot.

lunes, 15 de marzo de 2010

Estudio identifica unas moléculas capaces de controlar la progresión del SIDA

Investigadores españoles han comprobado que las moléculas alfa-defensinas 1-3, que segrega de forma natural el organismo, son capaces de controlar la progresión de la infección del virus del SIDA sin necesidad de que el paciente se someta a una terapia retroviral.

El estudio, publicado hoy en la revista estadounidense PLoS ONE, es el resultado del trabajo realizado durante tres años por científicos del Hospital Clínico de Barcelona bajo la dirección de la doctora Marta Rodríguez García, especialista en ese campo.

Josep Maria Gatell, jefe del servicio de Enfermedades Infecciosas del centro hospitalario, explicó que un cinco por ciento de las personas infectadas por el Virus de Inmunodeficiencia Humana (VIH) son capaces de controlar la enfermedad por sí mismas, es decir, mediante las defensas que crea su propio cuerpo.

El estudio ha demostrado que la enfermedad no avanza en estos pacientes porque sus células dendríticas son capaces de producir niveles de moléculas alfa-defensinas superiores a lo normal.

Este descubrimiento abre una nueva vía en la investigación de alternativas terapéuticas para controlar el SIDA, ya que "si conseguimos estimular la segregación de estas moléculas, podremos conseguir que el paciente mantenga bajo control la enfermedad", según Gatell.

En ese sentido, el jefe del servicio de Enfermedades Infecciosas aclaró que, de momento, "no sabemos cómo estimular esta segregación", y "hay que seguir investigando".

No obstante, "este factor es potencialmente modificable" porque "procede del número de copias del cromosoma ocho", según añadió la inmunóloga Teresa Gallart.

Para realizar el estudio, los investigadores han analizado las células dendríticas de personas sanas, pacientes infectados por el SIDA que consiguen controlar por sí mismos la enfermedad y pacientes que necesitan terapia antiretroviral para evitar la extensión de la infección.

El resultado ha sido que los pacientes que consiguen controlar por sí mismos la enfermedad tienen una capacidad de segregar moléculas alfa-defensinas diez veces superior al resto de los personas.

En España hay 250 personas infectadas por el VIH que consiguen controlar la enfermedad por sí mismas, según los datos de los centros integrados en la red de investigación del SIDA.

Estos pacientes son denominados "controladores de elite" y, según Gatell, "el reto es conseguir que el resto de pacientes también se conviertan en controladores de elite".

domingo, 14 de marzo de 2010

Desvelan los mecanismos cerebrales implicados que evitan la deshidratación durante la noche

Investigadores del Instituto de Investigación del Centro de Salud de la Universidad McGill en Quebec (Canadá) desvelan esta semana en la edición digital de la revista 'Nature' los cambios que desarrolla el organismo humano para evitar la deshidratación durante el sueño nocturno.

La cantidad de agua que retiene el organismo está controlada por la vasopresina, una hormona liberada por las células neurosecretoras de un área del cerebro llamada hipotálamo. Estas células están activadas por las células osmosensoriales, que siguen la concentración de agua en la sangre.

El hipotálamo también contiene células que forman el núcleo supraquiasmático, que se cree contiene un reloj corporal central.

Diariamente, los cambios rítmicos en la actividad de las células en este núcleo influyen en todos los ritmos diarios del organismos, desde el momento en el que se siente hambre hasta cuando se siente somnolencia.

Los científicos, dirigidos por EricTrudel y Charles Bourque, estudiaron la conexión entre estos tres grupos de células.

Descubrieron que por la noche, se vuelve más fuerte la conexión entre las células osmosensoriales sensibles al agua y las células neurosecretoras que liberan vasopresina. En este momento de la noche también se reduce la actividad en el núcleo supraquiasmático.

Los investigadores aumentaron de forma artificial la activación de las células del núcleo supraquiasmático y descubrieron que la conexión entre las células osmosensoriales y neurosecretoras se debilitaba.

Estos resultados sugieren que esa activación del núcleo supraquiasmático debilita la conexión entre las células osmosensoriales y neurosecretoras, actuando como un 'freno'.

Durante el día, el organismo puede remediar las bajas concentraciones de agua bebiendo un poco. Sin embargo, cuando se duerme durante la noche, la actividad en el núcleo supraquiasmático se reduce, liberando el 'freno', y permitiendo más retención de agua.

sábado, 13 de marzo de 2010

Un investigador español recibe el premio Léon Dumont 2010

El equipo del Dr. Vicente Andrés García, que desarrolla actualmente su actividad en el Centro Nacional de Investigaciones Cardiovasculares (CNIC) después de más de 10 años de trabajo en el Instituto de Biomedicina de Valencia.

Llevan 15 años combinando los estudios in vitro, celulares, animales y humanos, para identificar los mecanismos moleculares y genéticos implicados en el envejecimiento, con especial énfasis en la regulación del ciclo celular y transcripción génica. En el proyecto premiado quieren continuar su trabajo dentro de esta línea.

El premiado dice que “este reconocimiento anima a mi equipo a continuar con un empuje aún mayor. Esperamos que nuestras investigaciones mejoren el conocimiento de los mecanismos moleculares y genéticos que contribuyen al envejecimiento”

El proyecto tiene perspectivas de proporcionar las bases para el desarrollo racional de nuevas terapias y herramientas diagnósticas en el contexto de enfermedades con un elevado impacto sanitario y socio-económico.

Los resultados que genere la investigación pueden promover a partir de ahora, colaboraciones del CNIC en el ámbito nacional e internacional, tanto con otros investigadores de organismos públicos de investigación como con compañías farmacéuticas y biotecnológicas interesadas en su proyecto.

viernes, 12 de marzo de 2010

Avance en electricidad inalámbrica

Un equipo de físicos del MIT ha desarrollado un sistema inalámbrico que puede transferir energía eléctrica a múltiples dispositivos electrónicos de forma simultánea. El sistema, altamente eficiente, se basa en un acoplamiento mediante resonancia electromagnética, y podría implementarse empotrando una bobina en las paredes o el techo de cada habitación. Lograron demostrar que resulta más eficiente alimentar simultáneamente a varios dispositivos que a uno solo, siempre y cuando el sistema esté correctamente sintonizado ¿Cuánto falta para tener algo así en casa?


En alguna ocasión hemos hablado del principio que permite transmitir energía a nuestros electrodomésticos sin necesidad de utilizar cables. Este gran avance, que nos permitiría colocar nuestros cacharros en cualquier sitio sin necesidad de tener un tomacorriente cerca, ya fue estudiado hace casi un siglo por el gran Nikola Tesla, pero recién en los últimos años se está intentando conseguir un dispositivo práctico que lo aproveche. Dejando de lado algún televisor que usa este sistema, lo cierto es que todavía la tecnología de acoplamiento mediante resonancia electromagnética está en pañales. Los físicos André Kurs, Robert Moffatt, y Marin Soljacic, del MIT, acaban de publicar un estudio en Applied Physics Letters explicando un nuevo enfoque al problema de la transferencia inalámbrica de energía que podría sentar las bases para desarrollar un sistema comercialmente viable.


Tal como explican los científicos del MIT, el nuevo sistema inalámbrico podría llenar la brecha que existe entre los sistemas inductivos de corto alcance y los largo alcance basados en radiación, que son muy sensibles a las obstrucciones, requieren de complejos sistemas en el emisor receptor, y plantean preocupantes riesgos de seguridad. A primera vista, el sistema del MIT se asemeja al de inducción magnética tradicional, similar al que se usa en los transformadores eléctricos que utilizan bobinas para acoplar energía en distancias muy cortas (dentro del mismo transformador, en realidad). Una corriente eléctrica que recorre una bobina genera un campo magnético que induce otra corriente en la segunda bobina. Ambas están muy cerca, aunque no se tocan. Sin embargo, este comportamiento cambia dramáticamente cuando la distancia entre las bobinas se incrementa, y como dicen los expertos del MIT, “aquí es donde actúa la magia del acoplamiento resonante: es aproximadamente un millón de veces mas eficiente que la inducción no resonante.” André Kurs explica que el principal objetivo de su trabajo “fue demostrar que la transferencia de energía entre una fuente - que puede estar incrustada en una pared- y los receptores -que podrían estar incorporados en dispositivos reales- es posible a las distancias típicas que existen dentro de una habitación, y con la suficiente eficiencia como para poder ser utilizada en aplicaciones reales”.

Para demostrar el funcionamiento del nuevo sistema, los físicos construyeron una gran bobina de cobre, autorresonante, que funcionaba a una frecuencia óptima de 6,5 Mhz. El tamaño de las espiras de la bobina era tal, que cubrían un área de aproximadamente un metro cuadrado y lo suficientemente delgada como para ser incrustada en las paredes o el techo de una habitación. Esta bobina sirve como fuente de resonancia para otras dos más pequeñas que se encuentran en el dispositivo a alimentar, a las que se transmite la energía de forma inalámbrica. Al igual que con otros métodos similares, la eficacia del sistema disminuye con la distancia. Tal como ocurre con una transmisión de radio o televisión, diferentes circuitos resonantes pueden operar y transmitir energía entre sí de forma simultánea, siempre y cuando cada uno utilice una frecuencia diferente. Los investigadores también demostraron que el “acoplamiento cruzado” entre dispositivos electrónicos es aproximadamente 15 veces menor que el acoplamiento entre cada dispositivo y la bobina de la fuente. Los experimentos revelaron que el sistema puede proporcionar más de 25 vatios de potencia a cada uno de los dispositivos electrónicos que se encuentren a unos dos metros de la bobina emisora.

¿Cuándo podremos utilizar algo así en casa? Dentro de no mucho tiempo. La tecnología utilizada en las bobinas y demás partes del equipo existe desde hace tiempo, pero “antes de que se pueda utilizar ampliamente tenemos que lograr integrar los receptores de una manera transparente en los dispositivos", afirma Kurz. "También nos gustaría hacer más mejoras en el rendimiento. Cuando eso esté listo, se podrá utilizar en muchas aplicaciones de consumo." Según parece, y si no se descubre que estas radiaciones electromagnéticas son perjudiciales para la salud, la energía inalámbrica se encuentra a la vuelta de la esquina.

jueves, 11 de marzo de 2010

Viajar a la velocidad de la luz mata

Malas noticias para todos los que soñábamos con recorrer la galaxia a velocidades relativísticas. Según parece, al desplazarnos a velocidades cercanas a la de la luz, los escasos átomos de hidrógeno que existen en el espacio “vacío” nos golpearían tan duro como las partículas aceleradas por el LHC. Si los científicos de la Universidad Johns Hopkins están en lo cierto, esos pequeños átomos nos freirían en pocos segundos. Veamos en qué se basan para hacer trizas nuestro sueño.

William Edelstein, un físico de la Universidad Johns Hopkins School of Medicine en Baltimore, Maryland, ha hecho algunos cálculos y obtenido resultados demoledores. Asegura que si nos desplazásemos por el espacio a velocidades cercanas a la de la luz, moriríamos a los pocos segundos. Y no se trata de un problema orgánico producido por la aceleración necesaria para alcanzar esa velocidad, ni muchos menos. Simplemente, el problema al que nos enfrentamos reside en que lo que acostumbramos a llamar “espacio vacío”, en realidad dista bastante de ser un verdadero “espacio vacío”. La atmósfera de la Tierra posee, en cada centímetro cúbico, unos 30 millones de billones de átomos (algo así como 1,000,000,000,000,000,000 átomos). En el espacio, con algo de suerte, solo podemos encontrar un par de átomos de hidrógeno por cada centímetro cúbico. Pero esa ridícula cantidad de materia alcanza y sobra para impedirnos viajar “a lo Star Trek”.


En efecto, si la USS Enterprise fuese de verdad, y respetase las leyes físicas que rigen el Universo, Kirk, Spock y el resto de la tripulación morirían a los pocos segundos de pisar el acelerador. La culpa seria de esos dos átomos de hidrógeno por centímetro cúbico y de la Teoria de la Relatividad de Einstein. Esa débil cantidad de materia se convertiría en un haz de radiación lo suficientemente intenso como para matar a los humanos abordo en pocos segundos, e incluso bastaría para destruir los instrumentos electrónicos de la nave, y a la nave misma. La Teoría de la Relatividad Especial describe cómo el espacio y el tiempo se encuentran distorsionados para observadores que viajan a diferentes velocidades. Para la tripulación de una nave espacial que acelera hasta cerca de la velocidad de la luz, el espacio interestelar parece muy comprimido, lo que aumenta el número de átomos de hidrógeno que golpean la nave cada segundo, convirtiéndolos en un verdadero rayo de la muerte apuntado hacia la proa.

Desde el punto de vista de los viajeros, los átomos mencionados son acelerados hacia ellos, por lo que su energía cinética aumenta. Si quisiésemos viajar al centro de la Vía Láctea -distante unos 50.000 años luz de la Tierra- en un lapso de tiempo razonable -digamos unos 10 años- nuestra nave debería desplazarse a una velocidad cercana al 99,999998 por ciento de la velocidad de la luz. A estas velocidades, los átomos de hidrógeno impactarían contra nuestro vehículo con una energía de aproximadamente 7 TeV (Teteraelectron voltios), el doble de la energía que se espera alcanzar con el Gran Colisionador de Hadrones cuando funcione a pleno rendimiento. “Para la tripulación de la nave, el efecto de estos átomos acelerados sería el mismo que si se parasen frente al haz del partículas del LHC”, dice Edelstein.

¿Estar dentro del reforzado casco de la nave hace alguna diferencia? Sí, pero no demasiada. La estructura de la nave, de hecho, ofrece poca protección. Edelstein calcula que un tabique construido con 10 centímetros de aluminio lograría absorber menos del 1% de la energía que impacta contra el vehículo espacial. Dado que los átomos de hidrógeno tiene un protón en su núcleo, su impacto nos expone a una peligrosa radiación ionizante, capaz de romper los enlaces químicos de nuestro ADN y dañarlo irreversiblemente. “Los átomos de hidrógeno son como minas espaciales inevitables”, afirma Edelstein, sepultando definitivamente nuestras ganas de recorrer la galaxia a altas velocidades. La dosis de radiación mortal para un ser humano es de aproximadamente 6 sievert. Los cálculos efectuados por Edelstein demuestran que la tripulación recibiría una dosis de radiación superior a los 10.000 sieverts cada segundo. La radiación seria tan intensa, que incluso debilitaría la estructura de la nave espacial y daño de sus instrumentos electrónicos. Puesto a especular, el científico cree que esta puede ser una de las razones por las cuales las civilizaciones extraterrestres más avanzadas aún no nos han visitado. Aunque ET haya logrado la tecnología necesaria para construir una nave interestelar, no puede viajar a velocidades cercanas a la de la luz sin convertirse en un cadáver a bordo de una debilitada nave fantasma.

Parece que el Universo se opone a que nos movamos rápido por su interior. Esos pocos átomos dispersos en el espacio se convierten en una verdadera barrera para nuestros desplazamientos. ¿Podríamos evitarla? Quizás. Seguramente no con la tecnología actual, pero si fuésemos capaces de construir un poderoso campo magnético en el frente de la nave, desviaríamos el haz de protones antes de que nos dé de lleno. De hecho, algo así es lo que usamos para que los protones acelerados dentro del LCH describan una curva de 27 kilómetros de diámetro por el interior del túnel principal.

miércoles, 10 de marzo de 2010

Newton, MOND y la materia oscura

Las observaciones realizadas en los últimos años indican que muchas estrellas se mueven a una velocidad diferente a la que deberían. Para explicar este extraño fenómeno, los físicos han desarrollado una teoría que, mediante la existencia de la denominada materia oscura, hace de “puente” entre la realidad y lo que indican las ecuaciones. Ahora, un equipo de científicos de Brasil ha ideado un experimento relativamente sencillo que podría arrojar luz sobre el asunto. Solo necesitamos un disco que gire a la velocidad exacta para anular la Segunda Ley de Newton. ¿Es posible realizar ese experimento en la Tierra?


Estamos en problemas. Desde hace años que los físicos saben que las estrellas de los bordes de las galaxias (entre otros objetos siderales) tienen un comportamiento caprichoso que no se ajusta a lo que pronostican sus ecuaciones. Cuando algo así ocurre, solo hay dos explicaciones posibles: o bien nuestras ecuaciones son erróneas, o bien hay algo que no vemos pero que está afectando el movimiento de esos objetos. La materia oscura, “algo” que abundaría en el espacio pero que no podemos ver, es la explicación que la ciencia ha encontrado para justificar el fallo de las leyes del movimiento cuando se las aplica a las estrellas vecinas. Con esa masa invisible extra, las ecuaciones funcionan. Pero la verdad es que el asunto de la materia oscura tiene, para muchos astrofísicos, el aspecto de un parche destinado a encubrir errores en nuestras propias teorías.

Las galaxias rotan con una velocidad uniforme, desafiando a Newton.

Cuando aplicamos la Segunda Ley de Newton al movimiento de las estrellas, descubrimos que los objetos ubicados en los bordes exteriores de la galaxias deberían moverse a velocidades bastante menores a la de los que se encuentran ubicados en las cercanías de su centro. Pero las observaciones realizadas no hacen otra cosa que confirmar -una y otra vez- que las galaxias rotan con una velocidad uniforme, desafiando a Newton y todos sus herederos. Algunos astrónomos creen que el comportamiento orbital de las galaxias se podría explicar con mayor precisión mediante una teoría llamada Dinámica Newtoniana Modificada (MOND, por Modified Newtonian Dynamics). MOND, propuesta en 1981 por Mordehai Milgrom, entonces en la Universidad de Princeton, es una versión ligeramente modificada de la Segunda ley de Newton, que tiene el atractivo de no necesitar de la existencia de la materia oscura para explicar que ocurre en el Universo.

Como hemos explicado en alguna oportunidad, la teoría de la materia oscura supone que una “nube” de materia oscura -invisible para nosotros- rodea cada galaxia, suministrando la masa extra necesaria para que la gravedad resultante provoque que todas las estrellas que conforman el disco galáctico giren alrededor de su centro a la misma velocidad. Bonito y muy conveniente, pero bastante rebuscado, ¿verdad? MOND, por otro lado, es una solución mucho más elegante, aunque signifique reconocer que un genio absoluto como Sir Isaac Newton pueda haberse equivocado al redactar su segunda ley del movimiento. Pero hay hechos concretos que respaldan MOND: un estudio reciente que analiza al detalle los movimientos de ocho galaxias enanas que giran alrededor de la Vía Láctea confirmarían que -aplicando la Dinámica Newtoniana Modificada- no necesitamos la teoría de la materia oscura.


Aún no tenemos la certeza de que exista la materia oscura.

Es necesario diseñar algún experimento que pueda demostrar que la Dinámica Newtoniana Modificada es correcta, o que la materia oscura existe de verdad. Afortunadamente, parece que un disco que gira puede bastar para anular la segunda ley de Newton del movimiento, eliminando la necesidad de que exista la materia oscura. Hasta no hace mucho se pensaba que era imposible realizar pruebas destinadas a verificar la validez de la teoría MOND en la Tierra debido a los complejos movimientos que esta realiza al rotar sobre su eje y girar alrededor del Sol mientras que este gira alrededor del centro galáctico. Sin embargo, Vitorio De Lorenci -un físico de la Universidad Federal de Itajubá, en Brasil- y sus colegas han sido capaces de idear un experimento capaz de lograr tal cosa. El centro del asunto es lograr anular completamente la aceleración de la rotación de la Tierra debida a los movimientos que enunciamos antes, utilizando un disco que gire en el plano correcto y con la velocidad exacta. La idea básica fue propuesta por primera vez en 2007, cuando Alex Ignatiev calculó que las aceleraciones en cuestión se hacen cero durante un tiempo infinitesimal en dos puntos concretos de la superficie terrestre, dos veces al año. Eso hace que el experimento sea posible en teoría (y de forma natural), aunque terriblemente complicado de realizar en la práctica.

El descubrimiento efectuado por el equipo de De Lorenci permitiría utilizar un disco giratorio para anular las indeseables aceleraciones en cualquier momento y lugar de la Tierra. Sus cálculos muestran que si el disco se coloca con precisión y su velocidad se controla correctamente, en algunos puntos situados en su borde se anularían completamente las aceleraciones producidas por el movimiento de la Tierra y el Sol. Si la Segunda Ley de Newton es correcta, un dispositivo de medición montado en esos puntos del disco no debería registrar ninguna fuerza. Pero si la teoría MOND es correcta, el dispositivo debería registrar pequeñas fuerzas, que serian las responsables del movimiento “extraño” que parece afectar a las estrellas del borde de las galaxias. Gracias a este disco “seremos capaces de controlar las condiciones para producir el régimen MOND en cualquier lugar y en cualquier momento”, dice De Lorenci. Sin embargo, este experimento sólo es capaz de probar una de las consecuencias de la teoría MOND, la que dice que todas las fuerzas actúan de manera diferente en aceleraciones pequeñas. La parte que predice que sólo se vería afectada la gravedad puede comprobarse únicamente en el espacio.

Como sea, e independientemente de los resultados que se obtengan, este experimento demuestra que tanto la física como la cosmografía no están estancadas. Aún las teorías más nuevas, como la de la materia oscura, y las más antiguas, como las leyes de Newton, son puestas a prueba una y otra vez, para comprobar que tan buenas son a la hora de describir el funcionamiento del Universo.

martes, 9 de marzo de 2010

Una nueva tecnología de imanes superconductores permitirá aumentar la potencia del LHC


El LHC, el más poderoso acelerador de partículas del mundo, ubicado en el CERN, el laboratorio europeo de física de partículas localizado en la frontera entre Francia y Suiza, genera colisiones de partículas desde no hace mucho, pero los científicos e ingenieros ya han hecho avances significativos en la preparación de futuras mejoras que superen la eficiencia del diseño nominal del acelerador, entre las cuales figuran aumentar 10 veces las tasas de colisión hacia finales de la próxima década, y lograr por último haces de mayor energía.

En una prueba reciente, un electroimán construido por miembros del Programa de Investigación del Acelerador LHC (LARP por sus siglas en inglés), usando un avanzado material superconductor, logró un campo magnético lo suficientemente fuerte como para enfocar haces intensos de protones en las regiones de interacción del LHC objeto de mejoras técnicas.

(NC&T) El programa LARP es una colaboración estadounidense entre el Laboratorio Nacional de Brookhaven, el Laboratorio del Acelerador Nacional Fermi (Fermilab), el Laboratorio Nacional Lawrence Berkeley, y el Laboratorio del Acelerador Nacional SLAC.

Eric Prebys, del Fermilab, dirige el LARP.

El aumento de potencia implicará que haya más eventos de colisión en las regiones de interacción del LHC; por tanto, los experimentos podrán recolectar más datos en menos tiempo. Pero también implicará que los electroimanes que enfocan los haces hacia pequeños puntos en las regiones de interacción y que están a menos de 20 metros de los puntos de colisión, sean sometidos a una radiación y un calor mayores que aquellos para los que están diseñados actualmente.

Uno de los objetivos del LARP es preparar electroimanes mejorados usando un material superconductor diferente con mayor tolerancia al calor. Ya hay un candidato firme, pero se necesita desarrollar métodos avanzados de fabricación para superar los obstáculos técnicos impuestos por el uso de este material. En ésta y otras cuestiones están trabajando ahora los ingenieros.

Muchos logros científicos se esperan conseguir con el LHC. Los astrónomos confían en poder averiguar cosas sobre las propiedades microscópicas de la materia oscura mediante el LHC. También se espera crear de modo artificial, por primera vez, una partícula de materia oscura.

Asimismo es posible que la detección en el LHC de nuevas y exóticas partículas pueda permitir a los físicos vislumbrar la existencia y las formas de dimensiones adicionales a las conocidas. Unos investigadores de la Universidad de Wisconsin-Madison y la Universidad de California-Berkeley sostienen que las huellas reveladoras dejadas por ciertas partículas podrían permitir distinguir entre las posibles formas de las dimensiones espaciales adicionales predichas por la teoría de las cuerdas.

La teoría de las cuerdas describe las partículas fundamentales del universo como diminutas cuerdas vibrantes de energía, y sugiere la existencia de seis o siete dimensiones espaciales inadvertidas, además del tiempo y las tres dimensiones espaciales que normalmente captamos.

Nuevas evidencias sobre la eficacia de los placebos

Los investigadores han encontrado que el demonizado efecto placebo merece un enorme respeto. De hecho, hay más de un tipo de efecto placebo, muchos de los cuales son poco conocidos y usados.

“Muchas personas aún piensan en el placebo como un efecto que ocurre en algunas personas cuando reciben un
tratamiento falso o una imitación, normalmente cuando se estudia la efectividad de un nuevo tratamiento. Pero hemos hecho que esto sea cosa del pasado”, dice Damien Finnis del Instituto de Gestión e Investigación del dolor de la Universidad de Sydney (PMRI) y del Hospital Royal North Shore, que lidera al equipo de expertos internacionales en un estudio recientemente publicado en la prestigiosa revista The Lancet (viernes, 19 de febrero).

“Esta nueva investigación demuestra que los efectos placebo pueden tener lugar junto con cualquier forma de tratamiento, cuando la mente y el cerebro trabajan juntos para promover los mecanismos naturales de curación del cuerpo”.

El proyecto de investigación reunió artículos científicos de todo el mundo sobre investigación en los efectos placebo y estudió qué impacto tienen sobre los pacientes.

“No necesitas una píldora de azúcar para crear un efecto placebo. Nuestra investigación revela que los efectos placebo pueden ocurrir en la práctica médica rutinaria a través un amplio rango de enfermedades médicas – y estos efectos pueden ser terapéuticamente poderosos. Evidentemente hay mucho más en los placebos de lo que previamente habíamos pensado”.

Los efectos del placebo son muchos, varían desde la reducción del dolor persistente a la mejoría de los movimientos en los pacientes con enfermedad de Parkinson. El efecto placebo pueden hacer que los tratamientos rutinarios sean más efectivos, y todos podemos responder al mismo.

“Esencialmente, el efecto placebo cambia la forma en la que trabajan nuestro cerebro y cuerpo, complementando los tratamientos médicos u otras terapias, lo que a menudo conduce a una reducción de los síntomas”.

“El componente de placebo de cada terapia no debería pasarse por alto. Tienen el potencial para hacer que un tratamiento médico rutinario sea más efectivo”, dice Finniss.

La siguiente tarea para los investigadores es entender mejor los muchos factores que conducen a los efectos placebo e intentar aprovecharse de ellos en la práctica rutinaria.

“Lo que sabemos es que los efectos placebo se ven influidos por el contexto o en el entorno del tratamiento – por ejemplo, parecen contribuir las expectativas y creencias del paciente respecto a la terapia, experiencias pasadas y muchos factores en la relación médico-paciente. Sólo necesitamos aprender a definirlos y maximizarlos”.

El concepto tiene implicaciones positivas para uno de cada cinco australianos que sufren de dolores persistentes. El destacado mundialmente Instituto de Gestión e Investigación del dolor de la Universidad de Sydney y el Hospital Royal North Shore están en la vanguardia de la investigación de los procesos de la enfermedad implicados en el dolor persistente y están investigando un variedad de estrategias de tratamiento para la gestión del dolor.

“Comprendiendo cómo trabaja el placebo tenemos la posibilidad de mejorar el entendimiento de la fisiología y la psicología de la interacción entre la mente, el cerebro y el cuerpo y cómo podría aprovecharse esto para ayudar a los que sufren dolor o de otras enfermedades médicas”, dice el internacionalmente renombrado especialista en dolor, Profesor Michael Cousins, a la cabeza del PMRI.

lunes, 8 de marzo de 2010

Los efectos del terremoto de Chile en el Océano Pacífico

Tras el terremoto, llegan las olas gigantes. Y no es una broma. La alerta de tsunamis ha sido declarada en todo el Pacífico. Las mediciones y simulaciones por ordenador realizadas por la Agencia Oceanográfica de los Estados Unidos (NOAA) muestran cómo, a partir del epicentro del seismo, el movimiento de las aguas puede transmitirse desde las costas chilenas hasta el mismísimo Japón.



Lo que no se ha podido determinar es la altura que tendrán las olas cuando lleguen a puntos como Hawaii o las costas australianas o japonesas. El revuelo de las aguas ha sido tal, que no se descarta que sus efectos puedan sumarse en medio del océano y seguirse notando a lo largo de los próximos días en cualquier parte del Pacífico.

Sin embargo, la magnitud del terremoto, (que fue de 8,8 grados) no puede trasladarse directamente a la que tengan las olas que provoque, ya que éstas dependen también en gran medida de la configuración de los fondos marinos por las que vayan pasando. Sin embargo, sí que conviene saber que la energía liberada por el terremoto de Chile equivale a la de 20.000 millones de toneladas de TNT (lo que supone 1.333 veces la potencia de la bomba de Hiroshima).

El terremoto, que ha causado ya más de 700 víctimas mortales, ha tenido además otro efecto. Su fuerza ha sido suficiente como para desplazar ligeramente (unos 8 cm.) el eje de la Tierra y, por lo tanto, acortar la duración de los días. Según los datos manejados por la NASA, desde el pasado 27 de febrero el día terrestre dura 1,26 millonésimas de segundo menos que antes.

Un acortamiento que habrá que sumar al que ya tuvo lugar en 2004, como consecuencia del terremoto de Sumatra (de una magnitud de 9,1). Desde aquél terrible acontecimiento la duración de los días ya se había acortado en 6,8 millonésimas de segundo.


domingo, 7 de marzo de 2010

Como crear una atmósfera artificial en la Luna

Es lo que tiene una carrera espacial de verdad. Los políticos, los periódicos y la opinión pública te empujan a pensar a lo grande. A principios de los años 60, en el momento de mayor éxito de las misiones espaciales soviéticas, hubo quien temió una luna pintada del rojo. Una década después, un científico de la NASA llamado Richard Vondrak estudió la posibilidad de dotarla con una atmósfera como la nuestra. Al menos, temporalmente.

Los árboles integrales es una curiosa novela de Larry Niven que plantea la posibilidad de construir una civilización en un “Anillo de Humo” , un toro de aire y vapor de agua que orbitaría alrededor de una estrella de neutrones. Es una muestra de cómo puede formarse una atmósfera incluso en los ambientes mas desolados. Pero, ¿en la Luna? ¿Sería posible una atmósfera en nuestro satélite?

En realidad, el problema debe dividirse en dos partes. Primero, ¿es posible formar una atmósfera? Y segundo, ¿sería posible mantenerla? Naturalmente, un punto importante es definir que consideramos una atmósfera. La superficie lunar no es un vacío absoluto. Su “atmósfera” contiene, por centímetro cúbico, unos 80.000 átomos de argón, helio y varias impurezas mas. Apenas 10.000 kilogramos repartidos por toda su superficie. Eso es tan poco que se calcula que las misiones Apolo duplicaron la densidad de la atmósfera lunar solo con los gases emitidos en el aterrizaje y despegue.


Sin embargo, se necesita una gran cantidad de material para formar una atmósfera respirable. Una posibilidad es traerlo de fuera. Utilizar cometas como fuente de materias primas y dejarlos caer con “suavidad” para que la mayor parte del material no sea despedido de vuelta al espacio. Esquemas de este tipo se han propuesto para terraformar Marte. Aunque tampoco es imprescindible recurrir a fuentes externas. Las rocas lunares están formadas por óxidos y el oxígeno representa una parte importante de su masa. El problema es extraerlo. El estudio original de 1974* calculaba que serian necesarias decenas de miles de bombas nucleares para fundir estas rocas y liberar parte de su oxigeno. Pero podemos imaginar métodos mas pacificos. Una idea sería utilizar la nanotecnología para diseñar máquinas capaces de reproducirse y que se alimentasen por energía solar. Extraerían su materia prima del suelo lunar, rico en silicio y minerales como el titanio y el hierro. Y, en el proceso, liberarían el oxigeno. En resumen, con la tecnología adecuada, la Luna dispone de materiales y energía suficientes para formar una atmósfera.

Pero aún nos queda resolver el segundo problema y este es bastante más difícil. Para saber si un cuerpo puede retener su atmósfera es necesario conocer su masa y su distancia al Sol. En primer lugar, tiene que ser lo bastante masivo para atraer gas y mantenerlo cerca. La Luna podría cumplir con este requisito ya que no estamos hablando de un pequeño asteroide. Se trata del quinto satélite más grande de nuestro sistema solar, con una gravedad lo bastante alta para adquirir la forma de una esfera al igual que la Tierra. Sin embargo, esta demasiado cerca del Sol para su tamaño. La radiación solar calentaría su atmósfera expandiéndola. La radiación ultravioleta atacaría sus moléculas, formando iones y el viento solar acabaría arrastrándola hasta hacerla desaparecer. Aunque costaría tiempo. Unos cuantos cientos o incluso miles de años. Apenas un parpadeo para las escalas habituales en astronomía pero suficiente para formar una sociedad, una cultura y verla crecer en la superficie lunar.

No consigo decidirme. No se si dar una atmósfera a la Luna y hacerla habitable sería cumplir con los sueños de generaciones o el peor atentado ecológico contra la naturaleza de nuestra civilización. Quizás sea ambas cosas.

viernes, 5 de marzo de 2010

El hielo desaparece del Ártico más rápido de lo calculado

El hielo del Ártico desaparece a un ritmo mayor del inicialmente calculado según un estudio que han presentado científicos canadienses tras más de dos años de investigaciones en el extremo septentrional del planeta.

El estudio, realizado por el grupo Circumpolar Flaw Lead (CFL), se inició en julio de 2007 y en el mismo han participado 300 científicos de todo el mundo.

Al mismo tiempo que CFL daba a conocer su estudio, otra organización, el Grupo Medioambiental Pew, difundió que el coste de la desaparición del hielo en el Ártico será de 2.400 billones de dólares estadounidenses para 2050.
La desaparición del hielo del Ártico afecta al ecosistema marino

Otra de las conclusiones de los investigadores de CFL, capitaneados por el profesor de la Universidad de Manitoba (Canadá), David Barber, además de que el hielo en el océano Ártico desaparece mucho más rápido de lo previsto por los científicos, es que los cambios que se producen afectan al ecosistema marino.

Los científicos han comprobado que aumentan los niveles de contaminantes, como el mercurio o DDT, como resultado del cambio climático.

Además, la desaparición del hielo ha provocado que especies de ballenas que antes no se adentraban en aguas como las del mar de Beaufort, ahora sí lo hacen y compiten por alimentos con otras adaptadas al Ártico, como las beluga.

Otro cambio observado es que las tormentas son cada vez más frecuentes a medida que el hielo del océano Ártico se vuelve más delgado.
Se cuantifica un coste de entre 61.000 y 371.000 millones de dólares.

El informe de Pew, el primero que cuantifica el coste del derretimiento de las regiones árticas, afirma que sólo este año la desaparición del hielo costará entre 61.000 y 371.000 millones de dólares.


El doctor Eban Goodstein, coautor del informe de Pew, dijo que "en la mitad de nuestras estimaciones, el coste acumulativo del derretimiento del Ártico en los próximos 40 años es equivalente al Producto Interior Bruto (PIB) combinado de Alemania, Rusia y el Reino Unido".


Según el informe, sólo la desaparición de hielo en el Ártico este año calentará la Tierra el equivalente a la emisión a la atmósfera de 3.000 millones de toneladas de dióxido de carbono lo que equivale al 40 por ciento de todas las emisiones industriales de Estados Unidos en el año.

Energía Osmótica: Generar energía a partir de Agua dulce y Agua salada

Lanzan en Noruega un nuevo experimento ecológico para generar energía a partir de la mezcla de agua dulce y agua salada.

Una compañía noruega presentó un nuevo experimento para generar energía eléctrica a partir de la mezcla de agua dulce y agua salada, la llamada energía osmótica.

La Energía Osmótica es una fuente de Energía Renovable y Libre de Emisiones Contaminantes.

El prototipo de la primera planta de energía osmótica del mundo -creada por la compañía Stalkraft- intenta explorar la energía que se libera cuando se mezclan ambos tipos de agua.

El agua dulce es atraída de forma natural hacia el agua salada para diluirla, y el flujo del agua a través de una membrana semipermeable es suficiente para hacer funcionar una turbina y generar energía, dice la empresa.

Tal como explicó a la BBC el gerente de proyecto de la compañía, Stein-Eric Skilhagen, se espera que en el futuro la planta pueda ofrecer una solución en el combate del cambio climático.

"Por el momento no estamos produciendo mucha energía. Ésta es la primera planta que se construye y lo más importante hasta ahora es que ya hemos probado que sí es posible producir energía explotando la ósmosis", afirma el funcionario.

"Los próximos dos años serán cruciales porque intentaremos avanzar hacia la etapa comercial de la tecnología. Y si logramos solucionar todos los problemas que se presenten quizás para el año 2015 podremos generar energía a gran escala".

La empresa calcula que el potencial global de la energía osmótica es de 1.600-1.700 TWh al año, lo que equivale al consumo total de electricidad de China en el 2002.

COMO LA ÓSMOSIS
Este tipo de energía renovable está basada en el fenómeno natural de la ósmosis y es similar a la forma como las plantas absorben humedad a través de sus hojas y la retienen.

Cuando el agua dulce se encuentra con el agua salada, por ejemplo cuando un río confluye con el mar, se liberan enormes cantidades de energía.

Esa energía puede ser utilizada para la generación de electricidad.

"Funciona como resultado de la llamada presión osmótica", explica a la BBC el profesor Ian Fells, experto en energía de la Real Academia de Ingenieros del Reino Unido.

En la planta de energía osmótica, el agua dulce y el agua salada están colocadas en cámaras separadas divididas por una membrana artificial.

Las moléculas de sal en el agua salada arrastran al agua dulce a través de la membrana, lo que aumenta la presión en la cámara del agua salada.

Esta presión, dice la compañía, equivale a una columna de agua de 120 metros, una cascada importante, que puede ser utilizada en una turbina generadora de electricidad.

TODAVÍA EN PEQUEÑA ESCALA
Por ahora, sin embargo, la generación masiva de electricidad con energía osmótica es sólo una teoría.

El profesor Ian Fells cree que -igual como ha ocurrido con otras energías renovables- podrían surgir problemas insuperables cuando se intente llevar a cabo el proceso a gran escala.

"Creo que vale la pena probar todos estos tipos de energía, y creo que en este caso quizás sea posible aumentar la producción. Pero al mismo tiempo, me parece que el talón de Aquiles de este proyecto será la membrana que separa el agua dulce de la salada, la cual podría tener sus bemoles ", expresa el investigador.

"Como ya se ha demostrado antes hay muchas cosas que en la 'mesa de dibujo' se ven muy bien y que a menudo son presentadas como extraordinarias por políticos que no entienden que un prototipo y un proyecto a gran escala son dos cosas muy diferentes".

"Además ésta es una tecnología marina y en el pasado los conservacionistas han dificultado mucho el desarrollo de este tipo de tecnologías basadas en el mar, por el riesgo a los animales".

"Y por último, las energías renovables marinas son extremadamente costosas y nadie puede involucrarse en estos proyectos sin recibir enormes subsidios" afirma el profesor Fells.

jueves, 4 de marzo de 2010

El cambio climático aumenta la fragancia de las flores


Según un estudio realizado por distintos centros europeos, este fenómeno se debe a que las plantas están desprendiendo fragancias con químicos más olorosos. "El incremento es exponencial", señala el profesor Josep Peñuelas, de la Unidad de Ecología Global de la Universidad Autónoma de Barcelona, España. "Es posible que haya aumentado un 10% en los últimos 30 años y podría alcanzar entre un 30% y un 40% con el proyectado aumento de 2ºC de la temperatura del planeta para las próximas décadas". Compuestos orgánicos volátiles biogénicos (COVB) son emitidos con regularidad por las plantas a la atmósfera. Estos químicos tienen distintos tamaños, propiedades y origen, y juegan un papel importante en el crecimiento, metabolismo, comunicación y reproducción de las plantas. También ayudan a protegerlas de animales herbívoros o plagas de insectos. Sin embargo, el editor en medio ambiente , Matt Walker, explicó que las plantas emiten diferentes niveles de estos compuestos, dependiendo de las condiciones medioambientales. "Mientras que se han hecho importantes estudios para determinar el impacto del calentamiento global con el aumento de las emisiones de CO2 a la atmósfera, se ha prestado poca atención en cómo las cambiantes temperaturas alterarán las emisiones de importantes compuestos como los COVB", agregó Walker.

Pañuelas, junto con el doctor Michael Staudt, del Centro para la Ecología Funcional y la Evolución en Montpellier, Francia, condujeron un extensa investigación sobre cómo el cambio climático alterará las expresiones de estos compuestos. "Basados en el trabajo revisado, podemos tener una certeza razonable de que el clima y el cambio global tendrá en general un impacto en las emisiones de COVB", escribieron los investigadores en la publicación Trends in Plant Sciences. "Lo más probable que ocurra es que se produzca un incremento en las emisiones de COVB, principalmente debido al actual calentamiento, y que las emisiones alteradas afecten tanto sus funciones fisiológicas y ecológicas como su papel en el ambiente". En particular, estos científicos consideran que un aumento en la temperatura ocasionaría que las plantas produzcan más COVB y se alargue la temporada de crecimiento de muchas especies. Las altas temperaturas también permitirán que las plantas que más emiten conquisten altitudes más elevadas. Pero la temperatura no será el único factor que haga que las plantas emitan más fragancias químicas. Matt Walker explica que los cambios en el uso de la tierra podría significar que las selvas sean reemplazadas por plantaciones, como por ejemplo de palma y caucho, que emiten muchos más compuestos orgánicos volátiles. "Los científicos también sospechan de que altas concentraciones en la atmósfera de CO2, niveles más altos de radiación UV en los polos y el aumento de la contaminación de ozono, repercutirá en cómo las plantas producen COVB. Aunque todavía no está muy claro", agregó Walker. En términos generales, especialistas creen que el impacto del cambio climático en plantas de todo el mundo podría ser significativo y, al mismo tiempo, subestimado.