viernes, 29 de enero de 2010

La ciencia tras el miedo al cáncer por móviles

¿Los teléfonos móviles provocan cáncer cerebral? No hay una buena razón para pensar que sea así.

Pero si creemos que es una verdad como un templo lo que dicen los físicos sobre que las ondas de radio procedentes de los móviles simplemente no son lo bastante potentes para romper enlaces químicos, la causa de todos los mutágenos que provocan cáncer, ¿por gente tan inteligente — más inteligente que yo, eso seguro — siguen investigando esta materia?

La respuesta está en el temor a lo desconocido. Nunca en la historia de la humanidad nos hemos visto tan empapados en radiación electromagnética. ¿Podría ser que simplemente no podemos prever el riesgo, que nuestra ciencia nos ciega ante la verdad, de la misma forma que los doctores hacían cirugías sin lavarse y sin guantes hace 100 años?

Bueno, de nuevo, no hay ninguna buena razón para pensarlo. Pero, no obstante, aquí están las razones.

Algo sobre la radiación

Todos los agentes conocidos que inducen cáncer – ciertos compuestos químicos y virus y la radiación ionizante – actúan rompiendo los enlaces químicos que generan mutaciones del ADN. La radiación ionizante se refiere a los rayos gamma, rayos-X, la mayor parte de la luz ultravioleta y ciertas partículas subatómicas. Su energía es lo bastante alta para desligar un electrón de un átomo.

La radiación no ionizante de menor energía procedente de las bombillas o los móviles (ambas parte del espectro electromagnético) no pueden dañarnos a menos que se enfoquen lo suficiente para calentar el tejido. Incluso si los móviles pudieran crear un calor dañino, la sangre circulante debería disiparlo.

Aún así, hay algo aún no establecido sobre bañar tu cerebro con ondas de radio supuestamente inocuas. Por lo que los científicos están investigando los efectos de estas ondas de radio no ionizantes y no térmicas o débilemente térmicas. Las teorías, no obstante, aquí se vuelven muy superficiales.

Podría defenderse que la córnea no puede disipar el calor de la misma forma que otras partes del cuerpo; estudios con animales han encontrado un vínculo entre las microondas y las cataratas. Pero la mayoría de nosotros normalmente se pone el móvil en la oreja, no en los ojos.

Además, los humanos podrían tener termorreceptores, como los tilacoides dentro de las plantas que permiten la fotosíntesis, que permitirían a las ondas de radio disparar una cascada de eventos químicos. Lo que esto podría significar para la salud humana es algo que nadie sabe; éste es el único mecanismo plausible en el que los estudios humanos revelarían un vínculo entre el uso de móviles y el cáncer.

Pero los estudios no revelan ningún vínculo con el cáncer.

Del laboratorio a la vida real

Ronald Herberman, director del Instituto del Cáncer de la Universidad de Pittsburgh, asombró a sus colegas en 2008 con su advertencia a 3000 miembros de la plantilla sobre que hay “datos suficientes para garantizar el envío de un aviso… sobre el uso de los móviles”.

Herberman temía a lo desconocido, en este caso a la incapacidad de los estudios actuales para descartar riesgos a largo plazo.

Lo que preocupaba a Herberman era la posibilidad de cáncer tras diez años de uso, como se revelaba en un estudio sueco de 2004 sobre 750 personas. Además, una revisión sueca en 2007 encontró que los cerebros jóvenes podrían tener un mayor riesgo de cáncer tras un uso extendido.

Y un estudio danés aún mayor y más largo a larger de 2006 de más de 400 000 sujetos no encontró tal vínculo. La actualización de 2008 del masivo estudio INTERPHONE de 13 países tampoco pudo resolver una conexión. Los factores del estilo de vida de de los que usan el móvil sin descanso podrían ser de mayor influencia. De forma similar, el vértigo y jaquecas de las que se informó – conocida como hipersensibilidad electromagnética — podría ser debidos a sostener un objeto contra tu cabeza durante una hora y no a ningunas ondas que entren o salgan.

Falsas alarmas

La gente ha señalado a la pérdida de abejas como una prueba de lo dañino de la radiación de los móviles. Aunque esta falsa alarma está basada en un pequeño estudio que no tuvo nada que ver con el problema del colapso de colonias, el conocido pero misterioso culpable tras el declive de las abejas. El uso de móviles nunca se correlacionó geográficamente con el declive de las poblaciones de abejas, el cual ahora está rebotando.

Antes de los móviles fueron las líneas de alta tensión. “The Great Power-Line Cover-Up” de Paul Brodeur, basado en los artículos que escribió para The New Yorker, ayudó a alimentar la cáncer-manía. Pero al igual que el 95 por ciento de los cómics de gatos que publica en The New Yorker, esos artículos simplemente eran incorrectos. Se gastaron miles de millones de dólares para acabar con la controversia. Aunque todo lo que tenías que hacer era observar a las cotorras monje sin cáncer que sobreviven en Brooklyn principalmente al calor de los nidos construidos en las líneas de alta tensión y repetidores.

Los cánceres poco comunes tienen una forma de revelarse a sí mismos. El cáncer de pulmón es raro fuera del grupo de fumadores, por lo que su causa fue un caso abierto y cerrado dado que la mitad de la población de Estados Unidos fumaba. Los riesgos industriales han sido identificados de la misma forma cuando grupos de trabajadores contraían tumores extraños.

Nadie se ha quedado estéril por las microondas; nadie ha contraido un cáncer por sus monitores de ordenador. Pero la gente contrae cáncer por la radiación ultravioleta del Sol. Aproximadamente 2000 millones de personas usan móviles, y no ha habido (aún) ningún pico en los raros cánceres de cabeza o cuello. La precaución es prudente, pero no el miedo.

La Tierra causa terremotos en los asteroides


Los asteroides pueden pensárselo dos veces antes de pasar demasiado cerca de la Tierra. Un nuevo estudio ha encontrado que la gravedad de nuestro planeta puede causar movimientos sísmicos, o asteromotos, si las rocas pasan demasiado cerca.

Este proceso podría explicar por qué muchas rocas espaciales que orbitan la Tierra parece prístinas, como si estuviesen cubiertas por una superficie nueva y limpia, dicen los investigadores.

Normalmente, los asteroides están curtidos, sus capas superiores de roca aparecen sucias y enrojecidas por el impacto de partículas cargadas procedentes del Sol durante casi 4000 millones de años, o más, de vagar por el Sistema Solar.

“Cualquier parte de la superficie que esté mirando al Sol se ve impactada por el viento solar, el cual daña los granos minerales y los vuelve rojos”, dijo el investigador principal del estudio Richard Binzel del MIT. “Una analogía es una quemadura por el Sol”.

Al igual que una quemadura del Sol en tu piel, el enrojecimiento de un asteroide es sólo a nivel de la piel con material nuevo justo por debajo la superficie bañada por el Sol de la roca espacial, añade.

Pero cuando los asteroides se aproximan a la Tierra, la gravedad de nuestro planeta puede inducir pequeños terremotos que sacuden la roca espacial, provocando que los curtidos guijarros de la superficie caigan, revelando las zonas internas más limpias. Los asteroides se cree que son más similares a una pila de escombros ligeramente agrupados que sólidos trozos de roca, lo cual significa que incluso un ligero temblor podría desplazar la superficie del material.

“Todas las partículas que se enrojecieron caerán y tendrás el nuevo material fresco ahora encarando el Sol”, dijo Binzel a SPACE.com. “Por lo que va a cambiar el color del asteroide de rojo a gris brillante”.

La idea se ha sugerido antes, pero ahora Binzel y sus colegas han encontrado por fin pruebas observacionales de que está pasando.

Los investigadores observaron 95 asteroides en la vecindad de nuestro planeta, conocidos como Asteroides Cercanos a la Tierra (NEAs). Usaron un proceso conocido como espectroscopía para determinar sus colores, para ver si estaban curtidos o nuevos, y combinaron estos datos con medidas de las historias orbitales de los NEAs.

De los 20 asteroides nuevos de apariencia prístina en su muestra, todos habían pasado cerca de la Tierra – a una distancia menor de la que hay entre la Tierra y la Luna – en los últimos 500 000 años.

“Por lo que suma dos y dos y tendrás que los asteroides que pasan muy cerca de la Tierra tienen unas superficies nuevas muy poco dañadas, y por tanto algo al pasar cerca debe hacer regenerado su superficie”, dijo Binzel. “La explicación más simple es que los cuerpos sufren sacudidas conforme se acercan”.

Los científicos detallan sus resultados en el ejemplar del 21 de enero de la revista Nature.

El científico Clark Chapman del Instituto de Investigación del Suroeste en Boulder, Colorado, que no estuvo implicado en la investigación, dijo que este hallazgo es “una prueba observacional” de que los asteroides se ven transformados por el tirón gravitatorio de la Tierra.

“La correlación entre los colores de los NEA y los pasos cercanos a la Tierra es excelente”, escribe Chapman en un ensayo que acompaña al artículo en el mismo ejemplar de Nature.

Los hallazgos podrían no sólo ayudar a comprender los colores de los asteroides, sino también cómo se forman. Los investigadores planean usar su idea para predecir lo que sucederá cuando el asteroide Apophis pase cerca de la Tierra en 2029.

Debería “sacudirse, vibrar y retumbar conforme pasa”, dijo Binzel. “Si podemos colocar algunos instrumentos en órbita o en su superficie, escuchar y decodificar estos crujidos y gemidos nos dirá cómo se forman los asteroides potencialmente peligrosos como Apophis”.

jueves, 28 de enero de 2010

Un nuevo fármaco para la erección logra resultados en tiempo récord

* El avanafilo hace que los pacientes con disfunción erectil logren resultados en menos de 30 minutos.
* Este fármaco es mucho más rápido haciendo efecto que la Viagra y comenzará a comercializarse en 2012.
* "Estamos asombrados de los resultados".

Todavía no ha comenzado su comercialización, prevista para 2012, pero seguro que más de uno marcará la fecha en el calendario. La farmacéutica Vivus Inc., especializada en desarrollar medicamentos para combatir la obesidad, la diabetes y las disfunciones sexuales masculinas y femeninas, está ultimando los ensayos con un nuevo medicamento que promete milagros en el tratamiento de la disfunción eréctil: logra resultados en 30 minutos o menos (incluso en 15 minutos).

Este tiempo récord de efectividad bate las marcas logradas por la clásica Viagra, que necesita de 30 a 60 minutos para hacer efecto. El avanafilo, cuyo nombre comercial todavía se desconoce, ha sido probado ya con éxito por más de 646 pacientes.

Desde la página de Vivus Inc., Leland Wilson, director ejecutivo de la compañía, explica que “la disfunción eréctil es un problema importante que afecta a más de la mitad de los hombres de más de 40 años”. Los tratamientos a los que se someten están en su mayoría basados en inhibidores orales de la fosfodiesterasa 5 (PDE 5), como la Viagra o el propio avanafilo. Sin embargo, los pacientes “cambian frecuentemente de medicamento”, explica Wilson, “porque no están satisfechos con los resultados”. Y es que la rapidez a la hora de conseguir una erección es valorada por los pacientes encima de otros aspectos.

Este nuevo medicamento, todavía en fase de ensayos clínicos, promete también reducir los efectos secundarios asociados a otros medicamentos para la disfunción.

“Estamos asombrados con la rapidez de su eficacia”, ha explicado Wilson, quien probablemente ya se esté frotando las manos con el mercado potencial de clientes que tendrá dentro de unos años si, como vaticinan los expertos para 2020, se llegue a los 322 millones de personas con problemas de erección.

miércoles, 27 de enero de 2010

¿Porque no se debe beber el agua del mar?

Cuando antes veía a un náufrago pasándolas mal, muerto de sed pero rodeado de agua salada, en las películas siempre se decía que, pase lo que pase, nunca saciaras tu sed con el agua del mar. Si lo hacías, tal vez notarías cierta saciedad, pero entonces no tardarías mucho en morir. En las películas nunca explicaban la razón de esa ley, aunque parecía una ley intocable.

Vamos a explicar por qué.

Imaginense que estan flotando sobre una madera en mitad del mar. Tienen la boca seca. Los rodea todo el agua (mas salada de lo que puedan imaginar). El mar es de un azul insultante. El mar es azul porque refleja el color del cielo. A veces, el mar se presenta verdoso debido a diminutas algas que componen el fitoplancton, las cuales son verdes como todas las plantas que realizan la fotosíntesis. Y entonces, cedén al impulso y empezán a beber agua del mar.

El 97,3 % del agua de la tierra es salada y sólo un 2, 7 % es dulce, así que os acabáis convenciendo de que no puede existir tanto veneno en el mundo. Pero es así.

Los riñones son los filtros que separan las materias de deshecho de la sangre, que son almacenadas en forma de orina en la vejiga, dispuestas para su expulsión al exterior. El riñón no puede producir orina con una concentración de sales de más de un 2%. El agua de mar tiene aproximadamente un 3% de sal, por lo que si la bebemos para calmar la sed, los riñones tienen que retirar agua de nuestro cuerpo para diluir la sal extra y esto nos hace sentir más sedientos.

Esto se debe al proceso de la ósmosis, en la que los riñones sólo pueden generar orina menos salada que el agua que bebemos. Como consecuencia, el cuerpo tiende a orinar todo lo que pueda para eliminar el exceso de sales, pero en lugar de eliminarlas, cada vez tiene más, ya que la orina que consigue es siempre menos salada que la original. Tendría que expulsar más líquido del que se bebe, lo cual es imposible Por eso el efecto de beber agua salada es, paradójicamente, la deshidratación.

El agua marina contiene un 3 por 100 de sal, por lo que, si bebemos un litro, nuestros riñones necesitarán al menos un litro y medio de agua pura para diluir toda la sal. Para conseguirlo, se verán obligados a retirar medio litro extra de agua de nuestro cuerpo.

martes, 26 de enero de 2010

La función evolutiva del apéndice


En muchos textos puede encontrarse la afirmación de que el apéndice vermiforme o cecal no tiene función conocida y que se trata de un vestigio de cuando era necesario digerir celulosa. Una investigación llevada a cabo por un equipo de investigadores encabezados por H.F. Smith de la Universidad de Arizona en Phoenix (EE.UU.) afirma, sin embargo, que el apéndice es un órgano especializado en albergar bacterias simbióticas esenciales para la salud. El estudio, basado en una comparativa anatómica y filogenética, se ha publicado en el Journal of Evolutionary Biology.

Para los humanos, la utilidad de tener un apéndice parece despreciable y, dada la prevalencia de la apendicitis, tener apéndice podría considerarse hasta peligroso. Este accesorio del intestino ha sido considerado durante mucho tiempo un vestigio de la época en la que los homínidos comían una alta proporción de vegetales que necesitaban una fermentación antes de poder ser digeridos. Más recientemente se ha propuesto que el apéndice juega un papel en el mantenimiento, mediado por el sistema inmune, de bacterias simbióticas en el intestino.

Efectivamente, el mejor conocimiento adquirido recientemente sobre la inmunidad en el intestino apunta a que la función aparente del apéndice en los mamíferos sería la de refugio de los microbios simbióticos del intestino, preservando la flora durante los momentos de infección gastrointestinal. Esta función favorecería la evolución y mantenimiento del apéndice, y esta es la idea que Smith et ál. intentan probar en su estudio en el que analizan la evolución del apéndice en los mamíferos.

El análisis anatómico comparativo llevado a cabo por el equipo de investigadores revela la presencia de tres morfotipos (variantes) de apéndice en los mamíferos, así como estructuras parecidas a apéndices en algunas especies que carecen de un apéndice verdadero. Los análisis cladísticos indican, por otra parte, que el apéndice ha evolucionado independientemente al menos dos veces: al menos una vez en los marsupiales diprodontes (canguros, koalas, etc.) y al menos otra en los Euarchontoglires (lo que incluye a los primates). No sólo eso, el apéndice además tiene una marcada señal filogenética en su distribución y ha sido mantenido en la evolución de los mamíferos durante, por lo menos, 80 millones de años. Todos estos datos indican que el apéndice cumple una función.

La diarrea era un peligro habitual durante la evolución de la humanidad. Dado que la apertura del apéndice es estrecha, puede escapar de la colonización por patógenos bacterianos. La reconstitución de las colonias de bacterias simbiontes, lo que conocemos como flora intestinal, después de una diarrea se produciría rápidamente a través de las poblaciones refugiadas en el apéndice. Por tanto, lejos de ser inútil, la selección positiva habría demostrado la utilidad del apéndice actuando para mantenerlo.

lunes, 25 de enero de 2010

Demuestran por primera vez que existe una relación directa entre el cáncer y el estrés

Investigadores chinos y estadounidenses han demostrado científicamente por primera vez que existe una relación directa entre el cáncer y el estrés.

El estudio se realizó en moscas de la fruta, pero en el estudio se indica que los mismos genes y las mismas secuencias biológicas implicadas en este proceso están presentes en los seres humanos.

Hasta ahora, se sabía que las inflamaciones crónicas, causa clave en el estrés, están asociadas con el crecimiento de los tumores en enfermos de cáncer y algunos expertos argumentan que las emociones negativas, las hormonas del estrés, las inflamaciones y el cáncer pueden estar interrelacionados, aunque no hay una evidencia clara.

También hay un consenso acerca de que las mutaciones genéticas causantes del cáncer sólo afectan individualmente a las células, pero este estudio indica que este no es siempre el caso, ya que diferentes mutaciones en células distintas pueden colaborar entre ellas en la generación y desarrollo de los tumores.

Los autores del estudio centraron su trabajo en la actividad de dos genes mutantes causantes de cánceres.

Uno de ellos es el RAS, que se relaciona con un 30 por ciento de los casos de esta enfermedad, y el otro es un gen supresor de los tumores, conocido como "garabato", que cuando se presenta de manera defectuosa propicia el desarrollo del cáncer.

Sin embargo, ni un gen RAS mutado ni una versión mutante del "garabato" pueden por sí solas causar un cáncer.

Los investigadores estudiaron a moscas de la fruta que portaban ambas mutaciones genéticas y descubrieron que una célula que tiene sólo el RAS mutante puede derivar en un tumor maligno si se implica una célula cercana con un "garabato" defectuoso.

La conclusión es que el estrés era el factor determinante que unía a ambas células, generando proteínas marcadoras, denominadas cicotinas, para poder trasladarse de célula a célula.

El profesor Tian Xu, de la University School of Medicine de Connecticut (EEUU), máximo responsable de la investigación, manifestó que "son malas noticias", porque "hay una gran variedad de condiciones que pueden desencadenar el estrés físico y emocional, así como las infecciones y las inflamaciones".

En definitiva, el estudio demuestra que es más fácil de lo que se pensaba que el cáncer se arraigue en el organismo humano, tras constatar que es más probable que las mutaciones se ceben en varias células distintas que en una sola.

La buena noticia es que también identifica una potencial nueva vía para detener el cáncer, si se consigue bloquear el origen de la señal de estrés que reciben las células.

"Un mejor entendimiento del mecanismo subyacente en la generación del cáncer siempre ofrece nuevos instrumentos para combatir la enfermedad", destacó el profesor Wu.

domingo, 24 de enero de 2010

Un test ocular permite detectar el mal de Alzheimer

Un equipo de científicos británicos descubrió que un simple test ocular puede detectar el mal de Alzheimer y otras enfermedades antes de aparecer los primeros síntomas.

Los expertos de la University College London (UCL, en sus siglas en inglés) lograron desarrollar una innovadora técnica que utiliza marcadores fluorescentes para atraer a células muertas en la retina del ojo, ayudando a detectar de forma temprana la muerte de neuronas.

Las investigaciones en ratones han sido exitosas y ahora los científicos planean evaluar el test en pacientes humanos. Los especialistas creen que la técnica podría permitir que los oculistas diagnostiquen a tiempo enfermedades como el mal de Alzheimer.

La investigación fue publicada en la revista especializada Cell Death and Disease. El innovador test permite además a los científicos seguir el progreso de la enfermedad mental al analizar en detalle las células muertas en la retina. Dichas células aparecen como manchas verdes, ya que absorben el pigmento fluorescente.

Francesca Coredeiro, autora principal de la investigación, afirmó que muy pocos se dan cuenta que la retina "es una extensión directa del cerebro".

"Será enteramente posible en el futuro visitar a un oculista para que diagnostique posibles problemas en el cerebro. Esperamos que esta técnica para detectar el mal de Alzheimer esté disponible de forma masiva en los próximos cinco años", agregó.

"Actualmente, el mayor obstáculo en la investigación de nuevos tratamientos para enfermedades neurodegenerativas es la falta de técnicas que permitan evaluar la respuesta del cerebro a nuevos tratamientos. Esta técnica podría potencialmente resolver este problema", agregó.

Coredeiro confirmó que los primeros pacientes humanos serán testeados con el tratamiento de retina al final del año.

Rebecca Wood, directora ejecutiva del grupo Alzheimer's Research Trust, afirmó que la técnica "tiene el potencial de transformar la forma en que se diagnostica el Alzheimer, mejorando en gran medida los esfuerzos para desarrollar nuevos tratamientos y curas".

"Si detectamos el Alzheimer en sus primeras fases, podremos tratar y revertir su progreso a medida que se van desarrollando nuevos tratamientos", continuó.

Por su parte, la experta Susanne Sorensen, de la Sociedad de Alzheimer en Gran Bretaña, elogió el hallazgo, aunque aclaró que aún debe investigarse más para demostrarse que la nueva técnica sirve efectivamente para diagnosticar la enfermedad o evaluar los efectos de medicamentos bajo estudio.

sábado, 23 de enero de 2010

Los ratones tienen su propio GPS

Durante la exploración de un nuevo ambiente, los ratones establecen 'nudos' de localización, lugares preferidos que visitan de forma esporádica y que marcan mediante la realización de giros y vueltas.

Una investigación de la Universidad McMaster en Hamilton (Canadá) proporciona evidencias de que la formación de estos lugares aumenta por el estrés y sugiere que los tortuosos movimientos mejoran la interpretación de la escena visual, mejoran la memoria del lugar y proporcionan al ratón múltiples perspectivas que convierte estas localizaciones en puntos de referencia de navegación espacial. Los resultados del trabajo se publican en la revista 'PLoS Computational Biology'.

Los expertos explican que aunque la noción de un 'lugar' y un 'itinerario' no sean tenidas en consideración en la vida diaria, cómo se crean estas ideas abstractas constituye un tema interesante para la investigación.

En su trabajo actual, los investigadores han utilizado herramientas informáticas avanzadas para mostrar cómo se forma uno de estos lugares, un 'nudo', y como lo utilizan los ratones. Los nudos, y otros lugares preferidos descubiertos antes, contribuyen al mejor conocimiento de cómo los animales crean mapas en el entorno y qué intentan conseguir.

Según señalan los autores, en un área vacía carente de indicios próximos, las entradas perceptivas ricas generadas por las vueltas y giros podrían mejorar la visión del ratón del entorno y aumentar de forma más general o incluso representar para el ratón la memoria y significación de este lugar al dotarlo de una señal perceptiva específica del lugar.

La exploración es un componente central de la conducta humana y animal que se ha estudiado en ratones durante casi un siglo. En el presente es uno de los principales modelos para el estudio de la interfaz entre conducta, genética, fármacos y cerebro.

Hasta hace poco, la exploración de los ratones de un campo abierto se ha considerado en gran medida aleatoria. En los últimos tiempos, esta conducta está siendo descifrada de forma gradual, revelando los lugares de referencia establecidos y utilizados por los animales para la navegación. La representación de cómo se estructura la conducta dentro y alrededor de estos nudos en los animales normales puede más tarde utilizarse para estudiar cómo este comportamiento se ve afectado por manipulaciones farmacológicas y genéticas.

viernes, 22 de enero de 2010

El asteroide 2010 AL30 nos rozará

Nuevamente la Tierra sera prácticamente rozada por un asteroide. El evento tendrá lugar hoy, a las 13.26, hora peninsular, cuando el objeto de quince metros de largo y conocido como 2010 AL30 pase a solo 128.750 kilómetros de distancia de nuestro planeta. En términos astronómicos, esa distancia es casi despreciable, y solo representa la tercera parte de la que nos separa de la Luna. La NASA ha descartado que pueda producirse un impacto, y será seguido se cerca por varios telescopios. ¿Qué tan eficientes somos detectando este tipo de objetos espaciales?


Hace unos días los científicos del Instituto Tecnológico de Massachusetts (MIT) descubrieron un objeto extraño en las cercanías de la Tierra. Tan cerca se encontraba, que en un primer momento se pensó que podría tratarse de algo construido por el hombre, como algún tanque de combustible descartado en alguna misión espacial o un satélite fuera de servicio. Sin embargo, observaciones posteriores determinaron que el ahora denominado 2010 AL30 no es otra cosa que un trozo de roca de unos 15 metros de largo. La NASA, que cuenta con toda la tecnología necesaria para hacer un seguimiento y calcular la trayectoria de estos objetos, ha determinado que a pesar de lo cerca que se encuentra no impactará contra la Tierra. En el momento de mayor aproximación, el AL30 pasará a solo 128.750 kilómetros de distancia de nuestro planeta, la tercera parte de la que nos separa de la Luna.

Un cascote como este puede darnos en cualquier momento.


Si bien un asteroide de ese tamaño no tiene el potencial de terminar con la vida sobre la Tierra (ni mucho menos), un impacto semejante tendría el poder equivalente a un buen puñado de bombas nucleares. Si tuviésemos la mala suerte de que nos diese en -por ejemplo- el centro de Europa u otra zona igualmente poblada, las víctimas directas ascenderían a decenas o cientos de millones. Parece que esta vez saldremos ilesos del encuentro, pero -como es lógico- no siempre tendremos tanta suerte. Esto nos obliga a plantearnos seriamente la necesidad de construir de forma urgente un sistema de vigilancia espacial que sea realmente efectivo. Por primera vez en millones de años la Tierra cuenta con la tecnología necesaria para desarrollar un sistema capaz de avistar rocas de ese tamaño a distancias considerables. Sería lamentable que por falta de fondos o decisión política no lo hagamos, y recibamos un cascotazo cósmico que elimine en un segundo más vidas que todas las estúpidas guerras que hemos padecido a lo largo de la historia.

A las 13.26, hora peninsular, el bólido pasará rozando el planeta y volverá a perderse en el espacio. Luego de que el MIT emitiese el alerta, su imagen pudo ser captada por astrónomos italianos del Observatorio de Remanzacco. La polémica sobre si era o no un asteroide tuvo lugar por que su período orbital es casi idéntico al de la Tierra. Una vez que la NASA calculó su órbita, se supo que este objeto alcanza la órbita de Venus en su punto más cercano al Sol y casi la de Marte en su punto más lejano, atravesando la trayectoria que describe la Tierra en un ángulo muy pronunciado. Se supone que cerca de dos millones de pedruscos como este deambulan por las cercanías de la Tierra, y que uno de este tamaño nos roza -sin que lo sepamos- una vez por semana en promedio. Se supone que las rocas de menos de 25 metros de diámetro explorarían al entrar en contacto con la atmósfera, causando escasos daños materiales, pero parece poco razonable confiarse totalmente a la eficiencia de nuestra atmósfera como único escudo defensivo.

jueves, 21 de enero de 2010

Logran detener la luz durante 1.5 segundos

Todos sabemos que la luz viaja a una velocidad de aproximadamente 300 mil kilómetros por segundo, y que nada puede ir más rápido que ella. Lo que no todos saben es que la velocidad de un rayo luminoso puede variar dependiendo del tipo de materia que atraviesa. Un grupo de científicos han llevado este concepto al extremo, haciendo que un rayo de luz se detenga durante un segundo y medio, utilizando para ello un recipiente lleno de gas, específicamente diseñado con este objetivo. ¿Que aplicaciones prácticas podría tener este experimento?

Todos quedamos sorprendidos cuando aprendemos que no existe nada que pueda viajar a una velocidad mayor a la de la luz. Desafiando el sentido común, y por más que pongamos toda la energía que se nos ocurra en ello, es imposible hacer que algo viaje a más de 300 mil kilómetros por segundo, la velocidad de la luz en el vacío. Sin embargo, un rayo de luz puede ir a menor velocidad que esa. Si el medio que atraviesa posee determinadas propiedades, la luz puede desplazarse a velocidades ligeramente menores. De hecho, ese fenómeno es el que explica los espejismos o la forma en que una cuchara semi sumergida en un vaso con agua parece quebrarse. Los materiales semitransparentes -como el agua o el plástico- pueden hacer que la luz “frene”, causando la refracción.


Llevando este concepto al extremo, en los últimos años varios científicos han logrado retardar la velocidad de la luz hasta llegar a detenerla por completo. En general, ha sido posible detener un rayo de luz por completo durante unas pocas millonésimas de segundo. Una vez “liberado”, el rayo continúa su camino como si nada hubiese pasado, conservando tanto su energía como su fase. En los últimos días, el equipo dirigido por Lene Hau ha logrado detener la luz durante un segundo y medio. A pesar que en nuestra escala temporal ese lapso de tiempo puede parecer pequeño, a escala atómica es prácticamente una eternidad. De hecho, este experimento ha sido catalogado por los físicos como un verdadero hito en la historia de la ciencia. Es muy posible que -luego de realizar varios experimentos más- este descubrimiento haga posibles ordenadores y sistemas de comunicación de datos mucho más rápidos y seguros que los disponibles actualmente.

El equipo de Hau trabaja en este tipo de proyectos desde hace años. En 2007 tuvieron sus cinco minutos de fama en los medios de todo el mundo al lograr que un rayo de luz “viajase” a solo 60 kilómetros por hora, al hacerlo pasar por un gas cuyo principal componente era sodio helado. Lejos de conformarse con ese éxito, los científicos siguieron investigando hasta dar con una sustancia capaz de detener por completo la luz. Para ello, enfriaron un gas atrapado magnéticamente en átomos de sodio hasta casi el cero absoluto, cerca de los -273 grados centígrados. Si bien en circunstancias normales este material es opaco a la luz, iluminándolo adecuadamente con un láser especial se vuelve lo suficientemente transparente como para ser atravesado por otro rayo láser. Los físicos llaman a este fenómeno “transparencia inducida por electromagnetismo. ” Lo que descubrió Lene Hau es que si el primer láser se apaga mientras que el segundo está atravesando el gas, este se detiene por completo, reanudando su viaje -intacto- cuando se lo vuelve a iluminar.

La luz se detiene, y luego continúa su viaje.


Una de las aplicaciones más interesantes de este fenómeno podría ser la construcción de memorias para los ordenadores cuánticos. Dado que tanto la energía de la luz como su fase se conservan, puede utilizarse cada rayo como un elemento de memoria. Obviamente, habrá que investigar durante años antes que de este descubrimiento pueda derivarse alguna aplicación práctica, pero el potencial que tiene dicho descubrimiento para la informática del futuro es enorme.

miércoles, 20 de enero de 2010

La ducha diaria perjudicial para la salud

¿Tu te duchas todos los días? Bueno, deberías dejar de hacerlo para seguir conservando tu salud. La verdad que no sé que tipo de veracidad tendrá, pero se realizo un estudio en la Universidad de Colorado, en los Estados Unidos, donde se asegura que ducharse todos los días puede ser perjudicial para la salud.
Los científicos afirman que una ducha cada mañana puede llenar el rostro de microorganismos potencialmente peligrosos. En este estudio participaron 50 personas que se duchaban todas las mañanas. En un 30% de los duchados se hallaron niveles significantes de una bacteria conocida como Mycobacterium Avium, un patógenos ligado a las enfermedades respiratorias.
Los patógenos comunes del agua corriente se adhieren en la parte interior del duchador. Si recibís un chorro de agua en la cara ni bien abrís la canilla, significa que estás recibiendo una altísima carga de esta bacteria, lo cual no es muy saludable.
Los síntomas de la enfermedad respiratoria que causa esta bacteria en particular, incluyen: cansancio, tos seca y persistente, debilitamiento y sensación de malestar general. El grupo de mayor riesgo son aquellas personas comprometidas inmunológicamente, como las embarazadas, los adultos mayores o quienes padecen otras enfermedades.
No sé si será verdad, pero para evitarte una enfermedad, deja correr el agua unos minutos antes de meterte en la ducha.

martes, 19 de enero de 2010

Tomar café y té puede reducir el riesgo de diabetes

Los individuos que beben más café, normal o descafeinado, o té parecen tener un menor riesgo de desarrollar diabetes tipo 2, según una revisión de análisis que ha realizado un equipo de investigadores de la Universidad de Sidney en Australia. Los resultados del estudio se publican en la revista 'Archives of Internal medicine'. Hacia el año 2025 aproximadamente 380 millones de individuos de todo el mundo se verán afectados por la diabetes tipo 2. Aunque se sabe que la obesidad y la inactividad física aumentan el riesgo de diabetes sigue siendo incierto el papel de los factores del estilo de vida y la dieta.
Los científicos, dirigidos por Rachel Huxley, identificaron 18 estudios en los que se incluían 457.922 participantes y que evaluaban la asociación entre consumo de café y riesgo de diabetes que se publicaron entre 1966 y 2009. Seis de los estudios en los que participaban 225.516 individuos también incluían información sobre café descafeinado, mientras que siete de ellos con 286.701 participantes informaban sobre consumo de té.
Cuando los autores combinaron y analizaron los datos, descubrieron que cada taza de café adicional consumido en un día se asociaba con una reducción del 7 por ciento en el exceso de riesgo de diabetes. Los individuos que bebían entre tres y cuatro tazas al día tenían aproximadamente un 25 por ciento menos de riesgo que aquellos que bebían entre cero y dos tazas al día.
Además, en los estudios que evaluaban el consumo de café descafeinado, aquellos que bebían más de tres a cuatro tazas diarias tenían una tercera parte menos de riesgo de diabetes que aquellos que no bebieron ninguna. Los que tomaban más de entre tres a cuatro tazas tenían una quinta parte menos de riesgo que los que no bebían té.
Los autores creen que el aparente efecto protector del consumo del té y el café parece ser independiente de una variedad de variables de confusión, lo que aumenta la posibilidad de sus efectos biológicos directos. Debido a la asociación entre el café descafeinado y el riesgo de diabetes, la asociación no se debería sólo a la cafeína. Según los investigadores podrían participar otros componentes del café y el té como el magnesio o antioxidantes como los lignanos o los ácidos clorogénicos.
Los autores concluyen que si se pudiera observar estos efectos beneficiosos en ensayos clínicos de intervención, los resultados tendrían importantes implicaciones para millones de pacientes de diabetes. Así, la identificación de los componentes activos de estas bebidas abriría nuevas vías terapéuticas para la prevención de la diabetes y se podría aconsejar a los pacientes bajo mayor riesgo de diabetes que aumentaran su consumo de té y café además de sus niveles de actividad física o la pérdida de peso.

lunes, 18 de enero de 2010

Las personas con 'cara de niño' viven más


Las personas con 'cara de niño' viven más que aquellas que aparentan tener más edad de la que ya tienen, según se desprende de un estudio realizado por científicos daneses, a través del cual se percibe que la apariencia puede determinar la longevidad de una persona. Algunos famosos mantienen pese a no encontrarse ya en plena juventud un aspecto que no responde a su edad. Un ejemplo puede ser el nadador David Meca (en la imagen), de 35 años. El trabajo, recogido en el 'British Medical Journal', también recoge una explicación biológica y no simplemente de pura apariencia física. Así, unas piezas clave del ADN, llamadas 'telómeros', indican la capacidad de las células para reproducirse.

"La percepción de edad es utilizada por los médicos como una indicación general de la salud de un paciente, además de ser un marcador biológico de envejecimiento que predice la supervivencia entre los mayores de 70 años", indicaron los autores.

De esta forma, apuntaron que una menor longitud de los telómeros se cree que significa el envejecimiento más rápido y se ha relacionado con una serie de enfermedades.

Para este estudio, se han precisado más de siete años de seguimiento, dirigidos por el profesor Kaare Christensen, de la Universidad del Sur de Dinamarca. Además, las personas que han tenido una posición más dura la vida son más propensos a morir antes de tiempo y su vida se refleja en su cara.

domingo, 17 de enero de 2010

¿Por que el arco iris tiene forma de arco?

Bueno, si alguna ves se han preguntado por qué el arco iris tiene forma de arco acá está la respuesta

Cuando el sol está a nuestras espaldas y llueve delante de nosotros, vemos un arco iris.
Los rayos del sol entran en las pequeñas gotas de lluvia (que pueden considerarse pequeñas esferitas de agua) y se reflejan parcialmente en la superficie posterior de ellas.

Es decir, una parte del rayo atraviesa la gota y otra parte se devuelve y sale de la gota por un punto distinto del que entró. Podemos decir que las gotas de lluvia obligan a los rayos de sol a dar una vuelta en U.

Pero no sólo eso: la luz también sufre otras alteraciones. Como sabemos, la luz blanca del sol está formada por diferentes colores, y al transitar dentro de la gota todos los colores tienen un comportamiento distinto: el violeta se desvía (refracta) más que el rojo. Los otros colores sufren una desviación intermedia entre esos dos extremos.

Si de una gota nos llega el azul, entonces los demás colores que emergen de esa misma gota no llegarán a nuestros ojos, porque salen en una dirección levemente diferente.
Centremos nuestra atención en esa particular gota de la cual nos llega un rayo azul. ¿Qué relación tienen con ella las otras gotas que nos envían el color azul?

El ángulo que forma nuestra línea de visión a esas gotas con los rayos del sol debe ser el mismo para todas. Es decir, todas las gotas que emiten el rayo azul en nuestra dirección, se encuentran sobre la superficie de un cono cuyo vértice es nuestra cabeza.

Hablando figurativamente, es algo así como que cada color se mueve por un embudo y nuestro ojo es el agujero del embudo. El rojo se mueve por un embudo ancho; el violeta por un embudo más angosto. Y los rayos se ven como provenientes de la base del embudo respectivo.

El arco iris en realidad es circular, pero no vemos su parte baja porque las gotitas de lluvia que reciben la luz solar están sobre la Tierra. Por eso, nos parece que tiene forma de arco.

sábado, 16 de enero de 2010

Guardar información en cerebro muerto

Por primera vez, los neurólogos han conseguido almacenar información en un trozo de cerebro muerto. El experimento, efectuado por el profesor Ben Strowbridge de la Case Western Reserve University School of Medicine y publicado en la revista Nature, permitió a los científicos guardar datos en un trozo de hipocampo - la región del cerebro que se asocia con la memoria- conservado in vitro. Los datos permanecieron allí durante 10 segundos.

Hasta ahora, un cerebro muerto no era más que un (gran) montón de neuronas que habían dejado de funcionar. Los científicos acostumbran a guardar cerebros o partes de ellos para poder realizar experimentos destinados a conocer mejor su estructura. Todos estos análisis se hacen partiendo de la base de que se está trabajando sobre un trozo de tejido muerto y que este no es capaz de realizar ninguna de las actividades que desarrolla mientras que esta vivo. Sin embargo, puede que estén equivocados. En los últimos días, apareció publicado un artículo en la prestigiosa revista Nature que da cuenta como un grupo de neuronas pertenecientes a la región del hipocampo de una rata fueron capaces de almacenar información durante varios segundos, a pesar de pertenecer a un cerebro muerto y cortado en trocitos.


El profesor de neurociencia, fisiología y biofísica de la Case Western Reserve University School of Medicine Ben Strowbridge y el estudiante de doctorado Phillip Larimer, lograron por primera vez en la historia guardar y recuperar información de un tejido cerebral almacenado in vitro. Esta es una técnica ampliamente utilizada para realizar experimentos en tubos de ensayos o en un ambiente controlado fuera un organismo vivo. En el caso del trabajo de Strowbridge y Larimer, el tejido pertenecía a la región del cerebro denominada hipocampo, que se sabe se encarga de almacenar los recuerdos. Como parte del experimento, fueron capaces de obtener un patrón de “actividades específicas en determinadas células del cerebro”. Las células en cuestión se conocen como “células de musgo” (mossy cells) y forman parte del hipocampo.

“Los neurocientíficos generalmente reconocen tres tipos de memoria: la declarativa, que se usa para recordar hechos o sucesos específicos; la de procedimiento, que sirve para recordar actividades como andar en bicicleta; y la de trabajo, que almacena la información en el corto plazo”, explica Strowbridge. “En este experimento en particular, queríamos saber cuáles eran los circuitos específicos del cerebro que son responsables de la memoria de trabajo.” Utilizando el tejido cerebral de roedores, Strowbridge y sus colegas descubrieron que podían reproducir el funcionamiento de la memoria a través de la estimulación mediante electrodos. “El tejido cerebral muerto, aislado del resto del cuerpo, fue capaz de recordar de cuál de los dos electrodos utilizados procedía la estimulación”, explica Strowbridge. “Esta información permaneció almacenada en el tejido durante 10 segundos, el mismo tiempo que se almacena naturalmente en los mamíferos, incluyendo seres humanos.”





Strowbridge dice que “no es posible almacenar información en una sola célula, pero utilizando un trozo de cerebro realmente es posible implantar recuerdos” en un tejido muerto. Los experimentos, como imaginaras, recién comienzan. Es muy posible que esto solo “funcione” en regiones del tejido cerebral muy específicos- como el hipocampo y que hayan muerto muy recientemente. También deben ser conservados de una manera muy específica. Es difícil predecir qué tipo de aplicación puede tener un descubrimiento como este, si es que tiene alguna. Pero no deja de ser curioso que el cerebro, aún muerto, pueda realizar alguna de sus funciones elementales.

viernes, 15 de enero de 2010

Descubren una Súper-Tierra a 40 años luz de nuestro planeta


A TAN SÓLO 40 años luz fue detectado un planeta con 2,7 veces el radio terrestre. Para sus descubridores, se trataría de un mundo lleno de agua. Fue detectado con un dispositivo pequeño que analiza estrellas enanas.

El hallazgo, realizado por el grupo de David Charbonneau, fue reportado en la revista Nature.

Una súper Tierra es un planeta con 1 a 10 masas terrestres. El planeta hallado tiene 6,5. Fue nombrado como GJ1214b y orbita la estrella GJ1214, una enana con sólo un quinto del tamaño del Sol en la constelación Ofiuco.

Se calcula que su temperatura es cercana a los 204 grados centígrados. Aunque es muy caliente para albergar vida como la conocemos, su descubrimiento permite deducir que planetas del tamaño de la Tierra no son imposibles de hallar.

El planeta se encuentra a 2,2 millones de kilómetros de su estrella.

Para Zachory Bertha, profesional del Centro Smithsoniano-Harvard para la Astrofísica, quien primero advirtió la existencia del planeta, "a pesar de su temperatura parece ser un mundo con agua". Es, dijo, el exoplaneta más frío y parecido a la Tierra de los encontrados hasta ahora.

Al momento se han detectado 415 planetas en otras estrellas.

Para la científica, parte del agua del planeta debería estar en forma de materiales exóticos, como hielo VII (una forma cristalina del agua que se presenta a presiones mayores a 20.000 veces que la atmósfera a nivel del mar.

Aunque tendría agua, no es un planeta igual a la Tierra, pues 50 por ciento de su masa estaría conformada por agua, frente al 0,06 de nuestro.

Leslie Rogers y Sara Seagers, del MIT, creen que podría tratarse no de un planeta con agua, sino de un mini Neptuno con capas de metal, roca y hielo caliente debajo de una atmósfera densa de helio e hidrógeno.

GJ1214b fue hallado con un pequeño dispositivo de 8 telescopios de 16 pulgadas, no muy lejos del alcance de los aficionados al tema.

La primera súper Tierra fue Corot-7-b, detectada por el satélite Corot. Su diámetro es 1,7 veces el terrestre y da una vuelta a su estrella en 20 horas, en la constelación Monoceros, a 390 años luz.

Hoy en el espacio se encuentra la misión Kepler de la Nasa, con la misión de sondear cerca de 100.000 estrellas en busca de planetas del mismo tamaño que la Tierra, hasta hoy esquivos a la mirada desde la superficie terrestre.

jueves, 14 de enero de 2010

Desinfenctantes vuelven mas poderosas a las bacterias con los antibioticos

Los desinfectantes podrían "entrenar" de manera eficaz a las bacterias para que éstas se vuelvan resistentes a los antibióticos, sugiere un nuevo estudio realizado en Irlanda.
Los científicos sabían de antemano que esos microorganismos son capaces de sobrevivir a los desinfectantes, pero la nueva investigación muestran que el mismo proceso podría fortalecerlas ante determinadas drogas.
Según los expertos, las bacterias pueden volverse resistentes a un antibiótico al cual no ha sido expuesta previamente.
El equipo de investigadores de la Universidad Nacional de Irlanda en Galway, que centró su estudio en bacterias comúnmente halladas en hospitales, instó a la comunidad científica a replantear la forma en la que se combaten las infecciones en un artículo que publicado en la revista científica Microbiology.
Los expertos descubrieron que, al añadir mayores cantidades de desinfectantes a cultivos de la bacteria Pseudomonas aeruginosaen el laboratorio, ésta no sólo aprendió a resistir a la sustancia sino también a la Ciprofloxacina -un antibiótico de prescripción común- a pesar de no haber sido expuesta a este fármaco con antelación.
Los investigadores dijeron que la bacteria se había adaptado con el fin de expulsar a los agentes antimicrobianos -desinfectantes o antibióticos- de sus células.
Mutación
La bacteria adaptada también presentó una mutación en su ADN que le permitió resistir específicamente a antibióticos como la Ciprofloxacina.
La Pseudomonas aeruginosaes un microorganismo que suele atacar a personas que ya se encuentran seriamente enfermas.
Puede provocar una amplia gama de infecciones, particularmente en individuos con sistemas inmunológicos debilitados, como pacientes con VIH/SIDA, cáncer, quemaduras severas, diabetes o fibrosis quística.
Los desinfectantes son utilizados para prevenir la propagación de la bacteria en diversas superficies, pero si el microorganismo es capaz de sobrevivir y atacar a pacientes, se opta por la administración de antibióticos para combatir la infección.
Las bacterias que logran sobrevivir ambos controles -desinfectantes y antibióticos- pueden convertirse en una seria amenaza para las personas hospitalizadas, advirtió el estudio.
Aunque en los altos niveles de concentración generalmente utilizados en estos casos no serían un problema, el autor de la investigación, el doctor Gerard Fleming, dijo que "los residuos de desinfectantes diluidos incorrectamente y dejados en los hospitales podrían promover el crecimiento de bacterias resistentes a los antibióticos".
"Lo más preocupante es que las bacterias parecen ser capaces de adaptarse a los antibióticos sin siquiera haber sido expuestas a ellos", añadió.
Vidas en riesgo
Según la especialista en temas científicos de la BBC, María Elena Navas, las superbacterias (causantes de preocupantes infecciones hospitalarias) se han propagando entre las poblaciones de algunos países, lo que -según los expertos- podría poner muchas vidas en riesgo.
Un reporte de la Unión Europea (UE) publicado este año ya había hecho énfasis en la importancia del uso "prudente y apropiado" de los desinfectantes para minimizar el riesgo de que las bacterias se vuelvan resistentes a ambas formas de defensa.
Este año también se informó que tratamientos en hospitales en Brasil habían sido puestos en riesgo por la presencia de la Mycobacterium masiliense, una bacteria que ha desarrollado resistencia a un fluido de esterilización de uso común y a varios antibióticos.
"Fue muy significativo porque se trató del primer incidente vinculado a la resistencia a un biocida(desinfectante o fármaco) que provocó un fracaso clínico, algo nuevo hasta ahora", afirmó el doctor Gerry McDonnel, un investigador en este campo.
"Es necesario que ésta se convierta en un área de investigación y debate, pero vale la pena tener en cuenta que puede que los desinfectantes no sólo sean el problema sino también la cura", agregó.
Investigaciones publicadas en 2009 indicaron que las toallas desinfectantes utilizadas para protegerse de la especie bacteriana Staphylococcus aureus, resistente a la meticilina, podría más bien contribuir a propagarla.
La razón, apuntaron los estudios, es que la cantidad de solución presente en esas toallas a menudo no es suficiente para matar a todos los microorganismos, y el personal que trabaja en los hospitales a veces utiliza la misma toalla desinfectante para limpiar más de una superficie.
BBC Mundo.com - Todos los derechos reservados. Se prohíbe todo tipo de reproducción sin la debida autorización por escrito de parte de la BBC.

miércoles, 13 de enero de 2010

El Efecto mariposa

El "efecto mariposa" es un concepto que hace referencia a la noción de sensibilidad a las condiciones iniciales dentro del marco de la teoría del caos. La idea es que, dadas unas condiciones iniciales de un determinado sistema caótico, la más mínima variación en ellas puede provocar que el sistema evolucione en formas completamente diferentes. Sucediendo así que, una pequeña perturbación inicial, mediante un proceso de amplificación, podrá generar un efecto considerablemente grande.
Un ejemplo claro sobre el efecto mariposa es soltar una pelota justo sobre la arista del tejado de una casa varias veces; pequeñas desviaciones en la posición inicial pueden hacer que la pelota caiga por uno de los lados del tejado o por el otro, conduciendo a trayectorias de caída y posiciones de reposo final completamente diferentes. Cambios minúsculos que conducen a resultados totalmente divergentes.

Diagrama de la trayectoria del sistema de Lorenz para los valores r = 28, σ = 10, b = 8/3
Su nombre proviene de las frases: "el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo"[cita requerida] o "el aleteo de las alas de una mariposa pueden provocar un Tsunami al otro lado del mundo" así como tambien "El simple aleteo de una mariposa puede cambiar el mundo".
Este nombre también fue acuñado a partir del resultado obtenido por el meteorólogo y matemático Edward Lorenz al intentar hacer una predicción del clima atmosférico.
En una determinada ocasión quiso volver a echar un vistazo a una simulación que ya había hecho llevándola más lejos en el tiempo. En vez de comenzar desde el principio y esperar a que el ordenador llegara al intervalo que le interesaba, introdujo por el teclado los valores que ya tenía apuntados en el papel. Dejó la máquina trabajando y se fue a tomar un café.
Después de una hora, la máquina había simulado dos meses de predicción atmosférica. Y sucedió lo inesperado. Había valores de los días que había simulado anteriormente que no coincidían con los que había calculado esta vez.
El clima atmosférico se describe por 3 ecuaciones diferenciales bien definidas. Siendo así, conociendo las condiciones iniciales se podría conocer la predicción del clima en el futuro. Sin embargo, al ser éste un sistema caótico, y no poder conocer nunca con exactitud los parámetros que fijan las condiciones iniciales (en cualquier sistema de medición, por definición, siempre se comete un error, por pequeño que éste sea) hace que aunque se conozca el modelo, éste diverja de la realidad pasado un cierto tiempo.
Esta interrelación de causa-efecto se da en todos los eventos de la vida. Un pequeño cambio puede generar grandes resultados o poéticamente: "el aleteo de una mariposa en Hong Kong puede desatar una tormenta en Nueva York".
La consecuencia práctica del efecto mariposa es que en sistemas complejos tales como el estado del tiempo o la bolsa de valores es muy difícil predecir con seguridad en un mediano rango de tiempo. Los modelos finitos que tratan de simular estos sistemas necesariamente descartan información acerca del sistema y los eventos asociados a él. Estos errores son magnificados en cada unidad de tiempo simulada hasta que el error resultante llega a exceder el ciento por ciento.

¿Qué es el efecto mariposa?
Hacia 1960, el meteorólogo Edward Lorenz se dedicaba a estudiar el comportamiento de la atmósfera, tratando de encontrar un modelo matemático, un conjunto de ecuaciones, que permitiera predecir a partir de variables sencillas, mediante simulaciones de ordenador, el comportamiento de grandes masas de aire, en definitiva, que permitiera hacer predicciones climatológicas.
Lorenz realizó distintas aproximaciones hasta que consiguió ajustar el modelo a la influencia de tres variables que expresan como cambian a lo largo del tiempo la velocidad y la temperatura del aire. El modelo se concretó en tres ecuaciones matemáticas, bastante simples, conocidas, hoy en día, como modelo de Lorenz.
Pero, Lorenz recibió una gran sorpresa cuando observó que pequeñas diferencias en los datos de partida (algo aparentemente tan simple como utilizar 3 ó 6 decimales) llevaban a grandes diferencias en las predicciones del modelo. De tal forma que cualquier pequeña perturbación, o error, en las condiciones iniciales del sistema puede tener una gran influencia sobre el resultado final. De tal forma que se hacía muy difícil hacer predicciones climatológicas a largo plazo. Los datos empíricos que proporcionan las estaciones meteorológicas tienen errores inevitables, aunque sólo sea porque hay un número limitado de observatorios incapaces de cubrir todos los puntos de nuestro planeta. esto hace que las predicciones se vayan desviando con respecto al comportamiento real del sistema.
Lorenz intentó explicar esta idea mediante un ejemplo hipotético. Sugirió que imaginásemos a un meteorólogo que hubiera conseguido hacer una predicción muy exacta del comportamiento de la atmósfera, mediante cálculos muy precisos y a partir de datos muy exactos. Podría encontrarse una predicción totalmente errónea por no haber tenido en cuenta el aleteo de una mariposa en el otro lado del planeta. Ese simple aleteo podría introducir perturbaciones en el sistema que llevaran a la predicción de una tormenta.
De aquí surgió el nombre de efecto mariposa que, desde entonces, ha dado lugar a muchas variantes y recreaciones.
Se denomina, por tanto, efecto mariposa a la amplificación de errores que pueden aparecer en el comportamiento de un sistema complejo. En definitiva, el efecto mariposa es una de las características del comportamiento de un sistema caótico, en el que las variables cambian de forma compleja y errática, haciendo imposible hacer predicciones más allá de un determinado punto, que recibe el nombre de horizonte de predicciones.

martes, 12 de enero de 2010

Douglas Tompkins y el “latifundismo ecológico”


Para unos es un ángel verde. Para otros, una especie de demonio con turbias intenciones. Douglas Tompkins ha comprobado que la tarea de salvar la naturaleza no es nada simple. Desde que empezó a comprar enormes extensiones de terreno en el sur de Chile a comienzos de la década del 90, ha tenido que lidiar con rumores de las más diversas índoles, que le atribuyen desde contactos con la CIA u oscuros fines económicos, hasta intenciones de crear un reducto ecológico donde sobrevivir a una hecatombe planetaria.



Cuando un empresario exitoso, que amasó fortuna en el ramo textil con las firmas “Northface” y “Esprit”, declara que no actúa con afanes de lucro sino con el objetivo de crear una gran área natural protegida, despierta sospechas y resistencias.



Douglas Tompkins, quien vendió su parte en las citadas empresas en 125 millones de dólares, decidió invertir en la protección del medio ambiente. Optó por Chile, por diversas razones. La dictadura de Pinochet había llegado a su fin y había allí amplias zonas de bosques, con muy baja densidad de población, que ofrecían condiciones ideales para un proyecto como el suyo.



Con la adquisición a particulares del predio Riñihué, en 1991, puso la primera piedra. Pero la idea comenzó a tomar mayores proporciones posteriormente, con la compra de las tierras colindantes del predio Pumalín, de unas 185.000 hectáreas, con bosques nativos, ríos y fiordos, que se concretó en 1994.


Parque Pumalín, un área modelo


Hoy en día el Parque Pumalín cuenta con un área de aproximadamente 300.000 hectáreas. Convertido oficialmente en “Santuario de la Naturaleza”, es el área silvestre protegida privada más grande de Chile y también una de las mayores del mundo.

“Es una zona muy accidentada, con muchas montañas y con bosques de alerce, que es uno de los tipos forestales más vulnerables de Chile, porque ha sido muy explotado para la industria maderera”, explica Claudia Sepúlveda, socióloga y ambientalista, Douglas Tompkins: de empresario a ecologista.Bildunterschrift: Großansicht des Bildes mit der Bildunterschrift: Douglas Tompkins: de empresario a ecologista. agregando que “es una especie amenazada y, además, una de las especies forestales más longevas del planeta”.
Según subraya la especialista, miembro del directorio de la corporación “Parques para Chile”, se trata de “una zona ecológicamente muy valiosa, que además ha sido poco intervenida por su inaccesibilidad y lo accidentado del terreno”.

Claudia Sepúlveda considera que Tompkins lo ha hecho bien. A su juicio, el Parque Pumalín es un área modelo, ya que el trabajo ha sido realizado con apoyo de científicos destacados y de universidades, con los más altos estándares en términos del conocimiento de especies y de planificación. En suma, ha elevado el estándar de la conservación en general.
El economista y ambientalista Manfred Max-Neef, galardonado con el Premio Nobel Alternativo (Right Livelihood Award) en 1983, amigo personal de Tompkins, ha seguido de cerca el proyecto incluso desde antes de que comenzara a materializarse.

Max Neef pertenece al directorio a la Fundación Pumalín, que administra el parque, como representante de la Universidad Austral y elogia con convicción lo que se ha conseguido. “Si usted visitara 50 parques naturales en el mundo entero, vería que el Parque Pumalín es el más perfecto de todos”, asegura.


¿Quién herederá este santuario natural cuando el ex empresario Tompkins muera?

“Conflicto de visiones”


Tompkins ha anunciado ya su intención de legar el Parque Pumalín al Estado chileno cuando muera. Aún así, las suspicacias no cesan. Cada nueva compra de terrenos enfrenta resistencias. Incluso ha habido denuncias de irregularidades en esas adquisiciones. Claudia Donoso dice no tener noticias de que semejantes cargos se hayan comprobado y opina que “esas denuncias son un síntoma más, un indicador de un conflicto de visiones”.

En este contexto, hace notar que “Tompkins, por la cantidad de hectáreas que tiene, es un actor fundamental de esa provincia, que ha sido históricamente un destino de la colonización”, y que a juicio de muchos debe ser productiva. “Son los terrenos que van quedando para incorporar al desarrollo”, acota Claudia Sepúlveda.

Igualmente Manfred Max Neef desestima las críticas contra Tompkins e indica que hubo malos entendidos que entretanto se han superado. Pasados más de 15 años del inicio del proyecto, ya hay más comprensión en la comunidad.

opinan especialistas.


No obstante, algunos ambientalistas como Claudia Sepúlveda critican la forma en que se ha llevado a cabo, sin consultar con la comunidad local ni buscar alianzas con los ambientalistas chilenos. Igualmente se le reprocha a Tompkins no dar importancia a proyectos conservacionistas locales de pequeña escala y ocuparse sólo de la conservación en grande.

Al respecto, Max Neef opina que hay que entender lo que es un ecosistema. “No es un asunto pequeño”, apunta, asegurando que “la conservación de la biodiversidad está mejor garantizada en un predio de las dimensiones de Pumalín”.


Haciendo escuela


Tompkins, en todo caso, predica con el ejemplo. Y éste ya parece hacer escuela, como señala Claudia Sepúlveda, quien califica al magnate estadounidense como “una persona visionaria, que muy tempranamente identificó un nicho donde él, como un empresario ‘convertido’ hacia el ambientalismo, podía hacer un aporte”.

La socióloga chilena considera que su iniciativa ha sido muy importante en Chile, porque ha inspirado a otros. Y pone un ejemplo concreto: “Hoy en día, uno de los candidatos a la presidencia de Chile, el que tiene más apoyo del electorado hasta ahora según las encuestas, Sebastián Piñera (de la derechista Alianza por Chile), también creó un parque de 118.000 hectáreas en la isla de Chiloé. Él ha establecido contacto directo con Tompkins para aprender de Pumalín y replicar muchas de las cosas que se han hecho allá”.

Y hace notar que no es el único caso, ya que “existen varias experiencias de empresarios o empresas que se han involucrado en la conservación de grandes terrenos en Chile”.

Eso ya es todo un logro para Tompkins, a quien parece tenerle sin cuidado si se lo tilda de ángel verde o demonio, mientras pueda seguir adelante con su proyecto y comprando tierras, no sólo en Chile, para preservarlas de la catástrofe ecológica.

lunes, 11 de enero de 2010

Descubierto el mecanismo del efecto placebo

Se ha descubierto por parte de los científicos una clave para comprender el misterioso “efecto placebo”: los placebos pueden funcionar bloqueando las señales de dolor en la médula espinal antes de llegar al cerebro.

El efecto placebo ha sido desde hace mucho tiempo un misterio científico: tiene lugar cuando la condición médica de un paciente responde a un tratamiento falso o con sustancias inactivas. Originalmente se pensaba que era un fenómeno psicológico relacionado con la percepción y expectativas del paciente; si la sustancia inactiva (o placebo) se ve como beneficiosa, puede ayudar a curar, pero si se ve como dañina, puede provocar efectos negativos.

“Encontramos que cuando la gente experimentaba un alivio del dolor debido a la administración de placebo, también mostraba una activación neuronal reducida en la estimulación dolorosa de la médula espinal”, dijo el miembro del equipo de investigación Falk Eippert, neurocientífico del Centro Médico Universitario de Hamburgo-Eppendorf en Hamburgo, Alemania.

“Esto demuestra que los factores psicológicos tales como el placebo pueden tener un profundo impacto en el procesado del dolor”.

Condicionamiento y expectativas

Actualmente, el efecto placebo se cree que depende principalmente de dos fenómenos – condicionamiento y expectativas. El condicionamiento es el proceso, por ejemplo, cuando vemos a un doctor varias ceces y nos ayuda a recuperarnos en cada ocasión. Finalmente estamos condicionados a mejorar simplemente por ir al doctor – no se necesita más terapia para que nos recuperemos.

Las expectativas son un proceso más consciente que depende del contexto de una situación terapéutica. Por ejemplo, si tenemos la expectativa de que cierto tratamiento mejorará nuestra salud, entonces puede que mejoremos incluso aunque el tratamiento no haga nada en absoluto.

Ambos mecanismos funcionan juntos y ayudan a generar beneficios terapéuticos.

Los placebos son normalmente usados como ‘controles’ en experimentos que prueban nuevos tratamientos: los pacientes son seleccionados aleatoriamente para administrársele la medicina real o un placebo, y ni ellos ni la plantilla que administra el ensayo saben qué paciente ha recibido el tratamiento real. A menudo, algunos de los pacientes a los que se da sustancias inactivas también mejoran.

Cuando un número sustancial de gente que toma placebo también mejora, es difícil para los investigadores determinar si un nuevo medicamento en realidad es beneficioso. Se pueden aplicar placebos a una variedad de dolencias, y cuando tienen un efecto de alivio del dolor (como en este estudio), se conocen como ‘analagesia por placebo’.

En la profundidad del cerebro

Aunque ha habido desde hace tiempo una comprensión de que el efecto placebo estaba enraizado en las profundidades del cerebro, los recientes avances en la tecnología de imágenes permite a los científicos escanear la actividad neuronal en la médula espinal. Esta parte del cuerpo actúa como estación de entrada al sistema nervioso central para los mensajes del dolor que proceden del cuerpo.

Esto demostró que los factores psicológicos, tales como el placebo, pueden tener un profundo impacto en el procesado del dolor, afectando no sólo a áreas cognitivas en las profundidades del cerebro, sino hasta la médula espinal, donde se inhibe la actividad neuronal.

A lo largo del estudio, los investigadores aplicaron calor doloroso a los brazos de 15 hombres sanos, y compararon las respuestas de su médula espinal cuando creían que habían sido tratados con una crema anestésica o un placebo.

Ambas cremas, en realidad, eran inactivas. Pero los escáners IRMf (imagen de resonancia magnética funcional) mostraron que la actividad nerviosa se reducía significativamente cuando los sujetos creían que se les daba el anestésico.

Endorfinas naturales

Los científicos sugieren que esto puede deberse a que cuando los pacientes esperan que un tratamiento sea efectivo, el área del cerebro responsable del control del dolor se activa, liberando endorfinas naturales que viajan a través de la médula espinal para suprimir la entrada de señales dolorosas.

Esto significa que los pacientes se sienten mejor sin importar que el tratamiento tenga efecto.

Aunque Falk no cree que este estudio tenga ningún impacto inmediato en pacientes que sufren desórdenes del dolor, sugiere los beneficios de demostrar que es posible medir las influencias controladas en las respuestas al dolor de la médula espinal.

“Esto podría ayudar en el desarrollo de nuevos tratamientos para el dolor, permitiendo a los científicos comprobar la eficacia y posible zona de acción de nuevos tratamientos”, dijo Falk.

Mejor comprensión del dolor

Jon Jureidini, psiquiatra de la Universidad de Adelaida en Australia, está de acuerdo en que este descubrimiento expande nuestra comprensión del dolor.

“Esto es muy interesante para la comunidad científica que trabaja con el dolor. Aunque puede que muchos pacientes no se beneficien, proporciona esperanza a los pacientes terminales”, comenta.

Edzard Ernst, médico en la Universidad de Exeter en el Reino Unido, e investigador especialista de la validez de remedios alternativos está intrigado por los hallazgos.

“Este estudio proporciona un novedoso mecanismo para explicar cómo un placebo podría disminuir la sensación de dolor a nivel del sistema nervioso. Por supuesto, los hallazgos requieren de una replicación independiente, pero ciertamente dan que pensar y son emocionantes”, comenta.

domingo, 10 de enero de 2010

Teoría M: La madre de todas las supercuerdas

Una Introducción a la Teoría M



Cada década más o menos, un impactante avance en la Teoría de Cuerdas envía ondas de choque hacia toda la comunidad de físicos teóricos, generando un febril flujo de artículos y actividad. Esta vez, las líneas de Internet arden igual que los artículos debido a lo publicado en el tablón de anuncios de Internet del Laboratorio Nacional de Los Álamos, el centro oficial para intercambio de información de artículos de supercuerdas. John Schwarz de Caltech, por ejemplo, ha estado dando conferencias por todo el mundo proclamando la “segunda revolución de las supercuerdas”. Edward Witten del Instituto para Estudios Avanzados en Princeton dio una detallada charla de 3 horas describiéndola. Las consecuencias del avance incluso sacuden a otras disciplinas como las matemáticas. El director del Instituto, el matemático Phillip Griffiths, dice, “La emoción que siento entre la gente de este campo y los avances de mi propio campo de las matemáticas... han sido en verdad muy notorias. Me siento un privilegiado por ser testigo de primera mano”.

Cumrun Vafa de Harvard ha dicho, “Estoy predispuesto hacia esta teoría, creo que es tal vez el desarrollo más importante no solo en la teoría de cuerdas, sino también en la física teórica al meno en las dos últimas décadas”. Lo que está disparando toda esta emoción es el descubrimiento de algo llamado “Teoría M”, una teoría que puede explicar el origen de las cuerdas. En solo un deslumbrante golpe, esta nueva Teoría M ha resuelto una serie de extraños misterios que llevaban mucho tiempo en la teoría de cuerdas y que la han perseguido desde sus inicios, dejando a muchos físicos teóricos (¡incluido yo mismo!) sin aliento. La Teoría M, además, puede incluso forzar a la Teoría de Cuerdas a cambiar su nombre. Aunque muchas de las características de la Teoría M son aún desconocidas, no parece ser una teoría de cuerdas pura. Michael Duff de Texas A & M está dando discursos con el título “¡La Teoría actualmente conocida como de Cuerdas!”. Los teóricos de las cuerdas se cuidan mucho de apuntar que esto no prueba la exactitud final de la teoría. De ninguna forma. Eso podría llevar más años o décadas. Pero esto marca un significativo avance que actualmente está reformando completamente este campo.

La Parábola del León

Einstein dijo una vez, “La Naturaleza nos muestra solo la cola del león. Pero no tengo duda de que pertenece al león incluso aunque no pueda revelarse en seguida debido a su enorme tamaño”. Einstein pasó los últimos 30 años de su vida buscando la “cola” que le llevaría hasta el “león”, la fabulosa Teoría de Campo Unificada o la “Teoría del Todo”, la cual uniría todas las fuerzas del Universo en una única ecuación. Las cuatro fuerzas (gravedad, electromagnetismo, y las fuerzas nucleares débil y fuerte) estarían unificadas en una ecuación tal vez de no más de una pulgada de longitud. Capturar el “león” podría ser el avance científico más importante en toda la física, el colofón a 2 000 años de investigación científica, desde que los griegos se preguntaron por primera vez de qué estaba hecho el mundo. Pero aunque Einstein fue el primero en salir en esta noble caza y rastrear las huellas dejadas por el león, en última instancia perdió el rastro y se desvió hacia la selva. Otros gigantes de la física del siglo XX, como Werner Heisenberg y Wolfgang Pauli, también se unieron a la caza. Pero todas las ideas sencillas se intentaron y demostraron ser incorrectas. Cuando Niels Bohr escuchó en una ocasión una conferencia de Pauli explicando su versión de la Teoría de Campo Unificada, Bohr se levantó y dijo, “Todos los del fondo estamos de acuerdo en que su teoría es una locura. ¡Pero estamos divididos sobre si su teoría es lo bastante loca!” .

Las huellas que llevan a la Teoría de Campo Unificada, de hecho, están cubiertas con los restos de expediciones y sueños fallidos. Hoy día, sin embargo, los físicos siguen un rastro diferente que podría ser lo “bastante loco” para llevar al león. Este nuevo rastro lleva a la Teoría de Supercuerdas, la cual es la mejor (y de hecho la única) candidata para una Teoría del Todo. Al contrario que sus rivales, ha sobrevivido a cada devastador reto matemático lanzado contra ella. No es sorprendente que la teoría sea un radical y “loco” envío del pasado, estando basada en diminutas cuerdas vibrando en un espacio tiempo de 10 dimensiones. Además, la teoría engulle fácilmente la Teoría de la Gravedad de Einstein. Witten ha dicho, “Al contrario que la Teoría de Campo Cuántico convencional, la Teoría de Cuerdas requiere la gravedad. Considero este hecho como uno de los mayores descubrimientos hechos nunca en la ciencia”. Pero hasta hace poco, había un punto débil manifiesto: los teóricos de las cuerdas habían sido incapaces de probar todas las soluciones del modelo, fallando miserablemente al examinar la llamada “región no perturbativa”, la cual describiré brevemente. Esto es de vital importancia, debido a que en última instancia nuestro Universo (con su maravillosa colección de diversas galaxias, estrellas, planetas, partículas subatómicas e incluso gente) podría caer en esta “región no perturbativa”. Hasta que esta región pueda ser probada, no sabremos si la Teoría de Cuerdas es una Teoría del Todo -- ¡o una Teoría de Nada!. Esto es lo que hoy día provoca esta emoción. Por primera vez, usando una potente herramienta llamada “dualidad”, los físicos están investigando más allá de la cola, y por fin ven el contorno de un enorme e inesperadamente maravilloso león en el otro extremo. No sabiendo cómo llamarla, Witten le ha puesto el apodo de “Teoría M”. De un solo golpe, La Teoría M ha resuelto muchas de las embarazosas características de la teoría, tales como por qué tenemos 5 Teorías de Supercuerdas. Finalmente, podría resolver la preocupante cuestión de dónde vienen las cuerdas.

“Cerebros de Guisante” y la Madre de todas las Cuerdas

Einstein se preguntó en una ocasión si Dios tuvo alguna elección al crear el Universo. Quizás no, por lo que era bastante embarazoso para los teóricos de las cuerdas tener cinco cuerdas distintas consistentes, todas las cuales podían unir las dos teorías fundamentales de la física, la Teoría de la Gravedad y la Teoría Cuántica.

Cada una de estas teorías parecía ser completamente diferente de las demás. Estaban basadas en distintas simetrías, con nombres exóticos como E(8)xE(8) y O(32).

Aparte de esto, las supercuerdas, en cierto sentido, no son únicas: hay otras teorías que no son de cuerdas que contienen “supersimetría”, la clave de simetría matemática subyacente en las supercuerdas. (Cambiar luz por electrones y por lo tanto en gravedad es uno de los increíbles trucos efectuados por la supersimetría, la cual es la simetría que puede intercambiar partículas con spin semientero, como electrones y quarks, con partículas de spin entero, como fotones, gravitones y partículas W).

En 11 dimensiones, de hecho, hay superteorías alternativas basadas en membranas además de en partículas puntuales (llamadas supergravedad). En menores dimensiones, existe además un zoológico completo de superteorías basadas en membranas en distintas dimensiones. (Por ejemplo, las partículas puntuales son 0-branas, las cuerdas son 1-branas, las membranas son 2-branas, etcétera). Para el caso p-dimensional, algunos las han llamado p-branas (N del T:En inglés p-branas pronunciado “pea brains”. En Español cerebro de guisante). Pero debido a que trabajar con estas p-branas es increíblemente difícil, fueron consideradas durante mucho tiempo solo como una curiosidad histórica, un rastro que nos llevaba a un punto muerto. (Michael Duff, de hecho, ha coleccionado una lista completa de comentarios poco halagadores hechos por tribunales a su Fundación Nacional de Ciencia acerca de su trabajo en las p-branas. Uno de los comentarios más caritativos por parte de un tribunal fue: “Tiene una visión deformada de la importancia relativa de distintos conceptos en la física teórica moderna”.) Por lo que este era el misterio. ¿Por qué la supersimetría debería permitir 5 supercuerdas y esta peculiar y variada colección de p-branas?. Ahora nos damos cuenta que estas cuerdas, la supergravedad, y las p-branas son solo distintos aspectos de la misma teoría. La Teoría (M por “membrana” o por “madre de todas las cuerdas”, escoge la que más te guste) une las 5 supercuerdas en una teoría e incluye las p-branas también. Para ver cómo se une todo esto, retomemos la famosa parábola de los sabios ciegos y el elefante. Piensa en los ciegos sobre el rastro del león. Escuchándolo correr, salen en su persecución y desesperadamente agarran su cola (una 1-brana). Sosteniéndolo por la cola por su valiosa vida, sienten que es una forma unidimensional y ruidosamente y proclaman “¡Es una cuerda!, ¡Es una cuerda!”.

Pero entonces un ciego va más allá de la cola y agarra la oreja del león. Sintiendo una superficie bidimensional (una membrana), el ciego proclama, “¡No, en verdad es una 2-brana!”. Entonces otro ciego es capaz de agarrar la pata del león. Sintiendo un sólido tridimensional, grita, “No, ambos estáis equivocados. ¡En realidad es una 3-brana!”. En verdad, todos están en lo cierto. Tal como la cola, la oreja y la pata son distintas partes del mismo león, la cuerda y las distintas p-branas parecen ser distintos límites de la misma teoría: la Teoría M.

Paul Townsend de la Universidad de Cambridge, uno de los arquitectos de esta idea, la llama “democracia de p-branas”, es decir todas las p-branas (incluyendo las cuerdas) son creadas iguales. Schwarz puso un giro ligeramente distinto sobre esto. Dijo, “estamos en una situación Orwelliana: todas las p-branas son iguales, pero algunas (las cuerdas) son más iguales que otras. El punto es que solo hay unas en las que podemos basar la Teoría de la Perturbación”. Para comprender estos conceptos tan poco familiares como dualidad, Teoría de la Perturbación, soluciones no perturbativas, es instructivo ver cuándo entraron estos conceptos en la física.

Dualidad

La llave maestra para comprender este avance es algo llamado “dualidad”. Grosso modo, dos teorías son “duales” una de la otra si pueden demostrarse equivalentes bajo ciertos intercambios. El ejemplo más simple de dualidad es el papel inverso de la electricidad y el magnetismo en las ecuaciones descubiertas por James Clark Maxwell de la Universidad de Cambridge hace 130 años. Estas son las ecuaciones que gobiernan la luz, TV, Rayos-X, radares, dinamos, motores, transformadores, e incluso Internet y los ordenadores. La característica más importante de estas ecuaciones es que permanecen iguales si intercambiamos la B magnética y el campo eléctrico E y también cambiando la carga eléctrica e con la carga magnética g o un “monopolo magnético”: E <--> B y e <--> g (De hecho, el producto eg es una constante). Esto tiene importantes implicaciones. A menudo, cuando una teoría no puede resolverse de forma exacta, usamos un esquema de aproximación. En el Cálculo del primer curso, por ejemplo, recordamos que podemos aproximar ciertas funciones por la serie de Taylor. De forma similar, dado que e2 = 1/137 en ciertas unidades y es un número pequeño, podemos aproximar la teoría con el desarrollo de la serie en e2. Por tanto añadimos elementos de orden e2 + e4 + e6 etc. Para su solución, la colisión de dos partículas. Observa que cada elemento se vuelve más y más pequeño, por lo que en principio podemos sumarlos todos. Esta generalización de la serie de Taylor es llamada “Teoría de la Perturbación”, donde podemos perturbar un sistema con términos que contengan e2. Por ejemplo, en tiro con arco, la Teoría de la Perturbación es cómo dirigimos nuestras flechas. (Con cada movimiento de nuestros brazos, nuestro arco se alineará cada vez más cerca de la diana). Pero ahora intenta desarrollar en g2. Es mucho más complejo, de hecho, si desarrollamos en g2, que es grande, la suma g2 + g4 + g6 etc. crece y se vuelve sin sentido. Esta es la razón por la que una región “no perturbativa” es tan difícil de probar, debido a que la teoría simplemente crece si intentamos ingenuamente usar la Teoría de la Perturbación para continuos grandes pares de g. Por lo tanto al principio parece no tener esperanza el intentar penetrar en una región no perturbativa. (Por ejemplo, si cada movimiento de tus brazos se hiciese más y más grande, nunca podríamos hacerlo cero y hacer blanco con la flecha). Pero observa que debido a la dualidad, una teoría de un pequeño e (que es fácilmente solucionable) es idéntica a una teoría de una gran g (la cual es difícil de resolver). Pero dado que son la misma teoría, podemos usar la dualidad para resolver la región no perturbativa.

Dualidad S, T, y U

La primera noción de dualidad puede aplicarse en la Teoría de Cuerdas descubierta por K. Kikkawa y M. Yamasaki de la Universidad de Osaka en 1984. Demostraron que si “enroscas” una de las dimensiones extra en un círculo de radio R, la teoría era la misma que si enroscabas esta dimensión en un radio 1/R. Esta es la llamada dualidad T: R <--> 1/R. Cuando la aplicamos a distintas supercuerdas, se pueden reducir 5 de las Teorías de Cuerdas a solo 3. En 9 dimensiones (con una de las dimensiones enroscada) las cuerdas de tipo IIa y IIb son idénticas, como lo eran las cuerdas E(8)xE(8) y O(32).

Por desgracia, la dualidad T aún era una dualidad perturbativa. El siguiente avance vino cuando se demostró que había una Segunda clase de dualidad, llamada dualidad S, la cual proporciona una dualidad entre las regiones perturbativas y no perturbativas de la Teoría de Cuerdas. Otra dualidad, llamada dualidad U, era incluso más potente.

Entonces Nathan Seiberg y Witten demostraron de forma brillante cómo otra forma de dualidad podía resolver las regiones no perturbativas en teorías supersimétricas de cuatro dimensiones. Sin embargo, lo que por fin convenció a muchos científicos de la potencia de esta técnica fue el trabajo de Paul Townsend y Edward Witten. Tomaron a todo el mundo por sorpresa demostrando que ¡había una dualidad entre las cuerdas de tipo IIa en 10 dimensiones y la supergravedad en 11 dimensiones!. La región no perturbativa de cuerdas de tipo IIa, que previamente era una región prohibida, reveló estar gobernada por la Teoría de la Supergravedad de 11 dimensiones, con una dimensión enroscada. En este punto, recuerdo que muchos físicos (yo mismo incluido) nos frotábamos los ojos, sin poder creer lo que veíamos. Recuerdo que me decía a mí mismo, “¡Pero eso es imposible!”.

Todos estos cambios, nos hicieron darnos cuenta que tal vez la “casa” real de la Teoría de Cuerdas no eran 10 dimensiones, sino posiblemente 11, y que la teoría ¡no era fundamentalmente una Teoría de Cuerdas después de todo!. Esto reanimó un tremendo interés en las teorías de 11 dimensiones y las p-branas. Merodear por la undécima dimensión era una teoría completamente nueva que además podía reducir la supergravedad de dimensión 11 a la Teoría de Cuerdas de dimensión 10 y la Teoría de las p-branas.

Detractores de la Teoría de Cuerdas

Para los críticos, sin embargo, estos desarrollos matemáticos aún no dan respuesta a la insistente pregunta: ¿Cómo comprobarlo?. Dado que la Teoría de Cuerdas es en realidad una Teoría de la Creación, cuando todas sus maravillosas simetrías estén en toda su gloria, la única forma de comprobarla, se lamentan los críticos, es recrear el mismo Big Bang, lo cual es imposible. Al Premio Nobel Sheldon Glashow le gusta ridiculizar la Teoría de Supercuerdas comparándola con el pasado plan de la Guerra de las Galaxias del Presidente Reagan, es decir ambos son inestables, absorben recursos, y ambos desvían los cerebros de los mejores científicos.

En verdad, la mayoría de los teóricos de cuerdas piensan que estas críticas son simples. Creen que a los críticos se les ha escapado un detalle. El punto clave es este: Si la teoría puede ser resuelta de forma no perturbativa usando matemáticas puras, entonces debería poder reducirse a energías bajas a una teoría de protones, electrones, átomos y moléculas corrientes para lo cual existen abundantes datos experimentales. Si podemos resolver la teoría completamente, deberíamos ser capaces de extraer este espectro de baja energía, que debería encajar con las partículas habituales que vemos hoy día en el Modelo Estándar. De esta manera, el problema no es construir aceleradores de partículas de 1 000 años luz de diámetro; el verdadero problema es de simple capacidad mental: ser lo bastante inteligentes como para escribir la Teoría M, resolverla y asentarlo todo.

Desarrollo hacia atrás

Por lo tanto, ¿qué podríamos hacer para resolver por fin la teoría de una vez por todas y terminar con la especulación y los rumores?. Tenemos varias aproximaciones. La primera es la más directa: intentar derivar el Modelo Estándar de interacciones de partículas, con esa estrambótica colección de quarks, gluones, electrones, neutrinos, bosones Higgs, etc. etc. etc. (Debo admitir que aunque el Modelo Estándar es la teoría física de mayor éxito jamás propuesta, es también una de las más feas). Esto podríamos hacerlo enroscando 6 de las 10 dimensiones, dejándonos una teoría de 4 dimensiones que podría parecerse ligeramente al Modelo Estándar. Entonces intentar el uso de la dualidad y la Teoría M para probar esta región no perturbativa, mirando si las simetrías se rompen del modo adecuado, dándonos las masas correctas para los quarks y otras partículas del Modelo Estándar. La filosofía de Witten, sin embargo, es algo distinta. Él presiente que la clave para resolver la Teoría de Cuerdas es comprender el principio subyacente bajo la teoría.

Permíteme que lo explique. La Teoría de la Relatividad General de Einstein, por ejemplo, comenzó a partir de unos principios básicos. Einstein tuvo la “idea feliz de su vida” cuando se reclinó en su silla de la oficina de patentes de Berna y se dio cuenta que una persona en un ascensor que cayese no sentiría la gravedad. Aunque los físicos desde Galileo sabían esto, Einstein fue capaz de extraer de esto el Principio de Equivalencia. Esta aparentemente simple frase (las leyes de la física son indistinguibles localmente en un marco de aceleración o gravitación) llevó a Einstein a introducir una nueva simetría en la física, las transformaciones de coordenadas generales. Esto a su vez dio origen al Principio de Acción que hay bajo la Relatividad General, la Teoría de la Gravedad más hermosa y convincente. Sólo ahora intentamos cuantizar la teoría para hacerla compatible con las otras fuerzas. Por lo tanto la evolución de esta teoría puede resumirse como: Principio -> Simetría -> Acción -> Teoría Cuántica. De acuerdo con Witten, necesitamos descubrir el análogo al Principio de Equivalencia para la Teoría de Cuerdas. El problema fundamental ha sido que la Teoría de Cuerdas ha estado evolucionando “hacia atrás”. Como dijo Witten, “la Teoría de Cuerdas es física del siglo XXI que cayó en el siglo XX por accidente”. No estábamos “destinados” a ver esta teoría hasta el próximo siglo.

¿El final está a la vista?

Vafa recientemente añadió un extraño giro a todo esto cuando introdujo otra megateoría, esta vez una teoría de 12 dimensiones llamada Teoría F (N del T: F de “father”, padre en inglés) la cual explica la autodualidad de la cuerda IIb. (Por desgracia, esta teoría de 12 dimensiones es bastante extraña: tiene dos coordenadas temporales, no una, y de hecho viola la relatividad de 12 dimensiones. ¡Imagina intentar vivir en un mundo con dos tiempos!. Pondría en evidencia hasta a un episodio de la Dimensión Desconocida.N del T:Serie televisión estadounidense de los años 50 y 60 cuyo título original era “The Twilight Zone”.) ¿Entonces la teoría final es de 10, 11 o 12 dimensiones?.

Schwarz, por ejemplo, cree que la versión final de la Teoría M puede incluso no tener una dimensión fija. Piensa que la verdadera teoría puede ser independiente de cualquier dimensionalidad del espacio-tiempo, y que solo emergen 11 dimensiones una vez que se intenta resolver. Townsend parece estar de acuerdo cuando dice “la noción completa de dimensionalidad es una aproximación que solo emerge en algunos contextos semiclásicos”. Por lo tanto, ¿esto significa que el final está a la vista, que algún día cercano derivaremos el Modelo Estándar de sus principios básicos?. Hice esta pregunta a distintos personajes destacados de este campo. Aunque todos son partidarios entusiastas de esta revolución, aún mantienen la cautela sobre el futuro. Townsend cree que estamos en una etapa similar a la vieja era cuántica del modelo atómico de Bohr, justo antes de la completa aclaración de la Mecánica Cuántica. Dice, “Tenemos algunos dibujos provechosos y algunas reglas análogas a las reglas de cuantización de Bohr-Sommerfeld, pero está claro que no tenemos una teoría completa”.

Duff dice, “¿Es la Teoría M simplemente una Teoría de SuperMembranas y súper 5-branas que requiere alguna (aún desconocida) cuantización no perturbativa, o (como cree Witten) los grados de libertad subyacentes a la Teoría M están aún por descubrir?. Personalmente soy agnóstico sobre este punto”. Witten ciertamente cree que estamos en la pista adecuada, pero necesitamos algunas “revoluciones” más como esta para resolver de una vez por todas la teoría. “Pienso que aún hay un par más de revoluciones de supercuerdas en el futuro, como mínimo. Si podemos conseguir una revolución de supercuerdas más en esta década, creo que irá todo bien”, dice. Vafa dice, “Espero que esto sea la ‘luz al final del túnel’ pero ¡quién sabe cómo de largo es el túnel!”. Schwarz, además, ha escrito sobre la Teoría M: “Si está basada en algo geométrico (como supermembranas) o algo completamente diferente, aún no lo sabemos. En cualquier caso, encontrarlo podría ser un hito en la historia intelectual de la humanidad”.