Las diferencias genéticas están dentro del cuerpo

@BrenpCom #Web #España #Madrid #Barcelona #Valencia #Sevilla #Zaragoza #Málaga #Murcia #Palma #Mallorca #LasPalmas #Andalucía #Bilbao

Jugador de GTA y aspirante a Tarantino


Rey Muerto, Rey Puesto


Estas semanas hemos sido testigos del lanzamiento -por fin- de GTA 5 en PC. Algunos han aguantado, otros simplemente lo han comprado otra vez, pero son muchos los usuarios de compatible que se han lanzado a por la última obra maestra de Rockstar. Y es que, a pesar de la cuestionable política de retrasos de la compañía escocesa con respecto a los ordenadores, lo cierto es que sus sandbox son auténticos acontecimientos en esta plataforma. No sólo por la calidad del título, sino por las posibilidades técnicas y creativas que se abren en un entorno abierto como este. Reconociendo esa creatividad que va más allá de los confines programados del juego, el estudio ha ofrecido un singular regalo en la nueva versión: un completo editor de vídeo y la libertad que otorga el colosal plató de Los Santos, con sus paisajes, vehículos y personas, para que las mentes más creativas hagan sus propios cortos y demuestren su creatividad.

Teniendo en cuenta que estamos hablando de uno de los entornos virtuales más detallados, variados y masivos que existen, y teniendo en cuenta precedentes creativos como el Source Filmmaker -del que han salido fabulosos cortos de animación-, las posibilidades son inmensas. De hecho resulta sorprendente ver como en muy poco tiempo han aparecido cortos bastante notorios, que apuntan ya a un futuro muy prometedor para esta función. Comenzamos este primer repaso de una forma nostálgica y buscando esa separación catárquica entre lo viejo y lo nuevo: por un lado, un vídeo de “despedida” de GTA IV (con mods) con el que un usuario se despide de Liberty City antes de comenzar una nueva vida en Los Santos. En el otro lado, “Running, Man”, el primer vídeo con el editor de GTA V que Rockstar ha encargado al grupo independiente 8-Bit Bastards, conocidos precisamente por sus interesantes y divertidos cortos -que ya hacían con el GTA V de consolas antes de que tuvieran las potentes herramientas del editor, por eso Rockstar les dio esta “exclusiva” que han ejecutado a las mil maravillas por cierto.


The Police Chase


Las posibilidades del editor para las secuencias de acción, con todo el control de cámaras que existe y las propias y “explosivas” posibilidades incorporadas en el juego, dan para imaginar secuencias que harían salivar al mismísimo Michael Bay. Aquí un buen ejemplo de una persecución policíaca en la que no se ahorra en “efectos especiales”.


Vinewood Wood


Planteado como un documental de los 70, Vinewood Wood nos muestra también el gran potencial de Los Santos sin necesidad de subirse a un coche. Todos los que han jugado conocen su poderosa ambientación y la sensación de lugar que tiene, algo que puede ser muy reforzado con un buen trabajo de cámaras y el enfoque adecuado. Vinewood Wood es sólo un temprano experimento del autor, por lo que cabe preguntarse qué podrá hacer en el futuro.


Drive Intro


Otra cosa que podemos esperar del editor de GTA V es homenajes a películas, con los directores virtuales tratando de homenajear secuencias concretas de sus favoritos. La prueba es lo temprano que hemos visto un ejemplo de esto, con el usuario Sir_PhilMcKraken recreando con mucho acierto la secuencia de introducción de la película Drive -aunque, desgraciadamente, no puede usar para ello la banda sonora original de la película, el tremendo Nightfall de Kavinsky-.


Michael’s Car Fantasy


Todos conocemos el gusto de Michael por refugiarse en ese Los Santos que ya sólo existe en las películas. Partiendo de esa base, el autor recrea esa fantasía usando filtros con abandono para simular un onírico viaje del criminal retirado a bordo de su coche, paseando por las calles de la ciudad a golpe de sintetizador -en este caso, usando con acierto la banda sonora de Blood Dragon para recrear ese ambiente ochentero-.


Sins of the Past


Como es de esperar, con tan poco tiempo muchos de los primeros vídeos se centran en secuencias de conducción y ambiente, ya que los creadores están buscando lo primero familiarizarse con las herramientas. Pero un muy conocido creador de machinima, Danz Newz, se ha animado a crear un pequeño corto con las andanzas de un criminal atrapado entre la espada y la pared. Impresionante y muy conseguido para haber sido en un día.


The Thief


La historia de cómo un millonario con una casa y varios coches de lujo atraca una triste gasolinera para llevarse unos pocos cientos de dólares. La historia no es muy convincente, en buena parte por las limitaciones de los atracos en modo libre que limita los puntos en donde esta mecánica funciona, pero está montado con estilo y es placentero de ver en esta primera ola de trabajos.


Don’t Ignore the Mime


Divertido ejemplo de cómo usar las funciones del juego en favor de la narrativa, en particular los gestos. No tiene la belleza plástica de otros, ni tampoco cuenta una historia digna de recordar, pero es gracioso y además sirve para empezar a ver un poco cómo usar las animaciones faciales para darle más gracias al vídeo.


Welcome to Los Santos


Buena música y uno de los mejores puntos para ver la ciudad de Los Santos en el juego. Bienvenidos a los Santos va directo al grano y simplemente monta una vistosa escena alrededor de las letras gigantes de Vinewood con un paisaje de la ciudad en su ocaso. También ilustra algunos de los problemas con transiciones y animaciones -la escena del salto no queda muy natural-.


Family Man


Un trabajo más intimista con Michael, que ilustra magníficamente bien su descontento con la vida familiar que tiene. Aprovechando muy bien el gran detalle con el que está recreada su mansión, con un gran ritmo y una música apropiada, esta secuencia nos propone un pequeño viaje que conocerán bastante bien muchos jugadores, pero que aquí adquiere una nueva dimensión. Incluso las mismas expresiones del protagonista parecen responder bien al tono triste que se aprecia en estos tres minutos de secuencia.


Take Off


Ya hemos visto muchos vídeos con coches de protagonistas, así que es agradabale encontrarse un intento con un vehículo bien distinto como es un caza de combate. Es una muy elaborada secuencia de despegue, creada en apenas media hora y más una prueba que otra cosa, pero tiene algún ejemplo de corte brillante y en general es una buena forma de vislumbrar futuras posibilidades una vez que los creadores estén más familiarizados

Presentada la galaxia más lejana descubierta hasta ahora

Una galaxia “extraordinariamente luminosa”, según la califican los científicos, y situada a más de 13.000 millones de años luz de distancia, ha sido descubierta por un equipo de investigadores de EE UU, Gran Bretaña y Holanda que ha logrado medirla y caracterizarla con exactitud. Se denomina EGS-zs8-1 y es la galaxia más lejana que se ha medido jamás, afirman los astrónomos, que han utilizado en este trabajo uno de los dos grandes telescopios Keck, de espejo de 10 metros de diámetro, situados en Mauna Kea (Hawai). Cuando la galaxia emitió la luz que ahora se capta en los observatorios terrestres, habían transcurrido solo unos 670 millones de años desde el Big Bang inicial (la edad actual del cosmos es de 13.800 millones de años, según los datos del telescopio espacial europeo Planck), señala Pascal Oesch, de la Universidad de Yale, líder del estudio. Con aproximadamente el cinco por ciento de su edad actual, “el universo era todavía muy joven”, añade. Pero “ya esa galaxia había acumulado una masa equivalente a más del 15% de la de la Vía Láctea hoy”. Y se estaban allí formando estrellas a un ritmo unas 80 veces superior al de nuestra galaxia actualmente.

NASA, ESA, P. Oesch and I. Momcheva (Yale University), and the 3D-HST and HUDF09/XDF Teams’);»> ampliar foto

Fotografía de la galaxia EGS-zs8-1, las más lejana que se ha medido hasta ahora. / NASA, ESA, P. Oesch and I. Momcheva (Yale University), and the 3D-HST and HUDF09/XDF Teams

«El récord anterior de distancia de una galaxia correspondía a 697 millones de años después del Big Bang, así que el nuevo récord significa sólo unos 30 millones de años más joven», explica Oesch a EL PAíS por correo electrónico. «Pero ha sido muy difícil, nos ha llevado un año y medio romper el récord anterior y, por ahora, solo conocemos un puñado de galaxias que estén a más 13.000 millones de años luz. Además, nuestro galaxia es más brillante y casi diez veces más masiva que la del récord anterior», recalca.

La galaxia de récord fue identificada inicialmente con los telescopios espaciales Hubble y Spitzer (de infrarrojo). Pero Oesch y sus colegas han logrado medirla con precisión gracias a un instrumento astronómico (el Mosfire, o Espectrógrafo Multiobjeto de Exploración en infrarrojo) del telescopio Keck I. «Nos permite estudiar varias galaxias al mismo tiempo, por lo que es mucho más eficaz que los instrumentos anteriores, con los que teníamos que estudiarlas de una en una», continúa Oesch. «Con el Mosfire podemos, por lo tanto, hacer observaciones mucho más profundas para un número mayor de galaxias en el mismo tiempo de observación, lo que nos permite detectar características más débiles que antes».

En cuanto a cómo de primitivas esperan los científicos que pueden llegar a ser las galaxias, cuándo empezarían a formarse en la historia del cosmos, el científico de la Universidad de Yale responde: «Esto se está investigando y es una cuestión en la que se trabaja muy activamente; sin embargo, los modelos teóricos predicen que las primeras galaxias en el universo se formarían alrededor de 200 o 300 millones de años tras el Big Bang». Lo que está claro, recuerda, es que las estrellas se formaron antes que las galaxias, que son colecciones de muchas estrellas unidas por las fuerzas gravitacionales. «Las primeras estrellas, de nuevo según los modelos teóricos, se formarían alrededor de 100 o 200 millones de años tras el Big Bang».

La medición de las galaxias a estas distancias extremas y la caracterización de sus propiedades es un gran objetivo de la astronomía para la próxima década, señala el observatorio Keck. Estas observaciones de EGS-zs8-1 corresponden a una época en que el universo estaba sufriendo cambios importantes: el hidrógeno intergaláctico pasaba de neutro a estar ionizado. “Parece que las estrellas jóvenes de las galaxias tempranas como EGS-zs8-1 fueron el motor principal de esa transición llamada reionización”, explica Rychard Bouwens, de la Universidad de Leiden (Holanda), coautor del trabajo.

Los investigadores recalcan que, por ahora, solo se han podido medir con precisión las distancias para un puñado de galaxias

“Uno de los descubrimientos más descollantes del Hubble y el Spitzer en los últimos años es el inesperado número de estas galaxias muy brillantes en una época próxima a cuando se formaron las primeras. Todavía no comprendemos del todo qué son y qué relación tienen con las muy abundantes galaxias débiles”, señala Garth Illingworth, profesor de astronomía de la Universidad de California en Santa Cruz en un comunicado de esta institución.

Como solo se han medido con precisión las distancias a unas pocas galaxias del universo primitivo, “cada confirmación añade otra pieza al rompecabezas de cómo las primeras generaciones de galaxias se formaron en el universo temprano”, añade, Pieter Van Dokkum (Universidad de Yale). “Solo los mayores telescopios son suficientemente potentes para llegar a esas distancias”.

Las observaciones de los objetos del universo primitivo realizadas con los observatorios Keck, Hubble y Spitzer, plantean nuevas preguntas, apuntan los científicos. Por un lado se confirma que existieron grandes galaxias en el cosmos temprano, pero sus propiedades físicas eran muy diferentes de las que actualmente se observan alrededor de la nuestra. “Los astrónomos ahora tienen una evidencia sólida de que los colores peculiares de las galaxias primitivas que se aprecian en las imágenes del Spitzer se deben a un rápido proceso formación de estrellas masivas jóvenes que interactúan con el gas primordial de esas galaxias”, señalan los expertos del Observatorio Keck.

En realidad, lo que los científicos determinan al hablar de distancia es un parámetro denominado corrimiento al rojo (z), que indica el desplazamiento de la luz emitida por la galaxia hacia mayores longitudes de onda del espectro electromagnético debido a que se está alejando en el universo en expansión. Así, cuanto más distante en el cosmos es el objeto celeste, mayor es su corrimiento al rojo, o z. Oesch y sus colegas han determinado para EGS-zs8-1 un valor de z de 7.73 (unos 670 millones de años después del big Bang), mientras que el récord anterior estaba en z = 7.50, es decir, unos 697 millones de años, señala Oesch, . Los investigadores presentan hoy oficialmente su investigación en la revista Astrophysical Journal Letters, y la habían adelantado en la web Arxiv.org.

Varios centenares de galaxias candidatas a distancias extremas han sido identificadas “gracias a la excepcional sensibilidad en el infrarrojo cercano de la cámara WFC3 del telescopio Hubble”, señalan los investigadores en su artículo. Pero “actualmente solo para un puñado de galaxias normales se han medido con certeza a z superior a 7”, añaden.

El Instituto Científico del Telescopio Espacial, en Baltimore (EE UU), que se encarga del Hubble y del futuro James Webb (JWST), que está en construcción, recalca que cuando este último se lance al espacio, en 2018, se abrirán enormes posibilidades de realizar emocionantes descubrimientos. “Además de desplazar la frontera cosmológica hacia tiempos aún más tempranos, el JWST será capaz de diseccionar la luz de la galaxia EGS-zs8-1 y proporcionará a los astrónomos muchos más detalles de sus propiedades.

La nave rusa descontrolada caerá a la Tierra probablemente el viernes

La nave rusa Progress 59, descontrolada en el espacio desde su lanzamiento fallido el pasado 28 de abril, caerá a la Tierra el viernes 8 de mayo, aunque los expertos definen aún una horquilla amplia en cuanto a la hora. Según el cálculo más reciente de la web especialista en seguimiento de objetos espaciales Satflare.com, el artefacto no tripulado caerá a las 8.10 (hora peninsular española), con un margen de seis horas más y seis horas menos. La agencia espacial rusa Roscosmos había estimado el miércoles pasado una ventana temporal de 21 horas en torno a las 10.39 (hora peninsular). En cualquier caso, sobre el momento de la caída –y, por tanto, el lugar exacto-, influyen las condiciones atmosféricas y solares. La Progress 59 se encuentra ahora a unos 160 kilómetros de altura.

El carguero espacial lleva casi tres toneladas de suministros que iban dirigidos a la Estación Espacial Internacional (ISS). El fallo en la operación de lanzamiento, probablemente debido a un problema en la separación de la tercera etapa del cohete Soyuz que lo puso en órbita, pero aún sin confirmar por los expertos, impidió el despliegue correcto de varias antenas de la nave, lo que imposibilitó tanto la aproximación automática a la ISS para engancharse allí como la debida comunicación con el centro de control en Tierra.

Horas después del percance la nave, estaba indebidamente en rotación sobre sí misma (cumpliendo un giro completo cada cinco segundos) y, tras múltiples intentos de los expertos rusos para recobrar el control de la nave, se dio por perdida. Los expertos en seguimiento de artefactos y fragmentos espaciales han identificado hasta 40 trozos de material (de la propia nave y de la última etapa del cohete) alrededor del carguero.

En el lugar exacto influyen las condiciones atmosféricas y solares

En la reentrada en la atmósfera terrestre, la Progress-59 se quemará, pero no se descarta que no se destruyan algunas piezas, como el sistema de enganche a la ISS. La franja terrestre de caída está comprendida entre los 52 grados de latitud Norte y los 52 Sur. De cualquier forma, los expertos afirman que el riesgo que puede suponer para personas es muy bajo ya que lo más probable es que si algún trozo de la Progress-59 llega a la superficie terrestre sea sobre el mar o en algún territorio deshabitado.

La probabilidad estándar de que una persona resulte herida por uno de estos fragmentos es de una en 10.000, ha explicado el experto en basura espacial Don Kessler a Space.com. “Yo recordaría a todo el mundo que hay 7.000 millones de personas en la Tierra, así que esa probabilidad de uno en 10.000 de que un individuo resulte herido significa que solo hay una probabilidad en 70 billones de que esa individuo sea usted”, añade Kessler.

‘Star Wars 1313’ y otros grandes juegos cancelados

Títulos en un avanzado punto de desarrollo, juegos que pudieron ser auténticos títulos para recordar, pero que por unos motivos u otros, fueron cancelados.

Enterrados en el olvido, desempolvamos algunas de estas extrañas rarezas de las que seguro habéis oido hablar… o no.

La impresión 4D salva a tres niños con un implante que crece con ellos

Kaiba, Garret e Ian apenas juntaban dos años entre los tres cuando una impresora les salvó la vida. Los pequeños nacieron con una rara y grave anomalía en las vías respiratorias. Para sacarlos adelante, tuvieron que abrirles la tráquea y meterles un tubo por el que podían respirar gracias a un ventilador mecánico. Sus pocos meses de vida los pasaban en una unidad de cuidados intensivos (UCI). Tres años después, los niños ya están en casa. Todo gracias a una férula impresa que creció con ellos hasta que sus diminutos bronquios fueron lo bastante fuertes como para que el implante se disolviera por si solo.

Con una impresora 3D se puede imprimir casi de todo, desde coches hasta una miniatura de la torre Eiffel. Con un programa de diseño por ordenador, la fabricación por capas ofrece la posibilidad de personalizar casi cualquier cosa, un aspecto que la hace muy interesante para la medicina. Ya se imprimen huesos, prótesis dentales, cartílagos… Pero, con los niños hay problema: crecen muy deprisa. Para ellos se necesitan objetos que, una vez impresos, puedan cambiar con el tiempo y adaptarse a su crecimiento. Es la cuarta dimensión o impresión 4D.

Es difícil transmitir lo enfermos que estaban estos niños», dice el cirujano que les implantó la férula impresa

Con este enfoque, un grupo de expertos estadounidenses liderados por el profesor de otorrinolaringología pediátrica de la Universidad de Michigan (EE UU), Glenn Green, ha estado ensayando implantes con biomateriales hechos con una impresora 3D. Eligieron un poliéster que tiene la particularidad de que se degrada con el paso del tiempo hasta que el organismo lo absorbe y acaba expulsando. Los investigadores lo probaron con ratas y cerdos, pero ellos creían que la impresión 4D podría servir para mucho más. Podría salvar la vida a niños.

Green y sus colegas consiguieron que la FDA, la agencia federal de EE UU que regula y vigila medicamentos y dispositivos médicos, autorizara una excepción a la norma para poder ensayar sus ideas con un grupo de niños. Los pequeños habían nacido con traqueobroncomalacia, una anomalía en los bronquios que se los cierra cada vez que respiran. De los 30 que localizaron por todo el país, seleccionaron a tres cuya vida corría mayor peligro.

«Es difícil transmitir lo enfermos que estaban estos niños. Los tres habían estado en la UCI durante meses. En ese tiempo, necesitaban de una fuerte sedación, narcóticos y paralizantes», recuerda Green. A los tres les hicieron una traqueostomía en el cuello para colocarles un tubo para respirar con ventiladores artificiales. «Aún así sufrían continuos episodios que requerían maniobras de resucitación», añade el doctor Green que, al igual que sus compañeros de aventura, ha invertido buena parte de su dinero en comprobar la eficacia de la impresión 4D para tratar a niños enfermos.

Universidad de Michigan’);»> ampliar foto

Con solo tres meses, a Kaiba le implantaron una férula impresa para sostener sus bronquios. Ya con tres años, no necesita respiración asistida y pronto le quitarán el tubo de su garganta. / Universidad de Michigan

El pequeño Kaiba tenía solo tres meses cuando le hicieron el implante. Como los otros dos, no salía de la UCI desde que nació y tenía un sinfín de problemas asociados a su enfermedad, desde alteración de la ratio de oxígeno inhalado dióxido de carbono exhalado hasta inflamación pulmonar o alteración de su metabolismo. Por lo que fuera, las paredes internas de sus bronquios colapsaban cuando espiraba, cerrando los conductos.

Lo que hicieron los investigadores fue escanear su tráquea para tener una imagen en tres dimensiones del problema. Con esa información pudieron diseñar la férula con las dimensiones necesarias para su caso concreto. En sus trabajos previos con animales, los médicos habían comprobado que el poliéster utilizado, la policaprolactona, mantiene sus propiedades durante unos 16 meses. Después de ese tiempo, va reduciendo su peso molecular, los enlaces entre moléculas se van debilitando y, poco a poco, se degrada.

Esa degradación a lo largo del tiempo viene que ni pintada a los niños con traqueobroncomalacia. Afección capaz de matarlos, el riesgo va desapareciendo a medida que el pequeño crece. A partir de los tres años, los bronquios han recuperado su fuerza y son capaces de hacer su trabajo por si solos. Así que solo se trata de aguantar ese tiempo.

El problema es que, tal y como explican en la revista Science Translational Medicine, no hay datos sobre el ritmo de crecimiento de los bronquios en los niños de tan corta edad. Por eso necesitaban un material que creciera con ellos. Y es otra propiedad de la férula que imprimieron. Agarrada a las paredes exteriores de cada bronquio con sutura, el material siguió la llamada ley cuadrático-cúbica, adaptando su forma y ampliando su volumen a medida que las vías respiratorias se iban agrandando.

Morrison et al., Science Translational Medicine’);»> ampliar foto

Las férulas a implantar en los tres niños se diseñaron digitalmente antes de imprimirlas. / Morrison et al., Science Translational Medicine

A las tres semanas del implante, Kaiba se libró del ventilador mecánico y pudo volver a casa. Durante una serie de revisiones, los médicos fueron comprobando cómo el poliéster primero crecía con los bronquios para, después, ir desapareciendo. Hoy, con tres años y medio, Kaiba no sufre de traqueobroncomalacia y la férula hace tiempo que se fue por el retrete.

Un diseño rápido y personalizado

«El proceso de fabricación de la férula muestra el poder de la combinación entre un diseño digital específico para cada paciente y la impresión 3D, la capacidad para crear dispositivos personalizados o, incluso, desarrollar objetos completamente nuevos para una necesidad concreta», comenta el profesor de ingeniería biomédica de la Universidad de Michigan y responsable de la creación del implante, el doctor Scott Hollister.

Además, el diseño digital y la impresión 4D de biomateriales es cuestión de días, como demuestra el caso de Garret, que apenas tenía 16 meses cuando le hicieron el implante. En su caso, tenía afectados los dos bronquios, por lo que necesitó dos férulas. «Las dos tenían que ser colocadas en un pequeño espacio donde la tráquea y los bronquios se unen. Para este paciente, nos reunimos un miércoles, modificamos el programa y creamos el diseño el jueves e imprimimos las férulas el viernes para implantarlas la siguiente semana. Del desarrollo de un nuevo dispositivo hasta tener una férula implantable nos llevó tres días», explica Hollister.

El poliéster usado en el implante se degrada al ritmo en que se desarrollan los bronquios

Con Kaiba habiendo cumplido su sueño de ver en persona a Mickey Mouse, con Garret, el caso más complicado, que solo tiene que conectarse al ventilador cuando se va a cama, o incluso con el pequeño Ian, que acaba de cumplir un año desde el implante, los investigadores creen que su historia puede ser solo el principio de algo más grande.

«El potencial de la impresión 3D de material médico para mejorar la personalización y los resultados para el paciente es evidente, pero su implementación en la práctica médica se enfrenta a grandes barreras», escriben los autores en las conclusiones de su trabajo. Una es la regulación existente, que aún tiene que adaptarse a esta nueva tecnología. Pero hay otro factor y no es otro que «la falta de interés económico de la industria», aclaran. Enfermedades tan raras como la traqueobroncomalacia, que afecta a 1 de cada 2.500 niños, no interesan demasiado a los fabricantes. Para pequeños como Kaiba, Garret e Ian, solo la impresión 3D puede ser la solución.

En esta noticia

Documento: ‘Mitigation of tracheobronchomalacia with 3D-printed personalized medical devices in pediatric patients’

Ciencia para mejorar el mezcal

Deleitar al paladar con un buen mezcal es el resultado de un proceso exhaustivo, y también de compleja investigación científica. Para lograr que el producido en el estado de Guerrero sea de alta calidad en sabor y aroma, especialistas del Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco (Ciatej) han puesto en marcha un proyecto de asesoramiento a 80 productores artesanales, con el fin de aplicar estrategias de mejora en su manufactura y cumplimiento de las especificaciones de las normas correspondientes. El objetivo es que esta popular bebida alchólica mexicana

Solo 10 de los 800 fabricantes cuentan con certificación del Consejo Mexicano Regulador de la Calidad del Mezcal

Unos 900 productores de Guerrero elaboran al año cerca de 1,7 millones de litros de mezcal en pequeños volúmenes sin aplicar procesos estandarizados que aseguren su calidad. Coordinado por el doctor Manuel Reinhart Kirchmayr, el proyecto Transferencia de tecnología para la estandarización de los procesos de producción y envasados de mezcal en el estado de Guerrero busca alcanzar la homogeneidad del producto para lograr la certificación oficial y, por ende, una comercialización con mayor éxito, que repercuta en el desarrollo de la región. Solo 10 de los 800 fabricantes cuentan con certificación del Consejo Mexicano Regulador de la Calidad del Mezcal (Comercam), según Kirchmayr.

ampliar foto

El doctor Manuel Reinhart Kirchmayr. / Conacyt

Los investigadores realizaron un diagnóstico entre los productores para conocer la forma en que elaboran este derivado del agave, tomaron muestras e hicieron propuestas de mejoras. “Comprobamos que los productores no aplican ciertas mediciones de control; si no saben cuánto agave necesitan para producir el mezcal o cuánta leña necesitan para cocerlo, no pueden sacar un cálculo de cuánto les cuesta fabricar un litro de mezcal”, detalla.

Estos productores desconocían los procesos biológicos y químicos que se desarrollan en las diferentes etapas de la producción y, en la mayoría de los casos, fermentaban por mucho tiempo el destilado, lo que impide que el producto cumpla con las características que dicta la Norma Oficial Mexicana (NOM) 070-SCFI-1994, referente a la acidez del mezcal.

“Lo que hicimos fue realizar una serie de cursos a los productores, les explicamos qué es lo que ellos están obteniendo y qué podrían obtener si llevan a cabo ciertos cambios en sus procesos, tanto para la eficiencia como en las características aromáticas y de calidad de su producto”, dice el científico.

Mejor calidad

El investigador del Ciatej, perteneciente al Sistema de Centros Públicos de Investigación del Consejo Nacional de Ciencia y Tecnología (Conacyt), asegura que confía en que al aplicarse estas recomendaciones se mejorará hasta un 30% de rendimiento en la producción y se garantizará calidad homogénea, porque a través de un proceso artesanal sin protocolos establecidos es imposible lograr estos resultados.

Los productores desconocían los procesos biológicos y químicos que se desarrollan en las diferentes etapas de la producción

“El trabajo implica que un producto, entre un lote y otro, se mantendrá igual. Si voy a comprar una botella esperaría que la próxima vez que vuelva a comprarlo sea igual, y eso es justamente lo que en los campos de producciones artesanales no ocurre, porque ellos, simplemente, se lo toman con un ‘esta vez sí me salió bien y la próxima vez, quién sabe’”, dice Kirchmayr.

Los investigadores plantearon medidas como realizar mediciones sencillas, determinar los pesos de los productos que se deben usar, medir pas temperaturas, las concentraciones de azúcar y los grados alcohólicos en cada etapa de la producción, así como sugerir modificaciones a las prácticas actuales en la preparación de la fermentación y la obtención de los destilados.

El doctor Kirchmayr, quien con su equipo de trabajo realizó la investigación entre junio de 2013 y julio de 2014, reconoce la existencia de cierta dificultad para que estas fábricas artesanales consideren en su totalidad las recomendaciones realizadas.

Ciencia en Español

Científicos de toda Europa piden prohibir los coches más contaminantes

La Organización Mundial de la Salud (OMS) estima que una de cada ocho muertes que se produjo en el mundo en 2012 estuvo causada por la contaminación atmosférica, principalmente por la alta concentración de partículas en suspensión en el aire, un contaminante procedente, en su mayoría, del tráfico rodado y marítimo, la industria y el polvo de obras. Por este motivo, siete instituciones científicas europeas, entre ellas el Consejo Superior de Investigaciones Científicas (CSIC), han recomendado a la Comisión Europea y a diversas Administraciones estatales y regionales del sur del continente que creen zonas de baja emisión en las que se prohíba la circulación de vehículos viejos que funcionan con gasoil y “favorecer” la entrada de coches eléctricos.

Para ilustrar esta recomendación, los científicos recuerdan las medidas tomadas en los países del norte de Europa. En concreto, el estudio pone como ejemplo a Alemania, donde desde 2008 se han decretado una sesentena de zonas de baja emisión, en las que solo pueden circular los vehículos que emitan menos cantidades de partículas (PM2.5 y PM10). Según los científicos, el país germánico es de los pocos en los que esta medida ha sido “efectiva”.

más información

Madrid expulsa el coche del centro
Sale el sol, sale la contaminación
Europa enferma por contaminación

Las recomendaciones de los científicos son el resultado del proyecto Airuse Life+, financiado por la Unión Europea y realizado durante tres años en Atenas, Oporto, Barcelona, Florencia y Milán, para estudiar el origen y la efectividad de las medidas para reducir la polución de este contaminante, que es causante de enfermedades respiratorias, infartos de miocardio y varios tipos de cáncer. En su lista de 70 riesgos para la salud, la OMS sitúa a la contaminación como la novena y la primera causa ambiental.

El estudio se ha centrado en los países del sur de Europa, donde, según Xavier Querol, investigador del CSIC en el Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA) y coordinador del proyecto Airuse Life+, la contaminación por partículas en suspensión tiene condiciones y fuentes de emisión particulares, más relevantes que en el norte del continente. “El hecho de que la lluvia sea menos abundante en las ciudades del sur hace que la atmósfera no se limpie y las partículas estén continuamente en suspensión”, asegura Querol.

El estudio revela también que durante los últimos años han aumentado las emisiones de otros focos: las estufas y calderas de biomasa. El consumo de este combustible se ha disparado; en 2012 se quemaron 15 millones de toneladas de pellets en el mundo, y se prevé que en cinco años esta cantidad se multiplique por cuatro o cinco, según las previsiones del operador forestal global Ekman.

Aunque en los países del norte de Europa ya se había generalizado su uso, a raíz del aumento del precio de otras fuentes de energía como la electricidad y los combustibles fósiles, este tipo de instalaciones se ha multiplicado en el sur del continente. Este crecimiento, sin embargo, no ha ido acompañado de una certificación que regule la calidad del combustible. “Es clave su regulación ya que algunos de los pellets que se están utilizando, como los de madera reciclada, arrojan niveles muy importantes de contaminantes y actualmente no hay ninguna certificación en los países del sur de Europa”, explica Querol.

El primo vegetariano del tiranosaurio

La familia de los feroces tiranosaurios acaba de hacerse un poco más grande y algo menos terrorífica. Un equipo de paleontólogos y geólogos han encontrado una nueva especie de dinosaurio en el sur de Chile que, a pesar de ser pariente de los grandes carnívoros, presenta una inigualable mezcla de rasgos de otros dinosaurios. Lo más llamativo, dicen, es que el Chilesaurus diegosuarezi nunca comía carne.

La nueva especie se ha hallado en la patagonia chilena, al sur del país. Su nombre se debe a Diego Suárez, un niño de siete años que andaba buscando piedras llamativas por Aysén cuando se topó con un hueso del dinosaurio. Los padres del muchacho, los geólogos chilenos Manuel Suárez y Rita de la Cruz, describen ahora el hallazgo en la revista Nature junto a otros expertos de de Argentina, Chile y Reino Unido . En total se han recobrado más de una docena de especímenes, entre ellos cuatro esqueletos completos. La mayoría eran del tamaño de un pavo, pero algunos huesos indican que algunos llegaban a medir tres metros de largo.

Sus descubridores lo comparan con un ornitorrinco, ese mamífero con pico que pone huevos y que parece estar hecho con partes sueltas tomadas de otros animales. El chilesaurio también era una especie de rompecabezas evolutivo. Perteneció al grupo de los terópodos, en su inmensa mayoría formado por dinosaurios carnívoros con espectaculares denticiones y una fuerza brutal como el tiranosaurio o el carnotaurus. Pero el cráneo y los pies del chilesaurio son más parecidos a los de dinosaurios herbívoros. También sus mandíbulas y dientes son característicos de animales jurásicos que no cazaban ni comían carne.

Es uno de los casos más “extremos” de evolución en mosaico, dicen sus descubridores. Mientras sus parientes continuaban perfeccionando su fisonomía hecha para cazar y desgarrar a sus presas, el chilesaurio comenzó a adaptarse a una vida y una dieta de pacífico herbívoro y desarrolló por su cuenta partes de su cuerpo similares a las de dinosaurios con los que no estaba emparentado.

El primero en Chile

Hasta ahora se pensaba que la aparición de los primeros dinosaurios herbívoros dentro de los terópodos fue muy reciente, es decir, cercana a su extinción en masa hace unos 65 millones de años. Pero el chilesaurio tiene 145 millones de años, lo que demuestra que el modo de vida herbívoro surgió en la familia del tiranosaurio y el velociraptor mucho antes de lo que se pensaba.

“Chilesaurus muestra cúantos datos ignoramos aún sobre la diversificación temprana de los grandes grupos de dinosaurios”, explica Martín Ezcurra, investigador de la Universidad de Birmingham y coautor del estudio. Se trata del primer dinosaurio completo del Jurásico que se ha hallado en Chile y uno de los más completos de todo el hemisferio sur, enfatiza Fernando Novas, del Museo Argentino de Ciencias Naturales (MACN) y también autor del trabajo.

Luis Alcalá, paleontólogo de la Fundación Dinópolis, aporta una opinión independiente sobre el descubrimiento. “Este dinosaurio presenta un ejemplo muy interesante de evolución en mosaico, con rasgos tan diferentes unos de otros que al principio el equipo creyó haber hallado varios tipos de dinosaurios”, explica. “Lo que más sorprende es que sea tan antiguo”, resalta. De hecho, los investigadores piensan que el chilesaurio era el dinosaurio más abundante en esta parte de la Patagonia, donde posiblemente convivió con los feroces depredadores de los que era pariente.

El teclado sirve para diagnosticar enfermedades neurodegenerativas

Un acto tan mecánico y breve como es el de pulsar una tecla tras otra puede servir para detectar enfermedades neurodegenerativas. Eso es lo que ha demostrado un grupo de investigadores, que han creado un sistema que analiza patrones al teclear en el ordenador, detectando el deterioro en las habilidades psicomotoras. Ya lo han probado con personas sanas y ahora lo están investigando con enfermos de párkinson.

La forma que tenemos de usar el teclado es tan personal que se ha convertido en una de las maneras más seguras de identificar a una persona. Son muchos los elementos que forman la huella biométrica del que teclea: la velocidad de tecleo, repetición de errores, la fuerza con la que se golpea el teclado o lo rápido que se libera cada tecla. Toda esa información se puede registrar para detectar patrones únicos. Un cambio en ese patrón puede indicar que alguien está usurpando una identidad. Pero también puede revelar que el sujeto podría estar enfermo.

Pulsar la tecla es la más breve de esas métricas, sin embargo, también puede ser la más informativa. La acción se puede descomponer en tres fases: impacto del dedo en la tecla, comprensión de la yema del dedo y liberación de la tecla. Estudios de la neurobiología del teclear han mostrado que todo el proceso no dura más de 100 milisegundos y la mayor parte del tiempo (el 77%) es para la liberación. A pesar de su brevedad, cada pulsación activa la corteza motora primaria, el área motora suplementaria, los ganglios basales y el cerebelo.

«Es la métrica más robusta e independiente de tus habilidades previas de tecleo», dice el neurólogo del Instituto Tecnológico de Massachusetts (MIT) Álvaro Sánchez. A diferencia de la destreza al escribir o si se hace con dos dedos o todos, la pulsación de la tecla es una mejor ventana a lo que pasa en el cerebro. Lo que han hecho Sánchez y un grupo de ingenieros de software y telecomunicaciones es crear una serie de algoritmos para modelar matemáticamente las pulsaciones «por su capacidad para detectar un deterioro en las habilidades motoras tan determinantes en enfermedades como el párkinson», explica.

Pulsar una tecla apenas dura 100 milisegundos pero en la acción intervienen varias partes del cerebro

El resultado es un programa llamado neuroQWERTY. Fruto del consorcio M+Visión, en el que participan varias instituciones y empresas madrileñas junto a la universidad estadounidense, este programa registra las pulsaciones en el teclado y las analiza buscando cambios que puedan indicar un deterioro en las habilidades psicomotoras. La idea es tan nueva que, como dice el neurólogo, han tenido que construir la forma de medir su eficacia desde cero. «Con la fiebre, podemos saber que algo pasa cuando se pasa de 36º a 38º, pero nosotros hemos tenido que inventarnos nuestro propio termómetro», comenta.

Para probar la validez de neuroQWERTY, los investigadores usaron el programa con un grupo de personas sanas. Primero les hicieron escribir un párrafo durante el día. Después, para inducir un estado de deterioro de sus habilidades, los levantaron en mitad de la noche para que volvieran a escribir. El experimento, realizado con 14 personas de distintos países y lengua materna, se repitió pasados unos días.

La gráfica muestra el patrón de escritura de tres sujetos durante el día (izquierda) y tras levantarlos en mitad de la noche (derecha). Cada píxel es una pulsación del teclado. / Giancardo et al.

Aunque los resultados no se pueden expresar en un porcentaje de pérdida de habilidad, tal y como muestran en la revista Scientific Reports, los investigadores comprobaron que, en el estado de inercia del sueño, los voluntarios se volvían hasta un 15% más torpes.

En un segundo estudio ya en marcha, los participantes son una veintena de enfermos de Parkinson en fase precoz y, como grupo de control, una quincena de familiares. «Los primeros resultados muestran también este mismo patrón de pérdida», comenta Sánchez.

Una de las ventajas del programa es que trabaja sin afectar al uso cotidiano del teclado. NeuroQWERTY registra las pulsaciones y envía sus datos a los servidores del proyecto donde se modelan matemáticamente. Ahora mismo cualquiera puede instalarlo y ayudar a afinar el modelo. A medio plazo, sus autores quieren crear una interfaz gráfica para que el propio usuario pueda monitorear su forma de teclear.

El conjunto de algoritmos que forman neuroQWERTY, que ya ha sido patentado, podrían servir para probar la eficacia de los medicamentos que se administran a enfermos de párkinson. Pero, el objetivo final es detectarlo en personas de riesgo antes de que sea tarde.

«Ahora nos centramos en el párkinson porque es una enfermedad de mucho impacto, pero neuroQWERTY podría servir para cualquier enfermedad o situación donde se presente una alteración motora», recuerda Sánchez. El tecleo podría así, ayudar en otras enfermedades neurodegenerativas como el alzhéimer o la artritis reumatoide, pero también a detectar estados alterados en personas que tengan responsabilidades tras un teclado.

En esta noticia

Documento: ‘Psychomotor Impairment Detection via Finger Interactions with a Computer Keyboard During Natural Typing’
Ciencia en Español

Los cinco videojuegos más terroríficos

H. P. Lovecraft dijo que «No hay una emoción más vieja y más fuerte que el miedo», pues sí, de eso va el Top 5 de esta semana. Videojuegos de auténtico terror que nos hicieron pasar más de un mal momento a muchos de nosotros. Slugger Maxman recopila los 5 juegos más terroríficos. ¿Cuál os hizo pasar auténtico miedo? ¿Cuál incluiríais en el ranking?

Una fábrica de misiles teledirigidos contra las enfermedades

El virus del sida es un enemigo escurridizo. Hasta ahora no ha sido posible crear una vacuna que proteja lo suficiente contra el microorganismo y uno de los motivos es que de momento solo se ha utilizado una proteína como señal para que el sistema inmune identifique la amenaza y la ataque después, cuando se la encuentre. Ahora, un equipo de la Universidad de Santiago de Compostela dirigido por María José Alonso ha empleado la nanotecnología para diseñar una vacuna que supere esas limitaciones. “Como una sola molécula no ha funcionado, lo que hacemos es administrar doce moléculas, doce trocitos de proteína empaquetados de tal manera que los hacemos atractivos para el sistema inmune”, explica Alonso.

Al incluir doce moléculas, se abarca un mayor espectro del sistema inmune y hay más posibilidades de que se logren los efectos de protección deseados. Además, el nanoempaquetado, que se podría aplicar a otros fármacos, evita algunos problemas que tienen las vacunas actuales. Para introducir las proteínas que actuarán como antígenos y que el sistema inmune los reconozca. Ahora las proteínas “se administran en geles de aluminio donde se pegan los antígenos”, apunta Alonso. Y añade: “Eso es una porquería y una forma bruta de presentarlo, pero sin el aluminio, las proteínas pasarían desapercibidas para el sistema inmune”. Este elemento, sin embargo, tiene el inconveniente de que provoca reacciones de rechazo.

La nanomedicina permitiría aplicar vacunas sin necesidad de agujas y evitar así contagios

Con el nuevo sistema de introducción, se evitan las reacciones y se logra una segunda ventaja que puede ofrecer ganancias adicionales. “Cuando trabajé para la Fundación Gates, intentaban producir vacunas que se pudiesen aplicar sin agujas. En los países en desarrollo comparten las jeringuillas y se están transmitiendo enfermedades a través de la misma vacunación”, cuenta Alonso. La nanotecnología permitiría introducir el fármaco por vía nasal, algo que no es posible con los geles de aluminio porque no pueden atravesar la mucosa.

El ejemplo de la vacuna frente al virus del sida es un ejemplo del potencial de los nanofármacos para la medicina. En general, se trata de una especie de misiles teledirigidos contra la enfermedad, capaces de llevar una potente terapia justo donde se necesita reduciendo al máximo los efectos secundarios. Estos productos, sin embargo, tienen un problema. Sus características innovadoras hacen que muchas veces no se puedan producir en las fábricas de fármacos normales o se tengan que producir en cantidades demasiado grandes para los objetivos que persiguen: en muchos casos poner a prueba medicamentos experimentales antes de realizar los grandes ensayos que los podrán llevar al mercado.

Para solucionar ese problema, Europa ha puesto en marcha el proyecto Nanopilot. «Cuenta con una financiación de 6,28 millones de euros por su programa de impulso a la I+D Horizonte 2020 y servirá para construir una pequeña planta de fabricación de nanofármacos en el centro tecnológico Cidetec de San Sebastián», explica Carolina Egea, directora de negocio de la empresa Mejoran, otro de los socios que pondrán en marcha este proyecto. En una colaboración que unirá las partes más científicas del diseño de fármacos, con aspectos más relacionados con los procesos de producción que permiten escalar los procesos de los laboratorios, el equipo de Egea se ocupará de la adaptación de esta planta de producción a las necesidades de los nanofármacos o la formación necesaria para que los profesionales sepan adaptar la tecnología de producción de estos nanofármacos a los requisitos de calidad de la Agencia Española del Medicamento (AEMPS).

Enviar vídeo

“Llevamos tiempo invirtiendo dinero en nanotecnología y parece que en farmacia puede venir un gran boom, por ejemplo para mitigar efectos secundarios o mejorar la eficiencia de los tratamientos”, señala la coordinadora del consorcio europeo Iraida Loinaz, jefa de la Unidad de Biomateriales de la Fundación Cidetec, el centro tecnológico en el que se construirá la planta piloto. En esta entidad se tratará de que los nanofármacos se puedan producir en pequeñas cantidades y, al mismo tiempo, cumplan con los requisitos de seguridad de la AEMPS. En último término tratarán de trabajar para terceros, y producir fármacos fácilmente escalables y que puedan llegar al mercado.

Nanopilot, un consorcio de nueve entidades europeas, probará la eficacia de su fábrica con dos medicamentos más además de la vacuna contra el VIH. Uno de ellos será un tratamiento para el dolor ocular, desarrollado por Sylentis, una compañía de la farmacéutica Zeltia especializada en fármacos que aprovechan la función del ARN silenciador para detener procesos patológicos. Este mecanismo del cuerpo humano permite que la célula ya no produzca algo cuando no hace más falta. La biotecnológica utiliza esas moléculas para silenciar la actividad de genes que funcionan erróneamente y producen, por ejemplo, dolor en el ojo.

La UE dedicará al proyecto 6,28 millones de euros durante los próximos cuatro años

Según explica Ana Isabel Jiménez, responsable de Nanopilot en Sylentis, “por las propias características del ojo, que a través del pestañeo o del lavado del ojo a través de las lágrimas, los fármacos que se le aplican para estos problemas duran poco y pierden rápido su efectividad”. La aplicación de la nanotecnología, que permitiría llevar el medicamento de una manera mejor dirigida mantendría el efecto del fármaco. “Los pacientes podrían aplicarse el tratamiento una vez cada varios días en lugar de una vez cada pocas horas, evitando así problemas como el enrojecimiento y otros efectos secundarios”, señala Jiménez.

El proyecto europeo quiere poner en marcha un sistema de fabricación que aún está dando sus primeros pasos en todo el mundo. De momento, existen unos 250 productos que emplean técnicas de nanomedicina en el mundo, buena parte de ellos en fases de investigación. Y 120 de estos últimos tienen como objetivo el tratamiento del cáncer, un tipo de enfermedad en el que la especificidad y la reducción de efectos secundarios hacen a los nanofármacos especialmente interesantes. La planta piloto de San Sebastián puede ser una muestra de cómo se producirán los medicamentos del futuro.

Así es un cerebro jugando al ajedrez

Keiji Tanaka lleva años explorando el cerebro de jugadores de ajedrez. En su interior, dice, está el secreto de cómo los humanos trazamos estrategias en nuestra vida, quizás una de las capacidades que más nos diferencian de otros animales. En la guerra, los negocios, el juego o incluso el amor, elegir una estrategia adecuada es clave para el éxito. Una gran cantidad de estudios se han centrado en la toma de decisiones en muchos campos, pero apenas ninguno ha intentado desvelar cómo esas decisiones están predeterminadas por una estrategia fijada de antemano.

Tanaka tiene 64 años, 42 de ellos dedicados a la neurociencia, y algunos ratos de ocio empleados en jugar al shogi, una variante japonesa del ajedrez. Al contrario que en el ajedrez convencional, en el shogi es mucho más fácil identificar si un jugador está siguiendo una estrategia ofensiva o defensiva. “Mi objetivo es averiguar cómo la gente determina su estrategia, especialmente en una situación complicada y que necesita una solución rápida”, explica Tanaka. “En este caso no se trata de una acción determinada, sino un grupo de acciones, como cuando un jugador de tenis decide subir a la red o cuando un general determina si hay que atacar al enemigo incluso cuando esto multiplica el riesgo para sus tropas”, detalla.

En un ingenioso y elegante estudio publicado hoy en Nature Neuroscience, Tanaka ha metido a 17 jugadores expertos de shogi en una máquina de imagen médica mientras proyectaba en su retina diferentes jugadas. Los participantes, no profesionales con una experiencia de unos 10 años en este juego, tenían seis segundos para verla y decidir si lo mejor era atacar o defenderse. Como experimento de control, se les presentaba una jugada en la que debían seguir una estrategia predeterminada (ataque o defensa) y simplemente elegir entre varios movimientos posibles.

La parte más cercana a la frente controla la estrategia defensiva. La posterior, en el otro extremo , es el epicentro de la estrategia ofensiva, según el trabajo

El experimento ha permitido identificar, por primera vez, dónde está el centro estratégico del cerebro. El trabajo muestra que hay un patrón de actividad cerebral característico cuando se elige una estrategia y que este es totalmente diferente al que aparece cuando se hacen movimientos concretos. El estudio se basa en una técnica de neuroimagen conocida como resonancia magnética funcional y que muestra qué partes del encéfalo se activan en cada momento. Según los resultados, las estrategias se fraguan en el giro cingulado. Si pone un dedo en la parte superior de la frente y lo desliza hacia la coronilla estará siguiendo su giro cingulado, una zona alargada que se sitúa justo en la mitad entre los dos hemisferios y a unos tres centímetros bajo su cráneo. La parte anterior del giro cingulado, la más cercana a la frente, controla la estrategia defensiva. La posterior, en el otro extremo, es el epicentro de la estrategia ofensiva, según el trabajo.

Máquinas contra humanos

Una de las conclusiones más interesantes del estudio es que la estrategia es intuitiva. Los jugadores no deciden de forma pausada y teniendo en cuenta todas las opciones posibles, sino más bien siguiendo su rápido juicio sobre la situación del tablero y los riesgos y beneficios de atacar o defenderse. Como explica Tanaka, se trata de una decisión anterior que determinará después otros movimientos concretos.

Un tablero de shogi / K. Tanaka

Su trabajo, dice este investigador del Instituto Riken, en Japón, puede tener dos aplicaciones. “Hasta ahora conocíamos muchas zonas cerebrales relacionadas con acciones concretas pero nunca se había estudiado las partes que determinan la estrategia”, reconoce Tanaka. “Mi interpretación de los resultados es que esta capacidad para decidir una estrategia muy rápido se desarrolla gracias al entrenamiento y es muy específica de cada actividad”, explica Tanaka. “Algunas personas lo usan para el shogi, otras para dirigir empresas y otras para cocinar, por ejemplo”, añade. El experto cree que este tipo de trabajo puede aplicarse para la educación. “Actualmente no tenemos una forma buena de enseñar estrategia y a veces ni siquiera los expertos en un campo saben explicar cómo tomaron decisiones exitosas”. Más adelante, este tipo de estudios pueden ayudar a desarrollar inteligencia artificial.

El shogi ha sido durante años un campo de pruebas para la inteligencia artificial en Japón. En este ajedrez el número de posibles jugadas en cada movimiento es mucho mayor que en el ajedrez convencional. Cada año, en Japón se organizan torneos entre ordenadores y jugadores profesionales. En 2013, un ordenador venció por primera vez a un humano.

El reloj más preciso del mundo

Tendrían que pasar 15.000 millones de años para que el nuevo reloj atómico creado por físicos de EE UU retrasara un segundo. Para hacerse una idea, la edad del universo apenas llega a los 14.000 millones de años. El reloj ofrece tal precisión y estabilidad que podrían alumbrar descubrimientos científicos ni siquiera aún imaginados.

Como los relojes mecánicos, los atómicos se aprovechan de las oscilaciones. Pero en su interior no llevan un minúsculo engranaje o péndulo ni cuarzo al que se hace vibrar, sino átomos que oscilan de forma natural a una determinada frecuencia (expresada en hercios). El primer reloj atómico se creó en 1949 y 20 años más tarde, la Oficina Internacional de Pesos y Medidas adoptó esta tecnología para fijar la duración exacta del segundo: 9.192.631.770 ciclos de un átomo de cesio 133 a una temperatura de cero absoluto. Los relojes atómicos de cesio más avanzados adelantan o atrasan un segundo cada 300 millones de años.

Físicos del Instituto Nacional de Estándares y Tecnología (NIST), de EE UU, de donde salió el primer reloj atómico en 1949, han logrado un doble récord de precisión con un reloj experimental que usa átomos de estroncio en vez de los de cesio. Sus cálculos apuntan a que los agentes que afectan al tictac atómico, como la gravedad o los campos electromagnéticos, necesitarían 15.000 millones de años para que el reloj atrasara o adelantara un segundo.

Una matriz creada por rayos láser atrapa los átomos de estroncio en una cámara de vacío

El enorme incremento en la precisión tiene una base natural y objetiva. Mientras los átomos de cesio 133 tienen aquellos 9.000 millones de ciclos por segundo, los del estroncio lo hacen a un ritmo de 431 billones por segundo. Además de preciso el nuevo reloj atómico es muy estable. En el campo de la cronometría, la estabilidad se refiere a la coincidencia en la duración de cada tictac con los demás. Aquí, esta bestia del tiempo ha mejorado en un 50% respecto a la marca obtenida por este mismo equipo de investigadores el año pasado, según explican en Nature Communications.

Para funcionar, los relojes atómicos usan una red creada con rayos láser que se entrecruzan atrapando los átomos en su baile oscilatorio dentro de una cámara de vacío. Esta malla es una de sus grandes ventajas, ya que apoyan sus mediciones en una nube de átomos y no en uno solo. Además, no hay que enfriar de forma artificial los átomos.

«El reloj opera a temperatura ambiente», dice en una nota el físico del centro conjunto de investigación del NIST y la Universidad Boulder de Colorado (EE UU), Jun Ye. «Esto es uno de los aspectos más importantes de nuestro enfoque, ya que podemos operar el reloj con una configuración sencilla y mantener al mismo tiempo la incertidumbre por la radiación de cuerpo negro al mínimo», añade. Esta radiación, relacionada con la temperatura, podría afectar a la precisión del reloj.

Entre las aplicaciones que se podrían aprovechar de esta mejora, están todos los sistemas que necesitan de una medida precisa y estable del tiempo, como el GPS, los sistemas de navegación autónoma o las misiones espaciales. Por ejemplo, las actuales transacciones de alta frecuencia en la bolsa exigen estar referenciadas a algún sistema basado en relojes atómicos.

J. Burrus/NIST’);»> ampliar foto

El físico del NIST, Jun Ye, lleva una década investigando con relojes atómicos basado en átomos de estroncio. / J. Burrus/NIST

Pero estos relojes de estroncio y otros elementos como el iterbio son tan precisos y estables que, dándole una vuelta a su uso, podrán servir para investigar las propias fuerzas que han sido las tradicionales enemigas de la medición exacta del tiempo. Al ser casi inmunes a la acción de la gravedad, los campos magnéticos o la temperatura, podrían convertirse en los mejores sensores para medir el más pequeño cambio en ellas.

En esta noticia

Documento: ‘Systematic evaluation of an atomic clock at 2×10 (-18) total uncertainty’

“La religión no tiene nada que decirme sobre mi trabajo”

En 1964, Robert Wilson y Arno Penzias, dos ingenieros de la compañía Bell Labs, andaban ocupados construyendo una nueva antena de comunicaciones. Durante su trabajo, detectaron un ruido de fondo que no eran capaces de eliminar y que no sabían de dónde procedía. Finalmente, aquella radiación fue identificada como el fondo cósmico de microondas, una radiación fósil que era como una especie de eco del Big Bang. El descubrimiento, que mereció el premio Nobel, daba la razón a los científicos que habían defendido la idea de que el universo comenzó en un pequeño punto extremadamente caliente y denso desde el que se expandió.

James Peebles (Winnipeg, Canadá, 1935) fue uno de los científicos que había predicho la existencia de aquella radiación de fondo. Poco antes del hallazgo de los ingenieros de Bell, había planeado su búsqueda junto a otros investigadores de la Universidad de Princeton (EE UU). Según el físico canadiense, ni él ni sus compañeros expresaron decepción alguna por haber sido adelantados en una carrera con el Nobel de fondo. “Lo que existía era emoción ante los datos sobre el origen del universo que estaban allí para ser medidos y analizados”, aseguraba en un artículo que recordaba el 50 aniversario del hallazgo.

La inflación podría resultar errónea y no me sorprendería»

Ayer ofreció una conferencia en la sede de la Fundación BBVA en Madrid titulada El descubrimiento y la expansión del universo. En una conversación unas horas antes de su intervención confiaba en que aquella excitación que sintió tras el descubrimiento de la evidencia del Big Bang sea compartida por mucha gente y muy diversa. “Mucha gente en EE UU o en Europa está fascinada con nuestros descubrimientos; puede que vayan a charlas como la que doy hoy, y después vayan a misa y no tengan problema con eso”.

Pregunta. ¿Ha cambiado mucho nuestro conocimiento sobre el universo desde que usted comenzó a investigar?

Respuesta. Ha cambiado increíblemente. Cuando comenzamos, hace cincuenta años, se hablaba del Big Bang, pero era un concepto muy especulativo. Había muy poca evidencia de que hubiese sucedido. El descubrimiento de esta radiación fósil hace cincuenta años y los estudios posteriores, realizados con un detalle espectacular, han permitido consolidar la idea de que el universo se expandió desde un estado denso y caliente. Es un avance extraordinario.

P. Pese al avance que menciona, da la sensación de que en cosmología, al menos desde el punto de vista de los no especialistas, no ha habido descubrimientos del impacto cultural del Big Bang

R. Las ciencias naturales dependen de las observaciones. Las ideas están bien, pero son tan buenas como las pruebas que las sustentan. La noción de un universo que se expande ya no es revolucionaria, pero las pruebas de que es algo que realmente sucede son el gran avance. También tenemos importantes avances teóricos, como el planteamiento de la materia oscura y la energía oscura. Tenemos pruebas convincentes de que estos conceptos son reales, pero no puedo decirle lo que son o si hay alguna alternativa mejor.

Si un creyente quiere nadar, es mejor que lo haga igual que un no creyente»

P. ¿Hay algún descubrimiento que le habría parecido especialmente sorprendente hace medio siglo?

R. Habría sido una serie de sorpresas. La ciencia ha avanzado de una forma más o menos progresiva durante los últimos cincuenta años. Ha habido muchos descubrimientos importantes, pero el efecto acumulativo es mayor que cada uno individualmente. A veces se realizan observaciones clave que tiene una gran importancia, pero con mucha mayor frecuencia es la acumulación de pequeños avances, que se suman unos a otros, lo que nos da una ciencia desarrollada. En cualquier caso, si me hubiesen dicho hace cincuenta años cómo se iba a producir este proceso, no me lo habría creído.

P. Desde fuera, puede parecer que los grandes descubrimientos vienen de la nada, de momentos de inspiración.

R. Hay descubrimientos impresionantes que sorprenden a todo el mundo, pero son raros. Lo más normal son estos avances progresivos que después es posible que aparezcan de repente en los medios como un gran hallazgo. El descubrimiento del fondo cósmico de microondas fue transformador. La mera existencia de esta radiación fue una gran vergüenza para la teoría competidora de hace 50 años de la teoría del estado estacionario [defendían un cosmos estático, que siempre fue y siempre será, en el que la materia se crea lenta y constantemente].

Recientemente, hubo una gran excitación con el descubrimiento de BICEP2 de una polarización que podría haberse debido a ondas gravitacionales producidas durante la inflación. Eso habría completado uno de los puntos incompletos de nuestra teoría, porque no podemos asegurar qué pasó antes de que el universo comenzase a expandirse. La mejor apuesta que tenemos es la inflación, pero las evidencias que lo apoyan son escasas. Si el hallazgo de BICEP2 se hubiese confirmado, me habría dado más confianza en que la inflación es la respuesta adecuada y eso habría sido de verdad otro experimento transformador. Pero al final no se confirmó.

No encuentro interesantes las predicciones sobre el futuro del universo»

P. ¿Le sorprendería que la idea de la inflación se descartase por los resultados de otros experimentos?

R. No. La inflación podría resultar errónea y no me sorprendería. Si aparecen evidencias de que el universo no se expande, algo que creo que no sucederá, sí estaría sorprendido de verdad. Diría que las posibilidades son cero, pero no debería decir cero. No creo que haya una teoría que sea absolutamente correcta.

Por poner un ejemplo, respecto a la conservación de la energía, en EE UU tú no puedes patentar una máquina de movimiento eterno. Hay una buena razón para eso. Los experimentos han mostrado muchas veces que la energía se conserva y, sin embargo, en la teoría de la relatividad general, la energía no se conserva. Pero las máquinas de movimiento eterno son extremadamente improbables. No podemos asegurar que no existen, porque no podemos llegar a la última verdad. Eso es cierto incluso en las matemáticas. En ciencia solo tenemos aproximaciones excelentes.

Noticias del origen del universo

«El Big Bang es parecido a un agujero negro pero al revés»
El Big Bang cumple 50 años
El papa Francisco: “El Big Bang no contradice a Dios, lo exige”
Japón estudia el origen del universo debajo de una montaña

P. Pero sus descubrimientos, pese a parecer más limitados que las certezas que puede ofrecer la religión, influyen mucho en la ideología de la gente, en cómo se mira al mundo.

R. Espero que tenga razón, pero por ejemplo en EE UU tenemos unos políticos bastante curiosos, gente en niveles muy elevados que considera la noción de un universo que se expande como una abominación, porque no está escrito en la biblia. Si me pregunta cuál es la influencia de la religión en mi trabajo, yo diría que la religión no tiene nada que decirnos. Pero también diría que nosotros no tenemos nada que decirle a la religión. Son ámbitos diferentes y mucha gente se siente cómoda con eso.

P. De hecho George Lemaître, uno de los padres de la idea del Big Bang, era un sacerdote católico. ¿Lo conoció?

R. Cuando él estaba empezando a retirarse yo empezaba a subir. No lo conocí en persona, pero conocí su trabajo y lo admiro. En los años treinta entendió muy bien la teoría de la relatividad de Einstein, era un individuo excepcional. Por supuesto, era muy religioso, pero no tenía problema reconciliando los dos ámbitos. Él dijo una cosa que me gusta mucho. Si un creyente quiere nadar, es mejor que lo haga igual que un no creyente. Y lo mismo sucede con las ciencias naturales, si un creyente trabaja en ellas debe hacerlo como un no creyente.

P. Además de ayudar a conocer el pasado del universo, la física hace predicciones sobre cuál será su destino final. ¿Hay alguna que le parece más interesante?

R. No encuentro muy interesantes estas predicciones. El pasado se entiende mucho mejor que el futuro porque hay fósiles. El futuro es fascinante. Podemos decir que el mundo acabará. Pero nuestra ciencia tiene muchas dificultades para entender el futuro, porque no entendemos bien la energía oscura, que está afectando el ritmo de expansión del universo ahora, y puede tener un efecto muy grande en el futuro o no, dependiendo de la naturaleza de la energía oscura, que desconocemos. ¿Seguirá expandiéndose el universo o se contraerá de nuevo hasta producir un Big Crunch? Para mí es una pregunta poco interesante porque no hay forma de poner a prueba las respuestas.

El ‘Hubble’, una ventana al cielo abierta hace 25 años

El telescopio espacial Hubble, una leyenda viva para los astrónomos, pero también para millones de personas de todo el mundo que se han asomado a través de sus imágenes a la belleza del cielo como nunca antes, cumple ahora 25 años, desde que fue lanzado al espacio el 24 de abril de 1990. “Dicen en Estados Unidos que el Hubble es el telescopio de la gente que usamos los astrofísicos”, resume la astrónoma Eva Villaver, que ha trabajado ocho años en el instituto científico del observatorio en Baltimore (EE UU) y que ahora es profesora de la Universidad Autónoma de Madrid (UAM). “Las colisiones del cometa Shoemaker-Levy 9 en Júpiter, asombrosas nebulosas, sistemas protoplanetarios, galaxias en colisión, fotografías del universo profundo en que aparecen las galaxias más lejanas y primitivas… forman parte de las imágenes que han acercado de modo espectacular la astronomía al gran público y que ya forman parte del acervo cultural de las dos últimas generaciones”, apunta Asunción Sánchez, directora del Planetario de Madrid.

Diseñado para funcionar en órbita 15 ó 20 años, el Hubble sigue en plena forma acumulando descubrimientos. En un cuarto de siglo se han hecho con él “más de 1,2 millones de observaciones científicas y los astrónomos han publicado más de 12.800 artículos, haciendo de este telescopio uno de los instrumentos científicos más productivos jamás construidos”, señala la NASA. Su coste hasta el lanzamiento fue 2.330 millones de euros y alcanzó, en 2010, los 9.300 millones, sumando la operación y las mejoras.

La del Hubble es una historia de éxitos plagada de dificultades y retos, desde su mismo lanzamiento, en 1990, con retraso debido al accidente del Challenger (1986) que aplazó todas las misiones de los transbordadores de la NASA, hasta el defecto del espejo principal del telescopio descubierto cuando ya estaba en órbita y sin posibilidad de cambiarlo. El ligerísimo error de pulido del espejo emborronaba las imágenes y supuso un jarro de agua helada para miles de astrónomos que soñaban con esta máquina científica única. “Unas 10.000 personas trabajaron durante dos décadas para lograr poner el Hubble en la plataforma de lanzamiento”, recordaba Eric J. Chaisson en su libro The Hubble Wars (1994). Inasequibles al desaliento, científicos e ingenieros buscaron una solución a la miopía (técnicamente aberración esférica) del Hubble, que se concretó en 1993, cuando siete astronautas le instalaron unas gafas correctoras.

Con un espejo principal de 2,4 metros de diámetro, el Hubble no era, en 1990, el telescopio más grande, y pocos años después empezaron a funcionar en tierra los primeros del rango de diez metros. Pero en el espacio, por encima de la atmósfera, el Hubble evita la distorsión que produce el aire en la luz de las estrellas, obteniendo unas imágenes de gran resolución. Imágenes que, tratadas con los filtros que facilitan su análisis científico a la vez que embellecen el resultado, fascinan a millones de personas.

“El Hubble ha permitido, como ningún otro instrumento científico, sortear la barrera atmosférica y ha hecho posible observar y, por tanto, conocer, desde las estrellas más cercanas hasta las galaxias más distantes conocidas con una precisión y detalles exquisitos”, dice el astrónomo Carlos Eiroa, de la UAM. “Ha sido una herramienta maravillosa, y en tantos aspectos única, para el avance del conocimiento humano”. Y sigue siéndolo, apunta Villaver: tantas son las peticiones de astrónomos de todo el mundo para utilizarlo que solo se puede asignar tiempo de observación a una de cada cinco.

NASA’);»> ampliar foto

Dos astronautas del transbordador espacial ‘Endeavour’ durante la misión espacial de 1993 en la que colocaron en el ‘Hubble’ un sistema de lentes especiales para corregir el defecto del espejo. / NASA

“Gracias a la combinación insuperable de su resolución y sensibilidad, así como a su amplia cobertura de longitud de onda, el Hubble ha permitido realizar algunos de los hallazgos más emocionantes y fundamentales, incluido el descubrimiento de la energía oscura, las primeras imágenes directas de planetas alrededor de estrellas cercanas y un primer vistazo de las fases tempranas de la formación de galaxias tras el Big Bang que dio origen a nuestro universo”, señala Danny Lennon, jefe de operaciones científicas de la Agencia Europea del Espacio (ESA), copropietaria (15%) del Hubble. Villaver resalta un objetivo inicial del programa: determinar el valor de la llamada constante de Hubble para precisar la edad del universo (ahora establecida en 13.800 millones de años).

Cuando, en 2009, los astronautas fueron al telescopio para ponerlo al día y repararlo, se decidió que no habría otra misión y no se podía precisar hasta cuando funcionaría. Han pasado seis años y sigue activo. Mientras tanto, la NASA, la ESA y la Agencia Espacial Canadiense preparan el sustituto: el telescopio James Webb, que tiene un espejo de 6,5 metros, un presupuesto disparado ya a casi 8.000 millones de euros y el lanzamiento previsto para 2018.

Las redes, donde hay que estar

El escritorio del ordenador es la nueva imprenta. Esta ha sido la primera tendencia que Julio Alonso, fundador y director general de Weblogs S. L., ha definido para que los medios digitales evolucionen acorde con el tiempo y las nuevas tecnologías. Lo ha dicho ante las caras iluminadas por las pantallas, tanto de tabletas como de móviles, de los asistentes al V Congreso de iRedes que se celebra en Burgos cada año.

más información

Twitter cambia la forma de ver televisión
¿Cómo se consigue la ‘viralidad’ en Internet?
Aquí sí hay trabajo
“El nivel en redes sociales de los directivos es pésimo”

La conferencia inaugural, de la mano de Alonso, ha consistido una lista de consejos a los medios digitales, “14 tendencias en medios que no podrás creer”, haciendo un guiño a la costumbre de poner titulares llamativos que ofrecen una lista de sugerencias o que lanzan una incógnita para que se pinche en la noticia.

El experto ha destacado la pérdida de relevancia de las portadas: “Los medios nos volvemos locos intentando averiguar por dónde entran nuestros lectores a los contenidos y aún no lo sabemos del todo». Y es que, para Alonso, “el contenido es el rey, pero la distribución es la reina y es la que lleva los pantalones. Hay que adaptarse y saber llegar hasta los lectores, pues.

Los medios nos volvemos locos intentando averiguar por dónde entran nuestros lectores a los contenidos

Ha tomado el relevo Jordi Roca, elegido el mejor repostero del mundo, y, vía Skype, el veterano montañero Carlos Soria desde el Himalaya. Roca aceptó el reto de acompañar a Soria a Nepal para adaptar a las condiciones extremas la buena cocina. Las caras de asombro de los asistentes parecían inevitables ante la explicación de cómo hacer un helado a temperatura ambiente. Eso sí, siempre que la temperatura sea inferior a los diez grados bajo cero y gracias a la liofilización, una técnica que consiste en congelar el producto y posteriormente se introduce en una cámara de vacío, para luego “regenerarlo de nuevo con agua”. Para muestra de la aplicación de esta técnica, Roca ha repartido entre el público un menú completo a base de tortilla de patatas, guacamole, jarrete y arroz con leche, que él mismo ha convertido en platos exquisitos con solo añadir un poco de agua.

La importancia de informar con responsabilidad salud en Internet ha ocupado a varios expertos en comunicación de la ciencia en una mesa redonda. Ha habido acuerdo en la necesidad de informar con responsabilidad sobre salud en Internet para evitar alarmismo en los lectores más hipocondríacos. No es el único riesgo. Para Marta Borruet, jefa de gabinete del Departamento de Salud del Gobierno de Navarra, “la pseudociencia inunda las redes sociales. Sirven sobre todo para que la gente se ponga en contacto y como servicio de atención al ciudadano». Abundando en la cuestión, Clara Grima, catedrática de Matemática Aplicada de la Universidad de Sevilla, ha añadido que se sigue «a gente afín a ti; las redes se convierten en círculos cerrados que se retroalimentan, y que tienen poca repercusión fuera de ellos”.

“El impacto de la cara trasplantada es lo de menos para el paciente”

Joan Pere Barret es el cirujano que, al frente de un equipo de 45 profesionales, ha practicado en el hospital Vall d’Hebron de Barcelona el trasplante de cara —desde los pómulos hasta las clavículas— “técnicamente más complejo” del mundo, como él mismo destaca, desde que se inició la técnica en 2005. En la misma operación, que se anunció esta semana, se intervino al paciente de una enfermedad que amenazaba con acabar con su vida.

Pregunta. ¿Qué problema tenía el paciente?

Respuesta. Sufría una grave malformación vascular, una conexión aberrante entre venas y arterias. El origen estaba en la base de la lengua, pero se había extendido hacia la garganta, el cuello y los tejidos de la cara. En cualquier momento podía sufrir una hemorragia masiva. Vivía con la incertidumbre de no saber si se iba a despertar el día siguiente. Era una bomba de relojería en el cuerpo.

P. Y el mejor tratamiento era el trasplante.

R. Se habían intentado varias alternativas: terapias con láser, extirpaciones parciales, antiangiogénicos para detener la creación de vasos… Pero consideramos que la mejor opción era la extirpación del tumor arterial, y ello implicaba el trasplante.

P. Hasta ahora, los trasplantes de cara practicados [una treintena en el mundo desde 2010, este es el cuarto en España] nunca habían tratado de curar al paciente de una enfermedad mortal, sino de mejorar su calidad de vida.

R. Esta intervención supone un paso adelante. Hasta el momento, se trataba de corregir graves deformidades anatómicas, cosméticas, estéticas que impedían llevar una vida social normal y resolver problemas funcionales de calidad de vida (poder comer, hablar bien). Nosotros hemos hecho todo esto pero, además, hemos curado al paciente. Esta novedad ayudará a plantearse otras indicaciones aún más importantes para el trasplante de cara. Por ejemplo, ante enfermedades autoinmunes o patologías congénitas de todo tipo que cursan con enfermedades degenerativas de la cara. O, por qué no, para tumores de cara. Aunque la inmunosupresión nos va a dar algún problema, si estamos trasplantando hígados en hepatocarcinomas, quizás en un futuro nos podemos plantear dar el paso del trasplante para controlar la enfermedad u ofrecer esta intervención ante tumores no operables para alargar la expectativa de vida del paciente.

más información

El Hospital Vall d’Hebron realiza su segundo trasplante de cara
Una mujer francesa recibe el primer trasplante de cara
El primer hombre con un trasplante de cara completo en EE UU evoluciona bien
Primer trasplante de rostro completo
El primer trasplantado total de cara del mundo se reconoce ante el espejo y recibe el alta «feliz»
Culmina el primer trasplante de cara en España tras 15 horas de operación
Segundo trasplante de cara en España, primera aparición pública
Primer trasplante de cara en España
España autoriza el cuarto trasplante de cara

P. ¿Qué riesgo había en la intervención?

R. El riesgo de muerte en la operación era altísimo [por hemorragia]. Estimamos una probabilidad de entre un 15% y un 20%, aunque como nunca se había hecho una intervención de este tipo, quizás fuera mayor.

P. ¿Cómo reaccionó el paciente al decírselo?

R. Nos dio la respuesta que esperábamos para considerar que había una buena indicación para el trasplante. Dijo que lo que tenía no era vida y era peor que estar muerto. Y que necesitaba hacer algo para afrontar la vida que quería con su familia, por ello aceptó.

P. Luego pasó dos años en lista de espera hasta que se le opera. ¿No es mucho tiempo?

R. Es verdad que en los otros tres casos de trasplante de cara en España pasaron meses, Pero no es normal tener tanta facilidad para dar con el donante. Primero por la longevidad, necesitas a una persona de edad similar, en la misma década, (tiene 45 años), y los donantes son cada vez más añosos. Además, se han de cumplir otros requisitos de compatibilidad de grupo sanguíneo, de tejidos (histocompatibilidad), ausencia de enfermedades infecciosas… También de peso, estatura, que tuviera una forma de la cara similar, de perímetro craneal, del tono de la piel. Y una vez se encuentra el potencial donante, la familia tiene que acceder a la donación.

P. Supongo que no es lo mismo acceder a donar un órgano interno que una cara. ¿Hubo rechazos previos antes de dar con el donante definitivo?

R. Hubo alguno, pero no sabría decir cuántos. Hay gente que accede a donar los órganos, pero llegado al punto de la cara te dice: no puedo. Es comprensible, la imagen que tenemos de la persona y en lo que pensamos cuando la recordamos es su cara, es un gran paso de solidaridad acceder también a la cara y entiendo que es difícil. En todo caso, hay que reconocer la gratitud de quien dona aunque sea solo una córnea. Recuerdo que cuando iniciamos el programa de trasplante de cara hablé con nuestra coordinadora y le plantee esta cuestión, si habría donantes. Me contestó que no habría problema y que tendríamos porque hay familias que lo donan todo. que tienen un gran sentido de la solidaridad.

Hospital Vall d’Hebron’);»> ampliar foto

Efectos de la malformación vascular en la cara del paciente. / Hospital Vall d’Hebron

P. ¿Cómo se convence a una persona para que done la cara de un familiar?

R. Nunca se convence a la gente, nunca. Ni para la cara ni para donar cualquier otro órgano. Se informa. Llegado el momento se pone sobre la mesa la posibilidad de donación y se explica que no hay respuestas erróneas o correctas, que la respuesta buena es la que den, sea sí o sea no.

P. La operación duró unas 30 horas, 27 en quirófano. ¿Por qué fue tan larga?

R. Hay que tener en cuenta que no fue una intervención, sino tres. Primero la extracción de la cara del donante, luego la del receptor y la intervención por la malformación vascular, que en sí misma es otra operación, y, finalmente, el injerto.

P. ¿Estuvo las 27 horas con el bisturí en la mano?

R. Con el bisturí, con las tijeras, dirigiendo… Con paradas para tomar café, comer algo e ir al baño. La cirugía no para en ningún momento. Los anestesistas nos iban marcando el ritmo de la operación. Ellos se encargan de transfundir al paciente a medida que pierde sangre. Si, debido a la cirugía, especialmente al retirar malformación vascular, la hemorragia era muy elevada cabía la posibilidad de que no pudieran reponer sangre al mismo ritmo, y entrara en parada cardiorrespiratoria. Por ello estábamos en comunicación continua con los anestesistas, que nos daban la pauta para bajar el ritmo, acelerar o parar en función de la pérdida de sangre.

P. ¿Cuál fue el momento más delicado?

R. La extirpación del tumor vascular. Después de muchas horas, tras extraer la cara del donante y la del receptor, tanto la parte exterior como la faringe, lengua, boca y las zonas profundas del cuello, llega el Alpe d’Huez. Y hay que subirlo después de varios picos de primera categoría.

P. ¿Cómo estaba el ovillo vascular?

R. La situación era mala, la esperada. Era un absoluto infierno, donde tocabas sangraba.

P. Y, tras retirar la malformación, se afronta el trasplante en sí.

R. La operación empezó hacia las 18.30 [fue a mediados de febrero, la fecha no se ha difundido para preservar el anonimato del donante]. A mediodía del día siguiente ya teníamos todo extirpado y comenzó el implante de la cara. A pesar de ser complejo, era un territorio ya conocido, ya lo habíamos hecho en nuestro primer trasplante en 2010: recomponer la faringe, colocar la lengua, empalmar nervios, vasos, unir músculos y el resto de tejidos… Sabes que te quedan muchas horas por delante pero vas más relajado, ya no hay riesgo de encontrar sangrados. Acabamos pasadas las 21.30.

P. ¿Cómo está el paciente?

R. Muy bien. En casa. Con el agobio normal, nuestro y suyo, porque no es igual tenerlo aquí, en el hospital 24 horas al día que estar en el domicilio. Estamos todos adaptándonos a esta fase.

La expectativa es una recuperación muy buena, aunque depende del crecimiento de los nervios

P. ¿Qué movilidad facial recuperará?

R. La expectativa es una recuperación muy buena, aunque depende del crecimiento de los nervios. Sabemos que los fármacos inmunosupresores ayudan a la regeneración nerviosa, por lo que va más rápido que lo que es habitual en otros pacientes, pero hasta 2016 no podremos valorar bien el nivel de función que vamos a conseguir.

P. ¿Cómo ha asumido su nueva cara?

R. De todo lo que supone la operación, yo diría que el impacto de la nueva cara es lo de menos para el paciente. Incluso para la familia. Se acepta en seguida. No ven la cara, sino a la persona querida, que se encuentra bien después de haber pasado por una situación de máximo riesgo. La aceptación es rapidísima.

P. Un neurocirujano italiano dijo hace un mes que en 2017 sería viable un trasplante de cabeza. ¿Coincide con él?

R. La última frontera del trasplante está en el sistema nervioso central, lo que nos limita es la conexión de la médula espinal. No hay evidencia científica que esto se pueda hacer y 2017 me parece muy pronto. Pero no puedo negar que llegue un momento en el que técnicamente sea posible. La frontera es el trasplante de médula, y no creo que sea infranqueable. Lo malo es no poder estar aquí los próximos 100 años para ver todas las maravillas que, sin duda, van a suceder.

Descubiertas tres especies de ‘dragones’ enanos en los Andes

Un grupo de científicos ha descubierto tres nuevas especies de lagartos con forma de dragón en los Andes de Perú y Ecuador. Las especies descubiertas difieren de sus parientes más próximos en el color, el tamaño y el ADN, según una investigación que se publica hoy en la revista ZooKeys.

Omar Torres-Carvajal, investigador del Museo de Zoología QCAZ (Ecuador), Pablo J. Venegas (CORBIDI, Peru), y Kevin de Queiroz (Museo Nacional de Historia Natural Smithsonian, EE UU) han realizado su descubrimiento en los Andes tropicales y, según aseguran, es un «hecho llamativo, teniendo en cuenta que estas nuevas especies están entre los lagartos más grandes y llamativos de los bosques de Sudamérica».

ampliar foto

El nuevo ‘Enyalioides anisolepis’. / Omar Torres-Carvajal.

Los lagartos del género Enyalioides, al que pertenecen estas tres especies, son diurnos y viven en las selvas tropicales, como el Chocó, así como los bosques a ambos lados de los Andes. Estas nuevas especies incrementan el número de lagartos Enyalioides a 15. En 2006 sólo se conocían siete.

«El hecho de que más de la mitad de estos reptiles se hayan descubierto en los últimos años debería ser tenido en cuenta por las personas que están al cargo de las agencias de conservación», ha dicho en una nota el doctor Torres-Carvajal.

¿De verdad lo dijo Einstein?

De tazas de café a camisetas, pasando por memes de Internet; las citas de Albert Einstein están en todas partes. ¿Pero dijo realmente el gran físico las frases que pensamos que dijo? En el 100 aniversario de la teoría de la relatividad general, compruebe si puede diferenciar las citas reales de Einstein de las que no lo son.

Fuente: Revista Science y elaboración propia.

Descifrados 11.000 genes de la solitaria

Un grupo de investigadores mexicanos ha logrado descifrar una gran parte del genoma de la Taenia solium, el parásito más conocido como la solitaria. Este gusano es causante de la teniasis y la cisticercosis, dos infecciones que se contraen a través de la ingesta de carne de cerdo contaminada, en el primer caso, y de los huevos de la tenia, en el segundo.

Cuando la lombriz infecta a una persona a través de la comida, la tenia se encuentra en su fase joven. En el intestino humano, esta larva se convierte en una tenia adulta, que puede permanecer en el organismo sin provocar daños durante un tiempo y crecer hasta los tres metros. Los síntomas son leves e inespecíficos (dolor abdominal, estreñimiento, náuseas o diarrea). La persona se da cuenta de que tiene la enfermedad porque el gusano va saliendo, en pequeños trozos, con las deposiciones. Las larvas de la tenia contaminan, a su vez, el medio ambiente.

La cisticercosis, sin embargo, se produce en el humano por contacto con materia fecal infectada, lo que ocurre cuando fallan las medidas de higiene. En estos casos, la tenia está en su etapa embrionaria, la más dañina, y puede desarrollar quistes en diversos tejidos, como músculos, tejidos subcutáneos, ojos y encéfalo. Los que se encuentran en el sistema nervioso central causan neurocisticercosis, que provoca convulsiones.

Conforme la población se vuelve más urbana, resulta más difícil que el humano se infecte. Aunque el parásito sigue existiendo

Alejandro Garciarrubio, investigador de Biotecnología de la UNAM y jefe de bioinformática del proyecto

Hasta hace poco nada se sabía sobre la información genética de la Taenia solium, por lo que era complejo crear medicamentos que curasen la enfermedad en su etapa embrionaria. El estudio desarrollado por la Universidad Nacional Autónoma de México a lo largo de siete años, publicado en la revista científica Nature, ha conseguido identificar el genoma de la tenia, es decir, el material genético que contiene la información sobre cómo debe construirse un nuevo organismo. El genoma es una secuencia de ADN sumamente larga, constituida por un alfabeto de solo cuatro letras.

En el caso del genoma humano, hay 3.000 millones de letras. «Este organismo tiene un genoma de 120 millones de letras, que es el tamaño de uno promedio. El proyecto consiguió definir la secuencia y el orden de estas cuatro letras a lo largo del genoma de la Taenia solium«, explica Alejandro Garciarrubio, investigador de Biotecnología de la UNAM y jefe de bioinformática del proyecto.

Una vez que los científicos tuvieron esta secuencia de letras (el conjunto del texto), debían descifrar qué significaba. «Lo primero que tratamos de entender era el sistema de puntuación. Es decir, qué formaba una frase, una unidad de información, o lo que es lo mismo: un gen».

Del genoma de esta tenia, los investigadores han podido extraer la información de 11.000 genes (u 11.000 frases). Dado que existe un parecido entre los genomas de los animales, buscaron en otras especies frases similares. Es lo que aplicado a programas de ordenador o componentes electrónicos se denomina ingeniería inversa. «Para aproximadamente la mitad de los genes de la T. solium encontramos algún otro gen parecido en otra especie para poder saber qué función realiza».

Una vez hallados los genes comunes, el proyecto logró identificar esos otros genes que eran específicos de la tenia, sin equivalentes en humanos. «Estos pueden ser buenos blancos para diseñar medicamentos que tengan como objetivo dañar al parásito sin dañar al huésped, se les llama blancos terapéuticos», añade Garciarrubio. Hasta el momento el estudio ha logrado identificar más de 100 genes que podrían servir como blancos terapéuticos.

Aunque fue declarada erradicable en 1993, la OMS la añadió en 2010 a la lista de las principales enfermedades tropicales desatendidas

El proyecto, que llegó a contar con 30 participantes de varias instituciones de la UNAM, investiga ahora el genoma de otro tipo de tenia, la T. crassiceps, un proceso que resulta más sencillo porque parte del trabajo es común con la T. solium.

La cisticercosis es una enfermedad cada vez menos extendida. «Conforme la población se vuelve más urbana, hay campañas de higiene y se construyen letrinas, resulta más difícil que el humano se infecte. Aunque el parásito sigue existiendo, los controles sobre la carne que consumimos son mayores».

La neurocisticercosis es la forma más grave de la enfermedad y una de las principales causas prevenibles de la epilepsia (convulsiones) en muchos países en desarrollo. Según datos de la Organización Mundial de la Salud, más del 80% de los 50 millones de personas afectadas en el mundo por epilepsia viven en países de ingresos bajos y medianos bajos, en muchos de los cuales las infecciones de este tipo son endémicas. «La enfermedad se localiza, sobre todo, en países del sur de Asia, en África y todavía bastante en Centroamérica y Sudamérica», puntualiza el investigador de la UNAM.

Pese a que la enfermedad, en teoría, se puede controlar y fue declarada erradicable en 1993 por el Grupo Especial Internacional para la Erradicación de Enfermedades, la OMS la añadió en 2010 a la lista de las principales enfermedades tropicales desatendidas.

Ciencia en Español

El océano ácido provocó la mayor extinción en la historia del planeta

Más del 90% de los organismos marinos y más de dos tercios de los animales terrestres desaparecieron hace unos 252 millones de años. Unos 20 millones de años después surgieron los primeros dinosaurios. Las causas de aquel cataclismo, a partir del cual evolucionaron los ecosistemas modernos, han sido debatidas por los científicos durante años y ahora un equipo de geofísicos europeos ha dado con una respuesta basada en evidencias directas: una intenso actividad volcánica en Siberia, con ingentes cantidades de CO2 inyectadas en la atmósfera, seguramente provocó la acidificación de los océanos, desencadenando la extinción de tantos organismos que no pudieron adaptarse al cambio radical de las condiciones químicas de su entorno.

El hallazgo parece descartar otras hipótesis basadas en diferentes procesos de origen puramente terrestre o incluso extraterrestre, como el impacto de un gran asteroide. Y no solo ilumina un episodio importante del pasado de la Tierra, sino que también debe ayudar a entender su futuro, ya que las ingentes cantidades de CO2 que se están inyectando en la atmósfera por el uso intensivo de los combustibles fósiles están haciendo el océano mundial más ácido, y a un ritmo mayor que el de hace 250 millones de años, advierten los investigadores. “Los científicos hace tiempo que sospechaban que hubo una acidificación del océano durante la mayor extinción de todos los tiempos, pero se habían escapado hasta ahora las pruebas directas”, señala Matthew Clarkson, investigador de la Universidad de Edimburgo y coordinador del equipo autor del trabajo. “Y es un descubrimiento preocupante”, continúa, “dado que estamos observando ya hoy en día un incremento de la acidez de las aguas como resultado de las emisiones humanas”.

Clarkson y sus colegas explican esta semana en la revista Science que han encontrado las claves de aquel cambio oceánico en rocas localizadas hoy en los Emiratos Árabes Unidos pero que, hace 250 millones de años, formaban parte del fondo marino en una zona de aguas someras y conservan información sobre los procesos químicos que se produjeron. Los análisis minuciosos que ha hecho este equipo aportan incluso pormenores de la secuencia de aquel proceso. La gran extinción duró unos 60.000 años.

Los investigadores (de varias instituciones del Reino Unido y de Alemania) explican que hubo dos fases de acidificación por la inyección masiva de CO2 (billones de toneladas) en la atmósfera. La primera fase fue más lenta (unos 50.000 años), pero afectó a unos ecosistemas que ya estaban debilitados por el incremento de la temperatura del planeta y la disminución del oxígeno. Tras un breve intervalo con una cierta recuperación de los ecosistemas, llegó la segunda fase, más rápida (10.000 años), que fue el golpe de gracia para tantas especies. Las criaturas con estructuras calcificadas eran especialmente débiles ante el cambio del pH del agua al aumentar el CO2 disuelto en el agua. Los famosos trilobites, que habían poblado el planeta anteriormente, se acabaron.

La acidificación del océano fue más lenta hace 252 millones de años que ahora, explica Eric Hand en la revista Science. Clarkson y sus colegas estiman que se inyectaron 24.000 gigatoneladas de carbono en la atmósfera en 10.000 años -2,4 gigatoneladas por año- y la mayor parte acabó en los océanos, mientras que se estima en unas 10 gigatoneladas por año (sumando todas las fuentes) la entrada actual de carbono en la atmósfera. Pero, las reservas actuales de combustibles fósiles viables contienen solo unas 3.000 gigatoneladas de carbono, muy por debajo de la cantidad total que debieron emitir aquellos volcanes del pasado. “Estamos inyectando carbono más rápido pero es improbable que tengamos tanto [como el que provocó la gran extinción]”, señala Tim Lenton, científico de la Universidad de Exeter (Reino Unido) y miembro del equipo que coordina Clarkson. “La biología es muy inteligente, puede afrontar una cierta cantidad de acidificación, pero sospecho que hay límites a la adaptación y en algún punto [las especies] colapsan”, resume.

Échele la culpa al cerebro

Lo siento cariño, había bebido mucho, no sabía lo que hacía”. Hace tiempo que este argumento perdió validez como excusa. Apréndase esta frase: “Lo siento cariño, la amígdala y el estriado ventral de mi cerebro estaban hiperactivados, la ínsula no fue capaz de inhibir mi conducta… Yo no tenía elección”, puede servir como pretexto ante su pareja por haber sido infiel y en algunos casos, hasta librarles de la cárcel.

Queremos saber, comprender, explicar. El avance en las técnicas para el estudio del funcionamiento cerebral está proporcionando un fecundo caldo de cultivo que invita a querer interpretar no solo cómo funciona el cerebro, sino también la mente, la conducta y hasta los valores. Dónde reside la maldad, la bondad, el amor, el odio… Y la responsabilidad. La sociedad pide explicaciones y la neurociencia nos ayuda a proporcionar algunas respuestas, y entonces surgen los problemas: querer saber más de lo que la neurociencia nos puede explicar, responder a preguntas que no siempre tienen respuesta.

En los tribunales, se está prodigando la defensa de un acto delictivo basada en alteraciones cerebrales —la mayoría inespecíficas— amparándose en la ciencia, viniendo casi a decir que no fue la persona la que cometió el acto, sino su cerebro dañado. Con una buena argumentación y la confianza en la pericia neurocientífica, un juez puede llegar a la conclusión de que, efectivamente, esta persona sentada en el banquillo no es culpable. En un caso reciente, un hombre acusado de agredir a otro intentó librarse presentando una exploración en la que se observaba una malformación arteriovenosa en el cerebelo con el fin de demostrar que existía una relación causa-efecto entre el daño y el delito. No le sirvió de mucho. Fue condenado. Lo que no se debe olvidar es que lo que se estudia en neurociencia es el cerebro y sus reacciones ante diferentes estímulos, pero la mente es mucho más que eso. Procesos mentales complejos como la toma de decisiones difícilmente podrán ser localizados entre las redes del cerebro.

La mente, la interacción entre cerebro, ambiente y psique, es imposible de controlar en condiciones de laboratorio. En neurociencia cognitiva —área de conocimiento dedicada al estudio de la mente en cuanto al equivalente cerebral, diseño de estudios y control de los factores ambientales que queremos conocer— sabemos que, por más que intentemos ser rigurosos, habrá factores que influyan directamente en la toma de decisiones y que no podremos controlar. Saber que estamos siendo estudiados es en sí mismo un factor influyente (si no determinante) en la decisión que tomemos. Y estudiar el funcionamiento cerebral y el proceso de toma de decisiones de una persona sin que esta lo sepa no se puede siquiera tener en cuenta como posibilidad, desde el punto de vista de la bioética. Se podría pedir a una persona que portara voluntariamente un implante intracraneal de detección de la función cerebral (ciencia ficción) sin que esta supiera el objeto de estudio. Pero en cualquier caso sabría que lo lleva y eso ya es un condicionante.
No se trata de cuestionar la validez de los avances en neurociencia, desestimarlos ni tachar sus argumentos de falaces; a esta disciplina le queda un largo recorrido y con sus hallazgos seremos capaces de comprender mejor (incluso tratar) aspectos patológicos de la conducta humana. Pero conviene aceptar que algunas cosas nunca las llegaremos a saber; bien porque no debemos o porque no podemos.

Si con el surgimiento de técnicas de estudio del ADN se empezó a hablar de determinismo genético, en los últimos años se habla de determinismo cerebral, lo que implicaría despojar al ser humano de su capacidad de decisión.

La neuroimagen cognitiva ofrece la tentación de saber qué sucede en los cerebros de personas que actúan de forma diferente a lo que considera normal la sociedad y, por ende, el investigador que los diseña. Pero aquí ya nos encontramos ante un importante sesgo: estudiamos a personas con comportamientos diferentes. Y si tienen comportamientos distintos, obviamente su cerebro funciona de manera diferente.

Cuando hablamos de actos humanos no solo hablamos de los estímulos cerebrales, sino de asuntos mucho más complejos. Y una de las claves está en la responsabilidad. Según la acepción primera del Diccionario de la Real Academia de la Lengua, es la “cualidad de responsable (obligado a responder de algo o por alguien. Dicho de una persona: que pone atención en lo que hace o decide)”. En su acepción segunda se alude a la responsabilidad legal: “Deuda, obligación de reparar y satisfacer, por sí o por otra persona, a consecuencia de un delito, de una culpa o de otra causa legal” y en su acepción tercera a la base moral: “Cargo u obligación moral que resulta para alguien del posible yerro en cosa o asunto determinado”.

¿Hallará la neurociencia las áreas cerebrales encargadas de la responsabilidad? Tal vez ni siquiera existan tales zonas. La responsabilidad obedece a muchos factores, tan diversos como la empatía, el momento, la ideología, los principios morales, la ética, las normas, la sensación de amenaza, el miedo, el hambre, la cultura, las costumbres, el deseo, la madurez. La lista podría ser interminable y ninguno de esos factores determinan de forma absolta la responsabilidad del ser humano en el acto humano. Dicho de otro modo, y por emplear el símil cinéfilo: la relación de causalidad que existe entre la justificación de tener una ideología republicana como consecuencia de la falta de riego cerebral por la presencia de un trombo (Todos dicen I love you, Woody Allen, 1996) es equivalente a considerar que la causa de estar condenado al infierno es haber inventado los muebles de metacrilato (Desmontando a Harry, Woody Allen, 1997). La ideología, como el acto humano, es algo infinitamente más complejo.

Por todo ello, resultan peligrosos los titulares que presumen de haber hallado que no existe la maldad, que nos encontramos ante “cerebros enfermos”, porque a día de hoy lo único que han demostrado es que nos encontramos ante “cerebros que funcionan de una manera diferente”, como es seguro que funcionan de modo distinto los cerebros de los grandes pintores, escritores, poetas, estrategas o atletas.

Por supuesto, hay lesiones cerebrales; cerebros que no es que funcionen de manera diferente, sino que funcionan mal, ya sea por una enfermedad (demencia, trastornos mentales y alteraciones del comportamiento causadas por lesiones cerebrales anatómicas) o porque no están correctamente desarrollados (como sucede en la infancia o en algunos trastornos del neurodesarrollo). Esas limitaciones en ocasiones explican comportamientos incomprensibles, inmorales y hasta delictivos. Son lesiones que pueden llegar a privar de libertad al individuo por lo que su comportamiento no se considera ya un “acto humano”. Podremos en algunos casos detectar que la persona no estaba tomando una decisión o la estaba tomando incluso en contra de su propia voluntad, pero es la conducta y la exploración especializada de la persona la que nos dirá hasta qué punto esa patología podría privar de libertad al individuo y, aún así, siempre nos quedarán dudas.

Tal vez Rita Hayworth en su papel de Gilda (Charles Vidor, 1946) habría tenido a alguien mejor que a Mame para buscar un responsable fácil e indefenso. En lugar de Put the blame on Mame, personaje ficticio que, según la canción, estaba detrás de todo tipo de desgracias, tal vez podría ahora cantar Put the blame on brain. No dejemos a nuestro cerebro indefenso.

En otras palabras: no es su lóbulo occipital izquierdo y el esplenio adyacente lo que está leyendo este artículo. Es usted.

Marte tiene las condiciones para formar agua líquida

Puede haber agua líquida en Marte y es posible que el robot de exploración Curiosity ya la haya tocado con sus ruedas durante su exploración del planeta rojo. Eso es lo que piensan los responsables de la estación meteorológica a bordo del vehículo y cuyas mediciones sugieren que el agua líquida se forma durante la noche y se evapora durante el día, cuando sale el Sol. El líquido estaría en forma de salmueras, una sustancia con alta concentración salina y muy corrosiva.

“Es la primera vez que se encuentran condiciones para la formación de salmueras en Marte”, explica a Materia Javier Martín-Torres, primer autor del estudio en Nature Geoscience que describe hoy los nuevos hallazgos.

El Curiosity lleva más de dos años explorando el cráter Gale, un boquete de 154 kilómetros de diámetro formado por el impacto de un meteorito hace unos 3.500 millones de años. El instrumento REMS a bordo del vehículo ha analizado la humedad y temperatura en el cráter, cerca del ecuador marciano. Los resultados acumulados durante un año por este y otros instrumentos muestran que las condiciones en este lugar son aptas para la formación de agua líquida durante la noche en la capa más superficial del suelo marciano. Esto es en parte posible porque unas sales conocidas como percloratos y ubicuos en el planeta rojo disminuyen la temperatura de congelación del agua y permiten que esté en estado líquido a pesar de las bajas temperaturas.

«Marte no está muerto»

«Lo que se forma son gotas de agua en las capas más superficiales de terreno, así que si pudiéramos estar allí para verlo sería parecido al barro», explica María-Paz Zorzano, investigadora del Centro de Astrobiología, en Madrid, y coautora del estudio. «Los percloratos permiten que el agua siga líquida a temperaturas de entre 50 y 70 grados bajo cero», detalla. Con la llegada del día, el suelo y el aire se calientan y el agua se evapora, explica el estudio.

Las temperaturas son incompatibles con la vida, dice el estudio

“Pensamos que el Curiosity ha pasado por encima de zonas donde había salmueras”, detalla Martín-Torres. “Sin embargo”, advierte, “la posibilidad de fotografiarlas es complicada ya que cuando las salmueras se producen, de noche, el Curiosity está «durmiendo», explica el físico del Instituto Andaluz de Ciencias de la Tierra (CSIC-UGR). El REMS es uno de los pocos instrumentos del rover que pueden operar de noche, lo que ha permitido demostrar al menos que la formación de agua líquida es posible. Esto supone que en Marte hay un ciclo del agua diario entre el suelo y la atmósfera y también estacional, algo que hasta ahora se pensaba imposible, explica Jesús Martínez-Frías, investigador del Instituto de Geociencias IGEO (CSIC-UCM) y firmante del estudio. «Estas observaciones nos muestran que, al contrario de lo que se pensaba, el planeta no está muerto», resalta. Un equipo de 25 investigadores de nueve países firma el estudio publicado hoy.

Durante décadas se ha pensado que encontrar agua líquida en el planeta rojo era un paso previo para saber si puede albergar vida o si lo hizo en tiempos pasados. El estudio publicado hoy apunta a que, a pesar del agua líquida, las temperaturas y la baja humedad relativa que se han registrado en el ecuador son simplemente incompatibles con la vida tal y como la conocemos. “Las temperaturas están por debajo del umbral en el que el metabolismo y la reproducción celular son posibles”, detalla Martín-Torres.

Hasta ahora, las imágenes tomadas por satélites sugerían que en Marte hay corrientes de agua que se deslizan por las pendientes en las épocas del año más cálidas. En este sentido, el ecuador marciano sería el sitio menos probable para que se formen estos cursos de agua debido a que las temperaturas altas y la extrema sequedad del ambiente no lo favorecen. La presencia de percloratos en muchas otras zonas del planeta haría posible la formación de esas corrientes en otras latitudes.