La selección española consiguió una victoria agónica ante Montenegro por 75-74, que le facilita el pase a semifinales del EuroBasket 2015 y la posibilidad de luchar por las medallas, al tiempo que mantiene el sueño de los Juegos Olímpicos de Río de Janeiro 2016, ya que, como mínimo, tiene asegurada plaza en el preolímpico. Los 28 puntos de Alba Torrens, los 16 rebotes de Laura Nicholls y el último 2+1 de Anna Cruz fueron fundamentales en una victoria que no se decidió hasta el último segundo.
Laura Nicholls, dueña de los rebotes en defensa y, sobre todo, en ataque, fue la clave del primer cuarto en el equipo español, un cuarto en el que los nervios, por la trascendencia del partido, se dejaron sentir. España se precipitó en ataque y apenas alcanzó un 20% de efectividad en los lanzamientos exteriores, aunque pese a todo mandó en el marcador la mayor parte del tiempo, 14-10 (min.7,40) y 16-11 (min.9). Una reacción de Montenegro, que descubrió a sus jugadoras interiores en ataque, y dejó el marcador final del primer periodo en 16-17.
En el segundo acto, Ana Torrens decidió coger las riendas del partido y suyo fueron los ocho primeros puntos de la selección, 24-19 (min. 12,30). España salió más en su línea, fuerte atrás y veloz en las contras, consiguiendo un parcial de 12-4 (28-21 min.13,45). A partir de ese momento, Montenegro apretó más en defensa y volvió a buscar a sus pívots, estrechando el marcador, 29-29 (min. 16,30) y devolviendo la incertidumbre.
Alba Torrens fue la máxima anotadora con 28 putos (Foto: FIBA Europe)
Torrens con 17 puntos al descanso se encontró demasiado sola en la anotación y sólo las apariciones de Astou N’Dour eran demasiado poco para complicar la vida a las montenegrinas, entre las que destacó la nacionalizada Angelica Robinson con 11 puntos. Al descanso 39-37 para el equipo español y las espadas en todo lo alto.
La cuarta personal de N’Dour en los albores del tercer cuarto fue la peor noticia para la selección española, que sacó orgullo para volver a marcar distancias en el luminoso, 47-41 (min.25). La nota positiva la consiguió Anna Cruz en el minuto 27 al anotar el primer, y único en todo el partido, triple para España (53-48), pero la negativa fue la reacción de Montenegro, otra vez en los minutos finales del periodo, para volver a ajustar el resultado, 55-52, pese a la buena defensa por delante de Laura Gil sobre Robinson.
España volvió a tener otro inicio de cuarto realmente bueno, 60-52 (min.31,20), consiguiendo la máxima diferencia en todo el partido, que amplió Cruz con una gran penetración instantes después, 62-52. Estos diez puntos de ventaja no sirvieron para asentar el juego de las españolas, que siguieron sufriendo con Robinson. Las balcánicas enjugaron la diferencia y se adelantaron, 68-69, a falta de dos minutos para el final.
La trascendencia del resultado lastró las piernas de las españolas, que sufrieron un nuevo revés con la quinta personal de N’Dour a falta de minuto y medio para el final. En el toma y daca final, todo pareció venirse abajo cuando Jovanovic anotó un triple a falta de veinte segundos para el final y colocó el marcador en un 72-74.
Anna Cruz tiró de casta y en una penetración consiguió canasta y adicional a falta de nueve segundos. Cruz no falló, 75-74 y España supo aguantar en defensa para anotarse una victoria agónica que le permite luchar por las medallas en el Eurobasket y asegurarse, como mínimo, plaza en el preolímpico para los Juegos de Río 2016.
Ficha técnica:
75 – España (16+23+16+20): Nicholls (8), Palau (2), Torrens (28), Ndour (12) y Xargay (6) -equipo inicial-, Domínguez (6), Cruz (12), Martínez, Gil (1) y Herrera.
74 – Montenegro (17+20+15+22): Skerovic (11), Jovanovic (10), Bjelica (5), Perovanovic (9) y Pasic (4) -equipo inicial-, Vucetic (2), Aleksic (4), Vujovic (6) y Robinson (23).
Árbitros: Anne Panther (ALE), Luca Mazzoni (ITA) y Gellert Kapitany (HUN). Eliminaron por cinco personales a Laura Nicholls (min.34), Perovanovic (min.37,40) y Astou N’Dour (min.38,30).
Incidencias: Partido correspondiente a los cuartos de final del campeonato de Europa femenino disputado en el Arena Budapest de la capital húngara ante unos 500 espectadores.
La empresa emprendedora valenciana Sofía Real Time Data permite ahorrar hasta un 90% en sobrecostes de los proyectos inmobiliarios y un 80% en incidencias por retrasos, gracias a una novedosa herramienta que posibilita su monitorización y esquematización.
Esta herramienta está impulsada por el grupo de ingenieros valencianos ’10t’, que trabaja en el sector desde 2004 y que ha vivido toda la montaña rusa de la burbuja inmobiliaria, según ha explicado a EFE el cofundador de la empresa, Santiago Díez.
Los ingenieros realizaron durante años proyectos inmobiliarios para grandes marcas, y dieron cuenta de lo disparatados que eran los costes, ha asegurado el responsable de prensa de la organización, Marcos García. Por ese motivo, Sofía RTD se ha iniciado en el sector como una solución a la situación actual, ya que su objetivo es «tener información y evitar el desfase en procesos de costes».
Su metodología garantiza la regulación de las operaciones y proyectos inmobiliarios, para que el propietario cuente en todo momento con toda la información sobre cada proyecto.
Así, avala la transparencia en la gestión de proyectos mediante el Project Portfolio Monitoring (o Gestión de Cartera de Proyectos), a través de la gestión de los datos estratégicos de los proyectos en tiempo real durante todo su ciclo de vida, desde el concepto hasta la finalización del proceso de explotación, para la toma de decisiones acertadas, ha explicado García.
Tiempo real
Esto les ha permitido detectar las deficiencias y los errores que se hayan podido producir en la elaboración del proyecto, para solventarlos con mayor eficiencia. Según Díez, supone «un paso más ya que almacena toda la información en internet y permite acceder a ella desde cualquier dispositivo»
Y es que, según ha asegurado, este proceso cada vez está siendo más utilizado por los desarrollos urbanísticos dado que apuestan por la tecnología, porque permite controlar en tiempo real los proyectos inmobiliarios. Asimismo, la herramienta también tiene otras ventajas como la información energética que aporta, ya que posibilita detectar el consumo que se está produciendo, y en caso de ser excesivo, valorar la causa y solucionarlo.
En este sentido, la entidad valenciana ha trabajado con diferentes marcas, entre ellas la cooperativa Consum, a la que ha monitorizado su expansión logística en tiempo real, por lo que los «desfases han sido del 0,0 prácticamente porque ha estado todo digitalizado», ha afirmado Santiago Díez.
Ha añadido que la monitorización también favorece la competitividad extranjera, ya que ofrece toda la información a los inversores; de hecho el lema de Sofía RTD es «La verdad, toda la verdad y nada más que la verdad sobre su empresa».
El aumento de los terremotos en el centro y este de Estados Unidos desde 2009 está «asociado» con los pozos de inyección de fluidos, que se usan para la explotación de petróleo y gas, una práctica que difiere del fracking, publica hoy Science.
Los pozos reforzados de recuperación de petróleo difieren de los de fractura hidráulica (fracking), pues estos últimos inyectan agua solo durante unas horas o días, mientras que en los primeros la inyección se hace durante años o décadas y se realiza a vez que la producción de los pozos de petróleo convencionales.
El número de sismos asociados a la actividad de los pozos de inyección «se ha disparado», pasando de «un puñado» al año en 1970 a más de 650 de 2014, según un estudio de la Universidad de Colorado Boulder y el Servicio Geológico de Estados Unidos. «Consideramos convincente la evidencia de que los terremotos que hemos estado viendo cerca de las zonas de inyección están inducidos por la actividad del petróleo y el gas», señaló el estudiante de doctorado de la Universidad de Boulder Matthew Weingarten, director del estudio.
El 10% de los pozos, relacionados con terremotos
Los investigadores establecieron una diferencia entre los diversos pozos de inyección profunda, pues los que introducen en la tierra más de 300.000 barriles de aguas residuales al mes era más posible que estuvieran asociados a terremotos que otros de menor potencia.
La inyección de líquidos en la tierra se realiza bien en yacimientos de petróleo agotados para aumentar su producción o para eliminar el agua salada que resultan de la extracción del petróleo y gas, explicó Weingarten. El equipo reunió una base de datos de unos 180.000 pozos de inyección desde Colorado hasta la Coste Este, de los que más de 18.000 fueron asociados con terremotos.
La causa es el agua salobre que coexiste de manera natural con el petróleo y el gas, que cuando se extrae, se suele inyectar de nuevo en pozos de desecho
De los pozos asociados con temblores de tierra, el 66 % era de recuperación de petróleo, mientras que los pozos de eliminación de agua eran 1,5 veces más propensos a estar vinculados a terremotos. Los pozos de recuperación de petróleo emplean un líquido para barrer el petróleo hacia un segundo pozo, mientras que los de inyección de aguas residuales «únicamente ponen líquido en el sistema, lo que produce un mayor cambio de presión en el yacimiento», explicó el profesor de la Universidad de Colorado Boulder Shemin Ge.
Uno de los Estados afectados por los terremotos es el de Oklahoma, donde un equipo de geofísicos de la Universidad de Stanford estudiaron el fenómeno y han concluido también que está ligado a las perforaciones de petróleo y gas. El estudio publicado por Science Advances indica que el mayor número de terremotos coincide con el drástico aumento del agua residual salada en la formación Arbuckle, situada a unos 7.000 pies (2.133 metros) bajo Oklahoma.
El profesor Mark Zoback y el doctorando Rall Walsh indicaron que el agua que puede desencadenar los terremotos no es la llamada agua de reflujo que se genera tras los trabajos de fractura hídrica (fracking). Para los expertos, la causa es el agua producida, agua salobre que coexiste de manera natural con el petróleo y el gas, que cuando se extrae junto a estos normalmente se vuelve a inyectar en pozos profundos de desecho.
El último informe publicado por el Panel Intergubernamental sobre el Cambio Climático (IPCC, por sus siglas en inglés) llegó a la conclusión de que la temperatura de la superficie global ha mostrado «una tendencia de calentamiento lineal mucho menor en el aumento de temperaturas registrado en los últimos 15 años (1998-2012) que en los 60 anteriores”.
Sin embargo, en un estudio realizado por la Administración Nacional Oceanográfica y Atmosférica (NOAA) y por el Centro Nacional de Información Medioambiental (NCEI) –ambas estadounidenses– afirma que el aumento de las temperaturas en el siglo XXI no se han estancado.
“El hiato climático puede ser fruto de sesgos en las redes de observación de la temperatura”, afirma a Sinc Jay Lawrimore, coautor del estudio publicado en Science y jefe de la división de análisis de datos del NOAA. “Los registros de temperaturas presentan distintas inconsistencias debido a los cambios que se producen en las metodologías e instrumentos de observación y a las variaciones en el entorno de las estaciones meteorológicas”, añade el investigador estadounidense.
Cómo se miden las temperaturas, la clave
Uno de los sesgos de los que hablan los autores se dio en el siglo pasado cuando se cambió la forma de medir la temperatura de la superficie del mar. “Justo antes de la Segunda Guerra Mundial, muchos barcos cambiaron el método que utilizaban para medir la temperatura y se registraron distintas temperaturas para el mismo lugar de la superficie marina dependiendo del método utilizado”.
El investigador exculpa a los autores del supuesto fallo en las mediciones al observar que las fluctuaciones a corto plazo son inesperadas
Según el estudio, otro de los mayores cambios que ha tenido lugar en las últimas décadas es la creciente tendencia a utilizar boyas fijas para medir la temperatura marina. Antes de mediados de la década de los 70, los barcos eran la forma predominante para medir temperaturas de la superficie del mar. “Las boyas tienden a registrar una temperatura ligeramente más fría que los barcos, lo que conlleva un sesgo entre las dos fuentes de datos”, explica Lawrimore.
Este investigador exculpa a los autores del supuesto fallo en las mediciones realizadas para el informe del IPCC al observar que las fluctuaciones a corto plazo en la tasa de calentamiento son inesperadas. ”Los ciclos naturales y la variabilidad atmosférica tienen un efecto notable en las tendencias de la temperatura a corto plazo”, indica el experto.
Los ciclos naturales son responsables del hiato del clima
Precisamente, los ciclos naturales de los que habla el autor –como son las variaciones en la radiación solar, la absorción del calor oceánico por los océanos o los cambios en la circulación atmosférica– son los responsables del hiato del clima.
‘Los registros de temperaturas presentan distintas inconsistencias debido a los cambios que se producen en las metodologías e instrumentos de observación’
“La conclusión de que la tendencia de la temperatura global desde el 2000 es similar a la de los últimos 50 años no niega el papel que estos fenómenos tienen sobre las temperaturas globales”, apunta Lawrimore quien prosigue, que sin este tipo de influencias, probablemente el aumento de las temperaturas globales en los últimos 15 años habría sido mayor.
Para realizar este estudio, los investigadores utilizaron datos diarios de las temperaturas en la superficie terrestre procedentes de estaciones de todo el mundo y una cantidad mayor de datos de la superficie marina procedentes de barcos y boyas en todos los océanos.
“Las recientes mejoras utilizadas en el registro de la temperatura y la incorporación de dos años más de datos respecto al último informe del IPCC (incluyendo el record de 2014 como año cálido) han conducido a estos hallazgos”, indican los investigadores.
La importancia de la gestión de los datos
Según los autores, su estudio muestra la importancia de la gestión de los datos e impulsa el esfuerzo continuo para mejorar la precisión y consistencia en los sistemas de recogida y análisis de las temperaturas. Lawrimore pone además de relieve el impacto que el aumento de las emisiones de gases de efecto invernadero está teniendo en el clima de la Tierra.
“Las reducciones en la extensión del hielo marino en el Ártico, el derretimiento del permafrost o el aumento del nivel del mar son evidencias del continuo cambio climático”, concluye el científico estadounidense.
En el año 2005, Alex, un loro africano gris protagonizó la actualidad científica en el área de la psicología cognitiva cuando demostró ser capaz de entender un concepto similar al de ninguna unidad, es decir, el cero. Lo que parece una anécdota tiene en realidad mucha relevancia, ya que entender el concepto de la nada requiere un nivel de razonamiento que hasta ahora solo se creía posible en los humanos (lo aprendemos entorno a los 3 o 4 años) y en algunos primates. Alex, con su cerebro del tamaño de una avellana, vino a darnos un baño de humildad.
Volviendo al cero y su comprensión, tampoco para los humanos ha sido fácil hacerse a la idea de que para contar y manejar los números con comodidad y soltura, hace falta entender qué hay cuando no hay nada. Los cálculos matemáticos, las leyes de la física y los programas informáticos necesitan de esta idea para reflejar fielmente la realidad. Estos últimos, por ejemplo se basan en el sistema binario de unos y ceros.
Tampoco para los humanos ha sido fácil hacerse a la idea de que para contar y manejar los números, hace falta entender qué hay cuando no hay nada
Aunque nos encontramos con el cero en nuestro día a día (saque un billete del bolsillo, ahí mismo tiene uno, o si tiene suerte, muchos), son muchas las curiosidades sorprendentes sobre este número.
1. El cero es un concepto matemático, pero también físico y filosófico. Es una forma de representar la nada, el vacío, y ha interesado y confundido a los científicos y sabios durante gran parte de la la historia. ¿Qué significa un espacio vacío? Si está vacío, ¿tiene algún significado? ¿Sirve para algo? ¿Afecta a lo que le rodea?
2. Aunque para nosotros sea un concepto casi instintivo asociado al aprendizaje de los números cuando somos poqueños, algunas de las civilizaciones antiguas que consideramos más avanzadas, como la egipcia, la griega o la romana, no tenían una idea para el cero, y tenía lógica que fuese así: ¿por qué iban a contar la nada como un número? Si tienes dos manzanas, las ves y las cuentas. Si le debes a alguien una manzana, también lo sabes: tienes menos una manzana. Pero cero manzanas no es nada, ¿por qué iba a ser necesario marcarlo con un número?
El cero cumple dos funciones: una es la de representar la nada, y la otra es la de ‘guardar el sitio’ cuando no hay nada y dar paso al siguiente decimal3. Pero el cero tal y como lo utilizamos hoy cumple dos funciones: una es la de representar la nada, y la otra es la de guardar el sitio cuando no hay nada y dar paso al siguiente decimal. Por ejemplo, en la cifra 608, sirve para indicar que no hay decenas sin que se confunda con la cifra 68.
4. Esta segunda función sí estaba presente en culturas como la sumeria. Los escribas sumerios optaron por dejar un espacio vacío entre algunos números para diferenciarlos (igual que nosotros usamos el 0 para distinguir 68 de 608), pero cada uno dejaba una distancia diferente y lo que era un hueco podría confundirse con dos. Cuando se dieron cuenta, comenzaron a utilizar una especie de apóstrofe para indicar la ausencia de número.
Estatua del matemático y astrónomo indio Aryabhata
5. No está del todo claro cuándo y dónde se inventó el cero. La mayor parte de los estudiosos apuntan a que el matemático indio Aryabhata (mediados del siglo V) fue el primero en reconocer y aplicar el concepto la posición vacía en su sistema de escritura de los números, aunque no tenía símbolo para representarlo. También algunas culturas precolombinas, como los mayas, utilizaban la idea del cero.
6. Leonardo de Pisa, más conocido como Fibonacci, es famoso, además de por la sucesión que lleva su nombre, por haber introducido en Europa el sistema de numeración indoarábigo que hoy utilizamos, que emplea la notación posicional de base diez y el cero. Sin embargo, Fibonacci diferenciaba entre el cero, al que llama marca, y las demás cifras (1, 2, 3, 4, 5, 6, 7, 8, 9), a las que llama números.
7. Ni en el calendario gregoriano ni en el juliano existe el año cero: del 31 de diciembre del año 1 antes de Cristo se pasa al 1 de enero del año 1 después de Cristo.
8. De hecho, esto es así porque los años, igual que los días o los siglos, no se cuentan con números cardinales, sino que se ordenan con números ordinales, entre los que no se incluye el número cero (no hay una posición cero delante de la posición primera).
9. ¿Recuerdan cuando debatíamos acaloradamente sobre si el siglo XXI comenzaba el 1 de enero de 2000 o de 2001? Puesto que no hubo año cero, el que lo celebró en el 2000 estaba en realidad celebrando el paso de 1999 años. Sentimos llegar tan tarde a resolver el dilema.
Los años no se cuentan con números cardinales, sino que se ordenan con números ordinales, entre los que no se incluye el número cero10. Entonces, ¿cuándo surgió el concepto del año, hora o minuto cero? Pues es relativamente reciente, de la segunda mitad del silo XX. Nació a partir de la generalización de los relojes digitales y del vocabulario deportivo.
11. El cero es un número con algunas propiedades únicas: es el único número real que no es positivo ni negativo, y tampoco es par ni impar.
12. En matemáticas, al cero se le llama a veces identidad aditiva porque sumándolo a cualquier número no cambia su valor: x + 0 = x.
13. También tiene características únicas aplicadas a otras operaciones matemáticas: cualquier número multiplicado por 0 es igual a 0 y cualquier número elevado a 0 es igual a 1.
14. Las divisiones entre cero también son una cuestión a la que los matemáticos han dado muchas vueltas. Esta operación, desde el punto de vista del álgebra y la aritmética es considerada una indefinición, es decir, que al dividir un número cualquiera entre cero no obtenemos un valor definido. Esto es así por la siguiente razón: si buscamos calcular 12/0 = x, eso quiere decir que 0 multiplicado por x tendría que ser = 12. Pero no hay ningún número que multiplicado por 0 dé 12 como resultado (recordamos: cualquier número multiplicado por 0 es igual a 0). Por eso se suele decir que cualquier número dividido entre 0 da como resultado infinito.
Representación del condensado de Bose-Einstein, estado de agregación de la materia que se da en ciertos materiales a temperaturas cercanas al cero absoluto. La coloración indica la cantidad de átomos moviéndose a cada velocidad, donde el blanco y el azul son las velocidades más bajas
15. Existe el concepto del cero absoluto, aunque corresponde a la rama de la física y no de las matemáticas. Se llama así a la temperatura más baja que en teoría se puede alcanzar, en el que el nivel de energía de un sistema es tan bajo que no existe ningún movimiento. El cero absoluto corresponde con el cero en la escala de temperatura Kelvin, así que corresponde aproximadamente con 273,15 grados centígrados negativos.
El registro de llamadas del móvil es todo lo que necesita un investigador para saber si alguien ha sido despedido del trabajo. Al menos es todo lo que necesita un experto en ciencia social computacional. El big data telefónico se encarga del resto: permite detectar, seguir y predecir cambios en la economía de forma rápida y precisa. Todo gracias a un nuevo sistema desarrollado por investigadores del MIT.
La tasa de paro se puede predecir hasta cuatro meses antes de que salgan los datos oficiales. Y con mayor precisión. “Estas estadísticas son cruciales para efectuar las políticas correctas”, asegura a Teknautas el investigador del MIT y autor principal del estudio publicado hoy en la revista Royal Society Interface, Jameson Toole. Este experto pone como ejemplo el inicio de la crisis financiera en EEUU: “La tasa de paro revisada fue el doble que la inicialmente propuesta. Con mediciones más rápidas y precisas podría haberse actuado antes”.
Perder el trabajo puede afectar significativamente a nuestros hábitos, y las llamadas telefónicas no son una excepción. Quizá todos los días aprovechamos el descanso de la comida para llamar a casa y al salir por la tarde aprovechamos para quedar a tomar algo con los amigos, rutinas que pueden verse modificadas si no trabajamos. “El comportamiento de la gente cambia cuando pierde el trabajo: llaman menos, se mueven menos y de forma menos predecible”, explica el investigador de la Universidad Northeastern y coautor del trabajo, David Lazer.
‘Estos resultados sugieren que las interacciones sociales de una persona disminuyen y que sus redes se vuelven menos estables con la pérdida de trabajo’
Estas costumbres quedan grabadas en el registro detallado de llamadas (CDR por sus siglas en inglés): a quién se llama, cuánto tiempo y desde dónde, por poner algunos ejemplos. Gracias a estas bases de metadatos, que incluyen los SMS, los investigadores pudieron analizar dos países Europeos que no han sido revelados.
La primera parte del estudio se centró en el desempleo a nivel comunitario, examinando un despido masivo en una planta de fabricación de automóviles. A partir de los registros detallados durante un período de 15 meses entre 2006 y 2007, establecieron un modelo para diferenciar a aquellos usuarios que habían perdido su puesto del resto.
El siguiente paso fue llevar a cabo un seguimiento de su movilidad e interacciones sociales y descubrieron que sus relaciones se habían “enfriado”. Por ejemplo, el número de llamadas efectuadas cayó un 51%, mientras que el de llamadas entrantes disminuyó el 54%.
“Estos resultados sugieren que las interacciones sociales de una persona disminuyen y que sus redes se vuelven menos estables con la pérdida de trabajo”, comenta Toole. Una vez determinado que el paro afecta a los hábitos telefónicos, el siguiente paso fue comprobar si este big data podría utilizarse para predecirlo. En el segundo estudio se analizó un segundo país europeo que experimentó “disrupciones macroeconómicas” durante el período entre 2006 y 2007.
Con este conjunto de datos, los investigadores pudieron predecir con éxito las tasas de desempleo hasta cuatro meses antes que los organismos oficiales. “El big data de los móviles ofrece mediciones en tiempo real, por lo que es mucho más rápido que los métodos tradicionales, basados en encuestas y datos administrativos”, explica Lazer. Para Toole, “los smartphones son sensores muy potentes que se encuentran inmersos en nuestras vidas diarias. Cuando ocurre un cambio grande en nuestras vidas nuestro comportamiento cambia, y esa transformación es capturada por los datos que generan nuestros teléfonos”.
David Lazer, investigador de la Universidad de Northeastern coautor del estudio
El ‘big data’ como complemento
Las llamadas telefónicas y los SMS se encuentran en peligro de extinción, o al menos no son tan frecuentes como hace unos años. Esto podría plantearse como una objeción al estudio, pero Toole no cree que sea un problema: “Conforme los comportamientos cambien, será necesario ajustar los métodos para que mantengan su precisión y relevancia”. Sí ven como una dificultad el acceso a los datos, propiedad de las compañías telefónicas y de acceso problemático aunque sea con fines científicos o estadísticos.
‘El big data de los móviles ofrece mediciones en tiempo real, por lo que es mucho más rápido que los métodos tradicionales, basados en encuestas y datos administrativos’
Los investigadores alaban la rapidez y precisión de su método, con evaluaciones hasta un 20% más ajustadas. También el bajo coste, puesto que los datos se obtienen de forma pasiva de los dispositivos personales. Pero son prudentes sobre su implementación: tanto Lazer como Toole coinciden en que el big data debería verse como una herramienta complementaria a los métodos tradicionales.
En el futuro probarán su metodología con otros países para comprobar cómo de robustas son sus predicciones y mejorar los algoritmos: “Creo que podemos hacerlo mejor en futuros ensayos”, asegura Lazer. Tool añade que el big data móvil permitiría obtener las tasas de paro a un nivel mucho más pequeño, incluso para cada barrio. Sólo resta que los datos puedan determinar cómo bajar estos porcentajes.
La capa de ozono se extiende aproximadamente de 15 a 50 km de altitud, reúne el 90 % de este gas presente en la atmósfera y absorbe del 97 al 99 % de la radiación ultravioleta de alta frecuencia. En las últimas décadas, la disminución del grosor de esta capa, o el agujero de la capa de ozono, ha sido objeto de preocupación para los científicos.
En 1985 un equipo de científicos del Estudio Británico de la Antártida en Cambridge (Reino Unido) dio la voz de alarma en la revista Nature al descubrir que la capa de ozono de la Tierra estaba disminuyendo drásticamente en la Antártida. Debido a este desgate, aumentarían los casos de melanomas, de cataratas oculares, supresión del sistema inmunitario en humanos y en otras especies. También afectaría a los cultivos sensibles a la radiación ultravioleta.
Ante esta situación, los gobiernos firmaron el 16 de septiembre de 1987 el Protocolo de Montreal (Canadá) en el que se obligó a los países firmantes a disminuir el uso de compuestos químicos como los clorofluorocarbonos (CFC) como refrigerantes industriales, propelentes, y fungicidas de suelo (como el bromuro de metilo) que destruyen la capa de ozono. En 1993 se observó la mayor concentración atmosférica de estas sustancias. A partir de ese momento empezaron a disminuir.
‘Sin protocolo habríamos tenido una catastrófica reducción de la capa de ozono en todo el mundo para mediados del siglo XXI’
Treinta años después del artículo de Nature, Martyn Chipperfield, investigador en la Universidad de Leeds (Reino Unido), y su equipo han demostrado con un modelo químico-atmosférico en 3D que los objetivos del Protocolo de Montreal ya se han cumplido. Sin protocolo, “habríamos tenido una catastrófica reducción de la capa de ozono en todo el mundo para mediados del siglo XXI”, dice a Sinc Chipperfield, autor principal del estudio que se publica en la revista Nature Communications.
El tratado internacional de Naciones Unidas ha evitado importantes aumentos en los niveles de la radiación UV en la superficie, “que habría provocado grandes incrementos de la incidencia de cáncer de piel en humanos y daños en otros órganos”, añade el investigador quien recalca que el agujero de ozono del Antártico se podría haber incrementado un 40% para 2013 si no se hubieran tomado las medidas oportunas.
Menos radiación, menos riesgo para la salud
El trabajo demuestra que a altitudes medias, donde las personas son más sensibles al daño de los rayos UV, el porcentaje de cambios en la radiación UV en la superficie es importante. Así, en las áreas más pobladas de Australia y Nueva Zelanda, que tienen las tasas más altas de mortalidad por cáncer de piel, el modelo predice que la radiación UV en la superficie se habría podido incrementar entre el 8% y el 12%. En el norte de Europa, incluido el Reino Unido, los incrementos habrían superado el 14% para 2013.
“Usamos el modelo para calcular qué habría pasado si los contaminantes CFC u otros gases destructores del ozono hubieran seguido creciendo sin protocolo”, comenta a Sinc Chipperfield.
Según la simulación por ordenador, “ahora mismo tendríamos agujeros regulares en la zona del Ártico, en la Antártida los agujeros serían mucho más grandes y la reducción de la capa de ozono en latitudes medias sería más del doble comparado a las que se han observado en realidad en los momentos de mayor concentración”, subraya el investigador.
Así estaría el agujero de la capa de ozono si no hubiésemos tomado medidas
La disminución de la capa de ozono en las regiones polares depende de la meteorología, sobre todo en el caso de temperaturas frías a 20 km de altitud, ya que provocan más pérdida de ozono. El equipo usó las condiciones meteorológicas actuales observadas en las últimas décadas para proporcionar una simulación más precisa para las pérdidas de ozono de los polos.
Aunque en el momento en el que se firmó el protocolo de Montreal, “las causas exactas del agujero de ozono del Antártico no estaban claras” –dice el investigador– el tratado ha permitido que los países firmen para limitar modestamente los contaminantes, a la espera de reforzar su compromiso una vez que la ciencia aportara más evidencias.
“Esto ha reducido las barreras para firmar y ha facilitado los acuerdos”, concluye el autor quien añade que el protocolo también ha aportado los fondos necesarios para que los países en desarrollo opten por alternativas menos contaminantes.
Distinto a cualquier otro buque oceanográfico al uso, el Tara es un velero de 36 metros de eslora que fue construido para remontar el hielo y explorar los climas australes. Romántico sí, pero también pequeño (tiene una capacidad para albergar a 15 personas), incómodo y tremendamente caluroso en el trópico. Un equipo internacional de 126 científicos, entre ellos un equipo español, lo convirtió en un laboratorio flotante y se hizo a la mar en varias campañas por los cinco océanos para recoger muestras de agua durante más de tres años.
Los resultados de esta expedición llamada Tara Oceans, que ahondan en la biodiversidad y la genética del plancton marino, ocupan hoy cinco artículos y la flamante portada de la revista Science.
“Los datos de este proyecto conforman un legado científico que facilitará la investigación oceánica de las siguientes generaciones”, cuenta orgullosa a Sinc Silvia Acinas, investigadora del Instituto de Ciencias del Mar (ICM-CSIC), quien lidera junto con otros investigadores uno de los artículos y es una de las coordinadoras del proyecto.
‘Los datos de este proyecto conforman un legado científico que facilitará la investigación oceánica de las siguientes generaciones’
La expedición Tara Oceans no es solo peculiar por circunnavegar las aguas del planeta a vela sino que se diferencia de las demás por haber obtenido muestras de todo el espectro del plancton. Desde virus hasta larvas de peces, este ecosistema marino abarca organismos cuyo tamaño difiere en cinco órdenes de magnitud.
Estudio a gran escala
“Nuestro plan de muestreo se puede considerar holístico –dice Erik Karsenti, codirector científico de la expedición e investigador en el Laboratorio Europeo de Biología Molecular–. Nunca antes se había realizado un estudio a esta escala, cubriendo tantos océanos y obteniendo suficientes datos ambientales (temperatura, salinidad, nutrientes…) como para poder correlacionar las comunidades de organismos de todas las zonas investigadas”.
Tara zarpó de la ciudad portuaria de Lorient (Francia) el 25 de septiembre de 2009 y hasta marzo de 2012 surcó el mar Mediterráneo, el Rojo y los océanos Índico, Atlántico, Antártico y Pacífico, coincidiendo con la ruta del Beagle en la Patagonia. Solo faltó el Ártico (al que viajaría más tarde, en el año 2013), ya que los científicos modificaron la ruta de la expedición por el accidente de la central nuclear de Fukushima.
Ampliar
Según Karsenti, el itinerario se definió teniendo en cuenta que la goleta navegaba mejor con sus velas infladas por el viento que a motor y, más importante, “Queríamos pasar por todas las cuencas oceánicas del mundo y muestrear los diferentes ambientes de interés en el momento adecuado del año”, detalla a Sinc.
En su periplo los investigadores se detuvieron en 210 puntos de las principales zonas oceánicas y recogieron microorganismos planctónicos de 35.000 muestras de agua de los estratos superficiales, donde aún penetra la luz solar.
Fuente de oxígeno para la atmósfera
Compuesto por virus, bacterias, arqueas, protistas y pequeños eucariotas multicelulares el plancton produce la mitad del oxígeno de la atmósfera (ya lo generaba mucho antes de que existieran las plantas terrestres), actúa como sumidero de CO2 minimizando el efecto invernadero y es la base de la cadena trófica marina de la que se alimentan peces, invertebrados y mamíferos.
‘La exploración de los océanos es tan compleja que requiere de un equipo multidisciplinar e internacional de científicos, ya que afecta a todos los países’
“La exploración de los océanos es tan compleja que requiere de un equipo multidisciplinar e internacional de científicos –sentencia Karsenti–. No solo porque es complicado encontrar a los especialistas adecuados de cada tema sino porque es un área de investigación que afecta a todos los países del mundo”.
En las entrañas de un velero
Mediante técnicas de secuenciación masiva, los investigadores han analizado las muestras oceánicas y han generado una base de datos de 40 millones de genes no redundantes, la Ocean Microbial Reference Gene Catalog (OMR-GC). “El 80% de estos genes eran desconocidos hasta hoy”, afirma Silvia Acinas. Esta información genética es pública, de libre acceso para cualquier científico y mil veces mayor que la que era referente hasta ahora, la de la exploración Global Ocean Survey liderada por Craig Venter, quien, se rumorea, se interesó en su momento por comprar el Tara.
Pero fueron los mecenas franceses Etienne Bourgois y su madre Agnés Troublé, propietarios de la firma de moda Agnes B, quienes se hicieron con el velero y acabarían financiando las expediciones científicas. “Este proyecto nace de nuestro amor por el mar y quiere llegar a entender el impacto del cambio climático en los océanos”, confiesa a Sinc Bourgois quien de pequeño devoraba libros de aventuras de los exploradores del siglo XVIII.
Por ese entonces, en el año 2003, el velero aún se llamaba Seamaster y tenía un aire de barco fantasma que, según Isabel Ferrera, investigadora del equipo de Acinas, aún no ha perdido del todo.
“Existe la leyenda de que en el casco del barco todavía se ven las marcas del tiroteo en el que unos piratas mataron a Sir Peter Blake, el mítico navegante, regatista y capitán del Seamaster, en el año 2001 en el Amazonas”, relata Ferrera. Y aunque ella asegura que no las ha visto sí recuerda el miedo que pasó a bordo, cruzando el mar Rojo, donde se tomó la decisión de no muestrear por el peligro de un ataque pirata.
‘Recogíamos y filtrábamos muestras durante 16 horas seguidas y como el barco debía estar en la misma posición, éramos un blanco perfecto’
“Recogíamos y filtrábamos muestras de agua durante 16 horas seguidas y como el barco debía estar en la misma posición todo el rato éramos un blanco perfecto”, rememora la investigadora quien compensa ese mal recuerdo con el de zarpar desde el puerto del World Trade Center de Nueva York rumbo a Bermudas.
Del microbioma oceánico al intestino humano
La capacidad del Tara es de 15 personas entre tipulación y científicos. “Como había poco espacio todo estaba organizado al milímetro, muestras, tubos, filtros… y los investigadores debíamos colaborar con la tripulación en las tareas propias del barco como izar velas, ayudar en la cocina y limpiar los baños”, recuerda Fran Cornejo, doctorando del ICM-CSIC que navegó en el velero entre San Diego y Panamá. “Embarcas con toda la ilusión y el primer día te mareas tanto que se convierte en el peor de tu vida, pero después te adaptas y la experiencia es increíble”, asegura Cornejo.
Por un tema de espacio en el velero, no se realizaban experimentos, solo se obtenían y se procesaban mínimamente las muestras que cada poco se tenían que enviar a los laboratorios especializados de tierra firme.
De todos los organismos que conforman el plancton, el equipo de Acinas era el responsable del estudio de bacterias, que es en lo que se centra su artículo en Science. El análisis de los metagenomas procariotas obtenidos a lo largo de la exploración Tara Oceans ha servido para estimar que existen un mínimo de 35.000 taxones o posibles especies bacterianas en el océano y que además existe una gran redundancia en sus funciones. “El 67% de los genes funcionales del microbioma del océano son compartidos por todas las bacterias y arqueas marinas”, afirma la investigadora española.
Este núcleo de genes es muy parecido al de otra comunidad bacteriana que habita en un ambiente muy distinto: cerrado, restrictivo, anaeróbico y ácido. “Cuando los comparamos, nos sorprendió lo poco diverso que era el microbioma oceánico respecto al del intestino humano. ¡Se parecen más que se diferencian!”, afirma Acinas. Y aquí está la clave. Los genes distintos son los que determinan la resiliencia del ecosistema, es decir, los que le permiten adaptarse a los cambios. “Algunos de estos genes son propios de muy pocas especies por lo que es fundamental mantener la biodiversidad de los océanos”, avisa la investigadora.
Buenas y malas compañías
Hasta ahora, en ecología se consideraba que los factores ambientales eran los que determinaban la diversidad de un ecosistema. En efecto, uno de los resultados publicado por el equipo de Acinas es que la temperatura juega un papel determinante en la estructura del plancton y que comunidades separadas por miles de quilómetros se parecen cuando comparten la misma temperatura del agua.
Otro de los artículos incluidos en este especial de Science se centra en un factor abiótico diferente, las gigantescas corrientes oceánicas y demuestra que los remolinos que se forman en el cabo Agujas, el punto más meridional de África y que separa el océano Índico del Atlántico Sur, también distancian físicamente las comunidades planctónicas.
‘La desaparición de una sola especie puede alterar a muchísimas más y es algo que debemos tener en cuenta al estudiar los efectos del cambio climático’
Pero un tercer trabajo aporta un nuevo factor a la ecuación de la diversidad, esta vez biótico, que son las relaciones que existen entre los organismos planctónicos que, en la práctica, no viven aislados sino en consorcios. Lo que los científicos han llamado “interactoma oceánico”. Este estudio liderado por el investigador Jeroen Raes de la Universidad Vrije de Bruselas demuestra que solo un 18% de la variación del plancton se explica por las condiciones ambientales y que la mayoría de las relaciones entre los organismos son de tipo parasitario, de manera que parte de los nutrientes se reciclan hacia los niveles inferiores de la cadena alimentaria.
“Estos resultados significan que la desaparición de una sola especie puede alterar a muchísimas más y es algo que debemos tener en cuenta por ejemplo a la hora de considerar los posibles efectos del cambio climático”, matiza Acinas mientras se pasea por su despacho con un vestido diseñado por la firma Agnes B, principal patrocinadora de la expedición.
Virus y eucariotas
Fran Cornejo, que también ha participado en este estudio, apunta que las redes de interacción que han publicado son un primer grano de arena para llegar a conocer cómo funciona el ecosistema marino. Algunas de estas interacciones han sido comprobadas mediante técnicas de microscopía y otras aún no, por ejemplo, las de los virus.
“Este aspecto es complicado de testar porque a priori cuando en una comunidad detectamos al hospedador es posible que también esté presente el virus, pero este solo es detectable cuando ya ha infectado la célula y ésta ha implosionado, por lo que cuando detectas muchos virus probablemente no encontrarás a su víctima”, explica el investigador gaditano.
En la descripción de las comunidades de virus y eucariotas se centran los dos restantes artículos publicados en el último número de Science, liderado este último por el investigador Colomban de Vargas del Centro Nacional para la Investigación Científica de Francia, que ha analizado un marcador filogenético común en todas estas células para cuantificar su diversidad. El análisis de casi un billón de secuencias ha revelado que existen unos 150.000 tipos genéticos de eucariotas en el océano.
“Muchas más que las 11.000 especies que ya estaban descritas en la literatura”, acota de Vargas. La mayoría de estos tipos son protistas, seres unicelulares muy poco estudiados, a partir de los que evolucionaron en su momento todos los organismos superiores. Según el investigador francés, “Ahora debemos entender la distribución ecológica y la función de al menos 270 de ellos que son los protagonistas de esta diversidad, los personajes VIP, del inglés, very important plankton”, bromea.
Contenta con el éxito de la publicación, Isabel Ferrera recuerda con cariño como participó como la mano derecha de Acinas en la gestación del proyecto. “Cada mes durante más de un año nos reunimos representantes de todos los grupos en París para decidir qué, cómo, cuándo y dónde muestreábamos. Era una lucha entre los genios y los que teníamos los pies en el suelo”, explica a Sinc. Y Acinas asegura que no se imaginaba acabar publicando un especial en Science cuando alquiló con Ferrera un coche, lo llenaron hasta el techo de tubos, mangueras, tornillos, cubos… y condujeron hasta Lorient para montar el laboratorio húmedo en la cubierta del Tara, donde se iban a filtrar todas las muestras de agua para concentrar los organismos y su material genético.
Con la ayuda del ‘big data’
Tras 26 años de su botadura, Tara mantiene su esencia, “Aunque haya cambiado de propietario de verdad estoy convencido de que su espíritu permanece inalterado”, sentencia Bourgois. Pero los resultados científicos obtenidos no habrían sido posibles ni siquiera hace un lustro. Los fenomenales avances en las técnicas de secuenciación masiva y el análisis computacional de lo que se conoce como big data han permitido procesar por ejemplo los 7,2 trillones de pares de bases de los genes que son la esencia del Ocean Microbial Reference Gene Catalog.
‘Es posible que el plancton sea el primer bioma planetario productor de oxígeno que entendamos como es debido en los siguientes 20 o 30 años’
“Hemos demostrado que esta tecnología es suficientemente potente para entrever los límites de este mundo de pequeños y cambiantes habitantes –escribe a Sinc de Vargas. Es posible que el plancton sea el primer bioma planetario productor de oxígeno que entendamos como es debido en los siguientes 20 o 30 años”.
“Nuestro trabajo es producir datos para otros científicos y entre todos entender mejor nuestro planeta y nuestras vidas –afirma Karsenti–. Del océano en particular sabemos muy poco y nuestra actividad está afectando este ecosistema que es nuestra mayor fuente de alimento y que nos permite respirar y disfrutar de la vida. Yo soy biólogo celular, pero creo que es necesario para cualquier científico salir del rincón donde trabaja y sentir la belleza y la historia del planeta para poner en contexto su investigación. ¿Y qué mejor manera de hacerlo que navegando a vela alrededor del mundo?”.
“Creo que conseguiremos puntos en Mónaco. En España, nuestras simulaciones hasta la retirada nos colocaban en novena posición, fue nuestra primera oportunidad de conseguir puntos. Mónaco será la segunda”, auguraba Fernando Alonso estos días. Aunque McLaren sea el equipo con más triunfos en la historia del Gran Premio de Mónaco, el actual es el peor arranque de toda su trayectoria. Puntuar se antojaría así todo un éxito dado el nivel de su embrionario proyecto con Honda ¿Será entonces posible perder la virginidad en el Principado?
Equipo y fabricante están sudando la camiseta en un proceso de evolución continua. Cabe esperar por tanto cualquier sorpresa en su curva ascendente de rendimiento tras arrancar desde cotas inesperadamente tan bajas. Las singularidades de la carrera monegasca podrían jugar a favor de Fernando Alonso y Jenson Button. Pero también McLaren ha colgado en otras ocasiones la zanahoria de las expectativas delante del equino de la opinión pública para capear tan duros comienzos.
El trazado cuenta con una recta que supera ligeramente los 500 metros, extremadamente corta en comparación a otras pistas. No se llega a utilizar la octava velocidad, ni a alcanzar los 300 km/h. Y si, como se estima, la unidad motriz de Honda perdía entre 110 y 120 cv hasta Barcelona, aquí se puede ganar oxígeno frente a los propulsores de Mercedes y Ferrari ¿Podría recuperarse una par de décimas por esta vía?
Pero el motor tiene otros matices. Si el grip aerodinámico pierde fuelle en Mónaco en beneficio del mecánico, las numerosas curvas lentas del Principado requieren golpes de acelerador. La tracción es fundamental y para optimizarla, un ágil y domesticada entrega de esa potencia pasan a primer plano ¿Cómo responderá al respecto la unidad motriz de Honda?
En Montmeló, la experiencia al respecto nos retrotrae el dramático diagnóstico de Button a final de carrera. El viernes fue una pesadilla para ambos pilotos, con un tren trasero alocado. “Las primeras 30 vueltas fueron las más terroríficas de mi vida, la parte trasera nunca estaba ahí, cada vez que tocaba el acelerador a cualquier velocidad, se iba de atrás, no era normal”, sorprendió el británico a final del gran premio. Menudo regalo sería para las calles de Montecarlo…
No parece que fuera el caso con Alonso, visto su rendimiento en carrera. Para Button habría supuesto una situación embarazosa frente a su más hábil y adaptable compañero de equipo, a no ser que ambos probaran diferentes especificaciones, en cuyo caso el tiro del británico salió por la culata. “En las cuatro carreras anteriores, el coche fue de fácil conducción, un problema en una carrera no significa nada para el futuro, la mayor parte de los equipos se quejaron del grip aerodinámico atrás y fue igual para nuestro coche”, se justificó Bouiller ante el sorprendente desahogo de su piloto.
Para marcar diferencias en Mónaco, quien maneja la ‘rosca’ necesita confianza en su socio, el monoplaza, en un trazado donde los neumáticos se van acercando poco a poco al raíl para ir maximizando el radio de las trazadas, lo que supone lamer literalmente las barreras. Sesión a sesión, el piloto debe ganar confianza y precisión, y a la inversa. No resulta extraño escuchar el sutil ‘beso’ de un neumático al apoyarse en los raíles.
“Un coche de fácil conducción”, es precisamente uno de los regalos para Mónaco. Esta ha sido, sin embargo, la canción escuchada durante este temporada a tanto los titulares, como Magnussen y Turvey, presente en los entrenamientos privados posteriores a la carrera en Montmeló. “Es mucho más fácil de conducir, lo que permite al piloto llegar al límite del monoplaza, mientras el año pasado no era posible”, apuntaba Bouiller.
La historia del Gran Premio de Mónaco ofrece numerosos ejemplos de como se ha convertido en una lotería inesperada. La meteorología o los incidentes -con el consiguiente coche de seguridad- pueden dar oportunidades o romper cualquier estrategia. Pero ante la dificultad para adelantar en este trazado, la posición de parrilla resulta crucial en Mónaco.
En este sentido, Alonso ha brillado especialmente en Montecarlo. Al margen de sus dos victorias desde la pole -2006 y 2007- su rendimiento medio en los entrenamientos ha sido elevado. Su magnífica vuelta del pasado año con Ferrari le valió la quinta posición, “la mejor del año”, que le dejó un particular “hormigueo”, como él mismo reconoció, endosando siete décimas a Raikkonen (decimocuarto), y a otras siete de la pole de Rosberg.
Desde 2003, Fernando Alonso siempre ha terminado entre los ocho primeros clasificados de parrilla, con excepción de 2010, cuando no pudo tomar parte en los definitivos debido a un accidente previo en los libres. De mantener su historial en esta edición puntuar sería una posibilidad real. Siempre y cuando la fiabilidad –esta es otra historia- respete a sus pilotos.
Compuestos más blandos de la gama Pirelli –el superblando, totalmente nuevo-, mayor carga de alerón y suspensiones más blandas que en cualquier otra pista, déficit de potencia atemperado pero crucial en su entrega… ¿Cuál será el rendimiento del MP4-30 en Mónaco? ¿Ofrecerá esa confianza a sus pilotos que tanto exige este trazado? Si la respuesta fuera positiva, seguro que Alonso estará relamiéndose, porque el resto es asunto personal.
Un producto en internet con millones de usuarios repartidos por todo el mundo y que carece de modelo de negocio. Sí, Telegram no quiere hacer dinero, y eso pese a que cada vez son más los que optan por esta aplicación de mensajería multiplataforma que se ha erigido como una de las mayores alternativas a WhatsApp.
Si hay algo que podrá descubrir pronto en este mercado, es que no hay cifras absolutas: si alguien pregunta cuál es el mayor fabricante de móviles del mundo, habrá una respuesta concreta, pero no así para las apps de mensajería. La cuota de mercado se guarda celosamente, pero en este segmento el Santo Grial se mide en términos de usuarios activos. Y es aquí donde la aplicación del multimillonario ruso Pavel Durov ha vuelto a sacar pecho: la plataforma ha duplicado el número de mensajes enviados de diciembre a aquí, y alcanza ya los 2.000 millones de mensajes enviados a diario.
Como apuntamos, en este mercado nadie quiere dar cifras absolutas de share, y por otro lado, cada país es diferente. Se sabe, eso sí, que la plataforma del ruso se está haciendo cada vez más fuerte en Europa, Asia, Latinoamérica y países árabes, en especial desde que Facebook se hizo con WhatsApp y la privacidad de esta herramienta se puso todavía más en entredicho. Los tentáculos de la red social de Mark Zuckerberg y compañía llegan cada vez más lejos, y la información que atesoran de los usuarios es ya ingente. No hay que olvidar que la red social vive de la venta de publicidad, y cuanto más segmentada y precisa sea, mayor será el impacto para los anunciantes.
Pero Telegram ha optado justo por la vía contraria: aseguran que nunca venderán publicidad y están tan convencidos de la inexpugnabilidad de su servicio, que están dispuestos a pagar 300.000 dólares al hacker que consiga descifrar una conversación (la anterior tentativa quedó desierta).
La saturación de WhatsApp
La seguridad puede ser un sólido argumento para la elección del producto del magnate ruso frente a otras opciones, pero a la postre, será la funcionalidad la que más pese. Y en esto, WhatsApp juega en desventaja. Por un lado, ser el primero en el mercado le ha permitido convertirse en un estándar, pero por otro, el mal uso de la herramienta y en especial el abuso de los grupos, ha comenzado a saturar el canal y los usuarios más jóvenes empiezan a tener problemas a la hora de atender los mensajes más urgentes.
Sin embargo, Durov sabe que en el mundo de la tecnología todo es muy relativo, y quien hoy está en lo más alto, mañana puede morder el polvo y desaparecer sin que derramemos una sola lágrima. Es por este motivo que el dato en el que hay que fijarse no es realmente el número de usuarios, sino su tasa de crecimiento, y atentos porque las cifras de Telegram asustan: Durov ha desvelado que cada día se dan de alta 220.000 nuevos usuarios en el servicio. Y el crecimiento es exponencial.
¿Puede sostenerse en el tiempo un servicio de mensajería tan costoso sin ingresar un solo euro?
Seguridad, poca saturación en el canal… la siguiente batalla que presenta Telegram es la de las prestaciones. Hace unos meses destacamos que esta plataforma de mensajería estaba cobrando una gran popularidad en el mundo de la empresa, e incluso llegaba a robar tráfico al correo electrónico: el hecho de poder comunicarse desde el ordenador con los empleados de una firma y la posibilidad de cifrar los mensajes fueron argumentos suficientes para muchas compañías. Y ha sido precisamente la estrategia multiplataforma de Telegram la que ha posibilitado su éxito. WhatsApp quedó estancada en el móvil mientras que el servicio de los rusos se podía utilizar en los ordenadores, lo que obligó a los primeros a dar el salto por fin a los navegadores.
El producto de Durov, entre tanto, sigue acumulando usuarios por miles en una descarnada guerra con WhatsApp en medio de acusaciones de plagio, y queda en el tintero la sospecha del modelo de negocio: ¿puede sostenerse en el tiempo un servicio tan costoso sin ingresar un solo euro?
Bien, la buena noticia para la tranquilidad de los usuarios es que parece que el servicio se está planteando monetizar en un futuro sus servicios con un modelo freemium. Lo hará sin publicidad y “sin suscripciones en los servicios básicos”, con lo que parece que se están cocinando funciones premium para quienes estén dispuestos a pagar por ellas.
Fernando Alonso terminó decimotercero en la clasificación del Gran Premio de España de Fórmula 1. Su compañero Jenson Button saldrá este domingo justo por detrás. No es precisamente donde debería estar McLaren-Honda. Entonces, ¿por qué sonríen sus pilotos? “Si estuvieras en este equipo, entenderías porque somos tan positivos”, dice Button. “Esto no ocurre durante la noche, y si ocurriera, no habría valido la pena, ya que no habría sido un reto. El desafío y la emoción es estar viendo las mejoras y saber que somos parte de ellas”, añade el británico que dice estar “feliz con el progreso”.
Es la primera vez que ambos pilotos entran en la Q2 esta temporada y tendrán la oportunidad el domingo de sumar puntos también por primera vez este año. Alonso y Button lucharán por ello, pero el español ya se ha encargado de decir que no es el principal objetivo. Que no es nada más que otro paso hacia el verdadero fin de volver a ser campeón del mundo. Y como su compañero, estuvo satisfecho y sonriente tras la calificación. Las actualizaciones traídas a Montmeló han funcionado como querían.
Jenson Button (Reuters)
“Quiero tomar lo que tenía Fernando para el desayuno”, bromeaba Jenson Button con los medios ingleses tras las palabras de Alonso de que los puntos son “muy posibles”. “No sé dónde vamos a terminar, los diez primeros eran muy rápidos en sus tandas largas el viernes”, dice. El británico es más prudente que su compañero a pesar de admitir que “el progreso es bueno”. Normal ya que la diferencia con respecto a Rosberg en calificación, es mayor que en la de Bahréin con Hamilton.
Alonso fue más optimista: «Si tenemos un buen comienzo y una buena estrategia, nuestro ritmo en las tandas largas por lo general es bastante bueno, así que mañana tenemos nuestra primera oportunidad de sumar puntos. Estoy seguro”, indica el asturiano, eso sí, asegurando también que necesitan “una carrera perfecta”. El piloto de McLaren saldrá por la parte limpia y confía en que su monoplaza vuelva a comportarse bien en carrera.
Jenson Button y Fernando Alonso (Efe)
“Estoy con ganas de dar pasitos y que se conviertan en resultados. Para la moral del equipo es importante”, dice Fernando Alonso. “Entrar en la Q2 en Bahréin, ahora entrar los dos coches, el primer punto cuando llegue, ojalá sea mañana, y todo esto es importante para el equipo. Pero bueno, hacer noveno o décimo, un punto o dos no me cambia la vida, quiero ganar y ser campeón del mundo. Si es aquí los primeros puntos bienvenidos sean pero creo que nuestra ambición y nuestra meta van mucho más adelante que la carrera”, añade.
Los tiempos de los McLaren han estado lejos de entrar en la Q3, a nueve décimas, y no han pasado el corte. Más o menos entre las previsiones que tenían en el equipo: “Sigue siendo por ahora un objetivo muy bajo, porque lo que queremos es ganar y estar en la ‘pole’, hay que ir ‘pasito a pasito’. Se ha confirmado otra vez aquí que vamos en la dirección correcta. Con ganas de que sea mañana, se apaguen los semáforos y de pasarlo bien en la carrera por lo menos”, dice Alonso.
“Tenemos que dar otro paso adelante. Si queremos estar en la Q3 hay que ponerse las pilas”, dice Alonso mirando a las próximas carreras. Las mejoras traídas a esta primera cita en Europa han funcionado de nuevo y han dado el resultado esperado: “Todavía queda mucho pero el trabajo del equipo es excelente. Si pensábamos que estábamos a cuatros segundos en Australia y ahora estamos luchando por entrar en la Q3, es casi un milagro. El potencial es enorme y poco a poco estamos encontrando la contraseña para abrir más candados”, concluye el español.
El Consejo de Ministros aprobará en «las próximas semanas» el real decreto que hará realidad la Agencia Estatal para la Investigación, un organismo cuya creación recogía la Ley de Ciencia, la Tecnología y la Innovación aprobada en 2011. Dicha norma mandaba la creación de este agente financiador de la ciencia sin aumento del gasto público y en el plazo de un año.
Hoy, el ministro de Economía y Competitividad, Luis de Guindos, ha anunciado en la Comisión de Economía del Congreso que en «las próximas semanas» el Consejo de Ministros dará luz verde «al real decreto que la hará realidad». El ministro ha explicado que la creación de esta agencia supondrá «un cambio importante en la gestión de las ayudas a la investigación científica y técnica, con importantes beneficios en términos de eficiencia, control y transparencia».
Según ha precisado, «esta ayudas se concentrarán bajo un mismo paraguas, se someterán a una planificación plurianual y se optimizarán aún más los recursos gracias a las mejoras en la evaluación y control». En la misma comparecencia, De Guindos ha dicho que el objetivo del Gobierno es alcanzar «un modelo de ciencia más eficiente y sostenible«, para lo cual se está «ultimando» el contrato de gestión del Consejo Superior de Investigaciones Científicas (CSIC), que le dará a este organismo el carácter de agencia del que fue dotado en 2007.
Imagen de archivo de un investigador en un laboratorio (Reuters)
Este contrato de gestión ha sido reivindicado por el CSIC en multitud de ocasiones, ya que contar con él le permitiría mayor flexibilidad y la contratación directa de investigadores (vinculada ahora a la oferta pública de empleo), entre otras cosas. El titular de Economía ha detallado que la intención es dar al CSIC un «marco de gestión que combine la flexibilidad y la eficiencia con el control de sus cuentas», si bien ha matizado que esta regulación no llegará hasta los «próximos meses».
Además, De Guindos ha anunciado la tramitación de un nuevo suplemento de crédito de 95 millones de euros para este año, una cantidad para reforzar las convocatorias que se publicarán antes del verano y aumentar la oferta de contratos predoctorales, las dotaciones para los Centros de Excelencia Severo Ochoa y las convocatorias más importantes para los científicos españoles. Por último, ha recordado que recientemente el Ejecutivo ha repuesto la tasa de reposición de empleo del 100% para investigadores, «que garantiza la renovación generacional tanto en los organismos públicos de investigación como en universidades».
Desde 2009, esta tasa se ha ido reduciendo paulatinamente hasta fijarse en 2011 en el 10% para los investigadores. El Consejo de Ministros autorizó el pasado marzo nuevas plazas para los organismos públicos de investigación, que podrán reemplazar, con esta medida, el cien por cien de las bajas producidas en 2014.
Obras maestras como ‘Apocalypse Now’ o la trilogía de ‘El Padrino’ le acreditaron como una leyenda
El ajuste se da por concluido en las zonas de mayor demanda. El alquiler se consolida como alternativa a la compra
O el Gobierno modifica algunos puntos del Real Decreto recientemente aprobado para la venta centralizada de los derechos del fútbol o la Federación Española de Fútbol (FEF), con el apoyo de la Asociación de Futbolistas Españoles (AFE), iniciará una huelga indefinida en todas las categorías que arrancará el 16 de mayo y coincidirá con la penúltima jornada de Liga de Primera División. La Federación, en un comunicado, dijo sentirse “ninguneada, despreciada e ignorada” y también califica de “actitud irrespetuosa del Gobierno el contenido de este Real Decreto-ley por la falta de resolución de todas las cuestiones que motivaron en los meses precedentes paros totales de todas las competiciones en 17 federaciones territoriales, que afectaron a más de 600.000 deportistas, 30.000 partidos y 15.000 entidades de fútbol aficionado, ignoradas en su significación y sentimiento”. La convocatoria de huelga llega en el momento cumbre de las competiciones con títulos, incluida la Copa del Rey, ascensos y descensos por decidirse.
Federación Española de Fútbol
Consejo Superior de Deportes
Liga de Fútbol Profesional
La junta directiva de la Federación, de la que se levantaron los presidentes del Valladolid, Villarreal, Tenerife y Getafe por no estar de acuerdo con la postura de fuerza, expresó su disconformidad con el reparto del 4,55% procedente de las Quinielas “y su retirada sin motivo alguno por parte del secretario de Estado para el Deporte”, así como el estudio realizado sobre las consecuencias de la Ley de Emprendedores, “que conducen a la imposibilidad de la presencia de los colaboradores más imprescindibles en la organización del fútbol más humilde”, según reza el comunicado.
En el escrito, la FEF también apuntó contra “las inspecciones de la Agencia Tributaria y de la Seguridad Social a los clubes de fútbol aficionado, que han obligado a abandonar sus puestos a una elevada cantidad de directivos modestos, alma verdadera de nuestro deporte”.
Por su parte, desde el sindicato aseguran que no es una postura contra la patronal, sino contra el Ejecutivo y que no tiene que ver con el aumento de la presión fiscal que la Agencia Tributaria ha emprendido desde hace meses en relación con los impuestos aplicados a los derechos de imagen de los futbolistas.
El Consejo de Ministros aprueba la venta de los derechos del fútbol
La Liga aplaza el cierre patronal
La federación reclama sus derechos sobre la Liga
‘Bronca, cainismo y desorden’, editorial del 8/2/2015
El sindicato está en contra del reparto destinado a los clubes de Primera y Segunda, según el cual para los primeros iría destinado un 90% de los ingresos televisivos y para los segundos un 10%, generando una desigualdad salarial preocupante. En Francia, el reparto es de 80-20 y en Alemania del 79-21, según el sindicato. Esta distribución en España, alegan en AFE, se ha hecho sin contar con los clubes de Segunda B, que cuando alguno de ellos ascienda podría encontrarse con un acuerdo del que no han participado.
Los jugadores tampoco están de acuerdo en que, cuando se les adeude dinero, no se les haya incluido, como a la Agencia Tributaria y a la Seguridad Social, en las preferencias de cobro sobre las cantidades recibidas de las televisiones. Desde el Consejo alegan que esto se ha hecho por dos motivos. El primero porque la ley tributaria da prioridad a Hacienda y a la Seguridad Social. Y el segundo, para que los clubes, ante una nueva normativa, no pudieran eludir el pago a la administración.
También consideran en la AFE que en el reparto destinado para los clubes de Segunda B por el que se pagaría la Seguridad Social de los jugadores, y para el fútbol femenino de Primera División, se está beneficiando a clubes que tienen su matriz en entidades profesionales. “Hay 20 filiales en Segunda B y nueve de los 16 equipos de la Primera femenina pertenecen a estos”, dicen en la AFE. La patronal sospecha que lo que quiere el sindicato es formar parte del control económico y recibir directamente parte del dinero a repartir.
El CSD, como representante gubernamental, también emitió un comunicado en el que se mostraba sorprendido por la huelga tras apoyar previamente Federación y sindicato el decreto, y defendía que este “ha supuesto el mayor logro histórico en la defensa de los intereses de los futbolistas y clubes y garantiza que el fútbol español pueda alcanzar cotas de sostenibilidad impensables hasta ahora”. También asegura el CSD que “la norma supone, además, un ejemplo de solidaridad que permitirá que más de 4.000 deportistas de alto nivel de otros deportes vean satisfechas sus cotizaciones a la Seguridad Social, y de modo particular, dignificando el futbol femenino”. El CSD concluye que la FEF tiene como interés no devolver dinero público no justificado y no someterse a las auditorías a los que obliga la ley.
Nati y Justo ya tenían tres hijos (dos chicas, de 15 y cinco años y un chico de 10) cuando supieron que venían gemelos. Nacho y Javi nacieron en 1990. Solo les separan cinco minutos. El mayor es Javi, pero Nacho está seguro de que se confundieron más de una vez durante su infancia y es posible que les cambiasen la identidad. Además, él fue el primero en venir a Silicon Valley. Un argumento que utiliza cuando quiere ganar autoridad. Se quieren, se respetan y se valoran, pero no dejan de competir entre sí y con el entorno en todo momento. No han cumplido 25 años y están en la cima del mundo, de su mundo.
Nacho llegó bajo el programa Jóvenes con Futuro que promueven StepOne y la Fundación Rafael del Pino. En 2011 vio un cartel por los pasillos de la Universidad de Alcalá, ya trabajaba creando Ticketea, era el cuarto empleado. Hizo las pruebas, pensó que no le escogerían por no haber terminado la carrera. No repararon en ese detalle, pesó más su brillante demostración. Así llegó a Mind Snacks, una aplicación de pasatiempos, hoy llamada Elevate Labs, en donde estuvo tres meses como becario. “Sentí cierta discriminación por no ser americano, pero a los tres meses me contrataron como uno más, a tiempo completo”, explica. Su labor pronto tuvo un laurel codiciado: Apple los reconoció como aplicación del año en el ámbito educativo.
No solo no volvió a pisar las aulas de la facultad, sino que arrastró a su hermano gemelo consigo. Tras una visita en Navidad junto a los padres, Javi decidió hacer las maletas y probar suerte. Hoy trabaja en Twitter, formando parte del equipo de Fabric, una herramienta para que otros programadores creen aplicaciones basándose en la red social. Antes vivió una experiencia pionera, ya que fue programador líder de iOS en Pebble, que en lenguaje llano significa que fue el que ideó cómo el primer reloj inteligente de consumo masivo se entendía con los móviles de Apple. En España trabajó en MiNube, también con el móvil y la tableta de Apple. La empresa de la manzana también tuvo un galardón para su labor. De manera conjunta reconocen el boom: “Estamos aquí gracias a que aprendimos a programar para estos aparatos. Han creado algo que antes no existía, un nuevo mercado”.
Antes de llegar a San Francisco, Nacho ya había creado Sayonaraapp, una herramienta para saber quién dejaba de seguirte en Twitter. “Tuvo bastante éxito entre las agencias de redes sociales”, subraya. Hoy es programador en Khan Academy, una organización sin ánimo de lucro empeñada en cambiar cómo se aprende cualquier materia con el uso de tabletas. Comenzaron con las matemáticas y, poco a poco, han ido ampliando el catálogo.
Su primera experiencia laboral fue en el verano de primero de Bachillerato. Programaban desde los 10 años, pero no eran conscientes de ello, sencillamente hacían páginas web. Un profesor de filosofía del I.E.S. María Moliner de Coslada, donde estudiaban. les hizo ver que eso que ellos consideraban un pasatiempo, hacer páginas web, podría ser un medio de vida. Les ayudó a encontrar unas prácticas y comenzó una historia de no parar.
Estamos aquí gracias a que aprendimos a programar para estos aparatos»
De esa época les queda una peculiar manera de aprender. Cada uno lo hace una materia distinta, después se la explican el uno al otro. Cuando programan juntos, también se reparten las tareas, se entienden casi sin hablarse. “Vamos el doble de rápido”, cuentan.
Ambos defienden el papel de la universidad. Por un lado, porque son conscientes de que su caso no es la norma. Por otro: “Está muy bien aprender haciendo, pero no hay que perderse en el camino. Yo no quiero ser solo un empleado, sino un buen programador”, matiza el menor, solo por cinco minutos, de los Soto.
Desde su infancia practican un deporte en el que no sudan y no necesitan ponerse ropa para entrenar. Practican el ajedrez y siguen de cerca su evolución. Vivir en Estados Unidos les permite ir cada año a la Sinquefield Cup de Saint Louis. Se toman fotos con los cabezas de cartel con la misma devoción por los ídolos que los asistentes a un festival de rock. “Pasamos más de 7 horas allí, de pie, observando, analizando. Es apasionante”, dice el mayor. Sienten especial predilección por un jugador, Magnus Carlsen. Nacieron el mismo año y han pasado la infancia admirando sus hazañas, recordando las partidas como muchos otros niños hacen con los goles de Messi.
Celebraron la llegada del Apple Watch con la misma ilusión con que esperaban a los Reyes Magos. En lugar de poner los zapatos y cubos de agua para los camellos, se juntaron con un par de botellas y los ordenadores listos para ser los primeros reservarlo. Al mismo tiempo, comenzaron a programar la aplicación de sus sueños: Watch Chess App, una aplicación para seguir las partidas en el reloj de Apple en tiempo real. Han creado lo que a ellos les gustaría encontrar en la tienda de aplicaciones, lo que sentían que faltaba en un nicho cada vez más creciente. El día 24 de abril, la fecha escogida por para lanzar el nuevo producto, ya tenían el reloj en la muñeca y la aplicación lista para descargar en la AppStore.
Cuando programan juntos, también se reparten las tareas, se entienden casi sin hablarse. “Vamos el doble de rápido”
Lo hacen por afición pura, por saciar su curiosidad y su pasión por la programación y el ajedrez. Aún así, no han encontrado un proveedor de directos para las partidas. Ninguno de los medios especializados en este arte cuenta con una aplicación para el reloj de Apple. Sin proponérselo, tres años y medio después de llegar a la Meca de la tecnología, se convertían en pioneros.
Nacho aprovecha para dar un consejo a los que decidan seguir sus pasos: “Involúcrate. Si estás en Estados Unidos, vive como lo hacen aquí y haz amigos que sean de aquí”. Javi invita a probar suerte: “Tenía Silicon Valley idealizado, pensaba que no tenía el nivel, que quizá lo intentaría cuando tuviera 30 años y, mira, aquí estoy”. También, que se debe pensar con ambición. “En España está mal visto. Aquí es al contrario, debes pensar a lo grande. En general, creo que mi hermano y yo sabemos ser felices, pero tengo claro que aquí se vive para trabajar y en España se trabaja para vivir”, zanja.
Una galaxia “extraordinariamente luminosa”, según la califican los científicos, y situada a más de 13.000 millones de años luz de distancia, ha sido descubierta por un equipo de investigadores de EE UU, Gran Bretaña y Holanda que ha logrado medirla y caracterizarla con exactitud. Se denomina EGS-zs8-1 y es la galaxia más lejana que se ha medido jamás, afirman los astrónomos, que han utilizado en este trabajo uno de los dos grandes telescopios Keck, de espejo de 10 metros de diámetro, situados en Mauna Kea (Hawai). Cuando la galaxia emitió la luz que ahora se capta en los observatorios terrestres, habían transcurrido solo unos 670 millones de años desde el Big Bang inicial (la edad actual del cosmos es de 13.800 millones de años, según los datos del telescopio espacial europeo Planck), señala Pascal Oesch, de la Universidad de Yale, líder del estudio. Con aproximadamente el cinco por ciento de su edad actual, “el universo era todavía muy joven”, añade. Pero “ya esa galaxia había acumulado una masa equivalente a más del 15% de la de la Vía Láctea hoy”. Y se estaban allí formando estrellas a un ritmo unas 80 veces superior al de nuestra galaxia actualmente.
NASA, ESA, P. Oesch and I. Momcheva (Yale University), and the 3D-HST and HUDF09/XDF Teams’);»> ampliar foto
«El récord anterior de distancia de una galaxia correspondía a 697 millones de años después del Big Bang, así que el nuevo récord significa sólo unos 30 millones de años más joven», explica Oesch a EL PAíS por correo electrónico. «Pero ha sido muy difícil, nos ha llevado un año y medio romper el récord anterior y, por ahora, solo conocemos un puñado de galaxias que estén a más 13.000 millones de años luz. Además, nuestro galaxia es más brillante y casi diez veces más masiva que la del récord anterior», recalca.
La galaxia de récord fue identificada inicialmente con los telescopios espaciales Hubble y Spitzer (de infrarrojo). Pero Oesch y sus colegas han logrado medirla con precisión gracias a un instrumento astronómico (el Mosfire, o Espectrógrafo Multiobjeto de Exploración en infrarrojo) del telescopio Keck I. «Nos permite estudiar varias galaxias al mismo tiempo, por lo que es mucho más eficaz que los instrumentos anteriores, con los que teníamos que estudiarlas de una en una», continúa Oesch. «Con el Mosfire podemos, por lo tanto, hacer observaciones mucho más profundas para un número mayor de galaxias en el mismo tiempo de observación, lo que nos permite detectar características más débiles que antes».
En cuanto a cómo de primitivas esperan los científicos que pueden llegar a ser las galaxias, cuándo empezarían a formarse en la historia del cosmos, el científico de la Universidad de Yale responde: «Esto se está investigando y es una cuestión en la que se trabaja muy activamente; sin embargo, los modelos teóricos predicen que las primeras galaxias en el universo se formarían alrededor de 200 o 300 millones de años tras el Big Bang». Lo que está claro, recuerda, es que las estrellas se formaron antes que las galaxias, que son colecciones de muchas estrellas unidas por las fuerzas gravitacionales. «Las primeras estrellas, de nuevo según los modelos teóricos, se formarían alrededor de 100 o 200 millones de años tras el Big Bang».
La medición de las galaxias a estas distancias extremas y la caracterización de sus propiedades es un gran objetivo de la astronomía para la próxima década, señala el observatorio Keck. Estas observaciones de EGS-zs8-1 corresponden a una época en que el universo estaba sufriendo cambios importantes: el hidrógeno intergaláctico pasaba de neutro a estar ionizado. “Parece que las estrellas jóvenes de las galaxias tempranas como EGS-zs8-1 fueron el motor principal de esa transición llamada reionización”, explica Rychard Bouwens, de la Universidad de Leiden (Holanda), coautor del trabajo.
Los investigadores recalcan que, por ahora, solo se han podido medir con precisión las distancias para un puñado de galaxias
“Uno de los descubrimientos más descollantes del Hubble y el Spitzer en los últimos años es el inesperado número de estas galaxias muy brillantes en una época próxima a cuando se formaron las primeras. Todavía no comprendemos del todo qué son y qué relación tienen con las muy abundantes galaxias débiles”, señala Garth Illingworth, profesor de astronomía de la Universidad de California en Santa Cruz en un comunicado de esta institución.
Como solo se han medido con precisión las distancias a unas pocas galaxias del universo primitivo, “cada confirmación añade otra pieza al rompecabezas de cómo las primeras generaciones de galaxias se formaron en el universo temprano”, añade, Pieter Van Dokkum (Universidad de Yale). “Solo los mayores telescopios son suficientemente potentes para llegar a esas distancias”.
Las observaciones de los objetos del universo primitivo realizadas con los observatorios Keck, Hubble y Spitzer, plantean nuevas preguntas, apuntan los científicos. Por un lado se confirma que existieron grandes galaxias en el cosmos temprano, pero sus propiedades físicas eran muy diferentes de las que actualmente se observan alrededor de la nuestra. “Los astrónomos ahora tienen una evidencia sólida de que los colores peculiares de las galaxias primitivas que se aprecian en las imágenes del Spitzer se deben a un rápido proceso formación de estrellas masivas jóvenes que interactúan con el gas primordial de esas galaxias”, señalan los expertos del Observatorio Keck.
En realidad, lo que los científicos determinan al hablar de distancia es un parámetro denominado corrimiento al rojo (z), que indica el desplazamiento de la luz emitida por la galaxia hacia mayores longitudes de onda del espectro electromagnético debido a que se está alejando en el universo en expansión. Así, cuanto más distante en el cosmos es el objeto celeste, mayor es su corrimiento al rojo, o z. Oesch y sus colegas han determinado para EGS-zs8-1 un valor de z de 7.73 (unos 670 millones de años después del big Bang), mientras que el récord anterior estaba en z = 7.50, es decir, unos 697 millones de años, señala Oesch, . Los investigadores presentan hoy oficialmente su investigación en la revista Astrophysical Journal Letters, y la habían adelantado en la web Arxiv.org.
Varios centenares de galaxias candidatas a distancias extremas han sido identificadas “gracias a la excepcional sensibilidad en el infrarrojo cercano de la cámara WFC3 del telescopio Hubble”, señalan los investigadores en su artículo. Pero “actualmente solo para un puñado de galaxias normales se han medido con certeza a z superior a 7”, añaden.
El Instituto Científico del Telescopio Espacial, en Baltimore (EE UU), que se encarga del Hubble y del futuro James Webb (JWST), que está en construcción, recalca que cuando este último se lance al espacio, en 2018, se abrirán enormes posibilidades de realizar emocionantes descubrimientos. “Además de desplazar la frontera cosmológica hacia tiempos aún más tempranos, el JWST será capaz de diseccionar la luz de la galaxia EGS-zs8-1 y proporcionará a los astrónomos muchos más detalles de sus propiedades.
Nadie lo mereció más que el Chelsea, que sólo dejó el liderato en la segunda jornada y porque entonces había marcado menos goles que el Tottenham. Mandó de principio a fin en la Premier para obtener su quinta liga, la tercera (2005, 2006 y ahora 2015) bajo la dirección de José Mourinho, que suma ya ocho victorias en torneos de la regularidad porque consiguió dos en Oporto (2003, 2004), otros dos con el Inter (2009, 2010) y uno con el Real Madrid (2012). “Quiero más”, dejó claro tras su última conquista. Le valió para acabar de lograrla un triunfo en su estadio por la mínima gracias a un penalti inexistente que forzó, marró y embocó en su rechace el belga Eden Hazard para sentenciar cuando quedan tres jornadas para el final del campeonato. Fue una nueva exhibición de músculo: el laureado técnico luso acabó el partido contra el Crystal Palace en su área con un portero, seis zagueros y dos mediocentros defensivos. “No era un partido para disfrutar sino para acabar el trabajo”, justificó el Mourinho más proletario.
Apenas 27 goles recibidos en 34 partidos retratan a un Chelsea sin fulgor, pero inaccesible en todo momento para sus rivales por el campeonato. Con el Manchester United en reconstrucción, el Arsenal en su eterno diván y el Liverpool errado en la inversión del dinero recibido por el traspaso de Luis Suárez, tan sólo encontraron rival en el campeón al que suceden, el Manchester City. Fue hasta enero, hasta que se cayó el equipo que dirige Manuel Pellegrini, que en la jornada quinta tras el primer duelo directo contra el Chelsea ya transitaba a cinco puntos, pero que consiguió remontar hasta que en la primera jornada de la segunda vuelta ambos igualaron en la cabeza con 46 puntos. Fue entonces cuando los blues perdieron su segundo y último partido de una campaña sin tacha en su estadio, donde sólo ha cedido tres empates. Perdieron en Newcastle y en el feudo del Tottenham y tras esta segunda y última derrota agregó a su balance once victorias y cuatro empates mientras el City se desplomaba. “La Premier es la liga más complicada del mundo y lo sabía cuando decidí regresar a ella. Aquí es imposible ganar por 8-0”, tiró con bala Mourinho mientras saboreaba el triunfo.
¿Aburrido, aburrido Chelsea?
Un derbi con balas de fogueo
El Chelsea acaricia la Premier
Narices de coliflor
El calvario de Diego Costa
Mourinho vs Madre Teresa
“Somos un equipo vendedor”, clamó el entrenador luso cuando empezaba la temporada, afanado en revestir de un tinte de modestia este último proyecto del multimillonario Roman Abramovich, un tipo que se ha gastado en fichajes en torno a 1.500 millones de euros desde que se hizo con las riendas de la entidad en 2003. La suma y la resta corroboran las palabras de Mourinho, no tanto el movimiento de dinero: el Chelsea gastó esta campaña en las dos ventanas del mercado 142 millones de euros en refuerzos e ingresó 145 en ventas. Sólo por David Luiz y Lukaku recaudó 85 millones. Diego Costa y Fábregas, claves para lograr el título, costaron 71. La pericia en ese tipo de decisiones forjaron un equipo coriáceo en la zaga, bien asentado en la meta con el regreso al club de Thibaut Courtois y en el que mezcló con éxito el frenesí de Costa (19 goles en 24 partidos) y Fábregas (17 asistencias, nadie da más en el campeonato) con la imaginación de Willian, Oscar y Hazard, elegido el mejor futbolista de esta edición de la Premier por la Asociación de Futbolistas Profesionales. Todo el entramado estaba tejido en torno a Matic, un hercúleo mediocentro, con más dotes para jugar la pelota que el hasta hace año y medio habitual Obi Mikel. “El año pasado estábamos en construcción, en esta temporada ya teníamos algo más estable y un par de jugadores con cualidades diferentes”, explicó tras celebrar el título sin demasiadas muestras públicas de efusividad, insistiendo en un ideario que ya había destacado en la víspera del partido contra el Palace: “Parece que para algunos es más importante tener el balón que marcar goles. Tal vez cuando mis nietos jueguen al fútbol iremos al estadio a disfrutar como los jugadores se pasan el balón”.
“Aquí es imposible ganar por 8-0”, dice el portugués
Con esa base y ese argumentario futbolistico, sin disponer del mayor gasto salarial del campeonato, 259 millones de euros por los 277 del City o los 290 del Manchester United, tantas veces comparado con los equipos campeones menos excitantes del fútbol británico, el Chelsea alza de nuevo la Premier, cota que no alcanzaba desde hace cinco años, entonces con Carlo Ancelotti al mando. Vence dando valor a lo que importa según Mourinho, el rigor defensivo y la velocidad en la resolución. Con una pregunta que deja el estratega de Setúbal en el aire: “La gente habla de estilo y elegancia, ¿pero que es eso?”.
Corría el año 2011. Los mercados estaban secos para obtener financiación. Muchos bancos empezaron a agrupar sus préstamos en fondos de titulización de forma que sirvieran para solicitar liquidez al Banco Central Europeo. Bankia, una de las entidades que tenía una posición de liquidez menos holgada, aprovechó incluso el crédito que había dado al Real Madrid para fichar a Cristiano Ronaldo para aportarlo a un vehículo financiero y lograr que el BCE le prestase el dinero que no podía obtener en los mercados. Cuatro años después, con el crédito del fichaje ya pagado y con el banco en una posición mucho más sólida, Bankia ha decidido liquidar aquel fondo.
Cuando EL PAÍS desveló que el préstamo del fichaje de Cristiano servía como garantía ante el BCE, numerosos medios internacionales como Business Insider, The Telegraph, Die Welt o Süddeutsche Zeitung se hicieron eco de la noticia, alguno de ellos exagerando la situación y yendo un poco más allá al decir que la entidad había ofrecido al propio jugador (y no al préstamo) como garantía ante el BCE.
Bankia usará el préstamo del fichaje de Cristiano Ronaldo para pedir liquidez al BCE
El crédito de 76,5 millones de euros concedido en 2009 por Caja Madrid al Real Madrid para financiar el fichaje de Cristiano Ronaldo y de Kaká fue incluido por Bankia junto a préstamos a ACS, Abertis, Acciona, FCC o Galp dentro del fondo de titulización de activos denominado «Madrid Activos Corporativos V».
La titulización de préstamos hipotecarios, corporativos o al consumo es una práctica habitual entre las entidades financieras para poder usar los bonos resultantes como garantía al pedir financiación al Banco Central Europeo. La fórmula pasa por incluir en el activo de fondos una cantidad de crédito muy superior al volumen de bonos que se emiten. Así, los bonos de titulización tienen una alta calificación crediticia.
Esa práctica se generalizó durante la crisis financiera, cuando los inversores huían de productos estructurados y no era fácil colocarlos en el mercado. Bankia era una de las entidades con una mayor dependencia del BCE para su financiación.
El préstamo para el fichaje de Ronaldo se pagaba en tres plazos, los años 2012, 2013 y 2014. Algunos otros de los préstamos incluidos en el fondo también se han ido pagando.
Ahora, en el informe anual del fondo de titulización, registrado en la Comisión Nacional del Mercado de Valores, el auditor pone énfasis en la liquidación del fondo: «La sociedad gestora ha procedido a la liquidación anticipada del fondo con posterioridad al cierre del ejercicio, el 18 de febrero de 2015, como consecuencia de la solicitud de la entidad cedente, en su calidad de único tenedor de los bonos de titulización emitidos por el fondo y de única entidad cedente de los derechos de crédito que fueron objetos de cesión», señala textualmente.
De ese modo, Bankia recupera los créditos que cedió y los bonos se amortizan. El crédito del fichaje está pagado, Cristiano Ronaldo sigue en el Real Madrid y, pese a lo que dijeron algunos medios sensacionalistas alemanes y británicos, nunca hubo riesgo de que pasase a ser propiedad del BCE.
Hace 25 años, habría sido difícil predecir a qué se iban a dedicar J. Stewart Burns, Al Jean y Ken Keeler, los tres matemáticos por Harvard (EE UU); y David X. Cohen y Jeff Westbrook, ambos físicos por la misma universidad. Los cinco son guionistas de Los Simpson, una sátira del modo de vida estadounidense nacida en 1989 que se ha convertido en una de las series televisivas más exitosas de la historia. “La cantidad de cuestiones matemáticas que aparecen en Los Simpson tiende a infinito”, explica Marta Martín, de la Facultad de Matemáticas de la Universidad de Oviedo. Ella y otros colegas, como Abel Martín, profesor de Matemáticas en un instituto de Oviedo, imparten talleres sobre Los Simpson a niños y adolescentes de centros de enseñanza en Asturias. “Salen encantados”, resume Marta Martín, que colabora con la Real Sociedad Matemática Española en la divulgación de esta ciencia. Estos son algunos de los momentos matemáticos protagonizados por los personajes amarillos.
En un capítulo, Marge Simpson decide llevar a su familia al Museo de Ciencia. Allí, Bart y Lisa Simpson contemplan un tablero de Galton, un dispositivo formado por un tablero vertical perforado con clavos, como la cama de un faquir, por el que caen pelotas. El aparato, concebido por el inventor británico Francis Galton a finales del siglo XIX, genera una serie de sucesos aleatorios: cada bola tiene la mitad de probabilidades de caer a un lado o al otro de cada clavo. Al soltar una pelota, es imposible saber dónde caerá. Sin embargo, al dejar caer muchas bolas, se puede predecir con precisión dónde terminará la mayoría: forman una curva de campana.
El tablero de Galton preside la Sala de la Probabilidad del Museo de Ciencia, en la que un vídeo del matemático francés Blaise Pascal, del siglo XVII, instruye a los Simpson: «Ah, hola. Soy Blaise Pascal, el inventor de la teoría de la probabilidad. ¿Cuáles eran las probabilidades de conoceros aquí? Excelentes, diría yo”, comenta tras tirar una moneda al aire. “Mi amiga la Ardilla Tonta está a punto de comprar un billete de lotería. Ardilla Tonta, ¿conoces la probabilidad de ganar la lotería? Bueno, es más probable que te atropelle un coche. O que te alcance un rayo. O que te asesine un conocido. Si has comprendido la probabilidad, nunca jugarás a la lotería».
En 1637, el matemático francés Pierre de Fermat garabateó en el margen de uno de sus libros uno de los teoremas más famosos de la historia. Decía que la igualdad xn + yn = zn es imposible si n es un número entero mayor que 2 y las tres letras son números enteros positivos. “He encontrado una demostración realmente admirable, pero el margen del libro es muy pequeño para ponerla”, presumía. Así que el llamado Último Teorema de Fermat estuvo más de 350 años sin demostrarse, hasta que el matemático británico Andrew Wiles anunció en 1995 la resolución del acertijo que había derrotado a sus mejores colegas durante siglos.
Ese mismo año, Homer Simpson aparecía en un capítulo deambulando por otra dimensión, rodeado por la expresión 178212 + 184112 = 192212, “un contraejemplo que echaba por tierra el Teorema de Fermat”, en palabras de Marta Martín. Aparentemente, si se hacía la suma en una calculadora normal, Homer tumbaba a Fermat, pero no. “¿Dónde estaba el truco? En que la calculadora redondea, produciendo una engañosa apariencia de igualdad”, explica Martín.
Con una calculadora más potente, el resultado es este:
178212 + 184112 = 2541210258614589176288669958142428526657
192212 = 2541210259314801410819278649643651567616
A partir de la décima cifra, el número cambia. Fermat gana a Homer.
En el capítulo Homer al cubo, el padre de la familia intenta huir de sus cuñadas Patty y Selma y detrás de un armario salta a una tercera dimensión. Allí se encuentra con un mensaje codificado: 46 72 69 6E 6B 20 72 75 6C 65 73 21. Los profesores Marta Martín y Abel Martín, con la ayuda de su colega Ángel Aguirre, han descifrado esta secuencia de números y letras. Se trata de una notación hexadecimal, un sistema vinculado a la informática que utiliza como base el número 16. El mensaje emplea los numerales del 0 al 9 y las letras de la A a la F. La A equivale al decimal 10; la B, al 11; y así sucesivamente hasta la F. Cada pareja de números representa un caracter en ASCII, un código para el intercambio de información también habitual en los sistemas informáticos.
Con estos datos, el mensaje oculto se puede traducir como: Frink rules!, “Frink manda”, en castellano. El profesor Frink es el científico de Springfield y sus alocados inventos aparecen de manera recurrente en la serie. “Si colocamos Frink rules! en un buscador de internet, esta expresión nos manda directamente a una página web que nos va a describir quién es el profesor Frink, sus andanzas, inventos y apariciones en los diferentes capítulos de Los Simpson”, descubre Martín.
Otro de los guiños matemáticos de Los Simpson aparece en un capítulo de la temporada 17, emitida en 2006. Homer debe adivinar la cantidad de asistentes a un partido de béisbol. Le dan tres opciones: 8191, 8128 y 8208. “Todos estos números son notables desde algún punto de vista”, recordaba Claudio Horacio Sánchez, profesor de Física de la Universidad de Flores (Argentina), en un artículo en la revista matemática Números. 8191 es igual a 213 – 1 y, por lo tanto, es uno de los llamados primos de Mersenne. Estos números son primos (solo se pueden dividir por 1 y por sí mismos) y además responden a la forma 2n – 1. Solo se conocen 48 primos de Mersenne. El más alto es 257885161 − 1 y se descubrió en 2013.
Otro de los números que ve Homer es el 8128, el cuarto de los llamados números perfectos, iguales a la suma de sus divisores. 8128 = 1 + 2 + 4 + 8 + 16 + 32 + 64 + 127 + 254 + 508 + 1016 + 2032 + 4064. Los tres primeros números perfectos son el 6, el 28 y el 496, detalla Sánchez.
Finalmente, 8208 es uno de los números narcisistas, aquellos iguales a la suma de cada uno de sus dígitos elevados a n, siendo n la cantidad de cifras del número. Por ejemplo, 153 es un número narcisista de tercer orden, ya que 13 + 53 + 33 = 1 + 125 +27 = 153. El 8208 es un número narcisista de cuarto orden y es una rareza. Apenas se conocen tres números de este tipo.
En el episodio Última salida a Springfield, de 1993, Homer es elegido presidente del sindicato de la central nuclear de Springfield. El señor Burns, propietario de la planta atómica, le invita a su mansión para ganárselo. En el caserón, Homer ve una habitación con mil monos aporreando mil máquinas de escribir. Burns le explica que los animales escribirán la mejor novela de la historia.
El argumento hace referencia a un problema manejado desde hace un siglo en el cálculo de probabilidades. Claudio Horacio Sánchez recuerda uno de sus enunciados más conocidos: si un millón de monos teclearan al azar en un millón de máquinas de escribir, al cabo de un millón de años habrían escrito todas las obras de Shakespeare. “Este problema fue realmente llevado a la práctica en julio de 2003, con un programa que simulaba la acción de los monos. Más de un año después, el programa produjo un pequeño fragmento, de veinticuatro letras, de Enrique IV”, escribía en su artículo en la revista Números.
En un capítulo de la temporada 14, Edna Krabappel, profesora de la escuela de Springfield, es candidata al título de Maestra del Año. El ganador es un tal Julio Estudiante, “un profesor de matemáticas que enseñó a jóvenes pandilleros que las ecuaciones diferenciales son más poderosas que las balas”.
El personaje homenajea a Jaime Escalante (1930-2010), un profesor boliviano de Física y Matemáticas que emigró a EEUU en 1964. Su país de acogida no reconoció sus títulos y tuvo que empezar de cero, limpiando un restaurante mientras estudiaba inglés. Al cabo de los años, Escalante volvió a dar clase en una escuela de un barrio pobre de Los Ángeles y, en un entorno de violencia y drogas, consiguió que muchos de sus alumnos se entusiasmaran por las matemáticas. En 1988, el entonces presidente de EEUU, Ronald Reagan, le entregó la Medalla Presidencial a la Excelencia en Educación.
En la temporada 10 aparece uno de los momentos científicos más conocidos de Los Simpson. Homer escribe con una tiza en una pizarra una ecuación que predice aproximadamente la masa del bosón de Higgs, una partícula elemental buscada desde 1964 que otorgaría la masa al resto de las partículas que componen el átomo. El capítulo se emitió en 1998, casi 15 años antes de que los físicos detectaran por primera vez la partícula en el Gran Colisionador de Hadrones (LHC), un anillo subterráneo de 27 kilómetros de circunferencia construido en la frontera entre Francia y Suiza.
“El orden de magnitud para la masa del Higgs es correcta, pero solo el orden de magnitud”, matiza Alberto Casas, investigador del Instituto de Física Teórica, en Madrid. “La fórmula de Homer da 309 GeV (los GeV son las unidades que usamos los físicos para medir masas elementales). El valor real de la masa del bosón de Higgs es 125 GeV, así que Homer se pasó un poco”, explica.
“Es un poco más grande que el bosón de Higgs aislado por los físicos del CERN, pero tiene el mérito de que se hizo 14 años antes. No le demos más vueltas ni busquemos el rigor matemático. Se trata de un guiño que, en manos de Homer, resulta paradójico e impensable”, resalta Martín. En la misma pizarra, añade, aparece otro contraejemplo del Último Teorema de Fermat (398712 + 436512 = 447212) y “la demostración de cómo se puede transformar una rosquilla en una esfera, topología pura”.
Un niño de 9 años, sobrino del matemático estadounidense Edward Kasner, bautizó gúgol (googol en inglés) a un número extraordinariamente grande imaginado por su tío: 10100, un 1 seguido de 100 ceros. En Springfield, el pueblo de los Simpson, los cines se llaman Googolplex.
“Si tenemos en cuenta que plex es sala en inglés, podría ser que esa fuera la razón por la que los cines de Springfield llevan por nombre Googolplex. Pero no, en la serie se da un paso más, Googolplex es el número más grande con nombre conocido hasta esa fecha (10 elevado a googol o 10googol)”, detalla Martín.
“Nos imaginamos que los guionistas estarán pensando en diseñar unas nuevas salas en Shelbyville, pueblo vecino y rival de Springfield, que se llamen Googolduplex, con 10 elevado a googolplex salas (10googolplex) el nuevo número con nombre más grande”.
Para muchos matemáticos, la Capilla Sixtina de su disciplina es la identidad de Euler. Formulada como eiπ + 1 = 0, aparece en varios capítulos de Los Simpson. En palabras de Martín, relaciona “cinco imprescindibles números, como símbolo de lo que la inteligencia humana es capaz de descubrir”. El número e, cuyo valor aproximado es 2,71828 seguido de infinitos dígitos, es el número más importante del análisis matemático. Aparece en lugares inesperados, como las ecuaciones para datar restos arqueológicos con carbono 14.
El número pi (3,141592653…) es el rey de la geometría. No solo sirve para calcular el perímetro de una circunferencia: el geólogo Hans-Henrik Stølum, de la Universidad de Cambridge (Reino Unido), descubrió en 1996 que la relación entre el doble de la longitud total de un río y la distancia en línea recta entre su nacimiento y su desembocadura es de aproximadamente 3,14. El número i (raíz cuadrada de -1) es el más relevante del álgebra. “Y 0 y 1 son las bases de la aritmética por ser los elementos neutros, respectivamente de la adición y la multiplicación”, remacha Martín.
La frase matemática más conocida de Los Simpson es una invención de la responsable de la traducción para la versión española, María José Aguirre de Cárcer. En el idioma original, Bart dice “eat my shorts”, literalmente “cómete mis calzones”, pero con el sentido de “desaparece”. Multiplicar algo por cero es, precisamente, hacerlo desaparecer. En Sudamérica, subraya Martín, no reconocen esta expresión de Bart.
Fecha29.04.2015 – 11:57 H.
Las pitones son un tipo de boa constrictora, por lo que matan a sus presas por asfixia. Mediante esta técnica de caza pueden acabar con presas casi tan grandes como ellas, e incluso más pesadas. Una vez logrado el objetivo, las tragan enteras e inician una larga digestión.
Es el caso de esta serpiente, que tras comerse un aligátor tuvo que reposar casi una semana. La digestión completa duró siete días, aunque a los cuatro ya quedaba poco del reptil original.
Gracias a los rayos X podemos ser testigos de todo el proceso, tal y como informa la web IFLScience.
Día 1
El aligátor es perfectamente visible en el interior de la pitón, con la calavera a la izquierda.
Día 2
Parece que todo sigue igual, pero los órganos de la serpiente comienzan a funcionar a todo trapo. El corazón, el hígado, los riñones y el intestino incrementan su tamaño hasta el doble para ayudar a digerir semejante almuerzo.
Día 3
Comienza a apreciarse la digestión. O mejor dicho, el esqueleto de la presa empieza a dejar de ser visible.
Día 4
La serpiente ha logrado digerir la mayor parte del animal antes de que este se pudra. A estas alturas sólo queda la piel y los huesos.
Día 5
Apenas queda nada de un reptil que fácilmente supera los 100 kilos de peso.
Día 6
La digestión prácticamente se ha completado.
Día 7
Ya no queda ni rastro del aligátor. Es hora de buscar una nueva presa.
Un derbi en el día más insípido y en el peor horario posible. Así se presenta el partido de este martes, en San Mamés, entre Athletic y Real. Bajos dos objetivos bien distintos se abre una jornada urgente del calendario que tiene su mayor interés en Bilbao. Los blanquiazules parecen haberse rendidos en una recta final sin mayor interés posiblemente que la victoria en casa del vecino.
El Athletic busca la séptima plaza. Una racha de siete victorias en diez partidos y 22 puntos de 30 posibles ha llevado a los de Ernesto Valverde a una situación más que inesperada hace solo un par de meses y que le ha dejado con la posibilidad de dormir este martes, si gana a la Real, en un séptimo puesto que le aseguraría jugar en el Europa el año próximo.
La buena marcha liguera del Athletic se ha sumado al frenazo en los resultados del Málaga para que el conjunto rojiblanco vea cada vez más factible asegurarse el billete europeo sin tener que lograr la ‘machada’ de ganar al FC Barcelona en el Camp Nou en la final de la Copa del Rey el 30 de mayo.
Los rojiblancos tienen además la motivación añadida de acabar con tres años de dominio de la Real en un derbi en el que no saben lo que es ganar en los cinco últimos disputados.
Gurpegi sustituye al sancionado Etxeita ante una delantera que lamenta la falta de gol
En lo estrictamente deportivo, el Athletic encara la visita de su vecino guipuzcoano con tres bajas confirmadas, las de los lesionados Iker Muniain e Ibai Gómez y el sancionado Xabi Etxeita. La baja del central vizcaíno la suplirá seguro el capitán Carlos Gurpegui y para la de Ibai, que sufrió el viernes en Córdoba una subluxación del hombro izquierdo, Valverde cuenta con las opciones de Borja Viguera, Markel Susaeta y un Andoni Iraola que obligaría a Iñaki Williams a cambiar de banda.
Quien se perfila de nuevo en el once es Mikel Balenziaga, una vez superada la lesión muscular que le ha tenido de baja tres partidos. También está recuperado de una lesión muscular Ander Iturraspe, aunque en caso del internacional lo probable es que se quede en el banquillo ante el buen momento de Mikel San José.
La Real Sociedad, sin nada que hacer en la competición liguera y con malas sensaciones en los últimos partidos, espera continuar la racha en un duelo vasco que no pierde desde marzo de 2012.
Son cinco encuentros seguidos en los que los donostiarras han salido airosos o al menos con un buen resultado, tres victorias y dos empates, pero en esta ocasión todo apunta a un dominio rojiblanco.
La Real llega a este partido en un mal momento, ya que ha logrado solo tres puntos de los últimos quince, y no ha marcado ningún gol en sus dos compromisos anteriores contra el Elche y el Villarreal.
Este es quizás la cuestión que más preocupa en el seno del conjunto donostiarra, ya que el equipo también mostró su inoperancia cara al gol en el partido del Vicente Calderón y a duras penas genera oportunidades durante sus encuentros.
Con una temporada que se le está haciendo muy larga al conjunto entrenado por el escocés David Moyes, al menos se supone que la motivación que siempre tienen los jugadores en este tipo de partidos cambie las señales débiles que emite el juego blanquiazul.
La Real recupera a uno de sus jugadores más valiosos, el lateral Joseba Zaldua, que estuvo sancionado por tarjetas en el último compromiso, y posiblemente podrá participar el mexicano Carlos Vela de titular, ya que jugó casi todo el partido ante el Villarreal sin mayores problemas tras su operación de rodilla hace casi tres meses. Sergio Canales es otro de los jugadores que puede volver al once titular porque está fresco tras su suplencia el pasado sábado.
Ajeno y lejano a las polémicas electorales sobre el AVE, otro tren de alta velocidad atravesaba el pasado martes el plácido paisaje del monte Fuji. Al símbolo del Japón inmemorial lo vuelve a retar un ingenio humano, un tren de levitación magnética o maglev, que acaba de batir el récord mundial al alcanzar un pico de velocidad de 603 km/h y mantenerse durante 11 segundos por encima de los 600. Un periodista de la agencia France Press que viajaba en uno de sus once coches comparó el vértigo que sintió con el acelerón al de un despegue. Y no es eso lo único en lo que este tren se parece a un avión.
¿Cómo se consigue que un tren corra a esa velocidad? Haciéndole volar, literalmente. El SCMaglev L0, que así se llama el maglev japonés, levita a 10 centímetros sobre su base. Tren y ferrocarril no son ya sinónimos: ahora se prescinde de las vías; el rozamiento con ellas haría imposible alcanzar esas velocidades. En su lugar, el tren se desplaza dentro de una guía-viga de hormigón con forma de u. Lo encauzan, lo propulsan y lo sostienen en el aire unos potentes electroimanes: “La tecnología está basada en el simple principio de atracción y repulsión magnética: los dos polos de un imán se atraen si son de distinto signo y se repelen si son del mismo. En el fondo, el funcionamiento de cualquier motor eléctrico está basado en el mismo principio, pero aquí se aplica de otra forma”, explica Iñaki Barrón, director de Alta Velocidad de la Unión Internacional de Ferrocarriles.
A mayor electricidad, mayor campo magnético se crea. El maglev necesita uno 100.000 veces más potente que el de la Tierra. Para sacarle el máximo a la costosa y abundante energía que precisa, en el ‘maglev’ se utilizan materiales superconductores, que transmiten mejor la electricidad cuando su temperatura desciende a 269ºC bajo cero.
Unos electroimanes lo encauzan, lo propulsan y los sostienen en el aire
Otra peculiaridad estriba en que esa electricidad se transmite por los laterales de la guía de hormigón. Es como si el motor del tren, en lugar de estar en el interior de la máquina, estuviera en las guías. En su base, otros imanes hacen que el tren flote cuando alcanza al menos 100 km/h. Mientras acelera, unas ruedas lo sostienen. Se retiran en cuanto el tren flota. He aquí una nueva semejanza con los aviones y sus trenes de aterrizaje. En cambio, el aire aquí no es de ayuda: que el maglev no vuele aún más rápido se debe en gran medida al aire, que lo roza y lo frena.
Si el movimiento se demuestra andando, la tecnología de Japón se manifiesta corriendo. Y cuánto. Ya en 1964, para honrar los Juegos Olímpicos de Tokio de 1964, Japón fue pionero con su famoso tren bala, el Shinkansen, que hoy recorre las principales ciudades del país a velocidades máximas de 300 km/h.
La tecnología del Shinkansen se ha exportado a Taiwán, China, incluso al Eurotúnel, pero con el maglev y la competencia de los alemanes el país parece dañado en su orgullo. Las compañías Siemens y ThyssenKrupp consiguieron el contrato de la única línea de este tipo —aunque basada en otra tecnología— que ya está en uso comercial para unir los 34 kilómetros que separan el aeropuerto de Shanghái de uno de los extremos de su red de metro.
El país compite por vender su ingenio fuera. Sobre todo, a Estados Unidos, que recupera su tiempo perdido construyendo una red de la alta velocidad a la que España también quiere hincar el diente. El primer ministro japonés, Shinzo Abe, ha ofrecido a los estadounidenses ahorrarse los costes de licencia con tal de que escojan a empresas de su país para unir por alta velocidad, convencional o maglev, Washington y Baltimore, a 60 kilómetros de distancia, y más adelante para llegar a Boston.
¿Es seguro viajar en un vehículo que casi dobla la velocidad máxima de un fórmula uno? El maglev alemán ya dio un disgusto, aunque no por problemas intrínsecos de su tecnología. En 2006, en Lathen (Alemania), murieron 23 personas al chocar uno de estos trenes, en pruebas, contra un vehículo de mantenimiento. Para el director del centro de testeo del tren en Japón, Yasukazu Endo, no es el caso del tren de Japón: “cuanto más rápido corre, más estable se vuelve”. Así lo declaró a la agencia Reuters tras el récord del pasado martes. Solo doce días antes ya había alcanzado sin problemas los 590 km/h, su primer récord desde 2003, cuando logró los 581 km/h. Los récords pueden sucederse cada vez más rápido.
Prescinde de las vías; el rozamiento con ellas haría imposible alcanzar esas velocidades
Un tren que necesita vigas con superconductores en lugar de vías de hierro y una red eléctrica increíblemente potente no resulta un capricho barato. Por el momento, Japón cuenta con solo 42 kilómetros de línea construida, la que se ha usado para las pruebas, pero el país pretende que el tren una la capital con la ciudad de Nagoya, a 286 kilómetros, para 2027. Es necesaria una inversión de 100.000 millones de dólares (91.954 millones de euros) y la fecha ya se ha pospuesto varias veces. Aun así, el proyecto pone sus miras más allá en el tiempo y ambiciona para 2045 la conexión de Tokio y Osaka en poco más de una hora.
Tienen la palabra los gabinetes económicos del gobierno y de las compañías ferroviarias japonesas, pero también los ingenieros. De circular en un tubo al vacío, un maglev multiplicaría por diez la velocidad de récord con la que ahora ha deslumbrado. Veremos más y mejores diseños enemigos del aire.
Un acto tan mecánico y breve como es el de pulsar una tecla tras otra puede servir para detectar enfermedades neurodegenerativas. Eso es lo que ha demostrado un grupo de investigadores, que han creado un sistema que analiza patrones al teclear en el ordenador, detectando el deterioro en las habilidades psicomotoras. Ya lo han probado con personas sanas y ahora lo están investigando con enfermos de párkinson.
La forma que tenemos de usar el teclado es tan personal que se ha convertido en una de las maneras más seguras de identificar a una persona. Son muchos los elementos que forman la huella biométrica del que teclea: la velocidad de tecleo, repetición de errores, la fuerza con la que se golpea el teclado o lo rápido que se libera cada tecla. Toda esa información se puede registrar para detectar patrones únicos. Un cambio en ese patrón puede indicar que alguien está usurpando una identidad. Pero también puede revelar que el sujeto podría estar enfermo.
Pulsar la tecla es la más breve de esas métricas, sin embargo, también puede ser la más informativa. La acción se puede descomponer en tres fases: impacto del dedo en la tecla, comprensión de la yema del dedo y liberación de la tecla. Estudios de la neurobiología del teclear han mostrado que todo el proceso no dura más de 100 milisegundos y la mayor parte del tiempo (el 77%) es para la liberación. A pesar de su brevedad, cada pulsación activa la corteza motora primaria, el área motora suplementaria, los ganglios basales y el cerebelo.
«Es la métrica más robusta e independiente de tus habilidades previas de tecleo», dice el neurólogo del Instituto Tecnológico de Massachusetts (MIT) Álvaro Sánchez. A diferencia de la destreza al escribir o si se hace con dos dedos o todos, la pulsación de la tecla es una mejor ventana a lo que pasa en el cerebro. Lo que han hecho Sánchez y un grupo de ingenieros de software y telecomunicaciones es crear una serie de algoritmos para modelar matemáticamente las pulsaciones «por su capacidad para detectar un deterioro en las habilidades motoras tan determinantes en enfermedades como el párkinson», explica.
Pulsar una tecla apenas dura 100 milisegundos pero en la acción intervienen varias partes del cerebro
El resultado es un programa llamado neuroQWERTY. Fruto del consorcio M+Visión, en el que participan varias instituciones y empresas madrileñas junto a la universidad estadounidense, este programa registra las pulsaciones en el teclado y las analiza buscando cambios que puedan indicar un deterioro en las habilidades psicomotoras. La idea es tan nueva que, como dice el neurólogo, han tenido que construir la forma de medir su eficacia desde cero. «Con la fiebre, podemos saber que algo pasa cuando se pasa de 36º a 38º, pero nosotros hemos tenido que inventarnos nuestro propio termómetro», comenta.
Para probar la validez de neuroQWERTY, los investigadores usaron el programa con un grupo de personas sanas. Primero les hicieron escribir un párrafo durante el día. Después, para inducir un estado de deterioro de sus habilidades, los levantaron en mitad de la noche para que volvieran a escribir. El experimento, realizado con 14 personas de distintos países y lengua materna, se repitió pasados unos días.
Aunque los resultados no se pueden expresar en un porcentaje de pérdida de habilidad, tal y como muestran en la revista Scientific Reports, los investigadores comprobaron que, en el estado de inercia del sueño, los voluntarios se volvían hasta un 15% más torpes.
En un segundo estudio ya en marcha, los participantes son una veintena de enfermos de Parkinson en fase precoz y, como grupo de control, una quincena de familiares. «Los primeros resultados muestran también este mismo patrón de pérdida», comenta Sánchez.
Una de las ventajas del programa es que trabaja sin afectar al uso cotidiano del teclado. NeuroQWERTY registra las pulsaciones y envía sus datos a los servidores del proyecto donde se modelan matemáticamente. Ahora mismo cualquiera puede instalarlo y ayudar a afinar el modelo. A medio plazo, sus autores quieren crear una interfaz gráfica para que el propio usuario pueda monitorear su forma de teclear.
El conjunto de algoritmos que forman neuroQWERTY, que ya ha sido patentado, podrían servir para probar la eficacia de los medicamentos que se administran a enfermos de párkinson. Pero, el objetivo final es detectarlo en personas de riesgo antes de que sea tarde.
«Ahora nos centramos en el párkinson porque es una enfermedad de mucho impacto, pero neuroQWERTY podría servir para cualquier enfermedad o situación donde se presente una alteración motora», recuerda Sánchez. El tecleo podría así, ayudar en otras enfermedades neurodegenerativas como el alzhéimer o la artritis reumatoide, pero también a detectar estados alterados en personas que tengan responsabilidades tras un teclado.
Documento: ‘Psychomotor Impairment Detection via Finger Interactions with a Computer Keyboard During Natural Typing’
Ciencia en Español
El virus del sida es un enemigo escurridizo. Hasta ahora no ha sido posible crear una vacuna que proteja lo suficiente contra el microorganismo y uno de los motivos es que de momento solo se ha utilizado una proteína como señal para que el sistema inmune identifique la amenaza y la ataque después, cuando se la encuentre. Ahora, un equipo de la Universidad de Santiago de Compostela dirigido por María José Alonso ha empleado la nanotecnología para diseñar una vacuna que supere esas limitaciones. “Como una sola molécula no ha funcionado, lo que hacemos es administrar doce moléculas, doce trocitos de proteína empaquetados de tal manera que los hacemos atractivos para el sistema inmune”, explica Alonso.
Al incluir doce moléculas, se abarca un mayor espectro del sistema inmune y hay más posibilidades de que se logren los efectos de protección deseados. Además, el nanoempaquetado, que se podría aplicar a otros fármacos, evita algunos problemas que tienen las vacunas actuales. Para introducir las proteínas que actuarán como antígenos y que el sistema inmune los reconozca. Ahora las proteínas “se administran en geles de aluminio donde se pegan los antígenos”, apunta Alonso. Y añade: “Eso es una porquería y una forma bruta de presentarlo, pero sin el aluminio, las proteínas pasarían desapercibidas para el sistema inmune”. Este elemento, sin embargo, tiene el inconveniente de que provoca reacciones de rechazo.
La nanomedicina permitiría aplicar vacunas sin necesidad de agujas y evitar así contagios
Con el nuevo sistema de introducción, se evitan las reacciones y se logra una segunda ventaja que puede ofrecer ganancias adicionales. “Cuando trabajé para la Fundación Gates, intentaban producir vacunas que se pudiesen aplicar sin agujas. En los países en desarrollo comparten las jeringuillas y se están transmitiendo enfermedades a través de la misma vacunación”, cuenta Alonso. La nanotecnología permitiría introducir el fármaco por vía nasal, algo que no es posible con los geles de aluminio porque no pueden atravesar la mucosa.
El ejemplo de la vacuna frente al virus del sida es un ejemplo del potencial de los nanofármacos para la medicina. En general, se trata de una especie de misiles teledirigidos contra la enfermedad, capaces de llevar una potente terapia justo donde se necesita reduciendo al máximo los efectos secundarios. Estos productos, sin embargo, tienen un problema. Sus características innovadoras hacen que muchas veces no se puedan producir en las fábricas de fármacos normales o se tengan que producir en cantidades demasiado grandes para los objetivos que persiguen: en muchos casos poner a prueba medicamentos experimentales antes de realizar los grandes ensayos que los podrán llevar al mercado.
Para solucionar ese problema, Europa ha puesto en marcha el proyecto Nanopilot. «Cuenta con una financiación de 6,28 millones de euros por su programa de impulso a la I+D Horizonte 2020 y servirá para construir una pequeña planta de fabricación de nanofármacos en el centro tecnológico Cidetec de San Sebastián», explica Carolina Egea, directora de negocio de la empresa Mejoran, otro de los socios que pondrán en marcha este proyecto. En una colaboración que unirá las partes más científicas del diseño de fármacos, con aspectos más relacionados con los procesos de producción que permiten escalar los procesos de los laboratorios, el equipo de Egea se ocupará de la adaptación de esta planta de producción a las necesidades de los nanofármacos o la formación necesaria para que los profesionales sepan adaptar la tecnología de producción de estos nanofármacos a los requisitos de calidad de la Agencia Española del Medicamento (AEMPS).
“Llevamos tiempo invirtiendo dinero en nanotecnología y parece que en farmacia puede venir un gran boom, por ejemplo para mitigar efectos secundarios o mejorar la eficiencia de los tratamientos”, señala la coordinadora del consorcio europeo Iraida Loinaz, jefa de la Unidad de Biomateriales de la Fundación Cidetec, el centro tecnológico en el que se construirá la planta piloto. En esta entidad se tratará de que los nanofármacos se puedan producir en pequeñas cantidades y, al mismo tiempo, cumplan con los requisitos de seguridad de la AEMPS. En último término tratarán de trabajar para terceros, y producir fármacos fácilmente escalables y que puedan llegar al mercado.
Nanopilot, un consorcio de nueve entidades europeas, probará la eficacia de su fábrica con dos medicamentos más además de la vacuna contra el VIH. Uno de ellos será un tratamiento para el dolor ocular, desarrollado por Sylentis, una compañía de la farmacéutica Zeltia especializada en fármacos que aprovechan la función del ARN silenciador para detener procesos patológicos. Este mecanismo del cuerpo humano permite que la célula ya no produzca algo cuando no hace más falta. La biotecnológica utiliza esas moléculas para silenciar la actividad de genes que funcionan erróneamente y producen, por ejemplo, dolor en el ojo.
La UE dedicará al proyecto 6,28 millones de euros durante los próximos cuatro años
Según explica Ana Isabel Jiménez, responsable de Nanopilot en Sylentis, “por las propias características del ojo, que a través del pestañeo o del lavado del ojo a través de las lágrimas, los fármacos que se le aplican para estos problemas duran poco y pierden rápido su efectividad”. La aplicación de la nanotecnología, que permitiría llevar el medicamento de una manera mejor dirigida mantendría el efecto del fármaco. “Los pacientes podrían aplicarse el tratamiento una vez cada varios días en lugar de una vez cada pocas horas, evitando así problemas como el enrojecimiento y otros efectos secundarios”, señala Jiménez.
El proyecto europeo quiere poner en marcha un sistema de fabricación que aún está dando sus primeros pasos en todo el mundo. De momento, existen unos 250 productos que emplean técnicas de nanomedicina en el mundo, buena parte de ellos en fases de investigación. Y 120 de estos últimos tienen como objetivo el tratamiento del cáncer, un tipo de enfermedad en el que la especificidad y la reducción de efectos secundarios hacen a los nanofármacos especialmente interesantes. La planta piloto de San Sebastián puede ser una muestra de cómo se producirán los medicamentos del futuro.