miércoles, 19 de febrero de 2014

La supercomputadora Edison comienza su labor científica

Llamada "Edison" en honor del célebre inventor estadounidense Thomas Alva Edison, esta nueva supercomputadora fabricada por Cray e instalada en las dependencias del NERSC (National Energy Research Scientific Computing), se dedicará a investigaciones científicas de muy diversas clases. La máquina constituye un importante paso adelante en la capacidad de computación de esa institución, y muchos proyectos científicos se verán acelerados gracias a ella.

En realidad, antes de la inauguración oficial ya se la ha probado extensivamente. Antes de que cualquier supercomputadora sea aceptada en el NERSC, se invita a científicos a poner a prueba a la máquina haciéndola trabajar a buen ritmo. Si bien el objetivo principal de este periodo inicial de trabajo es poner a prueba el nuevo sistema, muchos científicos son capaces de utilizar su tiempo asignado con la máquina para hacer progresos significativos en sus respectivas líneas de investigación. Por eso, se ha dado la paradoja de que la supercomputadora Edison ya ha dado resultados científicos antes incluso de la fecha oficial de su inauguración.

Éstas son algunas de las investigaciones para las que la ayuda de Edison ha sido decisiva:

El destino del CO2 secuestrado.
David Trebotich está modelando los efectos de inyectar dióxido de carbono (CO2) en el subsuelo y almacenarlo allí a gran profundidad. El objetivo es conocer mejor las interacciones físicas y químicas entre el CO2, las rocas y los diminutos poros a través de los cuales el gas migra. Esta información ayudará a los científicos a valorar hasta qué punto es viable la estrategia conocida como "secuestro geológico de CO2" para reducir las emisiones a la atmósfera de este gas de efecto invernadero, principal causante del cambio climático global. En este proyecto, se generan conjuntos de datos de un terabyte por cada 100 microsegundos. Éste y otros requerimientos harían inviable usar computadoras de potencia mucho menor. De hecho, gracias a Edison, un trabajo que en la supercomputadora previa del centro habría tardado meses en completarse, ahora se realiza en unas pocas semanas.

[Img #18269]
La supercomputadora Edison, llamada así en honor del inventor Thomas Alva Edison. (Foto: Laboratorio Nacional Lawrence Berkeley)

La macroestructura del universo.
Zarija Lukic, del Centro de Cosmología Computacional dependiente del Laboratorio Nacional estadounidense Lawrence Berkeley, modela millones de años-luz de espacio en un intento por descifrar la estructura a gran escala del universo. Un reto de esta magnitud sería inviable en ordenadores con menor capacidad. Dado que no podemos viajar por el universo, ni mucho menos verlo "desde fuera" a fin de examinar su estructura, los cosmólogos como Lukic realizan simulaciones para poner a prueba modelos cosmológicos (que son algo así como posibles recetas para la creación del universo), calculando para cada modelo las interacciones entre energía oscura, materia oscura, y los bariones que fluyen por pozos gravitacionales, hasta que surgen estrellas y galaxias como las conocemos. Los cosmólogos pueden entonces comparar estos universos virtuales con las observaciones reales. Gracias a Edison, el equipo de Lukic ya ha logrado ejecutar la simulación más grande de su tipo realizada hasta ahora.

Fabricación de grafeno y nanotubos de carbono.
Vasilii Artyukhov de la Universidad Rice en Estados Unidos usó a Edison para simular la forma en que el grafeno y los nanotubos de carbono son "cultivados" sobre sustratos metálicos mediante deposición química de vapor. Para los objetivos de Artyukhov, las conexiones rápidas de Edison entre los nodos de procesadores le han permitido disponer de una capacidad de cálculo muy superior y al doble de velocidad que antes. Artyukhov, Boris Yakobson, y sus colaboradores están preparando algunos de sus resultados obtenidos gracias a Edison para su publicación en una revista académica.

Mejor combustión para combustibles nuevos.
De la combustión, ya sea en motores de automóviles o en centrales termoeléctricas, depende una gran parte de la energía que el mundo utiliza hoy en día. Hasta que las energías limpias y renovables sustituyan a gran escala a las contaminantes, mejorar la combustión es una cuestión vital, tanto para lograr un mayor rendimiento energético como para mitigar tanto como sea posible la contaminación medioambiental y las emisiones de dióxido de carbono. Para lograr estas mejoras, los ingenieros están aumentando la presión en las cámaras de combustión y usando nuevos tipos de combustibles. Y eso requiere hacer cálculos muy complejos. La científica Jackie Chen y su equipo de investigación en los Laboratorios Nacionales estadounidenses de Sandía están investigando cómo mejorar la combustión utilizando nuevos diseños de motores y combustibles como el biogasóleo, el gas sintético (rico en hidrógeno y obtenido de la gasificación del carbón), y alcoholes como el etanol. El grupo de Chen modela el comportamiento de la combustión de éstos mediante la simulación de algunos de los compuestos químicos subyacentes y las condiciones de mezcla presentes en estos motores de combustión. Chen, Hemanth Kolla y Sgouria Lyra modelaron con Edison el oxígeno y el hidrógeno mezclándose y quemándose en una configuración empleada en motores de avión y bajo otras condiciones. Gracias a Edison, el trabajo se ha hecho con una eficacia entre 4 y 5 veces mejor que en la supercomputadora anterior, Hopper, también de Cray
.http://noticiasdelaciencia.com/not/9591/la_supercomputadora_edison_comienza_su_labor_cientifica/

martes, 18 de febrero de 2014

El calentamiento global amenaza el futuro de los Juegos Olímpicos de Invierno

Sólo seis de las ciudades que fueron sedes típicas de las Olimpiadas de Invierno serán lo bastante frías para organizar fiablemente estos Juegos para finales de este siglo si las predicciones sobre el calentamiento global consideradas como las más plausibles resultan ser precisas.

A esta conclusión ha llegado el equipo de Daniel Scott, de la Universidad de Waterloo en Canadá, y Robert Steiger, del MCI, un reputado centro de formación orientado a la actividad empresarial y con sede en Innsbruck, Austria.

Incluso descartando las predicciones anteriores, y aceptando otras más optimistas, sólo 11 de las 19 ciudades anteriores podrían servir para los Juegos Olímpicos a finales de este siglo.

Así pues, el legado cultural que reviste la celebración mundial de las Olimpiadas dedicadas a los deportes de invierno está en una situación de riesgo creciente, tal como advierte Scott, experto en turismo global. Cada vez habrá menos regiones tradicionales de los deportes invernales que puedan organizar las Olimpíadas de Invierno en un mundo más caluroso.

El calentamiento global ahora también comienza a preocupar a los comités organizadores de las Olimpiadas de Invierno, sobre todo al ver que la temperatura diurna media del mes de febrero de las sedes tradicionales de estos Juegos se ha incrementado sistemáticamente, desde 0,4 grados centígrados que presentaban en el periodo comprendido entre las décadas de 1920 y 1950, a los 3,1 grados en los Juegos celebrados entre la década de 1960 y la de 1990, culminando por último en los 7,8 grados en los Juegos efectuados durante lo que llevamos de siglo XXI.

[Img #18271]
Tabla que muestra las sedes anteriores de las Olimpíadas de Invierno que son aptas climáticamente para las ediciones del futuro, y las que ya no lo serán, a medida que transcurran las décadas y dependiendo del grado de severidad del calentamiento global. (Imagen: Daniel Scott, Universidad de Waterloo)

Y estos valores al alza seguirán aumentando. Para mediados de este siglo, se calcula que las temperaturas medias del mes de febrero en estas ciudades que han sido sedes históricas ganarán entre 1,9 y 2,1 grados más. Para finales de siglo, el aumento será de entre 2,7 y 4,4 grados centígrados.
http://noticiasdelaciencia.com/not/9593/el_calentamiento_global_amenaza_el_futuro_de_los_juegos_olimpicos_de_invierno/

lunes, 17 de febrero de 2014

Una nueva especie de titanosaurio en China

Se ha hecho un análisis detallado de una nueva especie de dinosaurio, un saurópodo herbívoro denominado Yongjinglong datangi, que vivió durante el período Cretácico temprano, hace más de 100 millones de años. Este saurópodo pertenecía al grupo de los titanosaurios, entre cuyos miembros figuraron algunos de los más grandes animales que han pisado la faz de la Tierra. Los restos fósiles de esta antigua bestia fueron hallados en el noroeste de China.

De aproximadamente entre 15 y 18 metros de largo (50 a 60 pies), el ejemplar de Yongjinglong datangi descubierto era un titanosaurio de tamaño mediano. La evidencia anatómica, sin embargo, señala que era un ejemplar muy joven, por lo que los adultos de su especie pudieron tener un tamaño mayor.

El análisis es obra de Li-Guo Li, de la Universidad de Geociencias en Pekín, China, y la Universidad de Pensilvania en Filadelfia, Estados Unidos, Peter Dodson, de esta última universidad, Da-Qing Li, del Museo Geológico de Gansu en Lanzhóu, China, y Hai-Lu You, del Instituto de Paleontología de Vertebrados y Paleoantropología, adscrito a la Academia China de Ciencias, en Pekín.

El hallazgo ayuda a clarificar las relaciones entre varias especies de saurópodos que han sido encontradas en las últimas décadas en China y en otras partes del mundo. Sus características sugieren que el Yongjinglong está entre los titanosaurios más avanzados evolutivamente de todos los que han sido descubiertos hasta la fecha en Asia.

[Img #18270]
Reconstrucción del nuevo dinosaurio basada en los restos fósiles encontrados en el noroeste de China. (Imagen: Universidad de Pensilvania)

Las características anatómicas de los huesos exhiben cierto parecido con las de otro titanosaurio que fue descubierto en China en 1929, y que se llama Euhelopus zdanskyi. Sin embargo, el equipo ha sido capaz de identificar una serie de características diferenciales entre aquel dinosaurio y el nuevo.
http://noticiasdelaciencia.com/not/9592/una_nueva_especie_de_titanosaurio_en_china/

sábado, 15 de febrero de 2014

Agua y materia orgánica aportadas a la Tierra gracias a polvo proveniente del espacio

Las conclusiones de una investigación reciente indican que las partículas de polvo interplanetario pudieron aportar agua y compuestos orgánicos a la Tierra y a otros planetas de tipo terrestre (rocosos), como por ejemplo Marte.

En la Tierra y otros cuerpos del sistema solar cae constantemente polvo interplanetario (polvo proveniente de cometas, asteroides y restos de "material sobrante" de la formación del sistema solar). Estas partículas son bombardeadas por el viento solar, principalmente iones de hidrógeno. Este bombardeo de iones provoca alteraciones en los silicatos presentes en sus minerales y libera oxígeno, el cual puede reaccionar con el hidrógeno y crear moléculas de agua.

Resulta emocionante la posibilidad de que esta afluencia de polvo haya actuado como una lluvia continua de pequeños recipientes de reacción que contenían el agua y la materia orgánica necesaria para que surgiera la vida en la Tierra y posiblemente en Marte, tal como apunta Hope Ishii, coautora del estudio e investigadora en el Instituto de Geofísica y Planetología en la Universidad de Hawái en Manoa, Estados Unidos.

Este mecanismo de suministro simultáneo de agua y compuestos orgánicos también funcionaría para los exoplanetas, planetas en órbita a otras estrellas. El polvo y los iones de hidrógeno provenientes de su estrella madre permitirían que este proceso ocurriera en casi cualquier sistema planetario.

[Img #18154]
Las partículas del polvo interplanetario poseen agua generada con hidrógeno del viento solar. (Imagen: John Bradley, UH SOEST/ LLNL)

Los resultados del nuevo estudio tendrán importantes repercusiones para la geoquímica. Los cuerpos cósmicos que no poseen atmósfera, como los asteroides y la Luna, pero en los que abundan los silicatos y que están constantemente expuestos al viento solar, podrían albergar cantidades significativas de agua. De hecho, este mecanismo de formación de agua ayudaría a explicar la procedencia del agua congelada presente en las regiones de la Luna que están permanentemente a la sombra.

En esta investigación también han trabajado expertos del Laboratorio Nacional Lawrence Berkeley, el Laboratorio Nacional Lawrence Livermore, y la Universidad de California en Berkeley, todas estas instituciones en Estados Unidos.
http://noticiasdelaciencia.com/not/9534/agua_y_materia_organica_aportadas_a_la_tierra_gracias_a_polvo_proveniente_del_espacio/

Logran identificar, dos siglos después, la cepa de la bacteria del cólera que causó millones de muertes

Trabajando con una muestra de casi 200 años de un intestino preservado, unos investigadores han rastreado el origen y la identidad de la cepa bacteriana culpable de una pandemia de cólera que mato a millones de personas.

Utilizando técnicas sofisticadas, estos científicos de la Universidad McMaster en Canadá y la Universidad de Sídney en Australia, han mapeado el genoma completo de esta escurridiza cepa bacteriana de principios del siglo XIX. Lo descubierto en la investigación es significativo porque, hasta ahora, los científicos no habían conseguido identificar las cepas más antiguas de cólera responsables de epidemias con este alcance geográfico. El descubrimiento mejora significativamente el conocimiento científico sobre el origen del patógeno y aporta esperanzas de que se puedan desarrollar mejores tratamientos y técnicas de prevención.

Los autores del nuevo estudio han confirmado la identidad de la cepa de cólera que, según todos los indicios, fue la culpable de cinco de las siete epidemias que asolaron a la humanidad en el siglo XIX y que con casi toda probabilidad comenzaron en las aguas del Golfo de Bengala.

[Img #18150]
Alison Devault examinando una muestra de intestino contaminado por bacterias del cólera. (Foto: Universidad McMaster)

Esta cepa del cólera había permanecido envuelta en el misterio debido a la imposibilidad de encontrar muestras tomadas de las primeras víctimas y analizarlas debidamente. El patógeno se desarrolla en el intestino, y nunca alcanza los dientes o los huesos, por lo cual no es posible hallar vestigios de su ADN en los restos óseos, los que más tiempo perduran tras el fallecimiento de una persona. Por eso, aunque se sabe de muchas tumbas en las que fueron enterradas personas fallecidas de cólera en tales epidemias, el acceso al ADN histórico del cólera se consideraba imposible, ya que solo se puede encontrar tal ADN en los restos de tejidos blandos.

El equipo de Alison Devault, Hendrik Poinar, Brian Golding y Eddie Holmes supieron de la existencia de una notable colección de muestras de tejido conservada en el Museo Mutter, en Filadelfia, Pensilvania, Estados Unidos. Este museo fue establecido por el Colegio de Médicos de Filadelfia en 1858, después de que la población de la propia ciudad fuera diezmada años antes.

Los investigadores tomaron muestras de tejido intestinal conservado en dicha colección. El tejido perteneció a un hombre que falleció por causa de la enfermedad durante la pandemia de 1849. Los análisis de las muestras permitieron extraer información, a partir de diminutos fragmentos de ADN, para reconstruir el genoma de esa cepa de la bacteria Vibrio cholera.

Los resultados podrían conducir a un mejor conocimiento del cólera y de su cepa actual, la cual reemplazó a la cepa clásica en la década de 1960 por razones desconocidas, y que es responsable de epidemias recientes, incluyendo la que se desencadenó tras el último gran terremoto de Haití.

La Organización Mundial de la Salud estima que hay de tres a cinco millones de nuevos casos de cólera cada año. De las personas enfermas, entre 100.000 y 120.000 fallecen a causa de esta enfermedad
.http://noticiasdelaciencia.com/not/9529/logran_identificar__dos_siglos_despues__la_cepa_de_la_bacteria_del_colera_que_causo_millones_de_muertes/

viernes, 14 de febrero de 2014

Los telescopios Hubble y Spitzer ‘espían’ a una de las galaxias más jóvenes del universo

Investigadores del Instituto de Astrofísica de Canarias (IAC) y de la Universidad de La Laguna (ULL), en España, han liderado un trabajo que completa el primer análisis de las observaciones del cúmulo de galaxias Abell 2744, realizadas coordinadamente con dos telescopios espaciales: Hubble y Spitzer.

Como resultado, han descubierto una de las galaxias más distantes conocidas hasta la fecha, demostrando así el potencial del proyecto HST Frontier Fields (Campos Frontera del Hubble). Este trabajo será publicado por la revista científica Astronomy & Astrophysics Letters.

En este análisis también han participado investigadores de dos centros franceses (Institut de Recherche en Astrophysique et Planétologie de Toulouse y Centre de Recherche Astrophysique de Lyon), dos suizos (Universidad de Ginebra y École Polytechnique Federal de Lausanne) y la Universidad de Arizona, en EE UU.

Gracias a la gran calidad de los datos de las imágenes del Hubble, en el rango visible e infrarrojo cercano del espectro, y del Spitzer, en el infrarrojo, los astrofísicos han determinado las propiedades de esta joven galaxia con una precisión mayor que en estudios previos de otras muestras similares. Llamada Abell2744_Y1, es unas 30 veces más pequeña que la nuestra, la Vía Láctea, pero está formando nuevas estrellas a un ritmo, al memos, 10 veces mayor.

Desde la Tierra, vemos cómo fue esta galaxia 650 millones de años después del Big Bang. Su luz ha viajado por el universo unos 13.000 millones de años, siendo una de las galaxias más brillantes descubiertas en esas épocas cósmicas tan jóvenes. En astrofísica, cuanto más lejos se encuentra un objeto, más ha tardado su luz en llegarnos y, por tanto, más joven lo estamos viendo. De ahí que el estudio de Abell2744_Y1 añada nueva información sobre la densidad y las propiedades de las galaxias en el universo temprano.

[Img #18148]
Cúmulo de galaxias Abell 2744 captada por el Hubble. El recuadro muestra la región alrededor de la galaxia Abell2744_Y1, una de las galaxias más jóvenes del universo. (Foto: NASA, ESA, IAC et al.)

En la última reunión de la Sociedad Astronómica Americana, celebrada en Washington D.C. (EEUU) el mes pasado, el Instituto Científico del Telescopio Espacial Hubble (STScI) presentó el HST Frontier Fields, su programa más emblemático para los próximos tres años.

En el marco de este programa, tres de los más poderosos telescopios espaciales hasta la fecha –el Hubble, el Spitzer y el Chandra– dedicarán gran parte de su tiempo de observación a estudiar seis cúmulos de galaxias que, como lentes adicionales, actúan amplificando la luz de las fuentes de fondo, incluyendo galaxias muy débiles hasta el borde del universo observable. Esto permitirá estudiar por primera vez galaxias más débiles y más pequeñas en los primeros mil millones de años del universo.

La primera imagen de larga exposición del cúmulo Abell 2744, obtenida en los últimos meses, es la más profunda obtenida hasta ahora de un cúmulo de galaxias y es comparable a la anterior, llamada Hubble Ultra Deep Field. Todos los cúmulos de Frontier Fields han sido cuidadosamente seleccionados y son los ideales para este tipo de estudio.

Gracias al efecto de lente gravitatoria que los cúmulos producen, la luz de las galaxias de fondo se multiplica en gran medida. De esta forma, el Hubble se convierte, en la práctica, en un telescopio con una superficie colectora cientos de veces mayor.

Nicolas Laporte, investigador post-doctoral en el IAC y experto en la búsqueda de galaxias muy distantes, se muestra muy satisfecho por la calidad de estas imágenes: “Esperábamos encontrar galaxias muy lejanas cerca del centro del cúmulo, donde la amplificación de la luz es máxima. Sin embargo, esta galaxia está muy cerca del borde de la imagen, donde la luz apenas ha sido amplificada. Hemos sido muy afortunados encontrándola en el pequeño campo de visión del Hubble. En un estudio relacionado dirigido por Hakim Atek (EPFL, Lausana), se han analizado muchas otras galaxias, pero ninguna de ellas es tan distante como Abell2744_Y1”.

El análisis de las observaciones con el telescopio espacial Spitzer ha sido fundamental para estimar las propiedades de Abell2744_Y1. Alina Streblyanska, investigadora post -doctoral en el IAC, comenta que los datos de Spitzer combinados con los del Hubble proporcionan una buena estimación de la distancia a la que se encuentra esta galaxia. “Sugieren igualmente que Abell2744_Y1 contiene no sólo estrellas, sino también una gran cantidad de gas”.

Ismael Pérez Fournon, profesor de la Universidad de La Laguna y responsable del grupo del IAC, recuerda que el año pasado ya contribuyeron al descubrimiento de una 'fábrica' de estrellas excepcional en los inicios del Universo, llamada “HFLS3”, gracias al observatorio espacial Herschel. “En ese caso, se trataba de una galaxia con propiedades extremas en el infrarrojo lejano, observada 880 millones años después del Big Bang. Abell2744_Y1 es una galaxia más pequeña, menos masiva, pero más distante y mucho más representativa de los inicios del universo. Ambos tipos son importantes para entender cómo se formaron y evolucionaron las galaxias”.

En coordinación con las observaciones del Hubble, los telescopios espaciales Spitzer y Chandra  (rayos X) también están tomando imágenes de muy larga exposición de los Frontier Fields. Desde finales de 2013, los datos del primer cúmulo de galaxias observado -Abell 2744-, obtenidos por los dos primeros telescopios, están disponibles para su uso por la comunidad científica.

Las observaciones de los Frontier Fields con los telescopios espaciales Hubble, Spitzer y Chandra se encuentran en una fase inicial, pero ya han demostrado el excepcional potencial de este nuevo proyecto para el estudio de los primeros objetos luminosos del Universo.

Como ha ocurrido con otras iniciativas del Hubble en campos profundos, muchos otros observatorios de todo el mundo y en el espacio se unirán a este proyecto con observaciones adicionales de los “Campos Frontera”. Un legado científico sin precedentes para estudios con los grandes telescopios actuales, como el Gran Telescopio Canarias (GTC), los futuros supertelescopios en tierra y espaciales, entre ellos el E-ELT y el Telescopio Espacial James Webb. (Fuente: IAC)
http://noticiasdelaciencia.com/not/9527/los_telescopios_hubble_y_spitzer__lsquo_espian_rsquo__a_una_de_las_galaxias_mas_jovenes_del_universo/

Nueva y prometedora gama de nanomateriales basada en el dióxido de carbono

El dióxido de carbono, por ser un gas de efecto invernadero y uno de los principales culpables de los problemas medioambientales de la humanidad, es visto a menudo como un mero desecho del que hay que deshacerse a toda costa. Sin embargo, tal como han demostrado recientemente unos químicos polacos, el dióxido de carbono (CO2) es una materia prima que puede encontrar nuevos usos, lo que ayudaría a autofinanciar su captura, impidiendo por un lado su peligrosa acumulación en la atmósfera, y sirviendo, por otro, para elaborar productos.

La citada línea de investigación polaca ha permitido identificar reacciones químicas basadas en el dióxido de carbono, capaces de crear nanomateriales con propiedades sin precedentes.

El equipo de Janusz Lewinski, del Instituto de Química Física de la Academia Polaca de Ciencias en Varsovia y la Facultad de Química de la Universidad Tecnológica de Varsovia, ha obtenido esos nanomateriales con características sin precedentes, gracias a reacciones químicas entre el dióxido de carbono y ciertos compuestos químicos cuidadosamente escogidos.

Estos nuevos nanomateriales son altamente porosos, y de entre todos los conocidos de su tipo, son los que tienen la mayor área de superficie, una cualidad muy útil para ciertas aplicaciones. Entre las que esta nueva gama de materiales puede tener figuran el almacenamiento de gases con gran importancia energética, procesos de catálisis, y dispositivos sensores. Además, los materiales fluorescentes microporosos obtenidos usando CO2 emiten luz con un rendimiento cuántico significativamente más alto que los de los materiales clásicos usados en los OLEDs (en su sentido clásico, LEDs orgánicos, o diodos orgánicos emisores de luz).

[Img #18155]
Representación del concepto con el que se ha trabajado en esta línea de investigación y desarrollo. Las pelotas de tenis amarillas simbolizan la retícula cristalina del material microporoso resultante del autoensamblaje de nanorracimos. Las bolas naranjas representan a las moléculas de gas que se pueden adsorber en este material. La representación recogida en la imagen corre a cargo de Katarzyna Soltys, del Instituto de Química Física de la Academia Polaca de Ciencias. (Foto: IPC PAS, Grzegorz Krzyzewski)

El dióxido de carbono está muy demonizado en los últimos tiempos, por su impacto antropogénico medioambiental, pero no debemos olvidar que también es un componente natural de la atmósfera de la Tierra. Es el componente o bloque de construcción más abundante de entre todos los del carbono, y participa en la síntesis de la glucosa, portadora de energía y componente de importancia enorme para los organismos vivos.
http://noticiasdelaciencia.com/not/9535/nueva_y_prometedora_gama_de_nanomateriales_basada_en_el_dioxido_de_carbono/

jueves, 13 de febrero de 2014

Los hermanos gemelos desarrollan distintos grados de sensibilidad al dolor

Un estudio publicado hoy en Nature Communications ha sido el primero en plantear que la vulnerabilidad al dolor, que se consideraba relativamente inalterable, puede cambiar gracias a la epigenética, es decir, a la alteración química de la expresión de genes debido a los factores ambientales y al estilo de vida.
Los gemelos idénticos comparten el 100% de sus genes. / Oude School 



Los hermanos gemelos idénticos vuelven a ser el foco de estudio en una investigación. Gracias a ellos, científicos del King College de Londres han descubierto que la sensibilidad al dolor se altera por el entorno y el estilo de vida de una persona a lo largo de su existencia.
Publicado en la revista Nature Communications, el trabajo tiene importantes implicaciones para la comprensión de la tolerancia al dolor. La epigenética, que es el conjunto de factores que no afectan a la secuencia de ADN pero sí varían su expresión, podría conducir a nuevos tratamientos dirigidos a aliviar el dolor ‘apagando’ ciertos genes implicados.
Como los gemelos idénticos comparten el 100% de sus genes, cualquier diferencia entre ellos se debe a su entorno o a los cambios epigenéticos que afectan a la función de los genes, lo que los convierte en los participantes ideales para un estudio de esta naturaleza.
Cualquier diferencia entre los gemelos idéntico se debe a su entorno o a cambios epigenéticos que afectan a la función de los genes
Para identificar los niveles de sensibilidad al dolor, los científicos probaron en 25 pares de gemelos idénticos una sonda de calor en el brazo. Los participantes debían presionar un botón cuando el calor se convertía en doloroso para ellos, lo que permitió a los investigadores determinar sus umbrales de sufrimiento.
A partir de ahí y usando la secuenciación del ADN, los investigadores examinaron más de cinco millones de marcas epigenéticas en todo el genoma y los compararon con otros 50 individuos no relacionados para confirmar sus resultados.
Los cambios químicos fueron más significativos dentro de un gen conocido de sensibilidad al dolor, TRPA1, ya usado como diana terapéutica
Los resultados revelan grandes diferencias entre personas y muestran las modificaciones químicas dentro de los nueve genes implicados en la sensibilidad al dolor que eran diferentes en uno de los gemelos, pero no en su hermano idéntico.
Aplicaciones contra el dolor
Los cambios químicos fueron más significativos dentro de un gen conocido de sensibilidad al dolor, TRPA1, ya usado como diana terapéutica en el desarrollo de analgésicos. Sin embargo, esta es la primera vez que TRPA1 ha demostrado la capacidad de ser conectado y desconectado epigenéticamente.
Tal y como explica la autora principal del estudio, Jordana Bell, del King College de Londres, “averiguar cómo sucede esto podría tener implicaciones importantes contra el alivio del dolor. Es bien sabido que las personas más sensibles al dolor de la vida cotidiana son más propensas a desarrollar dolor crónico”.
Este trabajo es solo una parte de un proyecto más amplio de la UE (ERC EpiTwin) en colaboración con el Instituto de Genómica de Pekín, que tiene como objetivo identificar el papel de los factores epigenéticos en numerosas enfermedades complejas comunes sobre una muestra de 5.000 gemelos.

Utilizan redes neuronales artificiales para predecir sismos

Investigadores de la Universidad Pablo de Olavide, del NT2 Labs - Nikola Tesla New Technology Labs de Chile y de la Universidad de Sevilla (España) han aplicado técnicas basadas en la minería de datos para el descubrimiento de patrones en series temporales de origen sísmico, y así poder predecir su ocurrencia. En concreto, han utilizado redes neuronales artificiales para predecir terremotos en Chile, uno de los países con mayor actividad sísmica del mundo, y en la Península Ibérica.

Las redes neuronales artificiales son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida.
En un artículo publicado en la revista Applied Soft Computing, muestran un método concreto, basado en la aplicación de redes neuronales artificiales, que han usado para predecir terremotos en Chile, uno de los países con mayor actividad sísmica del mundo. Este metodología, con ligeras modificaciones, se ha aplicado con éxito a las dos zonas más activas de la Península Ibérica. Sus resultados se publicaron en 2013 en la revista Tectonophysics. Recientemente, se ha depurado la metodología y mejorado los resultados en ambas zonas, alcanzando tasas de acierto superiores al 80%, mediante la aplicación de técnicas de selección de atributos. Los resultados se han publicado en Knowledge-Based Systems.

[Img #18149]
Investigadores de la Universidad Pablo de Olavide, del NT2 Labs - Nikola Tesla New Technology Labs de Chile y de la Universidad de Sevilla han aplicado técnicas basadas en la minería de datos. (Foto: UPO)

Para toda su experimentación, los investigadores realizan dos tipos de predicciones: la probabilidad de que un terremoto sea de magnitud mayor que un determinado valor umbral, así como la probabilidad de ocurrencia de un terremoto de magnitud dentro de un determinado intervalo de tiempo. En ambos casos, se mide la probabilidad de que ocurran en los siguientes cinco o siete días, para los casos de Chile y de la Península Ibérica, respectivamente.

La precisión del método se evaluó en experimentos retrospectivos. La alta tasa de éxito alcanzado apoya la conveniencia de la aplicación de técnicas de minería de datos en este ámbito, según los investigadores, y plantea nuevos retos que deben abordarse.

Aunque en el mercado ya existen diversos aparatos que detectan con cierta anticipación la venida de un terremoto, ninguno es tan preciso y tampoco tiene posibilidades de ampliar su desarrollo o entregar datos analíticos. Francisco Martínez Álvarez, miembro del grupo TIC-200: Sistemas Inteligentes y Minería de Datos de la Universidad Pablo de Olavide, afirma que este modelo es capaz de predecir terremotos con alta fiabilidad, para una incertidumbre temporal de entre cinco y siete días y con una margen de error espacial del orden de, aproximadamente, 100x100 km2.

Los investigadores responsables de este trabajo afirman, igualmente, que la metodología desarrollada podría extrapolarse a cualquier tipo de desastre natural siempre que se aporten los datos necesarios, lo cual sería de gran interés por ejemplo para la predicción de tsunamis tras un terremoto, puesto que el sistema de detección actual, consistente en alarmas-sensores colocados en boyas instaladas en el mar, avisa sólo cuatro horas antes de que se produzca. En la actualidad, están estudiando también si se puede extrapolar la metodología a otras partes del mundo, habiendo ya obtenido los primeros resultados positivos para determinadas zonas de China y de Japón.

También los investigadores están estudiando la posibilidad de aplicar la minería de datos a la predicción de tifones, lo que requiere hacer un análisis de datos relacionados, determinar si la metodología es aplicable y extrapolable, y por tanto hacer las modificaciones oportunas. (Fuente: UPO/DICYT)
http://noticiasdelaciencia.com/not/9528/utilizan_redes_neuronales_artificiales_para_predecir_sismos/

miércoles, 12 de febrero de 2014

Creados los primeros monos transgénicos ‘a medida’

Los macacos tienen dos genes silenciados y otro incorporado justo donde los científicos querían

Primeros macacos creado con mutaciones a medida. / CELL

Los animales transgénicos son el modelo ideal para estudiar enfermedades debidas a mutaciones del ADN. Pero las técnicas existentes tenían un problema: se basaban en producir muchos cambios en el genoma y luego seleccionar los ejemplares adecuados. Este método puede servir en ratones, que se reproducen mucho (por ello hay mucha variedad en cada camada y se puede elegir) y maduran pronto, lo que permite una investigación exhaustiva. Pero en simios, con camadas muy pequeñas y largos tiempos de crianza, eso no era posible. Algo que puede empezar a cambiar después del trabajo que ha publicado en Cell el equipo del chino Jiahao Sha, de la Universidad de Nanjing.
El trabajo se basa en la aplicación de la llamada tecnología CRISPR/Cas9, que básicamente consiste en utilizar unas bacterias para que hagan de tijeras genéticas que sirvan para introducir los genes que se quieren investigar, con la peculiaridad de que se puede dirigir exactamente dónde va a producirse la mutación. Con ello se evita generar animales inviables (que si bien en los roedores no es algo muy grave desde el punto de vista de la investigación, en monos con gestaciones largas es un obstáculo) y, además, se consiguen ejemplares que se parecen lo más posible a lo que sucede en la naturaleza.
El trabajo permitirá contar con modelos animales en simios de enfermedades hasta ahora difíciles de investigar, como las degenerativas. Además permitirá contar con ejemplares lo más parecido a los humanos posible, con lo que se espera que se reduzcan los fracasos que se producen actualmente, cuando en muchas investigaciones hay que pasar de resultados en roedores a humanos, donde la mayoría de los trabajos fracasan.El único requisito es que el proceso de modificación debe hacerse justo después de la fecundación, cuando el futuro macaco es solo un embrión de una célula. De esta manera se asegura que todo el organismo lleva la mutación. Ya han nacido dos animales después de aplicarle esta técnica.
Pero esta aparente ventaja ya ha contado con las críticas de grupos ecologistas, que creen que con ella se volverá a necesitar más simios para investigar. Y el rechazo al uso de los animales en ensayos aumenta a medida que estos son más próximos genética y evolutivamente a los humanos.

La tasa de mortalidad entre los usuarios de heroína y cocaína es 14 veces mayor que en la población general

Un nuevo estudio analiza los factores de riesgo y el exceso de muertes en los consumidores de heroína o cocaína admitidos a tratamiento en España. Los resultados revelan que la tasa de mortalidad en los que consumen ambas drogas es 14,3 veces más alta que en la población general, mientras que en los que solo consumen cocaína es 5,1 veces mayor.

En España la mayor parte de las muertes relacionadas con la cocaína no se certifican adecuadamente, por lo que hasta ahora existen pocos estudios que analicen las consecuencias de su consumo en términos de mortalidad.
“En los datos anotados en el certificado de defunción no suele aparecer ninguna referencia a esta sustancia”, explica a SINC Gregorio Barrio, investigador del Instituto de Salud Carlos III de Madrid y uno de los autores del nuevo estudio.
Esto sucede, según Barrio, porque a menudo la causa inmediata de estas muertes es un problema de salud inespecífico –como infarto de miocardio o suicidio– que puede estar provocado por causas muy diferentes a la cocaína o por varios motivos concurrentes.
En España la mayor parte de las muertes relacionadas con la cocaína no se certifican adecuadamente
“Además, cuando en la eventual investigación forense y toxicológica se encuentran evidencias de consumo de cocaína antes de la muerte, generalmente la causa certificada inicialmente no se corrige, por lo que pasa a las estadísticas de mortalidad sin el apellido ‘cocaína”, añade el investigador.
Ante la dificultad de cuantificar directamente las muertes relacionadas con cocaína a partir de las estadísticas generales de mortalidad, los investigadores compararon la tasa de mortalidad en un grupo de consumidores de heroína o cocaína con la de la población general de la misma edad y sexo.
Para su estudio, publicado en el Journal of Substance Abuse Treatment, se captaron dos grupos de usuarios de cocaína, uno de 8.825 personas que consumían también heroína, y otro de 11.905 personas que no tomaban esta última sustancia.
Todos los participantes fueron admitidos a tratamiento por abuso o dependencia de drogas psicoactivas en las ciudades de Madrid o Barcelona entre 1997 y 2007, tenían entre 15 y 49 años en el momento de la captación y fueron cruzados con el registro general de mortalidad del período 1997-2008 para observar su estado vital.
La sobremortalidad –cociente de tasas de mortalidad ajustadas entre participantes y población general– fue considerable en ambos grupos de participantes. De hecho, la tasa de mortalidad de los que consumía también heroína fue 14,3 veces más alta que la de la población general, mientras que la de los que no consumía esta sustancia fue 5,1 veces más alta.
Los resultados revelan además que los hombres tuvieron un mayor riesgo de muerte que las mujeres entre los que consumían también heroína (1,5 veces), mientras que no se encontraron diferencias según sexo entre los que no consumían dicha sustancia.
Los autores afirman que el exceso de mortalidad encontrado está dentro del rango de los resultados publicados previamente en otros países (4–12 veces más).
Los hombres tuvieron un mayor riesgo de muerte que las mujeres entre los que consumían también heroína
Otros factores asociados
A parte del uso de heroína, se identificaron otros factores asociados con un mayor riesgo de muerte, como carecer de empleo regular, usar drogas por vía inyectada o tomar cocaína diariamente.
“Este exceso de mortalidad podría deberse al consumo de cocaína o heroína, pero también a otros factores cuya distribución puede ser diferente en la población general y en los participantes, como los trastornos mentales, rasgos de personalidad, condiciones sociales, etc.”, sostiene Barrio
Otro hallazgo interesante fue que el exceso de mortalidad con respecto a la población general de su misma edad y sexo fue significativamente mayor en las mujeres que en los hombres, especialmente entre los que consumían cocaína pero no heroína (8,6 veces en mujeres frente a 3,5 veces en hombres).
“Estos datos no significan que las consumidoras de cocaína tengan un riesgo de muerte significativamente más alto que sus colegas varones, sino que el aumento relativo del riesgo de las consumidoras de cocaína con respecto a las mujeres de la población general de su misma edad (que tienen un riesgo de muerte muy bajo) es más elevado que el incremento relativo de los consumidores con respecto a los hombres de la población general”, puntualiza.
Para los autores, las conclusiones de este trabajo son relevantes porque permitirán obtener mejores estimaciones de la mortalidad atribuible a cocaína y ponen de manifiesto que es necesario intensificar las intervenciones para reducir su consumo y los daños asociados al mismo.

martes, 11 de febrero de 2014

Una mano biónica devuelve la sensibilidad a un hombre

Tras perder su mano izquierda en un accidente, el danés Dennis Aabo Sorensen se ha convertido en el primer amputado del mundo capaz de sentir gracias a la prótesis de una mano biónica, conectada mediante cirugía a los nervios de su brazo.

Este revolucionario dispositivo, desarrollado por investigadores suizos e italianos, ha permitido que el paciente pueda volver a percibir la sensación de agarrar y tocar un objeto. "La retroalimentación sensorial ha sido increíble, he podido sentir cosas que no había sentido desde hace nueve años”, señala Aabo.

Durante la prueba, Denis, con los ojos y los oídos tapados, fue capaz de detectar la intensidad con la que tenía que agarrar los objetos así como su consistencia y forma. "Cuando cogía un objeto, podía sentir si era blando o duro, redondo o cuadrado", destaca.

Esta mano biónica ha sido diseñada por un equipo de científicos de la Escuela Politécnica Federal de Lausanne (EPFL) y por la Escuela Superior de Santa Ana en Italia.

Tras unos primeros prototipos iniciales, los científicos mejoraron la prótesis con unos sensores que detectan información sobre el tacto, gracias a la medición de la tensión de varios tendones artificiales que controlaban el movimiento de los dedos.

[Img #18112]
Tras unos primeros prototipos iniciales, los científicos mejoraron la prótesis con unos sensores que detectan información sobre el tacto. (Foto: Patrizia Tocci)

A continuación, los datos recogidos se convertían en una señal eléctrica que, con unos algoritmos, se convertía en un impulso adecuado para que el sistema nervioso de Aabo lo pudiera interpretar.

Además, unos electrodos implantados en los nervios del paciente completaban la transmisión de información.

"Esta es la primera vez que una neuroprótesis con retroalimentación sensorial ha sido utilizada y controlada por un amputado en tiempo real", subraya Silvestro Micera, uno de los autores de la mano biónica.

“Estábamos preocupados por la reducción de la sensibilidad en los nervios de Dennis ya que no se habían usado en nueve años", añade Stanisa Raspopovic, otro de los investigadores.

Unas preocupaciones que se evaporaron cuando Dennis activó y percibió correctamente los objetos que cogía. (Fuente: EPFL/SINC)
http://noticiasdelaciencia.com/not/9510/una_mano_bionica_devuelve_la_sensibilidad_a_un_hombre/