lunes, 19 de marzo de 2012

¿La apuesta científica más costosa del mundo? (NOTICIA EXPUESTA EN CLASE)





El Reactor Experimental Termonuclear Internacional (ITER, por sus siglas en inglés) no es una solución rápida para los problemas energéticos del mundo. Ni siquiera sus más abnegados promotores sugerirían esto.
El santo grial de la producción de energía con balance neutro de carbono -la fusión, en contraste con la fisión de átomos- lleva años en los planes de los científicos que ven su potencial.
El proyecto actual en Cadarache, en el sur de Francia, ya es uno de los lugares de construcción más grandes de Europa y la más reciente encarnación de un acuerdo firmado por los presidentes Ronald Reagan y Mijaíl Gorbachev en plenos días de Guerra Fría, en 1985.
El principal problema, sin embargo, está en que ITER es un experimento, una apuesta. Y a un precio actual de US$20.000 millones, es una apuesta muy costosa.
Por ello, esta semana muchos en Bruselas se sorprendieron cuando se dio vía libre al uso de dinero de la Unión Europea para cubrir los gastos extras actuales de ITER de US$1.600 millones.
"Proyecto riesgoso"
Robert Jan Smits, director general de investigación e innovación en la Comisión Europea, en Bruselas, dice que entiende que el tema sea sensible.
"Reconozco que no es un momento apropiado para pedirle este dinero al Consejo (de la Unión Europea), a los estados miembros y al Parlamento Europeo", dice.
"En medio de una crisis económica grande no podría haber llegado en un momento peor. Pero este proyecto es tan crucial para Europa y para todo el mundo que simplemente teníamos que tomar el toro por los cuernos y tratar de llegar a un acuerdo".
"Por supuesto, es un proyecto extremadamente riesgoso y no sabemos cuál será el resultado. Hay muchos científicos que están ciento por ciento convencidos de que funcionará. Pero sólo lo sabremos si construimos la máquina y hacemos que funcione".
"Pero observando la necesidad de energía actual y futura, no podemos permitirnos el lujo de no explorar esta opción", señaló.
"Fuente sin límites"
"En medio de una crisis económica grande no podría haber llegado en un momento peor. Pero este proyecto es tan crucial para Europa y para todo el mundo que simplemente teníamos que morder el polvo y tratar de llegar a un acuerdo."
Robert Jan Smits, Comisión Europea
En el área de 192 hectáreas en la Provenza, David Campbell supervisa con orgullo a los equipos de trabajadores. Trabaja como el jefe de física en ITER.
"He estado trabajando en los diseños por unos 15 años, así que es muy emocionante estar acá y ver finalmente cómo se vierte el concreto", dice.
ITER espera demostrar que la fusión nuclear puede ser comercialmente viable.
El reactor que está en construcción no servirá en ningún momento para surtir la red de suministro de electricidad nacional de Francia o de cualquier otro país. Eso optimista posibilidad que todavía está muy lejana.
Por ahora hay una cooperación internacional a una escala prácticamente sin precedentes. Además de la Unión Europea, otros países como Rusia, Estados Unidos, Japón, China, India y Corea del Sur también están contribuyendo con productos y habilidades.
Sus tareas combinadas deben crear un reactor que calentará plasma -una llama gigante que está rotando dentro de un campo magnético- a una temperatura 10 veces mayor que la del sol.
Hasta ahora, proyectos más pequeños lograron producir una fracción de la energía que se necesita para crear la reacción. La diferencia en Cadarache es la escala.
Descripción: David Campbell, de Iter
David Campbell, el jefe físico del proyecto, está emocionado por el reactor en la Provenza.
Campbell no se inmuta ante la posibilidad de que su experimento no funcione.
"Depende exactamente de lo que usted se refiere cuando habla de que 'no funcione'", dice.
"En los últimos 30 o 40 años hemos estado aprendiendo cómo producir energía de fusión. Ya lo hicimos en una escala pequeña. Así que pensamos que ya juntamos todos los elementos".
"Lo atractivo de la fusión es que hay una fuente casi ilimitada de combustible. Los ingredientes principales son isótopos pesados de hidrógeno generados del litio dentro del reactor. Y en la corteza terrestre hay grandes reservas de litio".
"Además, es una forma de energía intrínsecamente segura. Si algo malo le pasa a la reacción dentro del recipiente, se apaga. Y no se producen desperdicios nucleares duraderos. Nuestra meta es construir el reactor a partir de materiales que puedan ser reciclados y convertidos en más reactores dentro de cien años".
Preocupaciones de dinero
Activistas anti-nucleares se apresuran a criticar los argumentos de que la fusión no tenga riesgos, ya que destacan especialmente que se producirán desperdicios radiactivos (aunque con una vida considerada corta, de alrededor de 150 años).
Pero incluso entre quienes apoyan la energía nuclear convencional hay objeciones sobre el proyecto.
Sebastien Balibar, jefe de investigaciones en el Consejo Nacional de Francia para la Investigación Científica, en París, duda que la tecnología necesaria para hacer que el experimento funcione esté cerca de existir.
"Estoy de acuerdo con que es un reto interesante controlar la fusión, pero es un projecto de investigación aplicada a largo plazo", dice.
"Si de veras funciona, entonces generaría una gran fuente de energía limpia. Y si el sector industrial -las compañías petroleras o los ministerios de industria en varios países- paga su presupuesto, entonces está perfecto."
Sebastien Balibar, Consejo Nacional de Francia para la Investigación Científica
"Si de veras funciona, entonces generaría una gran fuente de energía limpia. Y si el sector industrial -las compañías petroleras o los ministerios de industria en varios países- cubre el presupuesto, entonces está perfecto".
"US$20.000 millones equivale más o menos a los ingresos anuales de una de las grandes compañías petroleras. Pero si este costo sale del presupuesto europeo para la ciencia, entonces es terrible porque es una gran cantidad y reduciría nuestros presupuestos drásticamente. Y no puedo estar de acuerdo con esto", dice Balibar.
Sin embargo, el ímpetu del proyecto de ITER es tal que es probable que sobreviva a sus críticos.
De hecho, si un reactor de fusión nuclear completamente viable -y comercial- llega a existir alguna vez, lo más seguro es que sus promotores más jóvenes de hoy no estarán vivos para verlo.

Fuente: BBC mundo

Analizan cómo las plantas aprovechan los nutrientes ante la futura escasez de fosfato

 Más de una veintena de centros de investigación de España integran un consorcio que tiene como objetivo estudiar proteínas que regulan genes importantes para las plantas, entre ellos, el Centro de Hispanoluso de Investigaciones Agrarias (Ciale) de la Universidad de Salamanca. El coordinador de este gran proyecto es Javier Paz Ares, científico del Centro Nacional de Biotecnología, que ha visitado el Ciale para ofrecer un seminario de investigación.

Relacionado con esta iniciativa, Javier Paz Ares estudia cómo las plantas se adaptan a vivir en suelos con bajo contenido en nutrientes, en concreto, con bajo contenido en fosfato, una investigación que "tiene importancia porque los grandes incrementos de productividad que se han obtenido en el siglo pasado se han debido en buena parte a la utilización de grandes cantidades de fertilizantes", ha señalado en declaraciones a DiCYT. Ahora los investigadores abordan un problema importante: el fosfato es un nutriente esencial para la agricultura pero se está acabando y no hay recambio.

La utilización de este insumo no presenta problemas porque se consideraba que había mucho fosfato. Sin embargo, aunque no se transforma en un mineral distinto, "el ciclo del fosfato termina en los océanos y no se puede recuperar", apunta el experto. Por lo tanto, la escasez de fosfato será grave en 50 años y los científicos buscan soluciones. "Una manera de reducir la dimensión del problema es generar plantas capaces de crecer y producir con una cantidad menor de nutrientes", indica Paz Ares.

[Img #7252]


El primer paso para lograrlo es estudiar los mecanismos que han desarrollado durante su evolución las plantas para crecer en condiciones limitantes. A partir de ahí, se podrían desarrollar nuevas estrategias de biotecnología o de mejora genética para conseguir plantas más eficientes, según ha explicado el investigador, que estudia los aspectos más básicos del problema.

"Cuando hay pocos nutrientes, la planta incrementa la actividad de los transportadores de fosfato para ser más eficaz en su extracción", asegura. Por eso, "nosotros estudiamos cómo la planta percibe que hay poco fosfato en el suelo o dónde percibe que lo hay, así como las respuestas que da a cada situación".

Aunque se sabe que hay genes que controlan la respuesta asociada a la carencia de fosfato, la respuesta al problema no es sencilla, porque activar estos sistemas de respuesta requiere una gran cantidad de energía, de forma que la planta no crecería mucho.

Precisamente, el proyecto Consolider-Ingenio 2010 que Javier Paz Ares tiene en común con el Ciale y con más de 20 grupos de investigación de toda España es que se centra en el estudio de las proteínas que regulan los genes de las plantas. "Cualquier proceso biológico implica la participación de muchos genes. Por ejemplo, para formar el color de una flor se necesitan 30 enzimas. La idea es identificar los genes que regulan estos procesos, principalmente los que se conocen como factores transcripcionales, y para estudiarlo se han generado plantas que expresan todos los factores transcripcionales de una manera inducible", asegura.
Fuente: Pinche aquí

 
CONCLUSIÓN:
Bajo mi punto de vista es una gran investigación ya que es un grave problema y esta cercano y hay que estar preparados para cuando llegue y mucho mejor si estamos bien preparados para no tener que preocuparnos porque pasara cuando no haya fosfato, por lo tanto, estoy totalmente de acuerdo con este tipo de investigaciones y me parece estupendo que se realicen para estar preparados para un mañana un tanto distinto.

Minireactores nucleares refrigerados por metales líquidos

[Img #7260]


Aunque la mayoría de los reactores nucleares que hoy están en servicio se refrigeran mediante agua, ha habido otras alternativas desde el amanecer de la era nuclear. Sin ir muy lejos, la primera central eléctrica del mundo alimentada por energía nuclear, en 1951, tenía un reactor refrigerado por sodio. Los reactores refrigerados por metales líquidos como el sodio o el plomo tienen un conjunto único de capacidades que pueden darles ciertas ventajas sobre los refrigerados por agua.

El equipo de los ingenieros nucleares James Sienicki y Anton Moisseytsev, del Laboratorio Nacional estadounidense de Argonne, ha diseñado un nuevo y pequeño reactor enfriado por plomo, con la ayuda de Gerardo Aliberti del mismo laboratorio, Sara Bortot del Politécnico de Milán en Italia, y Qiyue Lu de la Universidad de Illinois en Urbana-Champaign.

Los pequeños reactores modulares se pueden definir como minicentrales nucleares que están diseñadas para ser fabricadas en un sitio y trasladadas a otro, como módulos que se ensamblan en el lugar de destino. Estos reactores pueden ser diseñados para que funcionen sin repostar durante periodos de entre 15 y 30 años. El concepto puede mitigar el alcance de algunos de los problemas de la energía nuclear, incluyendo los gastos de instalación, los de seguridad y los de almacenamiento de los residuos nucleares.

Como todas las generaciones más recientes de reactores nucleares, el nuevo modelo cuenta con sistemas de seguridad "pasiva", que, si fallan los sistemas principales, son capaces de ponerse en marcha automáticamente y hacer su trabajo sin necesidad de intervención humana. Por ejemplo, todos los reactores tienen barras de control provistas de sustancias que absorben neutrones y detienen las reacciones nucleares en cadena. Las barras de control del nuevo reactor pueden ser suspendidas mediante una corriente eléctrica justo encima del núcleo. Si la central nuclear se queda sin electricidad para sus sistemas de control, las barras de control automáticamente caen dentro del núcleo del reactor y detienen la reacción.

Además, el refrigerante de plomo del nuevo reactor circula alrededor del núcleo mediante un proceso que no necesita bombas eléctricas para mantener en movimiento el fluido, ya que se aprovecha de una ley de la física. Esta característica de diseño es muy importante, ya que si la central nuclear se queda sin la electricidad necesaria para alimentar a sus sistemas de seguridad principales, como ocurrió en la central nuclear de Fukushima Daiichi en Japón, el reactor no necesita electricidad para enfriar el núcleo después del parón.

Fuente: pinche aquí


CONCLUSIÓN:
En mi opinión es bueno que se siga investigando sobre cómo crear energía de una manera más perfecta, con esto me refiero a que no se produzcan escapes en las centrales y se generen menos residuos,  el descubrimiento de un reactor con refrigerado de plomo nos puede llevar a una era de nuevas centrales nucleares más seguras  

Arquitectura vertical para el grafeno, la clave para su uso en chips

El material más delgado, más fuerte y con mejor conductividad a temperatura ambiente tiene el potencial de revolucionar la ciencia de los materiales y quizá hasta de reemplazar al silicio en muchas aplicaciones. Las notables propiedades del grafeno podrían conducir a la producción industrial de pantallas táctiles enrollables y flexibles, aeronaves más ligeras, receptores de TV de alta definición no mucho más gruesos que un póster y adheribles a la pared casi con tanta facilidad, y conexiones de internet de alta velocidad, por mencionar sólo algunas de las aplicaciones.
El camino hacia el pleno uso del grafeno ha estado obstaculizado por un serio problema: este material es demasiado conductor para ser usado en chips. Ahora, se ha encontrado un modo prometedor de solucionarlo.

El grafeno, descubierto en el 2004 en la Universidad de Manchester, Reino Unido, por Andre Geim y Konstantin Novoselov, consta de una sola capa de átomos de carbono distribuidos en una especie de celosía hexagonal, similar a la de un panal de miel.

Una de las muchas aplicaciones potenciales del grafeno es su uso como material básico para los chips en vez del silicio. Este potencial ha despertado la atención de los mayores fabricantes de chips, entre los que figuran IBM, Samsung, Texas Instruments e Intel. Ya han sido fabricados transistores individuales con muy altas frecuencias, de hasta 300 GHz por varios grupos de diversas naciones.

Desgraciadamente, esos transistores no pueden ser agrupados muy estrechamente en un chip porque presentan muchas fugas de corriente, incluso en el estado más aislante del grafeno. Esta corriente eléctrica causaría que los chips se fundieran en una fracción de segundo.

[Img #7221]


Este problema ha estado presente desde 2004, cuando Andre Geim y Konstantin Novoselov hicieron el descubrimiento que fue galardonado en 2010 con un Premio Nobel de Física. Y a pesar del gran esfuerzo mundial orientado desde entonces a resolverlo, hasta ahora no se ha ofrecido ninguna solución real.

El equipo de Geim, Novoselov y Leonid Ponomarenko ahora ha ideado un transistor que puede ser la clave para lograr que el grafeno ascienda en la industria a un puesto tan importante como el ocupado hoy en día por el silicio.

Estos investigadores basaron su nuevo diseño en el uso del grafeno en dirección vertical en vez de lateral (en un plano). Emplearon el grafeno como un electrodo desde el cual pueden pasar los electrones hacia dentro de otro metal a través de un material dieléctrico.

Entonces aprovecharon una característica verdaderamente única del grafeno: que un voltaje externo puede cambiar de manera notable la energía de los electrones que pasan a través del material del modo descrito. Como resultado, se ha obtenido un nuevo tipo de transistor en el cual el grafeno es un ingrediente crítico.

Fuente:pinche aquí

 
CONCLUSIÓN:
Me parece un gran descubrimiento la nueva posición del grafeno para introducirle transistores y así poder ser llevado al mundo de la tecnología y crear con el aparatos realmente increíbles, supondrá una gran revolución y un gran movimiento de la economía.  

Se pone en marcha el proyecto Spacecast para pronosticar el tiempo espacial

 SIN TERMINAR

Los fenómenos explosivos que tienen lugar en el Sol producen la emisión intensa de partículas de alta energía y radiación electromagnética que afectan a la Tierra y a su campo magnético, la magnetosfera y nuestro escudo protector contra estas partículas. El proyecto europeo Spacecast, que el pasado 1 de marzo entró en fase operativa, proporcionará datos regulares y fiables, a través de la web, de las previsiones del tiempo espacial, y trabajará en el desarrollo de modelos solares y heliosféricos más precisos para predecirlo.

El tiempo espacial es el conjunto de condiciones del medio interplanetario, entre el Sol y la Tierra, en un momento determinado, y da cuenta de las alteraciones debidas a la actividad solar. Según Blai Sanahuja, catedrático del Departamento de Astronomía y Meteorología de la UB que participa en el proyecto Spacecast, «la importancia de estos fenómenos no ha cambiado tanto por el Sol, que sigue su ciclo habitual, sino por nuestra dependencia de estos cambios, que cada vez tienen un mayor impacto en nuestra tecnología».

El proyecto europeo Spacecast, liderado por investigadores del Centro Antártico Británico (BAS), ha empezado a ofrecer previsiones, con un margen de entre una y tres horas, que proporcionan a los operadores de satélite el índice de riesgo de tormentas solares y geomagnéticas. Estos avisos permiten actuar para evitar interrupciones y un mal funcionamiento de los satélites, para que, desconectando sistemas no esenciales, redireccionando señales o reorganizando maniobras de órbita, los satélites puedan seguir operando durante estas tormentas.

Las previsiones actuales quedan restringidas a los cinturones de radiación de Van Allen, la región de la magnetosfera más cercana a la Tierra, donde orbitan la mayor parte de los satélites. Estos cinturones son zonas estables con una densidad elevada de protones o electrones, atrapados y reflejados por el campo magnético terrestre, que forman dos anillos alrededor de nuestro planeta.

En los próximos dos años Spacecast trabajará en el conocimiento de la física de estos fenómenos con el fin de mejorar las previsiones del tiempo espacial. El estudio se hará extensivo a los electrones de más baja energía y también se trabajará para modelizar los choques acolisionales, eventos de partículas energéticas que se generan por perturbaciones interplanetarias. Estos fenómenos están conducidos por eyecciones de masa coronal que se propagan desde el Sol hasta la Tierra, a distancias de más de 150 millones de kilómetros.






La modelización de los flujos de partículas por el espacio interplanetario constituye la principal línea de investigación de Blai Sanahuja y Àngels Aran, investigadores que además de participar en el proyecto Spacecast también colaboran en otras iniciativas europeas y en la Agencia Espacial Europea, junto con Neus Àgueda, investigadora de la UB. Los tres son miembros del Instituto de Ciencias del Cosmos de la UB, centro adscrito al Barcelona Knowledge Campus.

El estudio de los flujos de partículas energéticas de origen solar fuera de la magnetosfera es especialmente importante para las misiones espaciales. «De hecho, el desconocimiento que tenemos de ellos (cómo se generan, qué intensidades pueden alcanzar, etc.) es uno de los grandes riesgos de las misiones espaciales, y más si son tripuladas. Se puede decir que la meteorología espacial está en sus inicios y que la predicción del tiempo espacial tiene mucho camino por recorrer», apunta Sanahuja.

Las principales dificultades de esta disciplina son, por una parte, la falta de datos (hay muy pocas sondas interplanetarias y satélites, y se trata de fenómenos de millones de kilómetros de extensión), y por la otra, el hecho de que no se trabaje con gases eléctricamente neutros, como es el caso de la atmósfera terrestre, sino con plasmas, gases totalmente ionizados en un entorno magnetizado muy variable. La física de los procesos involucrados es muy compleja y no se conoce suficientemente bien. Como resultado, los modelos existentes aún son poco precisos.

[Img #7232]


El Sol tiene un ciclo casi regular de actividad que dura aproximadamente once años. El número de tormentas magnéticas de origen solar varía desde una quincena en el mínimo del ciclo solar, hasta unas sesenta alrededor de su máximo. Se prevé que el próximo máximo del ciclo actual tenga lugar entre 2013 y 2015.

Actualmente ya se han producido pérdidas millonarias causadas por fuertes tormentas magnéticas que han dañado los satélites. Entre los meses de octubre y noviembre de 2003, las tormentas magnéticas afectaron a 47 satélites. Los daños, incluida la pérdida total de satélites científicos, se han valorado en 640 millones de dólares. La tormenta magnética más fuerte registrada hasta ahora es la denominada tormenta de Carrington, que tuvo lugar en 1859, una época anterior a la llegada de los satélites de comunicación, Internet y los sistemas de posicionamiento global (GPS, Galileo, Glonass). Se estima que si esa tormenta tuviera lugar ahora, las pérdidas serían de hasta 30.000 millones de dólares.

El nuevo sistema de previsión de Spacecast, que se actualiza cada hora, ayudará a proteger los satélites utilizados para la navegación, las telecomunicaciones, la teledetección y otros servicios.

Spacecast es un proyecto grande que forma parte del VII Programa marco de la UE y está financiado con 2,5 millones de euros. Participan en él investigadores del BAS (Reino Unido), la Universidad de Barcelona, la Universidadde Helsinki (Finlandia) y la Universidad Católica de Lovaina (Bélgica), las tres de la red LERU, así como el Instituto Meteorológico Finlandés, el Laboratorio Francés Aeroespacial y la empresa DH Consultancy (Bélgica).

 Fuente: pinche aquí

Un fármaco usado para otras dolencias podría combatir eficazmente al Mal de Alzheimer

Un equipo de neurocientíficos de la Escuela de Medicina de la Universidad Case Western Reserve ha realizado un progreso espectacular en sus esfuerzos por encontrar una cura para la Enfermedad de Alzheimer.

Lo descubierto por el equipo de investigación revela que el uso en ratones de un fármaco, el bexaroteno, parece revertir rápidamente los déficits de memoria y cognitivos, así como otros efectos patológicos, causados por esa enfermedad. Los resultados sugieren que el bexaroteno, o alguna gama de fármacos que sean desarrollados a partir de éste, quizá podrían ayudar a los muchos millones de personas de todo el mundo que padecen la enfermedad.

En Estados Unidos, el bexaroteno está aprobado para ciertos tratamientos por la FDA (la agencia gubernamental estadounidense de alimentos y medicamentos).

Los nuevos experimentos se enfocaron a intentar vislumbrar si el medicamento también podría ser usado potencialmente para ayudar a los pacientes con la enfermedad de Alzheimer. Los resultados son muy prometedores.

El Mal de Alzheimer es provocado en gran medida por la incapacidad del cuerpo para eliminar del cerebro a las proteínas beta-amiloides, que aparecen de modo natural por procesos que aún no están del todo claros. En 2008, Gary Landreth, profesor de neurociencias e investigador de la mencionada universidad, descubrió que la apolipoproteína E (ApoE), facilitaba la retirada de las proteínas beta-amiloides.

En el nuevo estudio, Landreth, Paige Cramer y sus colaboradores han explorado la eficacia del bexaroteno para aumentar la expresión de ApoE. El aumento de los niveles de ApoE en el cerebro, a su vez, acelera la retirada de las proteínas beta-amiloides.

El equipo quedó sorprendido por la rapidez con la que el bexaroteno mejoraba cada déficit de memoria y de conducta, contribuyendo incluso a revertir la patología del Mal de Alzheimer. La teoría más aceptada hoy en día por la comunidad científica es que pequeñas formas solubles de beta-amiloide causan los deterioros de memoria observados en los modelos animales y en las personas con la enfermedad. En las primeras seis horas después de administrar el bexaroteno, los niveles de amiloide soluble cayeron en un 25 por ciento. Y, sorprendentemente, el efecto duró tres días. Este cambio estuvo correlacionado con una rápida mejora en una gama amplia de conductas en tres modelos de ratón diferentes de Alzheimer.

El tratamiento con bexaroteno también contribuyó con rapidez a estimular la retirada de las placas amiloides del cerebro. Las placas son acumulaciones compactas de amiloide que se forman en el cerebro y son la marca patológica más representativa de la enfermedad de Alzheimer. Los investigadores encontraron que más de la mitad de las placas habían sido retiradas en un plazo de 72 horas. Al final, la reducción llegó a ser de un 75 por ciento. Parece ser que el bexaroteno reprograma a las células inmunitarias del cerebro para que "engullan" o fagociten esos depósitos amiloides.

Anteriormente, el mejor tratamiento existente para la enfermedad de Alzheimer en ratones necesitaba varios meses para reducir esas placas en el cerebro.

Es importante advertir que aunque el bexaroteno es eficaz en ratones con el Mal de Alzheimer, todavía hay que comprobar si funciona en humanos y si su uso es seguro para esta nueva aplicación. La próxima fase en esta línea de investigación, la de los ensayos clínicos, permitirá averiguarlo.

En la investigación también han participado otros especialistas de la Universidad Case Western Reserve, así como de la Universidad Washington de San Luis, la de Nueva York, y la de Pensilvania, todas en Estados Unidos.

Fuente:pinche aquí

 
CONCLUSIÓN:
Esta investigación me parece un gran avance en el entendimiento y tratamiento de esta enfermedad tan grave,  si se pudiera conseguir llevar a los humanos el tratamiento con bexaroteno sería un gran paso y se podría considerar la cura de dicha enfermedad. La razón de que haya escogido esta notica es que conozco varios casos de alzheimer y es una enfermedad muy dura y si este tratamiento se lograra llevar a los humanos sería otra victoria del hombre ante las enfermedades.