www.zonamovilidad.es
Un chip de IA gigante ayudará a crear fármacos contra el cáncer
Ampliar

Un chip de IA gigante ayudará a crear fármacos contra el cáncer

miércoles 01 de enero de 2020, 17:00h

Escucha la noticia

La 'start-up' Cerebras ha desarrollado un chip de gran tamaño que reduce el tiempo de entrenamiento de los algoritmos de aprendizaje profundo de semanas a horas. Ahora, un laboratorio estadounidense lo ha probado con el objetivo de predecir cómo un tumor responde a determinados medicamentos.

El Laboratorio Nacional de Argonne (EE. UU.) anunció que había empezado a probar un nuevo ordenador de la start-up Cerebras, que promete acelerar el entrenamiento de algoritmos de aprendizaje profundo por órdenes de magnitud. El ordenador, que alberga el chip más grande del mundo, es parte de una nueva generación de hardware especializado en Inteligencia Artificial (IA) que solo acaba de empezar a usarse.

En la actualidad, los chips más comunes utilizados en el aprendizaje profundo se conocen como unidades de procesamiento de gráficos o GPU. Las GPU son excelentes procesadores en paralelo. Antes de aplicarlos en la Inteligencia Artificial (IA), han sido ampliamente utilizados para juegos y producción gráfica. Casualmente, las mismas características que les permiten renderizar píxeles de forma rápida también son los que las convierten en la opción preferida para el aprendizaje profundo.

Sin embargo, básicamente, las GPU son de uso general, aunque han impulsado con éxito la revolución de Inteligencia Artificial de esta década, sus diseños no están optimizados para esa tarea. Estas deficiencias limitan la velocidad a la que los chips pueden ejecutar los algoritmos de aprendizaje profundo y hacen que consuman enormes cantidades de energía en el proceso.

Como respuesta, las compañías han competido por diseñar nuevas estructuras de chips especialmente adecuadas para la Inteligencia Artificial (IA). Si están bien diseñados, esos chips tienen el potencial de entrenar modelos de aprendizaje profundo hasta 1.000 veces más rápido que las GPU y consumiendo mucha menos energía. Cerebras se encuentra entre la larga lista de empresas que desde entonces han aprovechado esa oportunidad. También participan en la carrera start-ups como Graphcore, SambaNova y Groq, además de compañías tradicionales como Intel y Nvidia.

Inteligencia Artificial para fármacos

Un nuevo chip de IA que tenga éxito tendrá que cumplir varios criterios. Como mínimo, debe ser 10 o 100 veces más rápido que los procesadores de uso general cuando se trabaja con los modelos de Inteligencia Artificial (IA) del laboratorio. Muchos de los chips especializados están optimizados para las aplicaciones comerciales de aprendizaje profundo, como la visión artificial y el lenguaje, pero podrían no funcionar tan bien cuando se trata de los tipos de datos comunes en la investigación científica.

Hasta ahora, el ordenador de Cerebras ha cumplido con todo lo previsto. Gracias a su tamaño de chip, no es necesario conectar procesadores más pequeños, lo que puede ralentizar el entrenamiento del modelo. En las pruebas, ha reducido el tiempo de entrenamiento de las modelos de semanas a horas.

En sus inicios, Argonne ha estado probando el ordenador en su investigación de fármacos contra el cáncer. El objetivo es desarrollar un modelo de aprendizaje profundo que pueda predecir cómo un tumor podría responder a un medicamento o a una combinación de medicamentos. El modelo se puede utilizar de dos maneras: para desarrollar nuevos candidatos a fármacos que podrían tener los efectos deseados en un tumor específico o para predecir los efectos de un único candidato a fármaco en muchos tipos diferentes de tumores.

Se espera que con el sistema de Cerebras se acelere drásticamente tanto el desarrollo como la implementación de un modelo de medicamento contra el cáncer, lo que podría suponer entrenar al modelo cientos de miles de veces y luego ejecutarlo miles de millones más para hacer predicciones sobre cada candidato a medicamento.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios