Hace un año decíamos: Abril 2019

Una red neuronal puede leer artículos científicos y hacer un resumen simple en inglés
Ampliar

Una red neuronal puede leer artículos científicos y hacer un resumen simple en inglés

sábado 25 de abril de 2020, 09:00h

google+

linkedin

Comentar

WhatsApp

Repasar la hemeroteca y descubrir lo que se escribió el año anterior, nos invita a reencontrarnos con temas que, en tecnología, suelen no haber perdido vigencia. En este caso, se trata de un estudio del MIT sobre inteligencia artificial: Según explica David L. Chandler, del MIT News Office, “el trabajo de un escritor científico, incluye leer artículos de revistas con terminología técnica especializada y descubrir cómo explicar sus contenidos en un lenguaje que los lectores sin conocimientos científicos puedan comprender”

Actualmente, un equipo de científicos en el MIT en colaboración con profesionales de otros ámbitos ha desarrollado una red neuronal, una forma de inteligencia artificial (IA), que, de alguna manera, puede hacer casi lo mismo: leer artículos científicos y hacer un resumen que, actualmente, se hace en inglés e incluye una o dos oraciones.

Incluso en esta forma limitada, tal red neuronal podría ser útil para ayudar a los editores, escritores y científicos para escanear una gran cantidad de documentos para tener una idea preliminar de la materia en estudio. Pero el desarrollo también podría encontrar aplicaciones en otras áreas -además del procesamiento del lenguaje- incluida la traducción automática y el reconocimiento de voz.

Tal red neuronal podría ser útil para ayudar a los editores, escritores y científicos para escanear una gran cantidad de documentos para tener una idea preliminar de la materia en estudio

El trabajo se describe en la revista ‘Transacciones de la Asociación de Lingüística Computacional’, en un artículo de Rumen Dangovski y Li Jing, ambos estudiantes graduados del MIT; Marin Soljačić, profesor de física en el MIT; Preslav Nakov, científico principal del Instituto de Investigación de Computación de Qatar, HBKU; y Mićo Tatalović, ex becario de Knight Science Journalism en MIT y ex editor de la revista New Scientist.

De la inteligencia artificial a la física y al lenguaje natural

Chandler cuenta cómo el trabajo surgió de un proyecto no relacionado, que involucró el desarrollo de nuevos enfoques de inteligencia artificial basados ​​en redes neuronales, dirigidos a abordar ciertos problemas espinosos en la física. Sin embargo, los investigadores pronto se dieron cuenta de que el mismo proceso podría usarse para abordar otros problemas informáticos difíciles, incluido el procesamiento del lenguaje natural, en formas que podrían superar los sistemas de redes neuronales existentes.

"En los últimos años, hemos estado realizando varios tipos de trabajo en IA", asegura Soljačić en el artículo de presentación del producto: “Utilizamos la inteligencia artificial para ayudar con nuestra investigación a mejorar la física. Y a medida que nos familiarizamos más con la IA, notamos que, de vez en cuando, hay una oportunidad de agregar nuevas cosas al campo de la IA porque una cierta construcción matemática o una cierta ley en la física puede ayudar con un algoritmo de AI en particular ". “Sin embargo -continúa- "no podemos decir que esto sea útil para todas las IA, pero hay casos en los que podemos usar una perspectiva de la física para mejorar un algoritmo de AI determinado".

Las redes neuronales en general son un intento de imitar la forma en que los humanos aprenden ciertas cosas nuevas: el ordenador examina muchos ejemplos diferentes y aprende cuáles son los patrones subyacentes clave. Tales sistemas se utilizan ampliamente para el reconocimiento de patrones, como aprender a identificar objetos representados en fotos.

Pero las redes neuronales en general tienen dificultades para correlacionar la información de una larga cadena de datos, como se requiere para interpretar un trabajo de investigación. Según los investigadores, se han utilizado varios trucos para mejorar esta capacidad, incluidas las técnicas conocidas como memoria a largo plazo a largo plazo (LSTM) y unidades recurrentes cerradas (GRU, por sus siglas en inglés).

El equipo ideó un sistema alternativo que, en lugar de basarse en la multiplicación de matrices, como la mayoría de las redes neuronales convencionales, se basa en vectores que giran en un espacio multidimensional. El concepto clave es algo que ellos llaman una unidad rotatoria de memoria (RUM).

Esencialmente, el sistema representa cada palabra en el texto mediante un vector en un espacio multidimensional, una línea de cierta longitud que apunta en una dirección particular. Cada palabra subsiguiente mueve este vector en alguna dirección, representada en un espacio teórico que, en última instancia, puede tener miles de dimensiones. Al final del proceso, el vector final o conjunto de vectores se traduce de nuevo a su cadena de palabras correspondiente.

"RUM ayuda a las redes neuronales a hacer dos cosas muy bien: les ayuda a recordar mejor y les permite recordar información con mayor precisión -dice Nakov-".

Después de desarrollar el sistema RUM para ayudar con ciertos problemas físicos difíciles como el comportamiento de la luz en materiales de ingeniería compleja, "nos dimos cuenta de que uno de los lugares donde pensábamos que este enfoque podría ser útil sería el procesamiento del lenguaje natural", dice Soljačić, recordando una conversación con Tatalović, quien señaló que una herramienta de este tipo sería útil para su trabajo como editor al tratar de decidir sobre qué artículos escribir en el ámbito del periodismo científico. "Uno de los que probamos fue resumir los artículos, y eso parece estar funcionando bastante bien".

La prueba está en la lectura

Como ejemplo, alimentaron el mismo trabajo de investigación a través de una red neuronal basada en LSTM convencional y a través de su sistema basado en RUM. Los resúmenes resultantes fueron completamente diferentes.

El sistema LSTM produjo este resumen altamente repetitivo y bastante técnico: "Baylisascariasis", mata a los ratones, ha puesto en peligro las ratas de leña y ha provocado enfermedades como ceguera o graves consecuencias. Esta infección, denominada “baylisascariasis”, mata ratones, ha puesto en peligro las ratas de alegén y ha causado enfermedades como ceguera o graves consecuencias. Esta infección, denominada "baylisascariasis", mata a los ratones, ha puesto en peligro las ratas de leña.

Basado en el mismo artículo, el sistema RUM produjo un resumen mucho más legible, y uno que no incluía la repetición innecesaria de frases: los mapaches urbanos pueden infectar a las personas más de lo que se suponía anteriormente. 7 por ciento de los individuos encuestados dieron positivo para anticuerpos contra lombrices de mapache. Más del 90 por ciento de los mapaches en Santa Bárbara son los anfitriones de este parásito.

Ya, el sistema basado en RUM se ha ampliado para que pueda ‘leer’ a través de artículos de investigación completos, no solo los resúmenes, para producir un resumen de sus contenidos. Los investigadores incluso han intentado usar el sistema en su propio trabajo de investigación que describe estos hallazgos, el documento que esta noticia intenta resumir.

Aquí está el resumen de la nueva red neuronal: los investigadores han desarrollado un nuevo proceso de representación en la unidad rotativa de RUM, una memoria recurrente que se puede usar para resolver un amplio espectro de la revolución neuronal en el procesamiento del lenguaje natural.

Contiene los puntos clave

Según diversos especialistas, esta investigación aborda un problema importante en las redes neuronales, que tiene que ver con el hecho de relacionar piezas de información que están muy separadas en el tiempo o el espacio y parece un primer paso para el trabajo de resumen y sinopsis en múltiples campos.

Los experimentos realizados y el modelo propuesto se han publicado como código abierto en Github; por lo cual, muchos investigadores lo estarán ya probarlo en sus propias tareas.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+

0 comentarios