www.zonamovilidad.es
sábado 21 de agosto de 2021, 11:25h

Escucha la noticia

Cuando la COVID-19 conquistó Europa en marzo de 2020, los servicios sanitarios no sabían a lo que se enfrentaban. Esto conllevó al inicio de una crisis sanitaria, los médicos no sabían qué hacer con los pacientes de covid. Afortunadamente, los datos procedentes de China, que tuvo una ventaja de cuatro meses para lidiar con la pandemia, sirvieron de ayuda para los equipos sanitarios europeos.

Miles de equipos de investigación de todo el mundo se unieron para ayudar a combatir la pandemia mundial. La comunidad de la inteligencia artificial trabajó en el desarrollo de un software para permitir a los hospitales diagnosticar o clasificar a los pacientes de forma rápida. Sin embargo, pese a que se desarrollaron cientos de herramientas para realizar estas predicciones, ninguna marcó una diferencia en el problema, e incluso algunas fueron dañinas.

Asimismo, en junio el Instituto Turing, centro nacional de ciencia de datos e inteligencia artificial del Reino Unido, publicó un informe que revela detalles sobre una serie de talleres que se celebraron a finales de 2020 sobre las herramientas de inteligencia artificial para combatir la pandemia. La conclusión del estudio es que las herramientas de inteligencia artificial han tenido poco o ningún impacto en la pandemia.

La Inteligencia Artificial será empleada para detectar enfermedades extrañas

Leer más

En esta línea, la epidemióloga de la Universidad de Maastricht, Laure Wynants realizó un estudio que se sigue actualizando a medida que se presentan nuevas herramientas y se siguen probando las existentes. Para la realización del informe Wynants y sus compañeros han analizado 232 algoritmos para realizar el diagnóstico de los pacientes y hacer una predicción sobre la gravedad de la enfermedad que padecen. Como resultados vieron que ninguno de los algoritmos utilizados era apto para el uso clínico. De todos ellos, solamente dos han sido calificados como suficientemente aptos para futuras pruebas.

“Esta pandemia fue una gran prueba para la IA y la medicina”

Además, Wynants ha respondido ante estos resultados explicando que “resulta impactante. Yo ya tenía mis dudas antes de empezar con el estudio, pero esto superó mis temores". El trabajo de la epidemióloga está respaldado por otro análisis hecho por el investigador de aprendizaje automático de la Universidad de Cambridge, Derek Driggs y sus compañeros. Este equipo realizó una investigación sobre los modelos de aprendizaje profundo para diagnosticar la COVID-19, y predecir el riesgo al que se somete el paciente a partir de imágenes médicas como radiografías de tórax y tomografías computarizadas (TC) de tórax. Para ello examinaron 415 herramientas publicadas y llegaron a la conclusión de que ninguna se podía utilizar clínicamente. "Esta pandemia fue una gran prueba para la IA y la medicina. Hubiera sido de gran ayuda para que la sociedad estuviera de nuestro lado. Pero no creo que hayamos pasado la prueba”, ha explicado Driggs.

Tanto el equipo de Wynants como el de Driggs creen que los investigadores han repetido los mismos errores a la hora de probar sus herramientas. Sin embargo, siguen creyendo que la inteligencia artificial tiene potencial de ayudar, pero para ello tiene que construirse adecuadamente, porque de lo contrario podría resultar perjudicial, y no detectar determinados diagnósticos o subestimar el riesgo para pacientes vulnerables. En relación con esta cuestión, Diggs ha señalado que “hay mucho bombo sobre los modelos de aprendizaje automático y sobre lo que pueden hacer hoy en día”.

Las expectativas esperadas han impulsado el uso de estas herramientas antes de que estén listas

Las expectativas esperadas han impulsado el uso de estas herramientas antes de que estén listas. Ambos investigadores creen que determinados algoritmos que analizaron ya se han usado en hospitales y algunos están siendo comercializados por desarrolladores privados, lo que puede suponer un problema según Wynants, “me temo que pueden haber dañado a los pacientes”.

Google lanza la herramienta Know Your Data para luchar con el sesgo de aprendizaje automático

Leer más

Dónde está el fallo

En cuanto a los errores que han influido a estos resultados, uno de ellos es la mala calidad de los datos que utilizaron los investigadores para el desarrollo de sus herramientas. Toda la información de los pacientes de covid, se almacenaba y compartía, a menudo entre los médicos que luchaban por tratar a esos pacientes. El problema es que muchas herramientas de las que se crearon utilizaban datos mal etiquetados o de fuentes desconocidas.

Asimismo, Driggs denomina el problema como conjuntos de datos de Frankenstein, que se recogen de múltiples fuentes y pueden contener duplicados. Esto quiere decir que varias herramientas terminan siendo probadas con los mismos datos con los que fueron entrenadas, lo que las hace parecer más precisas de lo que realmente son.

Un algoritmo de aprendizaje automático aplicado al descubrimiento de fármacos

Leer más

Otro aspecto negativo es el origen de algunos conjuntos de datos. Esto puede hacer que los investigadores no identifiquen ciertos puntos importantes que sesgan el entrenamiento de sus modelos. Existen casos en los que se utilizó un conjunto de datos que contenía escáneres de tórax de niños que no tenían COVID-19 como ejemplos de cómo se veían los casos sin COVID-19. Pero como resultado, la inteligencia artificial aprendió a identificar a los niños, no a la COVID-19.

La inteligencia artificial aprendió erróneamente a predecir el riesgo de la COVID-19 grave según la posición en la que estaba el enfermo

En otro escenario, el grupo de Driggs desarrolló su propio modelo usando un conjunto de datos que contenía una combinación de exploraciones tomadas cuando los pacientes estaban acostados y de pie. Como los pacientes escaneados acostados tenían más posibilidades de estar gravemente enfermos, la inteligencia artificial aprendió erróneamente a predecir el riesgo de la COVID-19 grave según la posición en la que estaba el enfermo.

Otro problema destacado es el sesgo incorporado, o el sesgo introducido en el punto en el que se etiqueta un conjunto de datos. Es decir, muchas imágenes médicas se etiquetaban en función de si los radiólogos que las hacían señalaban la presencia de la COVID-19. Pero eso incrusta, o incorpora, cualquier sesgo de ese médico concreto en la verdad básica de un conjunto de datos. Pero, según Driggs, sería más efectivo etiquetar una imagen médica con el resultado de una prueba de PCR en vez de la opinión de un médico. Pero no siempre hay tiempo para los detalles estadísticos en hospitales tan ocupados.

“Hay mucho secretismo”

Esto no significa que no se vayan a introducir en la práctica clínica determinadas herramientas. Wynants revela que no se sabe claramente cuáles se utilizan ni cómo. Los hospitales a veces afirman que usan una herramienta solo con fines de investigación, lo que dificulta evaluar cuánto confían en ellas los médicos. Además, en base a estas afirmaciones, para la investigadora "hay mucho secretismo", y cree que algunos hospitales han firmado acuerdos de no divulgación con sus proveedores de inteligencia artificial médica. Cuando les preguntaba a los médicos qué algoritmos o software usaban, a veces le responden que no se les permitía decirlo.

El 88% de los españoles está dispuesto a compartir sus datos por servicios digitales gratuitos

Leer más

Cabe destacar que muchas de estas herramientas las crearon investigadores de IA que no tenían la experiencia médica para detectar los errores en los datos o por investigadores médicos que carecían de las habilidades matemáticas para eliminar esos errores.

Posibles soluciones

Para combatir estos obstáculos la mejor opción sería contar con mejores datos, sin embargo, en estos tiempos de crisis es algo bastante complicado de conseguir. Otra opción sería que los equipos de investigación y los médicos trabajasen de la mano. Además, los investigadores tendrían que compartir sus modelos y explicar cómo fueron entrenados para que otros puedan probarlos y desarrollarlos, según Driggs “las dos cosas las podríamos hacer ya. Y resolverían quizás el 50 % de los problemas que hemos identificado".

En otra línea, para obtener los datos sería más sencillo si los formatos estuvieran estandarizados. Wynants afirma que "los modelos son muy similares, casi todos usan las mismas técnicas con pequeños ajustes, los mismos datos y todos cometen los mismos errores. Si todas estas personas que fabrican nuevos modelos probaran los modelos ya disponibles, tal vez a estas alturas tendríamos algo que sí podría ayudar en la parte clínica".

IA para predecir la aparición de Alzheimer en personas sin síntomas

Leer más

Finalmente, para poner fin a este problema, la Organización Mundial de la Salud está pensando en un acuerdo de intercambio de datos de emergencia que se pondría en marcha durante las crisis sanitarias internacionales. Permitiría a los investigadores intercambiar los datos a través de las fronteras con mayor facilidad. Antes de la cumbre del G7 en Reino Unido en junio, los principales grupos científicos de las naciones participantes también pidieron "disponibilidad de datos" para prepararse para futuras emergencias sanitarias.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios