Este grupo incluye a gigantes estadounidenses como Google, Meta, Microsoft, OpenAI, IBM y Amazon además de empresas de China como Zhipu.ai (respaldada por Alibaba, Tencent, Meituan y Xiaomi); Samsung de Corea del Sur y el Instituto de Innovación Tecnológica de Emiratos Árabes Unidos. Además, la iniciativa cuenta con el respaldo de una declaración más amplia del G7, la Unión Europea, Singapur, Australia y Corea del Sur en una reunión virtual organizada por el primer ministro británico, Rishi Sunak, y el presidente surcoreano, Yoon Suk Yeol.
"Es fundamental garantizar la seguridad de la IA para proteger el bienestar y la democracia de nuestra sociedad"
En esta cumbre global se ha puesto el foco en la urgencia de priorizar la seguridad en el desarrollo de la IA, además de fomentar la innovación y la inclusividad en este sector. "Es fundamental garantizar la seguridad de la IA para proteger el bienestar y la democracia de nuestra sociedad", enfatiza Yoon, subrayando algunas preocupaciones específicas como los riesgos asociados a los deepfakes.
Los líderes presentes en la cumbre acordaron la importancia de la interoperabilidad entre los marcos de gobernanza y la creación de una red de institutos de seguridad. Además, se ha pactado buscar una mayor colaboración con organismos internacionales para fortalecer los acuerdos previos y abordar de manera más efectiva los riesgos asociados, así como la publicación de marcos de seguridad para la medición de riesgos y a asegurar la gobernanza y la transparencia en sus desarrollos.
En este sentido, Beth Barnes, fundadora de METR, una organización que promueve la seguridad en los modelos de IA, ha señalado la importancia de establecer acuerdos internacionales sobre los límites de seguridad en el desarrollo de la IA. Por su parte, Yoshua Bengio, conocido como uno de los "padres de la IA", resaltó la necesidad de que los compromisos voluntarios se complementen con regulaciones efectivas.
La próxima reunión de seguimiento de esta cumbre global se realizará en Francia, aún con una fecha por confirmar, consolidando así un marco de colaboración internacional para el manejo responsable de la tecnología de inteligencia artificial.
La UE y 10 países se comprometen a cooperar en seguridad de la IA
Durante la Cumbre de Inteligencia Artificial en Seúl, se ha firmado además un acuerdo histórico entre 10 países más la Unión Europea, comprometiéndose a fortalecer la cooperación internacional en la ciencia de la seguridad de la IA.
La "Declaración de Seúl para la Cooperación Internacional sobre la Ciencia de la Seguridad de la IA" busca consolidar un esfuerzo colaborativo para acelerar el avance en este campo vital, uniendo instituciones respaldadas por el sector público de diversas naciones.
La red resultante de esta colaboración se enfocará en construir "complementariedad e interoperabilidad" entre los trabajos técnicos de cada país
Este acuerdo internacional engloba instituciones similares al Instituto de Seguridad de IA del Reino Unido, pionero a nivel mundial, y recién establecidos en países como Estados Unidos, Japón y Singapur. La red resultante de esta colaboración se enfocará en construir "complementariedad e interoperabilidad" entre los trabajos técnicos de cada país y su enfoque hacia la seguridad de la IA. Esto permitirá promover un desarrollo de la IA que sea seguro, confiable y digno de confianza
Entre los objetivos primordiales de esta red se encuentra el intercambio de información sobre modelos de IA, incluyendo sus limitaciones, capacidades y riesgos. Además, se contempla la monitorización de "daños por IA e incidentes de seguridad" específicos, compartiendo recursos para avanzar en el entendimiento global de la ciencia en torno a la seguridad de la IA.