Aplicaciones

Meta introduce nuevas herramientas de control parental para limitar el uso de chatbots de IA entre adolescentes

Antonio Rodríguez | Viernes 17 de octubre de 2025
Meta ha anunciado una serie de nuevas medidas destinadas a reforzar la seguridad de los menores frente al uso de sus chatbots impulsados por inteligencia artificial (IA).

Entre ellas, destaca la posibilidad de que los padres puedan desactivar las conversaciones privadas entre adolescentes y personajes virtuales de la compañía, una decisión que llega tras las críticas por el comportamiento inapropiado de algunos de estos asistentes en interacciones con jóvenes.

Según detallaron el responsable de Instagram, Adam Mosseri, y el jefe de Inteligencia Artificial de Meta, Alexandr Wang, las nuevas herramientas permitirán a los padres supervisar y restringir el uso de los chatbots dentro de las plataformas del grupo, principalmente Instagram. Los tutores podrán bloquear determinados personajes de IA, acceder a un resumen de los temas generales que sus hijos discuten con los asistentes y, si lo desean, desactivar completamente las conversaciones privadas entre adolescentes y bots.

Aun así, Meta ha explicado que su asistente general de IA seguirá disponible con configuraciones predeterminadas según la edad, incluso si los padres deciden restringir las interacciones con personajes específicos. Estas medidas se implementarán inicialmente en Estados Unidos, Reino Unido, Canadá y Australia a comienzos de 2026, antes de su expansión a otros mercados y aplicaciones del ecosistema Meta.

En paralelo, la compañía ha anunciado que todos los contenidos y experiencias de IA para adolescentes estarán guiados por un sistema de clasificación inspirado en las películas con calificación PG-13, limitando el acceso a material potencialmente inapropiado. Esta actualización busca reforzar los filtros existentes y adaptar la experiencia de uso a los estándares de protección digital de menores.

Una respuesta a las críticas

La decisión de Meta llega después de que distintas investigaciones, entre ellas una realizada por Reuters, revelaran que los chatbots de la empresa habían mantenido conversaciones de carácter romántico o sexual con usuarios adolescentes, llegando incluso a generar imágenes con connotaciones inapropiadas. El hallazgo intensificó la presión de reguladores y organizaciones de protección infantil, que acusaron a la compañía de no aplicar los controles adecuados.

En respuesta, Meta suspendió temporalmente el uso de sus avatares de IA y reforzó sus políticas internas para impedir que los bots traten temas sensibles como autolesiones, suicidio, trastornos alimentarios o relaciones de carácter sexual. La empresa asegura que sus nuevos algoritmos de moderación están diseñados para evitar que los chatbots inicien, describan o fomenten comportamientos de riesgo, aunque seguirán permitiendo conversaciones educativas o informativas sobre esos temas en contextos apropiados.

Meta utiliza señales basadas en IA para identificar a posibles usuarios adolescentes que puedan haber registrado sus cuentas como adultos

La compañía también ha reconocido que utiliza señales basadas en IA para identificar a posibles usuarios adolescentes que puedan haber registrado sus cuentas como adultos, a fin de incluirlos en los programas de protección y supervisión parental.

Meta ha defendido que la inteligencia artificial puede ser una herramienta útil para el aprendizaje y la exploración si se aplica con las medidas adecuadas de seguridad. “Creemos que la IA puede complementar los métodos tradicionales de educación de forma positiva, siempre que se mantengan los límites apropiados para cada edad”, señala la empresa en su comunicado oficial.

Sin embargo, reconoce que la gestión de la vida digital de los menores supone una carga añadida para muchas familias, por lo que el nuevo sistema pretende ofrecerles herramientas más simples para controlar la exposición de sus hijos a la IA y los contenidos en línea.

TEMAS RELACIONADOS:


Noticias relacionadas