Meta, Snap y TikTok han unido fuerzas para lanzar Thrive, un programa innovador destinado a prevenir la difusión de contenido gráfico que promueva o muestre comportamientos autodestructivos, como el suicidio o las autolesiones.
Esta iniciativa surge en colaboración con la Mental Health Coalition, una organización benéfica dedicada a eliminar el estigma en torno a la salud mental, y representa un paso importante en la lucha contra la proliferación de este tipo de material en las plataformas digitales.
Meta ha expresado su esperanza de que otras empresas del sector se sumen a la iniciativa para expandir su alcance. “Estamos orgullosos de trabajar junto a Snap y TikTok en esta tarea crucial, y alentamos a otras plataformas a unirse a este esfuerzo para proteger a los usuarios en todo el ecosistema digital”, apunta un portavoz de Meta.
Cómo funciona el programa Thrive
Thrive permite a las empresas tecnológicas compartir "señales" que alerten a las plataformas participantes sobre contenidos que infringen sus políticas. Estas señales se comparten de manera segura mediante una infraestructura tecnológica proporcionada por Meta, que utiliza la misma tecnología empleada en el programa Lantern, dedicado a combatir la explotación infantil en línea.
El programa se basa en el uso de hashes, códigos numéricos que representan el contenido gráfico prohibido, como imágenes o vídeos de autolesiones o suicidio. Al compartir estos hashes entre las plataformas, se facilita la identificación y eliminación rápida de este contenido en todas ellas, evitando que se difunda de manera viral.
“Las empresas tecnológicas deben colaborar para ser realmente eficaces en la eliminación de este tipo de contenido dañino”
Las plataformas digitales, especialmente las redes sociales, se han enfrentado a críticas por la rapidez con la que el contenido gráfico dañino se propaga entre los usuarios, afectando especialmente a los más jóvenes. Meta, Snap y TikTok, conscientes de este problema, han decidido trabajar juntas en un esfuerzo por reducir estos riesgos. “Las empresas tecnológicas deben colaborar para ser realmente eficaces en la eliminación de este tipo de contenido dañino”, explica un portavoz de Meta.
Además, este esfuerzo conjunto busca bloquear contenido explícito y preservar un espacio seguro donde los usuarios puedan hablar sobre salud mental, siempre que no se promuevan conductas peligrosas. Entre abril y junio de este año, Meta actuó sobre más de 12 millones de publicaciones relacionadas con suicidio y autolesiones en Facebook e Instagram. Aunque muchas de estas publicaciones se retiraron por violar las políticas, otras fueron restauradas tras apelaciones, ya que no promovían el comportamiento destructivo, sino que discutían de manera responsable experiencias personales.