www.zonamovilidad.es
Anthropic acusa a tres empresas chinas de realizar ataques de destilación contra Claude
Ampliar

Anthropic acusa a tres empresas chinas de realizar ataques de destilación contra Claude

martes 24 de febrero de 2026, 17:00h

Escucha la noticia

La compañía estadounidense Anthropic ha denunciado públicamente que tres empresas chinas dedicadas al desarrollo de inteligencia artificial, DeepSeek, Moonshot y MiniMax, habrían llevado a cabo ataques de destilación contra su modelo Claude con el objetivo de extraer capacidades y mejorar sus propios sistemas.

La destilación es una técnica habitual en el ámbito del aprendizaje automático que permite que un modelo más pequeño aprenda del comportamiento de uno más avanzado. En entornos legítimos, se utiliza para crear versiones más eficientes y económicas de un sistema propio. Sin embargo, cuando se aplica sobre modelos ajenos sin autorización, se considera un ataque de destilación, ya que permite ahorrar costes y tiempo de desarrollo aprovechando el trabajo de terceros.

Según ha explicado Anthropic en un comunicado, la compañía ha detectado un uso intensivo y coordinado de su ‘chatbot’ Claude que no respondía a patrones habituales. En total, las tres empresas habrían generado más de 16 millones de interacciones a través de 24.000 cuentas fraudulentas, infringiendo los términos de servicio de la plataforma.

“El volumen, la estructura y el enfoque de las solicitudes diferían de los patrones de uso normales, lo que refleja una extracción deliberada de capacidades en lugar de un uso legítimo”, ha señalado la empresa.

En el caso de DeepSeek, Anthropic detectó tráfico sincronizado entre múltiples cuentas con patrones idénticos y métodos de pago compartidos. Según la denuncia, la compañía solicitaba a Claude que desglosara paso a paso su razonamiento interno tras responder a cuestiones complejas, con el fin de generar datos de entrenamiento reutilizables.

Por su parte, MiniMax habría realizado más de 13 millones de intercambios centrados en aprender sobre codificación agéntica, uso y orquestación de herramientas. En cuanto a Moonshot, la actividad superó los 3,4 millones de interacciones orientadas a analizar el razonamiento de agentes, el tratamiento de datos y el desarrollo de sistemas autónomos.

Anthropic asegura que pudo identificar estos patrones gracias al análisis de correlaciones de direcciones IP, solicitudes de metadatos y la detección de comportamientos similares ya sufridos por otras compañías del sector. De hecho, en enero de 2025, OpenAI también acusó a DeepSeek de emplear técnicas de destilación para entrenar modelos basándose en los resultados de ChatGPT.

Más allá del conflicto empresarial, Anthropic advierte de que este tipo de prácticas socavan los controles de exportación y la ventaja competitiva tecnológica de las compañías que desarrollan sus modelos de forma independiente. La empresa sostiene que permitir que laboratorios extranjeros reproduzcan capacidades avanzadas mediante extracción indirecta debilita el liderazgo estadounidense en inteligencia artificial.

Para frenar estos intentos, la tecnológica ha reforzado sus sistemas de detección mediante clasificadores y herramientas de huellas de comportamiento capaces de identificar patrones asociados a la destilación ilícita en el tráfico de API. Asimismo, ha endurecido los procesos de verificación de cuentas educativas, programas de investigación y ‘startups’, que según explica son las vías más utilizadas para crear perfiles fraudulentos.

En paralelo, Anthropic está desarrollando nuevas salvaguardas a nivel de producto, API y modelo destinadas a reducir la utilidad de las respuestas generadas cuando se detecta un uso potencialmente orientado a la destilación.

El caso vuelve a situar en el centro del debate la protección de la propiedad intelectual en la era de la IA generativa, en un momento en que la competencia global por el desarrollo de modelos avanzados se intensifica y las fronteras entre innovación legítima y apropiación indebida resultan cada vez más difusas.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios