Anthropic ha acusado a tres destacadas empresas chinas de inteligencia artificial de utilizar masivamente su chatbot Claude para entrenar en secreto modelos rivales, un acontecimiento sorprendente en un debate global que lleva décadas sobre dónde terminan las trampas y comienzan las prácticas estándar de la industria.
En una publicación de blog el lunes, Anthropic, con sede en San Francisco, dijo que los laboratorios chinos DeepSeek, Moonshot AI y MiniMax violaron las leyes corporativas al interactuar con Claude, su herramienta de codificación por vibración que cambia el mercado. “Hemos identificado campañas a escala industrial por parte de tres laboratorios de inteligencia artificial (DeepSeek, Moonshot y MiniMax) para extraer ilegalmente las capacidades de Claude para mejorar sus propios modelos”, dijo la compañía. “Estos laboratorios realizaron más de 16 millones de intercambios con Claude a través de aproximadamente 24.000 cuentas fraudulentas, lo que viola nuestros términos de servicio y restricciones de acceso regional”.
Según Anthropic, las empresas chinas utilizaron una técnica conocida como “destilación”, en la que un modelo se entrena con la salida de otro sistema, a menudo más potente. Las campañas supuestamente se centraron en áreas que Anthropic considera los diferenciadores clave de Claude, incluido el razonamiento complejo, la asistencia en codificación y el uso de herramientas.
Anthropic afirma que si bien la destilación es un “método de formación legítimo y ampliamente utilizado”, su uso por parte de las empresas chinas podría tener “fines ilegales”. El uso de una extensa red de cuentas falsas para copiar el propio modelo de un competidor viola sus términos de servicio y socava los controles de exportación de Estados Unidos destinados a limitar el acceso de China a la inteligencia artificial avanzada, dijo Anthropic, pidiendo “una acción rápida y coordinada entre los actores de la industria, los formuladores de políticas y la comunidad global de inteligencia artificial”.
Cómo se culpa a las empresas chinas por esto
La compañía afirma que los tres laboratorios sortearon las geocercas y las restricciones comerciales que limitan la disponibilidad comercial de Claude en China al enrutar el tráfico a través de servicios proxy que revenden el acceso a los principales modelos de inteligencia artificial occidentales. Según Anthropic, uno de estos “clústeres de hidra” gestionó simultáneamente decenas de miles de cuentas para distribuir solicitudes entre diferentes claves API y proveedores de nube.
Una vez creadas estas cuentas, los laboratorios supuestamente desarrollaron guiones de conversaciones largas e importantes diseñadas para obtener respuestas detalladas paso a paso que podrían retroalimentarse a sus propios sistemas como datos de entrenamiento. El resultado, dice Anthropic, fue un canal no oficial que convirtió a Claude en un maestro involuntario de los modelos que se están desarrollando dentro del cada vez más competitivo sector de inteligencia artificial de China.
Anthropic aún no ha anunciado reclamos específicos contra las tres compañías, pero ha señalado que ha cortado puntos de acceso conocidos y está pidiendo a Washington que endurezca los controles de exportación de chips y servicios avanzados de inteligencia artificial para evitar intentos similares en el futuro.
“Cómo cambian las tornas”
Detrás de estas críticas se esconde una lucha más amplia sobre quién establece las reglas para una industria basada en la remezcla del trabajo humano. Empresas estadounidenses como Anthropic y OpenAI están presionando cada vez más para que se apliquen medidas agresivas contra rivales extranjeros a los que acusan de copiar sistemas propietarios, incluso cuando protegen sus vastas colecciones de datos bajo el lema del uso legítimo.
Los laboratorios chinos, muchos de los cuales están lanzando más modelos de código abierto, buscan cerrar la brecha de rendimiento con sus rivales occidentales aprovechando cualquier ventaja legal que puedan encontrar. Mientras Washington ya está debatiendo restricciones más estrictas a las exportaciones de chips de inteligencia artificial y servicios en la nube a China, es probable que las acusaciones de Anthropic alimenten los pedidos de nuevas barreras y, al mismo tiempo, brinden a los críticos otra oportunidad de señalar la incómoda simetría en el corazón de la inteligencia artificial moderna.
Para este artículo, los periodistas de Fortune utilizaron la inteligencia artificial generativa como herramienta de investigación. El editor verificó la exactitud de la información antes de su publicación.
