El contrato de Anthropic por 200 millones de dólares con el Departamento de Defensa quedó en duda después de que Anthropic supuestamente expresara su preocupación por el uso por parte del Pentágono de su modelo de inteligencia artificial Claude durante la redada de Nicolás Maduro en enero.
“Se está revisando la relación del Departamento de Guerra con Anthropic”, dijo a Fortune el portavoz jefe del Pentágono, Sean Parnell, en un comunicado. “Nuestra nación exige que nuestros socios estén preparados para ayudar a nuestros combatientes a ganar cualquier batalla. En última instancia, se trata de nuestras tropas y la seguridad del pueblo estadounidense”.
Las tensiones han aumentado en las últimas semanas después de que, según informes, un alto funcionario de Anthropic se acercó a un alto ejecutivo de Palantir para preguntarle cómo se utilizó a Claude en la redada, según The Hill. Un ejecutivo de Palantir interpretó esta información como una desaprobación del modelo utilizado en la redada y transmitió los detalles del intercambio al Pentágono. (El presidente Trump dijo que el ejército utilizó armas de “desintegración” durante la redada que dejaron el equipo enemigo “inoperable”).
“Anthropic no ha discutido el uso de Claude para operaciones específicas con el Departamento de Guerra”, dijo un portavoz de Anthropic en un comunicado a Fortune. “Tampoco hemos discutido esto con ningún socio de la industria ni les hemos planteado preocupaciones, excepto en discusiones rutinarias sobre asuntos estrictamente técnicos”.
En el centro de esta disputa están las restricciones de los tratados que rigen cómo se pueden utilizar los modelos de IA en operaciones de defensa. El director ejecutivo de Anthropic, Dario Amodei, ha abogado constantemente por límites estrictos al uso y la regulación de la IA, incluso reconociendo que cada vez es más difícil equilibrar la seguridad y las ganancias. Desde hace meses, la empresa y el Departamento de Defensa han estado enfrascados en negociaciones polémicas sobre cómo se podría utilizar Claude en operaciones militares.
Según su contrato con el Departamento de Defensa, Anthropic no permitirá que el Pentágono utilice sus modelos de inteligencia artificial para la vigilancia masiva de estadounidenses ni utilice su tecnología en armas totalmente autónomas. La empresa también prohibió el uso de su tecnología con fines militares “letales” o “cinéticos”. Cualquier participación directa en tiroteos activos durante la incursión de Maduro probablemente violaría estas condiciones.
Entre las empresas de inteligencia artificial contratadas por el gobierno, incluidas OpenAI, Google y xAI, Anthropic está bien posicionada para posicionar a Claude como el único modelo de lenguaje grande permitido en las redes clasificadas del Pentágono.
Anthropic destacó esta posición en unas declaraciones a Fortune. “Claude se utiliza para una amplia gama de misiones relacionadas con la inteligencia en todo el gobierno, incluido el Departamento de Defensa, de acuerdo con nuestra Política de uso”.
La compañía está “comprometida a utilizar inteligencia artificial avanzada para respaldar la seguridad nacional de Estados Unidos”, según el comunicado. “Estamos participando de buena fe en discusiones productivas con el Departamento de Defensa sobre cómo continuar este trabajo y abordar adecuadamente estas cuestiones complejas”.
Palantir, OpenAI, Google y xAI no respondieron de inmediato a las solicitudes de comentarios.
La IA va a la guerra
Aunque el Departamento de Defensa ha intensificado sus esfuerzos para integrar la IA en sus operaciones, solo xAI ha autorizado al Departamento de Defensa a utilizar sus modelos “para todos los fines legales”, mientras que los demás mantienen restricciones de uso.
Amodei lleva meses haciendo sonar la alarma sobre la protección del usuario, ofreciendo Anthropic como una alternativa segura a OpenAI y Google en ausencia de regulaciones gubernamentales. “Estoy profundamente disgustado de que unas pocas empresas estén tomando estas decisiones”, dijo en noviembre. Si bien ha habido rumores de que Anthropic planea aliviar las restricciones, la compañía ahora enfrenta la posibilidad de quedar completamente excluida de la industria de defensa.
Un alto funcionario del Pentágono le dijo al secretario de Defensa de Axios, Pete Hegseth, que está “cerca” de eliminar a Anthropic de la cadena de suministro militar, lo que obligaría a cualquiera que quisiera hacer negocios con el ejército a cortar también los vínculos con la empresa.
“Va a ser un gran dolor de cabeza salir de esto, y nos aseguraremos de que paguen el precio por obligarnos así”, dijo un alto funcionario a la publicación.
Ser considerado una cuestión de riesgo de suministro militar es una designación especial que normalmente se reserva únicamente para adversarios extranjeros. El precedente más cercano es la prohibición gubernamental de Huawei en 2019 por motivos de seguridad nacional. En el caso de Anthropic, las fuentes le dijeron a Axios que los funcionarios del Departamento de Defensa han estado tratando de buscar pelea con la compañía con sede en San Francisco durante algún tiempo.
Los comentarios del Pentágono son los últimos en una disputa pública latente. El gobierno sostiene que si las empresas establecieran límites éticos a sus modelos, sería innecesariamente restrictivo y la gran cantidad de áreas grises haría que la tecnología fuera inútil. Mientras el Pentágono continúa negociando con los subcontratistas de IA para ampliar su uso, la disputa pública se está convirtiendo en una escaramuza indirecta sobre quién dictará el uso de la IA.
