Cuando la administración Trump calificó a Anthropic como un “riesgo para la cadena de suministro” y ordenó a todas las agencias federales que dejaran de utilizar Claude, no se limitó a cancelar un contrato de 200 millones de dólares. Esto puede haber puesto en marcha una cadena de acontecimientos que está debilitando a la empresa de inteligencia artificial más avanzada de Estados Unidos en el momento en que Estados Unidos más la necesita.
Anthropic ha presentado dos demandas contra el Departamento de Defensa. Lo que suceda a continuación puede ser mucho más significativo de lo que cualquiera de las partes cree.
¿Qué pasó realmente?
Supuestamente, Anthropic se negó a darle al Pentágono acceso ilimitado a Claude, su modelo avanzado de inteligencia artificial, el único que actualmente se ejecuta en redes militares clasificadas. Querían garantías de que no habría vigilancia masiva ni armas autónomas sin la participación humana en la toma de decisiones finales sobre la vida o la muerte. El mensaje del Departamento de Guerra fue: “Eliminen estas restricciones o lo perderán todo”. Y el presidente Trump ordenó a todas las agencias federales que dejaran de usar Anthropic y calificó a la empresa como un “riesgo para la cadena de suministro”.
Pero hay más en esta historia que sólo demandas y egos heridos.
La verdadera amenaza no es el contrato.
La ley federal ya prohíbe la vigilancia masiva de ciudadanos estadounidenses. La política del Departamento de Defensa ya limita las armas autónomas. Anthropic reclama un veto contractual sobre actividades que ya son ilegales. Una empresa privada que afirma tener control sobre cómo opera el ejército de los Estados Unidos es inaceptable. Nadie eligió a Dario Amodei y no permitimos que Lockheed dicte una doctrina sobre objetivos. La idea de que una empresa de software debería tener poder de veto sobre las decisiones militares operativas no tiene precedentes.
Claude supera a ChatGPT en prácticamente todos los criterios empresariales, desde la justificación legal y el modelado financiero hasta la ciberseguridad y la modernización de sistemas heredados. Pero la designación del Departamento de Guerra como “riesgo de la cadena de suministro” amenaza con poner fin al impulso comercial de Anthropic antes de que pueda capitalizar plenamente su liderazgo tecnológico.
En juego geopolítico
Anthropic firmó un contrato de 200 millones de dólares con el Pentágono en julio de 2025. Esto fue hace ocho meses. Ahora el escenario está listo y OpenAI está entrando en acción y llenando ese vacío. Decir que sucedió rápidamente sería quedarse corto.
Además, Anthropic y OpenAI han acusado públicamente a los laboratorios chinos de mejorar sus modelos. Estas versiones robadas de código abierto, incluido Deepseek, ahora están disponibles para el EPL, Irán y todos los atacantes del planeta sin ninguna restricción. ¿Queremos existir en un mundo donde las empresas estadounidenses limitan su ejército mientras los adversarios se entrenan con versiones pirateadas de la misma tecnología sin ninguna restricción?
La verdadera amenaza existencial no es la pérdida de un contrato de 200 millones de dólares, sino un efecto dominó que se extenderá a través de AWS, Google, Palantir, Accenture, Deloitte y todo el ecosistema de contratistas de defensa, llegando profundamente a la base de clientes comerciales de Anthropic en Estados Unidos.
El mundo empresarial ha demostrado que hará lo que sea necesario para mantener contenta a la actual administración. Actualmente, todas las empresas que hacen negocios con el gobierno federal deben certificar que sus productos tienen un impacto antropogénico nulo. AWS, Google Cloud y Azure sirven al gobierno, y Anthropic dice que las empresas más grandes de EE. UU. utilizan Claude, muchas de ellas contratistas de defensa. Si esto sucede, es posible que Anthropic no sea viable en los Estados Unidos durante mucho tiempo.
¿Puede Anthropic ganar en los tribunales?
Mi punto de vista es que jurídicamente esta designación no se mantendrá. Hay 10 limitaciones del artículo 3252 del USC, el debido proceso y los argumentos de la Primera Enmienda, así como los precedentes de Luokung y Xiaomi. También hay una contradicción interna: el gobierno dice que Anthropic es peligroso pero le da seis meses para eliminarlo gradualmente.
Todo esto combinado le da a Anthropic la oportunidad de ganar estos dos disfraces. Tienen miles de millones, lo que significa que pueden permitirse el mejor equipo legal que el dinero pueda comprar. Tienen las municiones y la voluntad para luchar contra esta administración durante el tiempo que sea necesario.
¿Qué debería hacer Anthropic ahora?
La victoria en los tribunales es necesaria, pero no suficiente. Para seguir siendo viable, Anthropic necesita actuar en varios frentes simultáneamente:
Acelerar el dominio comercial interno de empresas no asociadas a contratos gubernamentales. Desarrolle una estrategia de gobierno aliado: identifique qué socios internacionales pueden beneficiarse de Claude y construya inmediatamente esa base de clientes. En los litigios agresivos e interminables, la demora es el enemigo. Profundizar la dependencia del ecosistema liderando una coalición de gobernanza para una IA responsable y basada en valores: cuanta más confianza del público y de la industria genere Anthropic, más fuerte será su posición a largo plazo.
La cuestión principal no tiene que ver realmente con las demandas ni con el dinero de los contratos. Se trata de quién define los límites de la defensa nacional: los funcionarios electos responsables ante los votantes o los ejecutivos tecnológicos responsables ante sus juntas directivas. Vinod Khosla lo expresa sin rodeos: admira los principios de Anthropic, pero no está de acuerdo con los principios mismos.
Las opiniones expresadas en los comentarios de Fortune.com son únicamente las de los autores y no reflejan necesariamente las opiniones y creencias de Fortune.
