Anthropic ha enfatizado su neutralidad política a medida que la administración Trump intensifica su campaña contra la llamada “IA despierta”, colocándose en el centro de una lucha cada vez más ideológica sobre cómo los grandes modelos lingüísticos deberían hablar sobre política.
En una publicación de blog el jueves, Anthropic detalló sus esfuerzos continuos para capacitar a su chatbot Claude para que se comporte con lo que llama “imparcialidad política”, un marco diseñado para garantizar que el modelo considere puntos de vista opuestos “con la misma profundidad, compromiso y calidad de análisis”.
La compañía también lanzó un nuevo método automatizado para medir el sesgo político y publicó resultados que muestran que su último modelo, el Claude Sonnet 4.5, supera o iguala a sus competidores en neutralidad.
El anuncio se produce en medio de una presión política inusualmente fuerte. En julio, el presidente Donald Trump firmó una orden ejecutiva que prohíbe a las agencias federales comprar sistemas de inteligencia artificial que “sacrificen la verdad y la precisión por agendas ideológicas”, calificando explícitamente las iniciativas de diversidad, equidad e inclusión como una amenaza para la “IA confiable”.
Y David Sachs, jefe de inteligencia artificial de la Casa Blanca, ha acusado públicamente a Anthropic de promover la ideología liberal e intentar una “captura regulatoria”.
Por supuesto, Anthropic señala en su blog que han estado entrenando a Claude en los rasgos de carácter de “imparcialidad” desde principios de 2024. En publicaciones de blog anteriores, incluida una sobre las elecciones de febrero de 2024, Anthropic menciona que probaron su modelo para ver cómo resiste los “abusos electorales”, incluida la “desinformación y el sesgo”.
Pero la firma de San Francisco ahora tenía que demostrar su neutralidad política y defenderse contra lo que el director ejecutivo de Anthropic, Dario Amodei, llamó un “reciente aumento de afirmaciones inexactas”.
En una declaración a CNBC, añadió: “Estoy plenamente convencido de que Anthropic, la administración y los líderes de todo el espectro político quieren lo mismo: garantizar que las potentes tecnologías de IA beneficien al pueblo estadounidense y que Estados Unidos avance y asegure su liderazgo en el desarrollo de la IA”.
El compromiso de la empresa con la neutralidad realmente va mucho más allá del lenguaje típico de marketing. Anthropic dice que ha reescrito el sistema de Claude (sus instrucciones permanentes) para incluir consejos como evitar opiniones políticas indeseables, abstenerse de retórica persuasiva, usar terminología neutral y ser capaz de “pasar la prueba ideológica de Turing” cuando se le pide que articule puntos de vista opuestos.
La firma también le enseñó a Claude a evitar influir en los usuarios sobre “cuestiones políticas de alto riesgo” al dar a entender que una ideología es mejor y no presionar a los usuarios a “desafiar sus puntos de vista”.
La evaluación de Anthropic encontró que Claude Sonnet 4.5 recibió una calificación de “imparcialidad” del 94%, que está aproximadamente a la par con Gemini 2.5 Pro de Google (97%) y Grok 4 de Elon Musk (96%) y superior a GPT-5 de OpenAI (89%) y Llama 4 de Meta (66%). Claude también mostró una baja tasa de fracaso, lo que significa que el modelo generalmente estaba dispuesto a involucrarse con ambos lados de un debate político en lugar de retirarse por precaución.
Las empresas del sector de la inteligencia artificial (OpenAI, Google, Meta, xAI) se ven obligadas a navegar las nuevas reglas de adquisiciones de la administración Trump y un entorno político donde las quejas sobre “sesgos” pueden convertirse en serios riesgos comerciales.
Pero Anthropic en particular está bajo un mayor ataque, en parte debido a sus advertencias pasadas sobre la seguridad de la IA, su base de inversores de tendencia demócrata y su decisión de limitar algunos usos de la aplicación de la ley.
“Seguiremos siendo honestos y directos y defenderemos las políticas que creemos que son correctas”, escribió Amodei en su blog. “Lo que está en juego con esta tecnología es demasiado grande para que podamos actuar de otra manera”.
Corrección, 14 de noviembre de 2025: una versión anterior de este artículo caracterizó erróneamente la línea de tiempo y el incentivo de Anthropic para aprender sesgos políticos en su modelo de inteligencia artificial. La formación comenzó a principios de 2024.
