El director ejecutivo de Anthropic, Dario Amodei, no cree que deba ser él quien tome las decisiones en torno a la inteligencia artificial.
“Creo que me siento muy incómodo con que estas decisiones las tomen unas pocas empresas y unas pocas personas”, dijo Amodei. “Y esa es una de las razones por las que siempre he abogado por una regulación responsable y reflexiva de la tecnología”.
“¿Quién los eligió a usted y a Sam Altman?” – preguntó Cooper.
“Nadie. Sinceramente, nadie”, respondió Amodei.
Añadió que Anthropic ha adoptado una filosofía de transparencia sobre las limitaciones y peligros de la IA a medida que continúa desarrollándose. Antes de la publicación de la entrevista, la compañía dijo que había frustrado “el primer caso documentado de un ciberataque a gran escala utilizando inteligencia artificial y llevado a cabo sin intervención humana significativa”.
La semana pasada, Anthropic dijo que había donado 20 millones de dólares a Public First Action, un súper PAC centrado en la seguridad y regulación de la IA que se opone directamente a los súper PAC respaldados por los inversores rivales de OpenAI.
“La seguridad de la IA sigue siendo un foco de atención en los niveles más altos”, dijo Amodei a Fortune en un artículo de enero. “Las empresas valoran la confianza y la fiabilidad”, afirma.
No existen regulaciones federales que definan restricciones sobre el uso de la IA o la seguridad de esta tecnología. Si bien los 50 estados aprobaron leyes relacionadas con la IA este año y 38 aprobaron o implementaron medidas de transparencia y seguridad, los expertos de la industria tecnológica han pedido a las empresas de IA que adopten un enfoque más urgente en materia de ciberseguridad.
A principios del año pasado, el experto en ciberseguridad y director ejecutivo de Mandiant, Kevin Mandia, advirtió que el primer ataque de ciberseguridad que utilizaría un agente de inteligencia artificial se produciría en los próximos 12 a 18 meses. Esto significa que la divulgación por parte de Anthropic del ataque frustrado está meses antes de lo previsto por Mandia.
Amodei describió los riesgos a corto, mediano y largo plazo asociados con la IA sin restricciones: la tecnología inicialmente introducirá sesgos y desinformación, como lo hace ahora. Luego generará información maliciosa utilizando conocimientos avanzados de ciencia y tecnología, antes de presentar finalmente una amenaza existencial al quitarle la agencia humana, volverse potencialmente demasiado autónomo y bloquear a las personas fuera de los sistemas.
Estas preocupaciones reflejan las del “padrino de la IA”, Geoffrey Hinton, quien advirtió que la IA podrá burlar y controlar a los humanos, tal vez dentro de la próxima década.
La necesidad de un mayor control y protección de la IA fue el núcleo de la fundación de Anthropic en 2021. Amodei fue anteriormente vicepresidente de investigación en OpenAI de Sam Altman. Dejó la empresa debido a desacuerdos sobre cuestiones de seguridad de la IA. (Hasta ahora, los esfuerzos de Amodei para competir con Altman parecen ser efectivos: Anthropic dijo este mes que ahora está valorado en 380 mil millones de dólares. OpenAI está valorado en alrededor de 500 mil millones de dólares).
“Había un grupo de nosotros en OpenAI que, después de crear GPT-2 y GPT-3, creíamos firmemente en dos cosas”, dijo Amodei a Fortune en 2023. “Una era la idea de que si se ponía más computación en estos modelos, mejorarían cada vez más, y que eso casi no tenía fin… Y la segunda era la idea de que se necesitaba algo además de simplemente escalar los modelos, es decir, alineación o seguridad”.
Los esfuerzos de transparencia de Anthropic
Mientras continúa ampliando su inversión en centros de datos, Anthropic ha publicado algunos de sus esfuerzos para abordar las deficiencias y amenazas de la IA. En un informe de seguridad de mayo de 2025, Anthropic dijo que algunas versiones de su modelo Opus fueron amenazadas con chantaje, como revelar que un ingeniero estaba teniendo una aventura, para evitar el cierre. La compañía también dijo que el modelo de inteligencia artificial realizaba consultas peligrosas si proporcionaba consejos dañinos, como cómo planificar un ataque terrorista, que, según dijo, ya han sido corregidos.
En noviembre pasado, la compañía informó en una publicación de blog que su chatbot Claude obtuvo una calificación de imparcialidad política del 94%, superando o igualando a sus competidores en neutralidad.
Además de los propios esfuerzos de investigación de Anthropic para combatir la corrupción tecnológica, Amodei pidió mayores esfuerzos legislativos para abordar los riesgos que plantea la IA. En un artículo de opinión del New York Times de junio de 2025, criticó la decisión del Senado de incluir una disposición en el proyecto de ley del presidente Donald Trump que habría impuesto una moratoria de 10 años a los estados que regulan la IA.
“La IA avanza demasiado rápido”, afirmó Amodei. “Creo que estos sistemas pueden cambiar fundamentalmente el mundo en dos años; en 10 años, todas las apuestas están canceladas”.
Crítica de lo antrópico
La práctica de Anthropic de señalar sus propios errores y sus esfuerzos por corregirlos ha generado críticas. En respuesta a que Anthropic hiciera sonar la alarma sobre un ataque de ciberseguridad de IA, el entonces científico jefe de Meta, Yann LeCun, dijo que la advertencia era una forma de manipular a los legisladores para que restringieran el uso de modelos de código abierto.
“Usted está siendo engañado por personas que quieren control regulatorio”, dijo LeCun en Post X en respuesta a que el senador de Connecticut Chris Murphy expresara su preocupación por el ataque. “Están asustando a todos con investigaciones cuestionables para que los modelos de código abierto dejen de existir”.
Otros dicen que la estrategia de Anthropic es un “teatro de seguridad” que es una buena marca pero no hace promesas sobre la implementación real de salvaguardas en torno a la tecnología.
Incluso algunos empleados de Anthropic parecen dudar de la capacidad de autorregulación de la empresa de tecnología. A principios de la semana pasada, el investigador de seguridad de Anthropic AI, Mrinank Sharma, anunció que había dejado la empresa y dijo: “El mundo está en peligro”.
“Durante mi estancia aquí, he visto repetidamente lo difícil que es dejar que nuestros valores guíen nuestras acciones”, escribió Sharma en su carta de renuncia. “Lo he visto en mí mismo, en organizaciones donde constantemente enfrentamos presión para dejar de lado lo más importante y en toda la sociedad”.
Anthropic no respondió de inmediato a la solicitud de comentarios de Fortune.
Amodei negó a Cooper que Anthropic estuviera participando en un “teatro de seguridad”, pero admitió en el episodio de la semana pasada del podcast Dwarkesh que la compañía a veces lucha por equilibrar la seguridad con las ganancias.
“Estamos bajo una presión comercial increíble y nos lo estamos poniendo más difícil porque contamos con todas estas medidas de seguridad, lo cual creo que hacemos más que otras empresas”, dijo.
Una versión de esta historia se publicó en Fortune.com el 17 de noviembre de 2025.
Más sobre la regulación de la IA:
