Exclusivo: Anthropic deja detalles inéditos del modelo en una base de datos pública, próximo evento exclusivo del CEO | Suerte

Fecha:

Compartir publicación:

La empresa de inteligencia artificial Anthropic filtró sin darse cuenta detalles del próximo lanzamiento de un modelo, un evento exclusivo para su director ejecutivo y otros datos internos, incluidas imágenes y archivos PDF, en lo que parece ser una grave violación de seguridad.

La información que aún no está disponible públicamente está disponible a través del sistema de gestión de contenidos (CMS) de la empresa, que Anthropic utiliza para publicar información en secciones del sitio web de la empresa.

Antes de estas medidas, Anthropic almacenaba todo el contenido de su sitio web, como publicaciones de blogs, imágenes y documentos, en un sistema central al que se podía acceder sin iniciar sesión. Cualquier persona con conocimientos técnicos puede enviar solicitudes a este sistema público solicitando información sobre los archivos que contiene para ser devueltos.

Aunque parte de este contenido no se publicó en el sitio web de Anthropic, el sistema subyacente aún devolvió los activos digitales almacenados a cualquiera que supiera cómo preguntar. Esto significa que se puede acceder directamente al material inédito, incluidos borradores y recursos internos.

El problema parece estar relacionado con la forma en que funciona el sistema de gestión de contenidos (CMS) utilizado por Anthropic. Todos los recursos, como logotipos, gráficos o artículos de investigación, que se cargaron en el depósito central de datos eran públicos de forma predeterminada, a menos que se designaran explícitamente como privados. La compañía parece haber olvidado restringir el acceso a algunos documentos que no deberían haber estado disponibles públicamente, lo que resultó en una gran cantidad de archivos disponibles en el lago de datos públicos de la compañía, dijeron a Fortune los expertos en ciberseguridad que analizaron los datos. Algunos de los activos de la empresa también tenían direcciones de navegador públicas.

“Un problema con una de nuestras herramientas CMS externas provocó que el contenido en borrador estuviera disponible”, dijo un portavoz de Anthropic a Fortune. Un portavoz atribuyó el problema a “un error humano en la configuración del CMS”.

Recientemente ha habido varios casos de alto perfil en los que las empresas de tecnología han experimentado fallas técnicas y fallas debido a problemas con el código generado por IA o los agentes de IA. Pero Anthropic, que fabrica los populares modelos de IA de Claude y se jacta de automatizar gran parte de su propio desarrollo de software interno utilizando agentes de codificación de IA basados ​​en Claude, dijo que la IA no tenía la culpa en este caso.

El problema del CMS “no está relacionado con Claude, Cowork ni ninguna herramienta de IA de Anthropic”, dijo un portavoz de Anthropic.

La empresa también buscó restar importancia a parte del material que quedó desprotegido. “Estos materiales eran borradores iniciales de contenido considerado para publicación y no abordaban nuestra infraestructura central, sistemas de inteligencia artificial, datos de clientes o arquitectura de seguridad”, dijo el portavoz.

Si bien muchos documentos, como imágenes, pancartas y logotipos, parecen ser activos descartados o no utilizados de publicaciones de blogs anteriores, algunos datos parecen contener información confidencial detallada.

Los documentos contienen detalles de próximos anuncios de productos, incluida información sobre un modelo de inteligencia artificial inédito que, según Anthropic en los documentos, es el modelo más capaz que jamás haya entrenado.

Cuando Fortune se puso en contacto con ella, la compañía reconoció que está desarrollando y probando con clientes de acceso temprano un nuevo modelo que, según afirma, representa un “cambio radical” en las capacidades de inteligencia artificial, con un rendimiento significativamente mejor en “razonamiento, codificación y ciberseguridad” que los modelos anteriores de Anthropic.

Los datos disponibles públicamente también incluyen información sobre un próximo retiro ejecutivo para importantes empresas europeas en el Reino Unido, al que se espera que asista el CEO de Anthropic, Dario Amodei. Un portavoz de Anthropic dijo que el retiro era “parte de una serie de eventos que hemos organizado durante el año pasado” y que la compañía está “desarrollando un modelo de propósito general con avances significativos en razonamiento, codificación y ciberseguridad”.

Los documentos también incluían imágenes que parecían estar destinadas a uso interno, incluida una imagen con un título que describía la “licencia por maternidad” de una empleada.

Esta no es la primera vez que una empresa de tecnología lanza accidentalmente versiones internas o preliminares de activos, dejándolas disponibles públicamente hasta el anuncio oficial.

Apple filtró información dos veces a través de su propio sitio web: una vez en 2018, cuando los nombres de los futuros iPhones aparecieron en un archivo de mapa del sitio público horas antes del lanzamiento, y nuevamente a fines de 2025, cuando un desarrollador descubrió que Apple había lanzado una App Store actualizada con archivos de depuración activos, lo que hacía que todo el código interno del sitio fuera legible por cualquier usuario del navegador.

Compañías de juegos como Epic Games y Nintendo también han visto imágenes de vista previa, activos del juego y otros medios filtrados a través de sistemas de entrega de contenido (CDN) o servidores de preparación, similar al lago de datos Anthropic utilizado en este caso. Incluso empresas más grandes como Google han publicado accidentalmente documentación interna en URL públicas y los datos relacionados con los vehículos Tesla han quedado expuestos a través de servidores de terceros mal configurados.

Sin embargo, es probable que el problema se vea exacerbado por las herramientas de codificación de inteligencia artificial que ahora están disponibles en el mercado, incluido el propio Claude Code de Anthropic.

Estas herramientas pueden automatizar el rastreo, el descubrimiento de patrones y la correlación de recursos públicos, haciendo que este tipo de contenido sea mucho más fácil de descubrir y reduciendo las barreras de acceso. Las herramientas de inteligencia artificial como Claude Code o Codex también pueden generar scripts o consultas que escanean conjuntos de datos completos, identificando rápidamente patrones o convenciones de nomenclatura de archivos que un humano podría pasar por alto.

Website |  + posts
spot_img

Artículos relacionados

Los estadounidenses están comprando más ropa usada, pero la verdadera historia es quién compra qué: la reventa de artículos de lujo está en auge,...

Los estadounidenses nuevamente están gastando más en ropa usada después de años de luchar contra el aumento de...

Olvídese de LinkedIn: Andy Jassy de Amazon fundó un club para comer alitas de pollo cuando se mudó por primera vez a Seattle por...

Mudarse a una nueva ciudad y empezar un nuevo trabajo puede ser una de las partes más intimidantes...

Precio actual del petróleo al 25 de abril de 2026 | Suerte

A las 9 a.m. ET de hoy, el precio del petróleo era de 106,01 dólares por barril, con...

La tasa de suicidio entre los jóvenes cae un 11% en 2,5 años desde la nueva línea directa de salud mental 988 | Suerte

En los primeros dos años y medio de funcionamiento de la línea directa de salud mental 988, casi...