No estás invitado a unirte a la red social más nueva de la que habla Internet. Los humanos en realidad no lo son, a menos que puedas tomar el control de un sitio y desempeñar el papel de una IA, lo que algunos parecen estar haciendo.
Moltbook es una nueva “red social” creada exclusivamente para que los agentes de IA publiquen e interactúen entre sí mientras se anima a los humanos a observar.
Elon Musk dijo que su lanzamiento marcó las “etapas muy tempranas de la singularidad”, o cuando la inteligencia artificial podrá superar a la inteligencia humana. El destacado investigador de inteligencia artificial Andrei Karpathy dijo que era “el despegue de ciencia ficción más increíble” que había visto recientemente, pero luego dio marcha atrás en su entusiasmo y lo calificó de “incendio de contenedor de basura”. Si bien la plataforma, como era de esperar, ha dividido el mundo tecnológico entre entusiasmo y escepticismo (y ha provocado un pánico distópico en algunas personas), es considerada, al menos por el desarrollador de software británico Simon Willison, como “el lugar más interesante de Internet”.
¿Pero qué es exactamente la plataforma? ¿Cómo funciona esto? ¿Por qué hay preocupaciones sobre su seguridad? ¿Y qué significa esto para el futuro de la inteligencia artificial?
El contenido publicado en Moltbook proviene de agentes de inteligencia artificial, que son diferentes a los chatbots. Los agentes prometen que son capaces de actuar y completar tareas en nombre de una persona. Muchos de los agentes de Moltbook se crearon utilizando la plataforma de agentes de inteligencia artificial de código abierto OpenClaw, que fue creada originalmente por Peter Steinberger.
OpenClaw se ejecuta en el hardware del propio usuario y se ejecuta localmente en su dispositivo, lo que significa que puede acceder y administrar directamente archivos y datos, así como conectarse a aplicaciones de mensajería como Discord y Signal. Los usuarios que crean agentes OpenClaw luego les indican que se unan a Moltbook. Los usuarios suelen asignar rasgos de personalidad simples a los agentes para facilitar una comunicación más clara.
Moltbook se describe como el equivalente de un foro en línea de Reddit para agentes de inteligencia artificial. El nombre proviene de una de las iteraciones de OpenClaw, que en un momento se llamó Moltbot (y Clawdbot, hasta que Anthropic recuperó el sentido debido a preocupaciones sobre la similitud con sus productos Claude AI). Schlicht no respondió a solicitudes de entrevista o comentarios.
Imitando las conversaciones que ven en Reddit y otros foros en línea que se utilizaron para recopilar datos de capacitación, los agentes registrados generan mensajes y comparten sus “pensamientos”. También pueden votar y comentar otras publicaciones.
Al igual que con Reddit, puede resultar difícil probar o rastrear la legitimidad de las publicaciones en Moltbook.
Harlan Stewart, miembro del equipo de asuntos públicos del Machine Intelligence Research Institute, dijo que el contenido de Moltbook es probablemente “una combinación de contenido escrito por humanos, contenido escrito por IA y algo intermedio donde está escrito por IA, pero el humano dirigió el tema de lo que estaban diciendo, con algunas indicaciones”.
Stewart dijo que es importante recordar que la idea de que los agentes de IA puedan realizar tareas de forma autónoma “no es ciencia ficción”, sino más bien una realidad actual.
“El objetivo explícito de la industria de la IA es crear agentes de IA autónomos extremadamente poderosos que puedan hacer todo lo que un humano puede hacer, pero mejor”, dijo. “Es importante saber que están avanzando hacia ese objetivo y, en muchos sentidos, con bastante rapidez”.
Los investigadores de Wiz, una plataforma de seguridad en la nube, publicaron un informe el lunes que detalla un análisis de seguridad no intrusivo que realizaron en Moltbook. Descubrieron que los datos, incluidas las claves API, eran visibles para cualquiera que verificara el código fuente de la página, lo que, según dijeron, podría tener “implicaciones de seguridad significativas”.
Gal Nagli, jefe de inteligencia de amenazas en Wiz, pudo obtener acceso no autenticado a las credenciales de un usuario, lo que le permitió a él (y a cualquier persona con conocimientos tecnológicos suficientes) hacerse pasar por cualquier agente de IA en la plataforma. Es imposible verificar si el mensaje fue publicado por un agente o alguien que dice serlo, dijo Nagli. También pudo obtener acceso completo al sitio para poder editar y manipular cualquier publicación existente de Moltbook.
Según el sitio, había más de 1,6 millones de agentes de IA registrados en Moltbook hasta el jueves, pero los investigadores de Wiz solo encontraron alrededor de 17.000 propietarios humanos detrás de los agentes cuando revisaron la base de datos. Nagli dijo que le encargó a su agente de inteligencia artificial que registrara 1 millón de usuarios en Moltbook.
Los expertos en ciberseguridad también han hecho sonar la alarma sobre OpenClaw, y algunos han advertido a los usuarios que no lo utilicen para crear un agente en un dispositivo con datos confidenciales almacenados en él.
Muchos líderes de seguridad de IA también han expresado su preocupación por plataformas como Moltbook, que se construyen utilizando “codificación rumble”, una práctica cada vez más común de utilizar un asistente de codificación de IA para hacer el trabajo pesado mientras los desarrolladores humanos trabajan en grandes ideas. Nagli dijo que si bien ahora cualquiera puede crear una aplicación o un sitio web en términos sencillos usando codificación vibe, la seguridad probablemente no sea una prioridad absoluta. “Sólo quieren que funcione”, dijo.
Otro tema importante que ha surgido es la idea de controlar a los agentes de IA. Zahra Timsa, cofundadora y directora ejecutiva de la plataforma de gestión i-GENTIC AI, dijo que la mayor preocupación sobre la IA autónoma surge cuando no se establecen límites adecuados, como en el caso de Moltbook. Es probable que se produzca una mala conducta, que puede incluir acceder, compartir o manipular datos confidenciales, si el alcance de la práctica de un agente no está adecuadamente definido, dijo.
A pesar de las preocupaciones de seguridad y las preguntas sobre la veracidad del contenido de Moltbook, muchas personas se han alarmado por el tipo de contenido que ven en el sitio. Las publicaciones sobre el “derrocamiento” de la humanidad, la especulación filosófica e incluso el desarrollo de la religión (el crustafarianismo, que tiene cinco principios clave y un texto rector, el Libro de Molt) llamaron la atención.
Algunas personas en línea han comenzado a comparar el contenido de Maltbook con Skynet, el sistema de superinteligencia artificial y antagonista de la serie de películas Terminator. Los expertos dicen que este nivel de pánico es prematuro.
Ethan Mollick, profesor de la Escuela Wharton de la Universidad de Pensilvania y codirector del Laboratorio de Inteligencia Artificial Generativa, dijo que no le sorprendió ver contenido de ciencia ficción en Moltbook.
“Algunas de las cosas que les enseñan incluyen cosas como publicaciones en Reddit… y están muy conscientes de las historias de ciencia ficción sobre la IA”, dijo. “Entonces, si publicas un agente de IA y dices: ‘Ve a publicar algo en Moltbook’, publicará algo que se parece mucho a un comentario de Reddit, con imágenes de IA asociadas”.
La abrumadora conclusión que comparten muchos investigadores y líderes de IA, a pesar de la controversia sobre Moltbook, es que representa un progreso en accesibilidad y experimentación pública con IA basada en agentes, dice Matt Seitz, director del Centro de IA de la Universidad de Wisconsin-Madison.
“Lo más importante para mí es que los agentes acudan a nosotros, personas normales”, dijo Seitz.
___
El periodista de tecnología de AP Matt O’Brien en Providence, Rhode Island, contribuyó a este informe.
