Summer Yue no es la empleada más famosa de Meta. La directora de “investigación de superinteligencia y seguridad” publica fotos de ella paseando a su perro por la playa y publicaciones sobre cómo probar la integridad de los asistentes de IA. Tiene un número modesto de seguidores en las redes sociales.
Pero por un día de febrero, Yue se convirtió en la persona de la que más se hablaba en Meta. No para lanzar un gran producto nuevo o anunciar un gran avance en inteligencia artificial basada en agentes, sino más bien para quedar atrapado.
“Nada te humilla más que decirle a tu OpenClaw que ‘confirme antes de actuar’ y verlo acelerar al eliminar tu bandeja de entrada”, escribió Yue en X, una publicación que ahora tiene casi 10 millones de visitas. “No podía detenerlo desde mi teléfono. Tuve que correr hacia mi Mac mini como si estuviera desactivando una bomba”.
Es una conversación vital, tan importante que en el Mobile World Congress de esta semana en Barcelona -la reunión tecnológica más grande del mundo- la confusión de Yue fue discutida en el escenario principal.
“Ciertamente todos aquí en el Congreso Mundial hablaban de OpenClaw y de cómo podríamos utilizar agentes”, dijo Kate Crawford, profesora de investigación de la Universidad del Sur de California.
“Pero luego vimos que el jefe de seguridad de IA de Meta usaba OpenClaw y borró toda su bandeja de entrada. Ese es el jefe de seguridad de Meta. Entonces, si tiene problemas, creo que todos deberíamos preguntarnos: ‘¿Cómo podemos asegurarnos de que estos sistemas sean realmente seguros?’ ¿Cómo podemos asegurarnos de que sean examinados minuciosamente? ¿Cómo podemos estar seguros de que podemos delegarles de forma fiable?”. Y ese es realmente el problema más difícil, ¿no?
Bien. Si algo sale mal ¿quién es el responsable? ¿Usuario? ¿Revelador? ¿Falta de regulación? ¿Qué hacemos cuando la realidad de la IA contradice su promesa?
Los mensajes entrantes de Yue pueden ser de suma importancia para ella. Cuando se trata de la relación entre la tecnología y, digamos, nuestra salud o, fíjate en Anthropic, la defensa de la nación, entonces la cuestión es completamente diferente. No hace mucho, Grok, un robot de inteligencia artificial xAI, “desnudó” accidentalmente imágenes de mujeres y niñas, para disgusto de millones. La amenaza de una acción gubernamental y estatal finalmente ha llevado a un cambio de enfoque.
“¿Cómo podemos asegurarnos de que estos sistemas sean realmente seguros? ¿Cómo podemos asegurarnos de que se prueben exhaustivamente?”
Kate Crawford, profesora de investigación de la Universidad del Sur de California
“¿Cómo se garantiza realmente la rendición de cuentas?” preguntó Crawford. “Eso es lo que todos queremos. Si vas a empezar a utilizar agentes para reservar billetes de avión, concertar citas médicas e incluso actividades más íntimas y de confianza en tu vida diaria, querrás saber que la información estará protegida.
“Entonces, ¿cómo se verifica eso? ¿Cómo se puede garantizar que eso esté sucediendo? Si miramos lo que ha sucedido en los últimos 10 años en el espacio tecnológico, desafortunadamente hemos visto mucho lavado de responsabilidad; ahí es cuando las empresas pueden decir: ‘Bueno, no lo sé’. Quiero decir, el algoritmo lo hizo”.
