El viernes, apenas unas horas después de respaldar públicamente al competidor Anthropic para que se mantuviera firme frente a las demandas del Pentágono, el director ejecutivo de OpenAI, Sam Altman, anunció que su empresa había firmado su propio acuerdo con el Departamento de Defensa. La medida se produce poco después de que el gobierno de EE. UU. tomara la medida muy inusual de declarar a Anthropic un “riesgo para la cadena de suministro”.
La decisión de OpenAI generó críticas de muchos investigadores de inteligencia artificial y expertos en políticas tecnológicas, aunque OpenAI dijo que había asegurado restricciones en su acuerdo con respecto a la vigilancia de ciudadanos estadounidenses y armas letales autónomas que Anthropic quería incluir en su contrato pero que el Pentágono rechazó.
Uno de los puntos clave de desacuerdo fue la cuestión de la vigilancia masiva dentro del país. Los expertos han advertido durante mucho tiempo que la IA avanzada puede tomar datos dispares, individualmente inocuos, como la ubicación de una persona, sus finanzas y su historial de búsqueda, y ensamblarlos en una imagen completa de la vida de cualquier persona, de forma automática y a escala. El director ejecutivo de Anthropic, Dario Amodei, dijo que este tipo de vigilancia masiva impulsada por IA plantea riesgos nuevos y graves para las “libertades fundamentales” de las personas y que “la ley aún no ha alcanzado las capacidades de rápido crecimiento de la IA”.
Pero aunque OpenAI dijo en una publicación de blog que había llegado a un acuerdo con el Pentágono según el cual su tecnología no se utilizaría para vigilancia nacional masiva o sistemas de armas autónomos directos (dos restricciones estrictas que Anthropic se ha negado a renunciar), algunos expertos legales y políticos han planteado dudas sobre una posible laguna en la ley.
Parte de la disputa gira en torno a la poco clara legalidad del análisis a gran escala de los datos de los estadounidenses, que es legal según las leyes estadounidenses actuales incluso si parece indistinguible de la vigilancia masiva.
“Actualmente, según la ley estadounidense, las agencias gubernamentales pueden comprar información comercial de intermediarios de datos y otros terceros”, dijo Samir Jain, vicepresidente de políticas del Centro para la Democracia y la Tecnología. “Si se compran grandes cantidades de datos y se permite que la IA los analice, básicamente se podría terminar participando en una vigilancia masiva de los estadounidenses a través de este proceso. Actualmente, esto no está restringido ni prohibido por ley”.
OpenAI sostiene que sus “líneas rojas” se implementan a través de los sistemas técnicos que planea construir, así como a través del lenguaje de su contrato con el Pentágono. Según un blog publicado por la empresa, el contrato autoriza al Departamento de Defensa a utilizar la IA “para todos los fines legales compatibles con la ley aplicable, los requisitos operativos y los protocolos de seguridad y supervisión establecidos”, al tiempo que prohíbe expresamente el seguimiento irrestricto de la información privada de los estadounidenses.
El problema es que lo que se considera “legal” puede cambiar. El contrato OpenAI se refiere a las leyes y políticas existentes del Departamento de Defensa, pero esas políticas pueden cambiar en el futuro. “Nada de lo que hayan publicado impedirá que esta política se cambie en el futuro”, dijo Jain.
Algunos críticos argumentan que las agencias de inteligencia existentes ya permiten formas de vigilancia que OpenAI dice prohibir. Mike Masnick, fundador del blog Techdirt, escribió en las redes sociales que el acuerdo “permite absolutamente la vigilancia interna”, señalando la Orden Ejecutiva 12333, una autoridad de larga data que permite a las agencias de inteligencia recopilar comunicaciones fuera de los Estados Unidos que podrían incluir datos de los estadounidenses si se obtienen sin darse cuenta.
Algunos debates se centran en leyes estadounidenses específicas que rigen diversas actividades de seguridad nacional. Las acciones del ejército estadounidense se rigen generalmente por el Título 10 del Código Federal de Estados Unidos. Esto incluye el trabajo que realizan la Agencia de Inteligencia de Defensa y el Comando Cibernético de EE. UU. en apoyo de las operaciones militares. Pero parte del trabajo de la DIA se rige por otra parte de la ley estadounidense, el Título 50 del Código estadounidense, que generalmente rige la recopilación y las actividades encubiertas de inteligencia. El trabajo de la Agencia Central de Inteligencia y la Agencia de Seguridad Nacional generalmente también cae bajo el Título 50. Algunas de las actividades más sensibles cubiertas por el Título 50, especialmente las actividades encubiertas, tienen lugar en gran medida entre bastidores y requieren una decisión presidencial.
En una publicación de blog publicada durante el fin de semana, OpenAI compartió una descripción detallada de su acuerdo con el Pentágono y, según una publicación en las redes sociales del destacado investigador de OpenAI, Noam Brown, la directora de asociaciones de seguridad nacional de la compañía, Katrina Mulligan, le dijo a Brown que el contrato de OpenAI no cubre el trabajo del Título 50 de la comunidad de inteligencia, que es una de las principales preocupaciones de los críticos. Los representantes de OpenAI no respondieron de inmediato a la solicitud de comentarios de Fortune.
Pero los juristas dicen que la distinción entre las actividades del Título 10 y del Título 50 se está volviendo cada vez más borrosa. En la práctica, los dos procesos pueden parecer muy similares y ambos pueden implicar el análisis de datos sobre entidades extranjeras o patrones de seguimiento. Pero esta superposición crea un área gris para empresas como OpenAI: un contrato que prohíbe el trabajo del Título 50 no prohíbe automáticamente a las agencias del Título 10 como DIA utilizar IA para analizar conjuntos de datos disponibles comercialmente o no clasificados.
“Si afirman que su sistema no se puede utilizar para ninguna actividad de la Sección 50, eso reduce el alcance de la actividad para la que se puede utilizar el sistema de IA”, dijo Jain. – Pero esto no soluciona el problema.
