Pentágono califica al CEO antrópico de ‘mentiroso’ con ‘complejo de Dios’ a medida que se acerca la fecha límite | Suerte

Fecha:

Compartir publicación:

La empresa de inteligencia artificial Anthropic dijo que no podía aceptar la “mejor y última” oferta del Pentágono para resolver una disputa sobre las restricciones de la empresa sobre cómo el ejército estadounidense puede utilizar sus modelos de inteligencia artificial. Con solo unas horas restantes hasta la fecha límite del viernes para cumplir con las demandas del Pentágono o enfrentar acciones que podrían impedir a Anthropic hacer negocios con cualquier empresa que también haga negocios con el ejército estadounidense, la disputa se ha vuelto cada vez más grave.

Los funcionarios del Pentágono han cuestionado públicamente la identidad del director ejecutivo de Anthropic, Dario Amodei. Mientras tanto, los empleados de laboratorios rivales de inteligencia artificial firmaron cartas abiertas apoyando la posición de Anthropic. El director ejecutivo de OpenAI, Sam Altman, dijo a los empleados en un memorando el jueves, según un informe de Axios, que OpenAI impulsará las mismas restricciones sobre armas autónomas y vigilancia masiva que tiene Anthropic mientras negocia para expandir el uso de ChatGPT, que actualmente está disponible para los militares para casos de uso no sensibles, a dominios más sensibles.

La lucha entre la antropología y el Pentágono ahora amenaza con convertirse en un levantamiento en toda la industria entre los trabajadores tecnológicos de las empresas de inteligencia artificial sobre cómo los militares utilizan los sistemas de inteligencia artificial que crean. El jueves, más de 100 empleados de Google enviaron una carta a Jeff Dean, el científico jefe de la compañía, solicitando también restricciones similares sobre cómo el ejército estadounidense utiliza los modelos de inteligencia artificial de Gemini, según el New York Times.

El jueves, Amodei emitió una extensa declaración explicando por qué la compañía cree que debería haber límites en el uso de la tecnología de inteligencia artificial de su compañía para armas autónomas y vigilancia masiva. Estas son dos áreas en las que Anthropic actualmente limita el uso de sus modelos al ejército, tanto por contrato como a través de las garantías que ha incorporado directamente a sus modelos Claude. El Pentágono quiere que se levanten esas restricciones y Anthropic ha acordado que el ejército estadounidense puede utilizar sus modelos para “cualquier propósito legal”.

Los sistemas de inteligencia artificial de Frontier “no son lo suficientemente confiables para impulsar armas totalmente autónomas” y, sin la supervisión adecuada, “no se puede confiar en ellos para el juicio crítico que nuestras tropas profesionales altamente entrenadas demuestran todos los días”, escribió Amodei en un comunicado. En cuanto a la vigilancia, argumentó que una poderosa IA ahora puede combinar datos públicos individuales e inocuos, como registros de ubicación, historial de navegación y asociaciones sociales, en una imagen completa a escala de la vida de cualquier ciudadano estadounidense.

Emil Michael, subsecretario de Guerra de EE.UU., respondió llamando a Amodeus “mentiroso” con “complejo de Dios”, acusando al CEO de querer “controlar personalmente al ejército estadounidense” en publicaciones en la plataforma de redes sociales X. En una publicación separada, Michael también caracterizó la Constitución de Claude Anthropic, un documento interno que describe los valores y principios que la compañía incorpora en su IA, como una conspiración corporativa para “imponer sus leyes corporativas a los estadounidenses”.

El Pentágono ha exigido a Anthropic que levante las restricciones contractuales a las que se opone antes de las 5:01 pm del viernes o enfrentará la cancelación de su contrato de 200 millones de dólares con el ejército estadounidense o, en un paso más extremo, la designación como “riesgo de la cadena de suministro”, lo que efectivamente impediría que cualquier empresa que haga negocios con el ejército utilice la tecnología de Anthropic.

Estas medidas suelen estar reservadas para adversarios extranjeros, como la empresa china Huawei o la empresa rusa de ciberseguridad Kaspersky.

“Usar esto contra una empresa nacional porque no está dispuesta a cumplir con algunos de estos tipos de principios es en realidad una escalada y no tiene precedentes”, dijo a Fortune Seán Ó Haigeartaigh, director ejecutivo del Centro de Cambridge para el Estudio del Riesgo Existencial.

El Departamento de Guerra también amenazó con invocar la Ley de Producción de Defensa de la era de la Guerra Fría, utilizando la ley para obligar a Anthropic a entregar una versión sin restricciones de Claude con el argumento de que el gobierno la consideraba importante para la seguridad nacional. Si el Pentágono sigue este camino, utilizaría poderes de emergencia para resolver una disputa contractual en tiempos de paz. Hay un precedente para esto: la administración Biden también solicitó a la DPA en 2023 que obligara a los laboratorios de inteligencia artificial de vanguardia a entregar información sobre la seguridad de sus modelos de inteligencia artificial. Pero obligar a una empresa a producir un producto en lugar de simplemente proporcionar información está más cerca de nacionalizar una empresa tecnológica líder.

“Si se les obliga efectivamente a permitir que su tecnología se use de maneras que incluso ellos mismos consideran poco confiables en situaciones de vida o muerte de alto riesgo, como en el campo de batalla”, dijo Ó Haigertigh, “eso sienta un precedente muy peligroso”.

El Departamento de Guerra ha declarado públicamente que no tiene la intención de implementar vigilancia masiva ni excluir a personas de las decisiones sobre objetivos de armas, pero la disputa puede reducirse a cómo cada lado define “autonomía” o “vigilancia” en la práctica. Los funcionarios del departamento no respondieron de inmediato a la solicitud de comentarios de Fortune.

Un portavoz de Anthropic dijo a Fortune que la empresa continúa “cooperando de buena fe” con el Departamento de Guerra. Sin embargo, el portavoz dijo que el texto del contrato recibido durante la noche había “conducido a poco o ningún progreso” en cuestiones clave. El nuevo lenguaje, “presentado como un compromiso”, fue “combinado con un lenguaje legal que permitiría ignorar esas salvaguardias a voluntad”, dijeron. Amodeus calificó las amenazas del Departamento de Guerra de “naturaleza contradictoria” porque “uno nos llama una amenaza a la seguridad, el otro llama a Claude una criatura necesaria para la seguridad nacional”.

Anthropic se ha ganado elogios en algunos rincones del mundo por su voluntad de mantenerse firme. El profesor de derecho de Harvard, Lawrence Lessig, calificó el anuncio de la compañía como un “maravilloso acto de honestidad e integridad” y lo calificó de “increíblemente raro en estos tiempos”.

Los competidores OpenAI y xAI han firmado contratos con el Pentágono que permiten que sus modelos se utilicen para todos los fines legítimos, y xAI va aún más lejos al aceptar implementar también sus sistemas en algunos entornos clasificados. Pero más de 330 empleados actuales de los laboratorios rivales de Google, DeepMind y OpenAI, también publicaron una carta abierta en apoyo de Anthropic, pidiendo a sus propios líderes que sigan el ejemplo de la empresa. “Están tratando de dividir cada empresa por temor a que la otra se dé por vencida”, decía la carta. “Esta estrategia sólo funciona si ninguno de nosotros sabe dónde están los demás”. Entre los firmantes se encontraban científicos investigadores de alto nivel, así como investigadores nombrados y anónimos de ambas empresas.

O Hagerteig dijo que los resultados de la disputa podrían extenderse mucho más allá de la propia Anthropic. “Si el Pentágono hace esto”, dijo, “sentará precedentes que no beneficiarán la independencia de estas empresas ni su capacidad para adherirse a estándares éticos”.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Artículos relacionados

Los futuros del Dow Jones caen casi 400 puntos mientras el ataque de Estados Unidos a Irán dispara los precios del petróleo y Trump...

Los futuros de acciones estadounidenses apuntaban a operaciones libres de riesgo el domingo por la noche, mientras los...

Los mercados bursátiles de los Emiratos Árabes Unidos cerrarán durante dos días debido a los ataques iraníes | Suerte

Los Emiratos Árabes Unidos dijeron que sus dos mercados clave estarían cerrados dos días a la semana para...

Las represalias cibernéticas de Irán son un problema para las empresas estadounidenses: ‘Están en manos de un hacker de 19 años en una sala...

Cuando los ataques afectaron a Teherán el sábado por la mañana, millones de iraníes recibieron una extraña notificación...

Trump dice que planea hablar con el nuevo liderazgo de Irán mientras el ejército informa sobre el ataque de un bombardero furtivo B-2 contra...

Un alto funcionario de la Casa Blanca dijo el domingo que el "nuevo liderazgo potencial" de Irán ha...