Juez estadounidense bloquea la ‘idea orwelliana’ de Trump al declarar que Anthropic es un riesgo para la cadena de suministro y prohibir a Claude trabajar en el gobierno | Suerte

Fecha:

Compartir publicación:

Un juez federal falló a favor de la empresa de inteligencia artificial Anthropic, impidiendo temporalmente que el Pentágono designe a la empresa como un riesgo para la cadena de suministro.

La jueza de distrito estadounidense Rita Lin dijo el jueves que también estaba bloqueando la directiva del presidente Donald Trump que ordenaba a todas las agencias federales que dejaran de usar Anthropic y su chatbot Claude.

Lin dijo que las “amplias medidas punitivas” tomadas contra la compañía de inteligencia artificial por la administración Trump y el secretario de Defensa, Pete Hegseth, parecen arbitrarias y caprichosas y podrían “dañar a Anthropic”, especialmente el uso por parte de Hegseth de una rara autoridad militar que normalmente está dirigida a adversarios extranjeros.

“Nada en la ley actual respalda la idea orwelliana de que una empresa estadounidense puede ser tildada de adversario y saboteador potencial de Estados Unidos por expresar su desacuerdo con el gobierno”, escribió Lin.

La decisión de Lin se produjo tras una audiencia de 90 minutos en el tribunal federal de San Francisco el martes en la que Lin cuestionó por qué la administración Trump tomó la medida extraordinaria de castigar a Anthropic después de que las negociaciones del contrato de defensa fracasaran por el intento de la compañía de evitar que su tecnología de inteligencia artificial se utilizara en armas totalmente autónomas o espiara a los estadounidenses.

Anthropic le pidió a Lin que emitiera una orden de emergencia para eliminar el estigma, que según la compañía se aplicó injustificadamente como parte de una “campaña ilegal de represalias” que llevó a la compañía con sede en San Francisco a demandar a la administración Trump a principios de este mes. El Pentágono argumentó que debería poder utilizar a Claude de cualquier forma que considere legal.

Lin dijo que su decisión no se refería a estos debates de políticas públicas, sino a las acciones del gobierno en respuesta a ellos.

“Si la integridad de la cadena de mando operativa es una preocupación, el Departamento de Guerra podría simplemente dejar de utilizar a Claude. En cambio, estas medidas parecen diseñadas para castigar a Anthropic”, escribió Lin.

Anthropic también presentó un caso separado y más limitado, que aún está pendiente en un tribunal federal de apelaciones en Washington, D.C.

Lin escribió que su pedido se retrasó una semana y no exigía que el Pentágono utilizara productos Anthropic ni impidiera una transición a otros proveedores de IA.

En 2001, Fortune convocó por primera vez a las “personas más inteligentes que conocemos”, reuniendo a directores ejecutivos y fundadores, constructores e inversores, pensadores y emprendedores. Desde entonces, Fortune Brainstorm Tech se ha convertido en un lugar donde chocan ideas audaces. Del 8 al 10 de junio regresaremos a Aspen, donde comenzó todo, para celebrar el 25 aniversario de Brainstorm. Regístrese ahora.

Website |  + posts
spot_img

Artículos relacionados

La explosión de la deuda estadounidense está acabando con la ‘prima de seguridad’ de los bonos del Tesoro y se está acabando el tiempo...

El Fondo Monetario Internacional ha advertido que el aumento de la deuda estadounidense está provocando que los bonos...

Elon Musk prohíbe currículums y cartas de presentación cuando solicita puestos de trabajo en su equipo de chips. Estas son las 3 cosas que...

Algunas personas tardan varias horas en redactar un currículum y una carta de presentación, enumerando experiencias y logros...

El FBI relaja los requisitos de contratación y recurre a las redes sociales para atraer candidatos para reconstruir una fuerza laboral mermada por despidos...

El FBI y el Departamento de Justicia están luchando por reconstruir una fuerza laboral agotada después de una...