Lo que dice la contratación de OpenClaw por parte de OpenAI sobre el futuro de los agentes de IA | Suerte

Fecha:

Compartir publicación:

Hola y bienvenido a Eye on AI, donde Sharon Goldman reemplaza a Jeremy Kahn. En este episodio: Lo que realmente significa contratar OpenClaw… El Pentágono amenaza con un castigo antrópico… Por qué el vídeo de IA de Tom Cruise peleando con Brad Pitt asustó a Hollywood… La ansiedad que impulsa la cruel cultura del trabajo de IA.

Es este tipo de comportamiento autónomo lo que ha hecho que OpenClaw sea atractivo para los desarrolladores, acercándolos al sueño de un JARVIS de la vida real, el compañero residente de las películas de Iron Man. Pero rápidamente encendió las alarmas entre los expertos en seguridad. La semana pasada llamé a OpenClaw el “chico malo” de los agentes de IA porque un asistente que es persistente, autónomo y profundamente conectado entre sistemas es mucho más difícil de proteger.

Algunos dicen que alquilar OpenAI es la “mejor oferta”

Esta tensión ayuda a explicar por qué algunos ven la intervención de OpenAI como un paso necesario. “Creo que este es probablemente el mejor resultado para todos”, afirmó Gavriel Cohen, el ingeniero de software que creó NanoClaw, al que llama una “alternativa segura” a OpenClaw. “Peter tiene un gran conocimiento del producto, pero el proyecto se ha vuelto demasiado grande, demasiado rápido, sin prestar suficiente atención a la arquitectura y la seguridad. OpenClaw es fundamentalmente inseguro y defectuoso. No pueden simplemente arreglarlo”.

Otros ven la medida como igualmente estratégica para OpenAI. “Es un gran movimiento de su parte”, dijo William Falcon, director ejecutivo de la empresa de nube centrada en desarrolladores Lightning AI, quien dijo que los productos de Anthropic Claude, incluido Claude Code, dominan el segmento de desarrolladores. OpenAI, explicó, quiere “ganarse el favor de todos los desarrolladores, que representan la mayor parte del gasto en IA”. OpenClaw, que es en muchos sentidos una alternativa de código abierto a Claude Code y se ha convertido de la noche a la mañana en un favorito de los desarrolladores, le da a OpenAI una “tarjeta para salir de la cárcel”, dijo.

Altman, por su parte, ve la medida como una apuesta sobre lo que sucederá a continuación. Dijo que Steinberger ofrece “muchas ideas interesantes” sobre cómo los agentes de IA pueden interactuar entre sí, y agregó que “el futuro será extremadamente multiagente” y que tales capacidades “rápidamente se convertirán en el núcleo de nuestra oferta de productos”. OpenAI ha dicho que planea mantener OpenClaw como un proyecto independiente de código abierto a través de una fundación en lugar de fusionarlo con sus propios productos, una promesa que Steinberger dijo que fue fundamental para su decisión de elegir OpenAI sobre competidores como Anthropic y Meta (en una entrevista con Lex Friedman, Steinberger dijo que Mark Zuckerberg incluso se comunicó con él personalmente a través de WhatsApp).

La siguiente etapa es ganarse la confianza de los desarrolladores de agentes de IA.

Más allá del revuelo del fin de semana, la contratación de OpenClaw por parte de OpenAI ofrece una idea de cómo se está perfilando la carrera de agentes de IA. A medida que los modelos se vuelven cada vez más intercambiables, la competencia se desplaza hacia una infraestructura menos visible que determina si los agentes pueden operar de manera confiable, segura y a escala. Al traer al creador de un agente autónomo viral pero controvertido y prometer mantener el proyecto de código abierto, OpenAI indica que la próxima etapa de la IA se definirá no sólo por modelos más inteligentes, sino también por ganarse la confianza de los desarrolladores que convertirán los agentes experimentales en sistemas confiables.

Esto podría conducir a una ola de nuevos productos, dijo Yohei Nakajima, socio de Untapped Capital, cuyo experimento de código abierto de 2023 llamado BabyAGI ayudó a demostrar cómo los LLM podían generar y ejecutar tareas de forma autónoma, lo que ayudó a marcar el comienzo del movimiento moderno de agentes de IA. Tanto BabyAGI como OpenClaw han inspirado a los desarrolladores a ver qué más pueden crear con la última tecnología, afirmó. “Poco después de BabyAGI vimos el lanzamiento de la primera ola de empresas de agencias: gpt-engineer (se convirtió en Lovable), Crew AI, Manus, Genspark”, dijo. “Espero que veamos nuevos productos inspiradores similares después de esta reciente ola”.

SUERTE CON LA IA

La inversión en inteligencia artificial crece en la India mientras los líderes tecnológicos se reúnen en una cumbre en Delhi – Beatrice Nolan

Las grandes empresas de tecnología se están acercando a un momento de “bandera roja”: el gasto de capital en IA es tan alto que el hiperescalado podría generar un flujo de caja negativo, advierte Evercore – Jim Edwards

El director ejecutivo de Anthropic, Dario Amodei, explica su cautela sobre el gasto y advierte que si las previsiones de crecimiento de la IA se desvían tan solo un año, “entonces irás a la quiebra” – Jason Ma

IA EN LAS NOTICIAS

El Pentágono amenaza con un castigo antrópico. Según Axios, el Pentágono amenaza con declarar a Anthropic un “riesgo para la cadena de suministro”. Es una medida poco común y punitiva que efectivamente obligaría a cualquier empresa que haga negocios con el ejército estadounidense a cortar los vínculos con la startup de inteligencia artificial. Los funcionarios del Departamento de Defensa dicen que están decepcionados por la negativa de Anthropic a relajar completamente las salvaguardias sobre el uso del modelo de Claude (específicamente, restricciones destinadas a impedir la vigilancia masiva de los estadounidenses o el desarrollo de armas totalmente autónomas), argumentando que los militares deberían poder utilizar la IA “para todos los fines legales”. Este enfrentamiento es especialmente peligroso porque Claude es actualmente el único modelo de IA aprobado para su uso en sistemas clasificados del Pentágono y está profundamente arraigado en los flujos de trabajo militares, lo que significa que una ruptura dramática sería costosa y perturbadora. La disputa subraya las crecientes tensiones entre los laboratorios de inteligencia artificial que quieren establecer límites éticos y un establishment militar estadounidense que está cada vez más dispuesto a jugar duro mientras busca un mayor control sobre poderosas herramientas de inteligencia artificial.

La ansiedad impulsa la cultura laboral despiadada de la IA. Si alguna vez te has preocupado por el equilibrio entre tu vida personal y laboral, creo que te sentirás mejor después de leer este artículo. En la floreciente economía de la IA de San Francisco, las ventajas de larga data y la cultura flexible del sector tecnológico están siendo reemplazadas por expectativas implacables de “trabajo duro”, a medida que las nuevas empresas obligan a los empleados a trabajar largas horas, tienen poco tiempo libre y experimentan una presión de productividad extrema en nombre de mantenerse al día con el rápido desarrollo y la competencia despiadada, según The Guardian. Los trabajadores describen jornadas de 12 horas, semanas de seis días y condiciones en las que perder los fines de semana o la vida social parece ser el precio por seguir siendo relevantes, incluso cuando crecen las preocupaciones sobre la seguridad laboral y el impacto de la IA en los empleos futuros. El cambio refleja una transformación más amplia en la forma en que se valora el trabajo en la IA, que está cambiando las normas en el lugar de trabajo y podría presagiar presiones similares en otros sectores a medida que se aceleran la automatización y la innovación. Definitivamente tendré que comprobar cómo se ve en tierra la próxima vez que vaya a la Bahía.

UNA MIRADA A LA INVESTIGACIÓN EN IA

DEF CON, la conferencia sobre piratería informática más grande y antigua del mundo, ha publicado su último Hacker’s Almanac, un informe anual que resume la investigación presentada en su última edición en agosto de 2025. El informe se centra en cómo los investigadores han demostrado que los sistemas de inteligencia artificial ya no solo ayudan a las personas a piratear más rápido, sino que a veces pueden superarlos. En varias competiciones de ciberseguridad, los equipos que utilizan agentes de IA han derrotado a equipos exclusivamente humanos y, en un caso, se permitió a la IA operar por sí sola, pirateando con éxito el sistema objetivo sin más intervención humana. Los investigadores también demostraron herramientas de inteligencia artificial que pueden encontrar fallas de software a escala, imitar voces humanas y manipular sistemas de aprendizaje automático, destacando cuán rápido está evolucionando el uso ofensivo de la inteligencia artificial.

El problema, dicen los investigadores, es que la mayoría de los formuladores de políticas tienen poca conciencia de estas posibilidades, lo que aumenta el riesgo de regulaciones de IA mal informadas. Su propuesta: permitir que los sistemas de IA compitan abiertamente en concursos públicos de piratería, registrar los resultados en una base de datos abierta compartida y utilizar esta evidencia del mundo real para ayudar a los gobiernos a desarrollar políticas de seguridad de IA más inteligentes y realistas.

¿TIENES UN CALENDARIO?

16 al 20 de febrero: Cumbre india sobre el impacto de la IA 2026, Delhi.

24-26 de febrero: Asociación Internacional para una Inteligencia Artificial Ética y Segura (IASEAI), UNESCO, París, Francia.

2 al 5 de marzo: Mobile World Congress, Barcelona, ​​España.

12 al 18 de marzo: Sur por suroeste, Austin, Texas.

16 al 19 de marzo: Nvidia GTC, San José, California.

6 al 9 de abril: HumanX, San Francisco

NUTRICIÓN PARA EL CEREBRO

El dilema de la confianza cuando la IA entra en la sala de examen. Me fascina un nuevo artículo de Scientific American que señala que a medida que la inteligencia artificial se abre paso en la atención clínica, las enfermeras se encuentran en la primera línea de un nuevo dilema de confianza: ¿deben seguir instrucciones generadas por un algoritmo cuando los juicios del mundo real dicen lo contrario? Por ejemplo, una alerta de sepsis obligó a un equipo de emergencia a administrar líquidos a un paciente con riñones dañados, hasta que la enfermera se negó y el médico superó la IA. El artículo muestra que en los hospitales de EE. UU., los modelos predictivos ahora están integrados en todo, desde la evaluación de riesgos y la documentación hasta la logística e incluso las renovaciones autónomas de recetas, pero el personal de primera línea se queja cada vez más de que estas herramientas tienen fallas, son opacas y, a veces, socavan el juicio clínico. La controversia ha provocado manifestaciones y huelgas, y sus defensores insisten en que las enfermeras deben participar en las decisiones sobre IA porque los humanos son los responsables en última instancia de los resultados.

Website |  + posts
spot_img

Artículos relacionados

Trump acaba de sancionar a una importante refinería china por el petróleo iraní, semanas antes de reunirse con Xi Jinping | Suerte

La administración del presidente Donald Trump está imponiendo sanciones económicas a una importante refinería de petróleo en China...

El acuerdo de Cohere con Aleph Alpha apunta al surgimiento de las ‘potencias medias’ de la IA | Suerte

Mientras Estados Unidos y China compiten por el dominio de la inteligencia artificial, están surgiendo nuevas dinámicas geopolíticas...

Un importante analista petrolero garantiza que los próximos meses “serán un desastre constante y absoluto”, incluso si el Estrecho de Ormuz se abre mañana...

Los expertos en energía advierten que los futuros del petróleo están completamente fuera de contacto con la realidad...

Anthropic explica la reciente disminución del rendimiento de Claude Code después de semanas de reacciones negativas de los usuarios | Suerte

La última admisión, que se produce después de semanas en las que Anthropic inicialmente dio a entender en...