Buen día. Si la IA es una superpotencia en el lugar de trabajo, ¿quizás debería tener una señal de advertencia? Las personas que utilizan herramientas de IA generativa en el trabajo experimentan tal aumento de productividad que terminan trabajando más, no menos, según un nuevo estudio realizado por investigadores de la Universidad de California, Berkeley.
“Descubrimos que los empleados trabajan más rápido, asumen una gama más amplia de tareas y trabajan más horas al día, a menudo sin siquiera que se les pida que lo hagan”, escribieron los investigadores en un artículo muy asustado de Harvard Business Review. El aumento de la productividad puede parecer algo bueno para algunos gerentes, pero los investigadores advierten que este “aumento de la carga de trabajo puede a su vez conducir a fatiga cognitiva, agotamiento y debilitación de la toma de decisiones” y, en última instancia, a una menor calidad del trabajo y rotación. Un trato fáustico para el trabajador del conocimiento.
¿Quiere enviar pensamientos o sugerencias a Fortune Tech? Escribe aquí.
Comienza un histórico juicio por adicción a las redes sociales
Algunos de los actores más importantes de la tecnología están siendo juzgados en Los Ángeles acusados de que sus plataformas están creando deliberadamente adicción a los usuarios jóvenes. El juicio será la primera vez que los gigantes tecnológicos Meta y YouTube enfrentarán cargos ante un jurado: Snapchat y TikTok llegaron a un acuerdo con los demandantes el mes pasado. El juicio, que durará entre seis y ocho semanas, probablemente incluirá testimonios del director ejecutivo de Meta, Mark Zuckerberg, el director de Instagram, Adam Mosseri, y el director ejecutivo de YouTube, Neil Mohan. Los expertos jurídicos han establecido paralelismos con los importantes juicios sobre el tabaco de los años noventa.
Las declaraciones de apertura comenzaron en Los Ángeles el lunes, con el abogado de los demandantes, Mark Lanier, argumentando que ambas compañías crearon intencionalmente “máquinas diseñadas para afectar el cerebro de los niños”.
Lanier argumentó que su cliente, identificado por las iniciales KGM, desarrolló problemas de salud mental debido a la adicción a las redes sociales. La defensa de Mehta respondió que los problemas del demandante fueron causados por dificultades familiares y no por el diseño de la plataforma, destacando el debate científico en curso sobre si existe la adicción a las redes sociales.
Amazon planea crear un mercado para editores y empresas de inteligencia artificial
Según The Information, Amazon planea lanzar un mercado donde los editores puedan vender su contenido a empresas de inteligencia artificial. Según el informe, la empresa de Internet, que desarrolla sus propios programas LLM y ofrece modelos de otras empresas a través de su servicio en la nube AWS, mencionó en las diapositivas un futuro mercado de contenidos.
La medida se produce mientras los editores y las empresas de inteligencia artificial discuten sobre cómo se debe licenciar y pagar el contenido, en medio de preocupaciones entre los editores de que las herramientas de búsqueda y chat impulsadas por IA están destruyendo el tráfico y los ingresos publicitarios. Cloudflare y Akamai lanzaron un proyecto similar el año pasado. Microsoft probó su propia versión y la implementó más ampliamente la semana pasada. Pero aún no está claro cuántas empresas de inteligencia artificial están comprando en estos mercados y en qué volúmenes. Algunas editoriales importantes tienen acuerdos individuales por valor de millones de dólares al año con OpenAI, Anthropic y otros. -Jeremy Kahn
El organismo de control afirma que OpenAI violó la nueva ley de inteligencia artificial de California
OpenAI puede haber violado la nueva ley de seguridad de IA de California con el lanzamiento de su último modelo de codificación GPT-5.3-Codex, según acusaciones del grupo de vigilancia de inteligencia artificial Midas Project.
El director ejecutivo de OpenAI, Sam Altman, dijo que el nuevo modelo califica como “alto” en el sistema de calificación interna de la compañía por sus riesgos potenciales; en este caso, el riesgo de que pueda usarse para automatizar ataques de ciberseguridad.
La política de OpenAI requiere que los modelos con un alto riesgo de ciberseguridad se publiquen con medidas de seguridad especiales. Pero según el Proyecto Midas, OpenAI no implementó estas medidas de seguridad antes de lanzar GPT-5.3-Codex, una violación de la ley SB 53 de California. La ley, que entró en vigor en enero, exige que las grandes empresas de inteligencia artificial publiquen y cumplan con sus propios sistemas de seguridad.
OpenAI sostiene que la interpretación del Proyecto Midas de su política es incorrecta, aunque también dijo que el lenguaje dentro de su marco es “ambiguo” y que intentó aclarar el problema en un informe de seguridad que publicó con GPT-5.3-Codex la semana pasada. —BN
Más tecnologías
— 2 cofundadores de xAI se van. Seis de los 12 cofundadores ya no están en la empresa.
— Paramount eleva la oferta por Warner. Netflix pagará una multa por divorcio.
— Las ganancias de Spotify son increíbles, Wall Street. 38 millones de nuevos usuarios y promociones están creciendo.
— Facebook permite a los usuarios animar su perfil mediante inteligencia artificial. ¡Saluda a tus amigos!
— El ex director ejecutivo de Github recauda un fondo inicial de 60 millones de dólares. La startup ayuda a interactuar a personas y agentes de inteligencia artificial.
— Mark Zuckerberg se convierte en residente de Florida. Un multimillonario compra una casa en el paseo marítimo de Miami.
