OpenAI sostiene que el mundo necesita repensar todo, desde el sistema fiscal hasta las horas de trabajo, para prepararse para cambios desgarradores en la tecnología de superinteligencia: el momento en que los sistemas de IA sean capaces de superar a los humanos más inteligentes.
El lunes, en un documento de 13 páginas titulado “Política industrial en la era de la inteligencia”, OpenAI dijo que quiere “iniciar” la conversación con una “lista de ideas políticas centradas en las personas”. Sin embargo, cuánto confiar en las palabras y motivos de OpenAI parece ser una de las preguntas clave para muchas personas que leen el artículo. El documento se publicó el mismo día en que The New Yorker publicó los resultados de una larga investigación de año y medio sobre OpenAI que planteó dudas sobre la credibilidad del CEO Sam Altman en varios temas, incluida la seguridad de la IA.
El documento, escrito por el equipo de asuntos internacionales de OpenAI, describe muchos de los impactos económicos esperados de la superinteligencia y propone varios enfoques para abordarlos. “Las ofrecemos no como un conjunto integral o definitivo de recomendaciones, sino como un punto de partida para la discusión que invitamos a otros a desarrollar, perfeccionar, desafiar o elegir entre ellos a través del proceso democrático”, afirma la publicación introductoria del blog.
La autoproclamada “lista de ideas” del documento, que abarca desde fondos públicos hasta semanas laborales más cortas, puede no tranquilizar a un público cada vez más nervioso y frustrado por el ritmo y el impacto del cambio impulsado por la IA. Y OpenAI es, por supuesto, una de las partes menos neutrales en este debate en curso, que es la principal controversia en el documento, dijo Lucía Velasco, economista senior y jefa de políticas de inteligencia artificial en el Banco Interamericano de Desarrollo (DC) y ex jefa de políticas de inteligencia artificial en la Oficina de las Naciones Unidas sobre Tecnologías Digitales y Emergentes.
“OpenAI es la parte más interesada en cómo termina esta conversación, y las propuestas que presenta crean un entorno en el que OpenAI opera con una libertad significativa bajo las limitaciones que ha ayudado en gran medida a definir”, dijo, y agregó que esta no es una razón para rechazar el documento, pero “es una razón para garantizar que la conversación que está tratando de iniciar no termine con la misma empresa que la inició”.
Sin embargo, enfatizó que OpenAI tiene razón en que los gobiernos se están quedando atrás en el avance de soluciones políticas. “La mayoría todavía ve la IA como un problema tecnológico, cuando en realidad es un cambio económico estructural que requiere una buena política industrial”, dijo. “Esta es una contribución útil y el documento merece ser tomado en serio como un ejercicio de establecimiento de una agenda, incluso si es un punto de partida”.
Soribel Feliz, asesora independiente de políticas de IA que anteriormente se desempeñó como asesora principal de políticas de IA y tecnología en el Senado de los EE. UU., estuvo de acuerdo en que OpenAI merece crédito por “poner esto en papel”. Reconocer que tanto las instituciones estadounidenses como las redes de seguridad social están rezagadas en el desarrollo y la implementación de la IA es correcto, dijo, “y la conversación debe ocurrir a ese nivel en este momento”.
Sin embargo, enfatizó que gran parte de lo que se propone no es nuevo: “Algunos de estos principios (“compartir la prosperidad de manera amplia, reducir el riesgo, democratizar el acceso”) han sido la base de todas las conversaciones importantes sobre la gobernanza de la IA desde que se lanzó ChatGPT en noviembre de 2022.
“Trabajé en el Senado de EE. UU. en 2023-24 y tuvimos nueve sesiones del foro de políticas de IA en las que se dijo todo. ¡Lo tengo en mis notas escritas a mano! Está todo dicho, todo”, escribió a Fortune en un mensaje directo. “Las teorías sobre las asociaciones público-privadas, la alfabetización en IA y la voz de los trabajadores suenan como si hubieran salido de un informe del Marco de Políticas de IA de la UNESCO o la OCDE. Las ideas no están equivocadas. El problema es la brecha entre nombrar las soluciones y crear los mecanismos reales para lograrlas”.
Obviamente, el público objetivo no son los cientos de millones de usuarios semanales de ChatGPT. En cambio, son los políticos de Beltway quienes han estado presionando para que se regule la IA (o dejándola de lado) de diversas formas desde que se lanzó ChatGPT en noviembre de 2022. En este sentido, algunos han afirmado que representa una mejora con respecto a esfuerzos anteriores.
“Creo que este documento realmente es una mejora real con respecto a los documentos anteriores, que eran aún más fluidos y de alto nivel”, dijo Nathan Calvin, vicepresidente de asuntos gubernamentales y asesor general de Encode AI. “Creo que algunas propuestas específicas en torno a cosas como auditorías o informes de incidentes y restricciones gubernamentales sobre ciertos usos de la IA son buenas ideas”.
Pero también señaló un esfuerzo de lobby liderado por ejecutivos de OpenAI en el PAC Leading the Future, que presiona por políticas favorables a la industria de la inteligencia artificial. El jefe de asuntos internacionales, Chris Lehane, es considerado la fuerza impulsora detrás del esfuerzo, y el presidente Greg Brockman ha sido el mayor donante.
“Espero que este documento indique un movimiento hacia un compromiso más constructivo en lugar de ataques a los políticos que están promoviendo las mismas políticas que OpenAI actualmente apoya”, dijo Calvin, señalando específicamente el lobby de Future Leaders contra el candidato al Congreso de Nueva York, Alex Bors, el autor y patrocinador principal de la Ley RAISE, la ley de seguridad y transparencia de la inteligencia artificial de Nueva York recientemente promulgada por la gobernadora Kathy Hochul.
Calvin también acusó a OpenAI de utilizar tácticas de miedo para socavar la SB 53 de California, la Ley de Transparencia de la Inteligencia Artificial de la Frontera de California, mientras aún se estaba debatiendo. También alegó que OpenAI estaba utilizando su batalla legal en curso con Elon Musk como excusa para acosar e intimidar a los críticos, incluido Encode, que según la compañía fue financiado en secreto por Musk.
Aún así, aunque el director ejecutivo de OpenAI, Sam Altman, comparó la lista de ideas políticas del lunes con el New Deal en una entrevista con Axios, algunos dicen que se parece menos a una legislación de la era de FDR y más a un experimento mental de Silicon Valley que no se traducirá mágicamente en acción.
Por ejemplo, Anton Leicht, académico visitante en el Departamento de Tecnología y Asuntos Internacionales del Carnegie Endowment, escribió en X que estas ideas en realidad representan cambios sociales fundamentales y fuertes agitaciones políticas. “No serán sólo una alternativa orgánica”, escribió. “En este caso, se trata de una obra comercial diseñada para encubrir el nihilismo normativo”.
Una mejor opción, dijo, sería redirigir la financiación política y las habilidades de lobby de la industria de la IA hacia avances en este tipo de agenda política. Sin embargo, dijo que la “naturaleza y el momento inciertos” de la adopción del documento “no me hacen demasiado optimista”.
