La IA no sólo cambiará los empleos y los mercados, dice Joseph Stiglitz, sino que alterará silenciosamente la información de la que dependen esos sistemas. Mientras los grandes modelos de lenguaje (LLM) limpian nuestros comentarios sarcásticos en Reddit y nuestras voces marginales en foros extremistas, un premio Nobel advierte sobre un mundo en el que todo parece más basado en datos, pero los datos subyacentes se vuelven cada vez más “basura”.
“Con la IA, creo que hay un par de cuestiones más profundas”, dijo el economista a Fortune. “No sólo tenemos un problema en el mercado laboral… sino que hay otro lado de lo que yo llamaría externalidades de información”, que Stiglitz describe simplemente como “basura que entra, basura sale” (GIGO).
El riesgo no es sólo la pérdida de empleos; es un circuito de retroalimentación roto entre la verdad y los sistemas que utilizamos para interpretar la realidad: desde los mercados de predicción hasta los modelos financieros y los debates políticos. Esencialmente, la inteligencia de una IA es tan inteligente como la información que recibe, y cuando continúa recopilando información menos precisa, la salida se vuelve tan sesgada como la información que absorbe.
En su opinión, los modelos actuales se basan en un acuerdo defectuoso: destruyen con avidez el periodismo, la investigación y la comunicación en línea, al tiempo que socavan las mismas instituciones que producen conocimiento de alta calidad en primer lugar. El resultado, teme, es un mundo en el que las personas se dejan llevar por una retórica en línea que creen que es perpetuada por la IA (pensemos en la crisis del mercado causada por el artículo de Citrini Research que promociona el “PIB fantasma” o el ensayo viral de Matt Schumer sobre el fin del mundo en la IA) en lugar de basarse en la realidad real.
La IA “roba información” de las fuentes que necesita
Sin embargo, afirmó Stiglitz, la IA no tiene ni el interés ni la capacidad de producir nueva información de calidad. “Y como resultado de todo esto, existe un riesgo real de deterioro del ecosistema de información en general”.
Si las mejores fuentes de información pierden financiamiento lentamente y las formas más baratas (como hilos de comentarios, memes partidistas y contenido sencillo) proliferan, los datos de capacitación se inclinarán hacia lo que es más común y menos costoso, lo que significa que los chatbots regurgitarán abrumadoramente lo que tomen de los foros en línea.
Esta es la primera forma en que el hambre de la IA por lo que hay en Internet podría resultar contraproducente: canibalizar los modelos de negocio que respaldan el trabajo serio y cambiar la composición de lo que hay ahí fuera para eliminarlo en primer lugar.
Importación de basura y eliminación de residuos a escala industrial.
Stiglitz, que hace referencia al ecosistema de la información en su libro de 2024 The Road to Freedom: Economics and the Good Society, vuelve al cliché de GIGO. “Si reciclas y tiras basura, terminas solo con basura: basura que entra, basura que sale, GIGO”.
La frase puede estar desactualizada, pero Stiglitz dice que sigue siendo relevante. Los sistemas de inteligencia artificial son excelentes para procesar todo lo que les damos, pero no son tan hábiles para distinguir el conocimiento del ruido. “Existe un riesgo real de que, a pesar del potencial de las nuevas tecnologías para mejorar el ecosistema de la información en áreas críticas… en realidad podamos terminar en peor situación”, afirmó. Cuanta más basura llega (afirmaciones no verificadas, conspiraciones, campañas de césped artificial, comentarios de baja calidad), más basura pulida sale.
Teme que los usuarios confundan este pulido con la verdad. “Pensarán que han recibido información cuidadosamente seleccionada sin darse cuenta del todo de hasta qué punto lo único que están haciendo es reciclar”, dijo. “El procesamiento de basura por IA no sustituye a ningún buen trabajo de investigación”.
Cuando los antivacunas superan a los científicos
En ningún lugar este riesgo es más evidente que en los confines de Internet, donde los puntos de vista extremistas suelen ser más ruidosos. Piense en el tablero de mensajes comunitario estereotipado sobre un tema determinado. Gracias al anonimato de Internet, los usuarios pueden expresar sus opiniones sobre las últimas decisiones políticas o acontecimientos culturales. Como resultado, estos rincones son áreas donde la información errónea es más frecuente, y la ciencia que desacredita esa información errónea recibe poca o ninguna mención. Las vacunas son un gran ejemplo, afirmó Stiglitz.
“Los antivacunas son mucho más activos en línea que las personas que dicen que las vacunas funcionan”, dijo. Los científicos realizan pruebas, publican varios artículos extensos y siguen adelante. Los teóricos de la conspiración inundan foros y plataformas sociales todos los días.
“Así que podría haber muchos más artículos en contra que un artículo crítico que diga: ‘Aquí hay un ensayo de vacuna y funciona… Aquí está la efectividad’”, explicó Stiglitz. “¿Puede la IA decir hoy que un artículo es todo lo que necesitamos?
Para los modelos entrenados en pura frecuencia y compromiso, ganan las voces más fuertes. La sed de la IA por más información puede distorsionar la realidad, empujando a unos pocos apasionados sobre una mayoría cautelosa, especialmente en áreas donde el bien público depende de la confianza en una ciencia lenta y metódica.
Predicción de mercados basada en la falta de información.
En un artículo de 1980 escrito con Sanford Grossman, Stiglitz argumentó que existe una paradoja en el corazón de los mercados eficientes: si los precios reflejan plenamente toda la información disponible, entonces nadie tiene un incentivo para pagar para recopilar esa información, por lo que la misma información que hace que los mercados sean “eficientes” desaparece.
Dice que la inteligencia artificial y los mercados de predicción modernos están repitiendo esta historia a mayor escala. “Es interesante que hayas mencionado a Grossman-Stiglitz”, dijo a Fortune, “porque escribí un artículo con uno de mis estudiantes de posgrado, Max Ventura, extendiendo el principio de Grossman-Stiglitz a la inteligencia artificial, y el resultado que describí anteriormente sobre cómo podemos degradar el ecosistema de la información fue en realidad una referencia a esa extensión”.
Cuando “no se obliga a las empresas de inteligencia artificial que recopilan datos de Fortune y otros productores de medios” a pagar por lo que obtienen, “no obtienen ganancias y, por lo tanto, se debilitan los incentivos para realizar la investigación básica de calidad que conduce a un buen ecosistema de información”. Los mercados de predicción y los algoritmos comerciales dependen entonces de los resultados de estos modelos, separando aún más sus apuestas de cualquier inversión subyacente en la verdad.
“Ha socavado los incentivos para producir información de alta calidad, ha aumentado la capacidad de producir información de baja calidad y, por lo tanto, entra más basura y sale más basura”, dijo. Un sistema diseñado para agregar conocimiento termina amplificando lo que es más barato y más abundante.
La IA como apoyo, no como oráculo
A pesar de todo esto, Stiglitz no cree que prohibir o ignorar la IA sea la respuesta. Él mismo lo usa e intenta enseñar a sus alumnos a hacer lo mismo, sin confundir una respuesta brillante con un argumento convincente.
“Estamos tratando de enseñarles cómo utilizar la IA como herramienta de investigación”, dijo. “Entonces, ya sabes, no nos estamos alejando de la IA. Utilizo la IA como parte de mi investigación. Así que es una herramienta de investigación increíble, pero no reemplaza el pensamiento ni el análisis”.
“Puede ayudarle a encontrar fuentes y desarrollar ideas”, añadió. “Pero al final del día, hay que hacer el trabajo duro”. En su opinión, los resultados del modelo son “realmente un apoyo para permitirme empezar a pensar las cosas tal vez de forma un poco diferente”, en lugar de veredictos que deberían aceptarse sin cambios.
Sin embargo, cree que se necesita algún tipo de intervención gubernamental para evitar que la calidad de la información se deteriore. “En ausencia de regulación gubernamental”, advirtió, “existe al menos un riesgo significativo de que terminemos con un ecosistema de información peor en una serie de áreas problemáticas”.
