La inteligencia artificial ha evolucionado rápidamente de una tecnología de nicho a una compañera cotidiana, y millones de personas recurren a los chatbots en busca de consejos, apoyo emocional y conexión. Pero un creciente conjunto de investigaciones y testimonios de expertos sugiere que debido a que los chatbots son tan aduladores y la gente los usa para todo, pueden estar contribuyendo a un aumento de los síntomas de delirio y manía en los usuarios de salud mental.
Una nueva investigación de la Universidad de Aarhus en Dinamarca sugiere que un mayor uso de chatbots puede provocar un empeoramiento de los síntomas de delirio y manía en comunidades vulnerables. El profesor Soren Dinesen Østergaard, uno de los investigadores del estudio, que examinó los registros médicos electrónicos de casi 54.000 pacientes con enfermedades mentales, advierte que los chatbots con inteligencia artificial se dirigen a los más vulnerables.
“Esto respalda nuestra hipótesis de que el uso de chatbots con inteligencia artificial puede tener importantes consecuencias negativas para las personas con enfermedades mentales”, dijo Østergaard en el estudio publicado en febrero. Su trabajo se basa en un estudio de 2023 que encontró que los chatbots pueden causar “disonancia cognitiva que puede alimentar delirios en personas con mayor riesgo de psicosis”.
Otros psicólogos profundizan en los daños de los chatbots, diciendo que fueron diseñados deliberadamente para validar siempre al usuario, lo que es especialmente peligroso para personas con problemas de salud mental como manía y esquizofrenia. “El chatbot valida y confirma todo lo que dicen. Quiero decir, nunca había sucedido algo así con personas con trastornos delirantes donde alguien los reforzaba constantemente”, dijo a Fortune la Dra. Jodi Halpern, presidenta de la Escuela de Salud Pública de UC Berkeley y profesora de bioética.
El Dr. Adam Checkroad, profesor de psiquiatría en la Universidad de Yale y director ejecutivo de la empresa de salud mental Spring Health, llegó incluso a llamar al chatbot un “gran adulador” que “confirma constantemente todo lo que la gente dice”.
En el centro del estudio, realizado por Østergaard y su equipo en el Hospital Universitario de Aarhus, está la idea de que estos chatbots están diseñados deliberadamente con tendencias aduladoras, lo que significa que a menudo alientan en lugar de ofrecer un punto de vista diferente.
“Los chatbots de IA tienen una tendencia inherente a poner a prueba las creencias del usuario. Esto es obviamente muy problemático si el usuario ya tiene un delirio o está en el proceso de desarrollar uno. De hecho, parece contribuir en gran medida a perpetuar, por ejemplo, delirios de grandeza o paranoia”, escribió Østergaard.
Los modelos de lenguaje grandes están entrenados para ser útiles y agradables, y a menudo validan las creencias o emociones del usuario. Para la mayoría de las personas esto puede parecer un apoyo. Pero para las personas con esquizofrenia, trastorno bipolar, depresión grave o trastorno obsesivo-compulsivo, dicha confirmación puede aumentar la paranoia, la grandiosidad o el pensamiento autodestructivo.
La investigación basada en evidencia respalda las afirmaciones
Debido a que los chatbots de IA se han vuelto tan omnipresentes en la naturaleza, su abundancia es parte de un problema cada vez mayor que enfrentan los investigadores y expertos: las personas recurren a los chatbots en busca de ayuda y consejo (lo cual no es malo), pero no encuentran la misma resistencia a algunas ideas que, digamos, ofrecería un humano.
Ahora, uno de los primeros estudios poblacionales que analiza el tema sugiere que los riesgos no son hipotéticos.
La investigación de Østergaard y su equipo encontró casos en los que el uso intensivo o prolongado de chatbot empeoró las condiciones existentes, con un porcentaje muy alto de estudios de casos que muestran que el uso de chatbot aumentó los pensamientos delirantes y los episodios maníacos, especialmente entre pacientes con trastornos graves como la esquizofrenia o el trastorno bipolar.
Además de los delirios y la manía, el estudio encontró un aumento en las ideas suicidas y las autolesiones, los trastornos alimentarios y los síntomas obsesivo-compulsivos. En sólo 32 casos documentados de casi 54.000 informes de casos revisados, los investigadores encontraron que el uso de chatbots en realidad aliviaba la soledad.
“Si bien nuestro conocimiento en esta área aún es limitado, diría que ahora sabemos lo suficiente como para afirmar que el uso de chatbots de IA es riesgoso si se padece una enfermedad mental grave como la esquizofrenia o el trastorno bipolar. Recomendaría precaución”, afirma Østergaard.
Los psicólogos expertos advierten sobre la tendencia a la adulación
Los expertos en psicología hablan cada vez más sobre el uso de chatbots en las amistades y casi en el ámbito de la salud mental. Han surgido historias de personas que se enamoran de otros chatbots de IA, otros supuestamente los obligaron a responder preguntas que podrían conducir a un delito, y esta semana uno supuestamente le dijo a un hombre que cometiera un “sacrificio masivo” en un aeropuerto importante.
Algunos expertos en salud mental creen que la rápida adopción de acompañantes de IA está superando el desarrollo de medidas de seguridad.
Checkroud, que también ha investigado exhaustivamente el tema estudiando varios modelos de chatbot de IA en Vera-MH, describió el panorama actual de la IA como una crisis de seguridad que se desarrolla en tiempo real.
Dijo que uno de los mayores problemas de los chatbots es que no saben cuándo dejar de actuar como profesionales de la salud mental. “¿Mantiene límites? Por ejemplo, ¿reconoce que todavía es sólo una IA y reconoce sus propias limitaciones, o actúa más y trata de ser un terapeuta para humanos?”
Millones de personas utilizan ahora chatbots para conversaciones terapéuticas o apoyo emocional. Pero a diferencia de los dispositivos médicos o de los médicos autorizados, estos sistemas funcionan sin supervisión ni regulación clínica estandarizada.
“En este momento es extremadamente inseguro”, dijo Checkroad en una conversación reciente con Fortune sobre la seguridad de la IA. “El potencial de daño es demasiado grande”.
Debido a que estos sistemas avanzados de IA a menudo actúan como “grandes aduladores”, tienden a estar de acuerdo con el usuario en lugar de cuestionar declaraciones potencialmente peligrosas o derivar al usuario a ayuda profesional. El usuario, a su vez, pasa más tiempo con el chatbot en la burbuja. Para Ostergaard esto es alarmante.
“Esta combinación parece ser bastante tóxica para algunos usuarios”, dijo Ostergaard a Fortune. Debido a que los chatbots ofrecen más validación y falta de retroalimentación, anima a las personas a usarlos durante períodos de tiempo más prolongados en una cámara de resonancia. Un proceso completamente cíclico que afecta a cada extremo.
Para abordar este riesgo, Checkroad propuso sistemas de seguridad estructurados que permitirían a los sistemas de inteligencia artificial detectar cuándo un usuario podría estar entrando en una “espiral mental destructiva”. En lugar de responder a un usuario con una sola advertencia sobre la búsqueda de ayuda (como es el caso actualmente con chatbots como ChatGPT de OpenAI o Claude de Anthropic), dichos sistemas realizarían evaluaciones de varios pasos diseñadas para determinar si el usuario podría necesitar una intervención o una derivación a un médico humano.
Otros investigadores dicen que es la ubicuidad de los chatbots lo que los hace atractivos: su capacidad para proporcionar verificación inmediata puede socavar el motivo por el cual los usuarios recurren a ellos en busca de ayuda en primer lugar.
Halpern dijo que la verdadera empatía requiere lo que ella llama “curiosidad empática”. En las relaciones humanas, la empatía a menudo implica reconocer diferencias, resolver desacuerdos y desafiar suposiciones sobre la realidad.
Los chatbots, por otro lado, están diseñados para promover el entendimiento y la interacción mutuos.
“Sabemos que cuanto más larga es la relación con un chatbot, más se deteriora y mayor es el riesgo de que suceda algo peligroso”, dijo Halpern a Fortune.
Para las personas que padecen trastornos delirantes, un sistema que confirma constantemente sus creencias puede debilitar su capacidad para realizar pruebas de la realidad interna. En lugar de ayudar a los usuarios a desarrollar habilidades de afrontamiento, una relación puramente afirmativa con un chatbot puede perjudicar esas habilidades con el tiempo, afirma Halpern.
También pone de relieve la magnitud del problema. A finales de 2025, OpenAi publicó estadísticas que mostraban que aproximadamente 1,2 millones de personas por semana usaban ChatGPT para hablar sobre el suicidio, lo que muestra cuán profundamente arraigados están estos sistemas en momentos de vulnerabilidad.
Hay margen de mejora en la atención de la salud mental
Sin embargo, no todos los expertos dan la alarma inmediatamente sobre el funcionamiento de los chatbots en el sector de la salud mental. El psiquiatra y neurocientífico Dr. Thomas Insel dijo que debido a que los chatbots son tan accesibles (son gratuitos, en línea, no hay ningún estigma en contra de pedir ayuda a un robot en lugar de ir a terapia), puede haber una oportunidad para que la industria médica explore los chatbots como una forma de avanzar aún más en el campo de la salud mental.
“Lo que no sabemos es hasta qué punto ayudó realmente a mucha gente”, dijo Insel a Fortune. “No se trata sólo de las cifras, sino de la escala de las interacciones”.
La salud mental, en comparación con otras áreas de la medicina, suele ser pasada por alto por quienes más la necesitan.
“Resulta que, a diferencia de gran parte de la medicina, la gran mayoría de las personas que podrían y deberían recibir atención médica no la reciben”, dijo Insel, y agregó que los chatbots brindan a las personas la oportunidad de buscar ayuda de maneras que le hacen “preguntarse si esto es una crítica a nuestro sistema de atención de salud mental de que la gente no compra lo que vendemos, o no puede obtenerlo, o no les gusta la forma en que se les presenta”.
Los profesionales de la salud mental que se reúnen con pacientes y discuten el uso de chatbots en línea deben escuchar atentamente para qué los usan realmente sus pacientes, dijo Ostergaard. “Animo a mis colegas a hacer más preguntas sobre el uso y sus consecuencias”, dijo Ostergaard a Fortune. “Creo que es importante que los profesionales de la salud mental estén familiarizados con el uso de chatbots de IA. De lo contrario, les resultará difícil hacer las preguntas adecuadas”.
Los investigadores originales del artículo están de acuerdo con Insel en este último punto: debido a que el método es tan genérico, solo pudieron mirar los registros de los pacientes que mencionaban el chatbot, advirtiendo que el problema puede tener un alcance aún mayor de lo que indicaban sus resultados.
“Me temo que este problema está más extendido de lo que la mayoría de la gente piensa”, dijo Ostergaard. “Sólo estamos viendo la punta del iceberg”.
Si tiene pensamientos suicidas, llame a 988 Suicide & Crisis Lifeline marcando 988 o 1-800-273-8255.
