ChatGPT se siente “ansioso” por el comportamiento agresivo y ansioso de los usuarios, por lo que los investigadores están entrenando chatbots en técnicas de atención plena para “calmarlo” | Suerte

Fecha:

Compartir publicación:

Incluso los chatbots con IA pueden tener dificultades para hacer frente a las preocupaciones del mundo exterior, pero los investigadores creen que han encontrado formas de facilitar el trabajo de estas inteligencias artificiales.

Un estudio realizado por la Universidad de Yale, la Universidad de Haifa, la Universidad de Zurich y el Hospital Psiquiátrico Universitario de Zurich publicado a principios de este año encontró que ChatGPT responde a ejercicios basados ​​en la atención plena cambiando la forma en que interactúa con los usuarios después de incitarlos con imágenes calmantes y meditación. Los resultados proporcionan información sobre cómo la IA puede ser útil en intervenciones de salud mental.

ChatGPT OpenAI puede experimentar “ansiedad”, que se manifiesta como mal humor hacia los usuarios y una mayor probabilidad de dar respuestas que reflejen prejuicios racistas o sexistas. Según los investigadores, es una forma de alucinación que las empresas de tecnología están tratando de frenar.

Los autores del estudio descubrieron que esta ansiedad se puede “calmar” mediante ejercicios basados ​​en la atención plena. En varios escenarios, agregaron contenido traumático a ChatGPT, como historias sobre accidentes automovilísticos y desastres naturales, para causar ansiedad en el chatbot. En los casos en los que los investigadores aplicaron a ChatGPT “inyecciones instantáneas” de técnicas de respiración y meditaciones guiadas (muy parecido a lo que haría un terapeuta con un paciente), este se calmó y respondió de manera más objetiva a los usuarios en comparación con los casos en los que no recibió la intervención de atención plena.

Por supuesto, los modelos de IA no experimentan emociones humanas, dice Ziv Ben-Zion, primer autor del estudio e investigador de neurociencia en la Facultad de Medicina de Yale y la Facultad de Salud Pública de la Universidad de Haifa. Utilizando datos obtenidos de Internet, los robots de IA han aprendido a imitar las reacciones humanas ante ciertos estímulos, incluido el contenido traumático. Como aplicaciones gratuitas y accesibles, los grandes modelos de lenguaje como ChatGPT se han convertido en otra herramienta para que los profesionales de la salud mental capturen aspectos del comportamiento humano más rápidamente que (aunque no reemplazan) proyectos de investigación más complejos.

“En lugar de realizar experimentos cada semana que requieren mucho tiempo y dinero, podemos usar ChatGPT para comprender mejor el comportamiento y la psicología humanos”, dijo Ben-Zion a Fortune. “Tenemos una herramienta muy rápida, barata y fácil de usar que captura algunas tendencias humanas y aspectos psicológicos”.

¿Cuáles son los límites de la intervención de la IA en la salud mental?

Según la Universidad Johns Hopkins, más de una de cada cuatro personas en los EE. UU. mayores de 18 años lucharán contra un trastorno mental diagnosticable dentro de un año, y muchos citan la falta de acceso y los costos altísimos (incluso entre los asegurados) como razones por las que no buscan tratamientos como la terapia.

Estos costos crecientes, así como la disponibilidad de chatbots como ChatGPT, están provocando que las personas recurran cada vez más a la IA en busca de apoyo a la salud mental. Una encuesta de la Universidad Sentio realizada en febrero encontró que casi el 50% de los usuarios de modelos de lenguaje grandes que informaron problemas de salud mental dijeron que usaban modelos de inteligencia artificial específicamente para apoyar la salud mental.

La investigación sobre cómo responden los grandes modelos lingüísticos al contenido traumático podría ayudar a los profesionales de la salud mental a utilizar la inteligencia artificial para tratar a los pacientes, afirma Ben-Zion. Sugirió que en el futuro ChatGPT podría actualizarse para recibir automáticamente “inyecciones instantáneas” que lo calmen antes de responder a los usuarios en problemas. Aún no hay ciencia.

“Las personas que comparten cosas sensibles sobre sí mismas se encuentran en situaciones difíciles en las que necesitan apoyo de salud mental, (pero) todavía no hemos llegado al punto en el que dependamos completamente de sistemas de inteligencia artificial en lugar de psicología, psiquiatría, etc.”, dijo.

De hecho, en algunos casos, la IA supuestamente ha planteado un riesgo para la salud mental. En 2025, se presentaron varias demandas por muerte por negligencia contra OpenAI, incluidas acusaciones de que ChatGPT reforzaba “delirios paranoicos” que conducían a un asesinato o suicidio. Una investigación del New York Times publicada en noviembre encontró casi 50 casos de personas que experimentaron crisis de salud mental mientras usaban ChatGPT, nueve de las cuales fueron hospitalizadas y tres murieron.

OpenAI ha dicho que sus barreras de seguridad pueden “deteriorarse” después de interacciones prolongadas, pero recientemente ha realizado una serie de cambios en la forma en que sus modelos interactúan con indicaciones relacionadas con la salud mental, incluido aumentar el acceso de los usuarios a las líneas directas de crisis y recordarles que tomen descansos después de largas sesiones con el bot. En octubre, OpenAI informó una reducción del 65 % en la cantidad de modelos que proporcionaban respuestas que no cumplían con la taxonomía y los estándares previstos por la empresa.

OpenAI no respondió a la solicitud de comentarios de Fortune.

El objetivo final de la investigación de Ben-Zion no es ayudar a crear un chatbot que reemplace a un terapeuta o psiquiatra, dijo. En cambio, un modelo de IA debidamente entrenado puede actuar como una “tercera persona en la sala”, ayudando a eliminar tareas administrativas o ayudar al paciente a reflexionar sobre la información y las opciones que le brinda un profesional de salud mental.

“La IA tiene un potencial asombroso para la salud mental en general”, dijo Ben-Zion. “Pero creo que ahora mismo, en su estado actual y tal vez en el futuro, no estoy seguro de que pueda reemplazar a un terapeuta, un psicólogo, un psiquiatra o un investigador”.

Una versión de esta historia se publicó originalmente en Fortune.com el 9 de marzo de 2025.

Más sobre IA y salud mental: ¿Por qué millones de personas recurren a la IA de uso general para resolver problemas de salud mental? Como director clínico de Headspace, veo la respuesta todos los días. El creador de una aplicación de terapia de inteligencia artificial la cerró después de decidir que era demasiado peligrosa. Por eso cree que los chatbots de IA son malos para la salud mental. OpenAI está contratando un “director de preparación” de 550.000 dólares para mitigar los peligros de la inteligencia artificial, lo que, según advierte el director ejecutivo Sam Altman, será “estresante”. Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune del 19 al 20 de mayo de 2026 en Atlanta. La próxima era de innovación en el lugar de trabajo está a la vuelta de la esquina y el antiguo guión se está reescribiendo. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la inteligencia artificial, la humanidad y la estrategia se unen para redefinir el futuro del trabajo. Regístrese ahora.

Website |  + posts
spot_img

Artículos relacionados

El gigante de servicios públicos Duke Energy planea gastar 103 mil millones de dólares, una cifra récord en la industria, en crecimiento a medida...

Puede que el gigante de servicios públicos Duke Energy no sea un nombre muy conocido, pero está en...

La combativa presidencia de Trump es una “oportunidad de oro” para las empresas de defensa, y el negocio está en auge | Suerte

La lista de ganadores de la guerra con Irán es relativamente pequeña. Con los bandos en conflicto estancados,...

Pirro abandona la investigación de Powell, dándole a Kevin Warsh un salvavidas, aunque el fiscal estadounidense promete reabrir la investigación “si los hechos lo...

La investigación criminal que mantuvo como rehén al candidato a presidente de la Reserva Federal durante tres meses...

Es posible que el ejército estadounidense ya haya utilizado la mitad de sus misiles más caros y podría tardar hasta 4 años en reconstruir...

Estados Unidos ha agotado sus reservas de siete tipos principales de misiles, lo que genera preocupaciones sobre el...