Pero todas las leyes, todas adoptadas este año, no recurren por completo al panorama del desarrollo del software para la IA. Y los desarrolladores de aplicaciones, políticos y defensores de la salud mental dicen que la ropa de mosaico resultante de las leyes estatales no es suficiente para proteger a los usuarios o la pasión por los creadores de tecnologías dañinas.
“La realidad radica en el hecho de que millones de personas usan estas herramientas, y no regresan”, dijo Andrea Stefan, Karin, CEO y cofundadora del Bot de Chat Psychiatric Earkick.
___
Nota del editor: esta historia incluye una discusión sobre el suicidio. Si usted o uno de sus amigos necesitan ayuda, el suicidio nacional y la crisis de Lifeline están disponibles por teléfono o mensajes de texto 988. También hay en línea en 9888lifeline.org.
___
Las leyes estatales utilizan diferentes enfoques. Illinois y Nevada prohibieron el uso de IA para tratar la salud mental. Utah ha impuesto ciertas restricciones a las chattes de la terapia, incluido el exigir que protejan la información médica de los usuarios y revelen claramente que el chat no es una persona. Pensilvania, Nueva Jersey y California también consideran métodos para regular la IA de la terapia.
La influencia en los usuarios varía. Algunas aplicaciones bloquearon el acceso en los estados con bancos. Otros dicen que no realizan ningún cambio, ya que están esperando más claridad legal.
Y muchas de las leyes no cubren bots de chat comunes como ChatGPT, que claramente no se venden por terapia, sino que son utilizados por un número inexpresable de personas para ello. Estos bots atrajeron pruebas en casos terribles cuando los usuarios perdieron sus actividades en la realidad o las cometieron después de la interacción con ellos.
Weil Wright, quien observa innovaciones en el campo de la atención médica en la Asociación Americana de Psicología, dijo que las aplicaciones pueden satisfacer la necesidad al observar una falta nacional de proveedores de salud mental, altos costos de atención y acceso desigual para pacientes asegurados.
Según Wright, los bots de chat de la salud mental, que se basan en la ciencia creada utilizando depósitos expertos y controlados por personas, pueden cambiar el panorama.
“Puede ser algo que ayuda a las personas antes de alcanzar la crisis”, dijo. “Esto no es lo que está en el mercado comercial en la actualidad”.
Es por eso que se necesitan regulación y supervisión federales, dijo.
A principios de este mes, la Comisión Federal de Comercio anunció que abrió solicitudes en siete compañías de chat, incluidas las compañías materiales de Instagram y Facebook, Google, ChatGPT, Grok (Chat -Bout On X), carácter. “Y la Oficina de Productos y Control de Medicamentos es el Comité Asesor el 6 de noviembre para considerar dispositivos generativos de salud mental con apoyo de IA.
Las agencias federales pueden considerar restricciones sobre cómo se venden los bots, limitan la práctica del adictivo, requieren la divulgación de los usuarios, que no son proveedores médicos, requieren que las empresas monitoreen e informen pensamientos suicidas y ofrezcan protección legal de las personas que informan las prácticas de las empresas pobres, dijo Wright.
No todas las aplicaciones han bloqueado el acceso
Desde las “aplicaciones complementarias” hasta “IA -therapeuts” hasta las aplicaciones de “salud mental”, el uso de IA en asistencia psiquiátrica es diferente y difícil de determinar, sin mencionar las leyes de escritura.
Esto condujo a varios enfoques regulatorios. En algunos estados, por ejemplo, están dirigidos a aplicaciones de socios que están destinadas solo a la amistad, pero no entran en atención psiquiátrica. Las leyes en Illinois y Nevada prohíben los productos que afirman recibir tratamiento mental directamente, amenazando multas de hasta 10,000 dólares estadounidenses en Illinois y $ 15,000 en Nevada.
Pero incluso una aplicación puede ser difícil de clasificar.
Stefan de Earkick dijo que, por ejemplo, todavía hay mucho “muy sucio” en el estado de Illinois, y la compañía no limita el acceso allí.
Stefan y su equipo fueron detenidos originalmente de su chat -bota, que parece una panda de dibujos animados, un terapeuta. Pero cuando los usuarios comenzaron a usar la palabra en revisiones, aceptaron la terminología para que la aplicación se mostrara en la búsqueda.
La semana pasada se retiraron nuevamente usando terapia y términos médicos. El Sit Web Earkick llamó a su bot de chat como “su consultor de inteligencia artificial comprensivo, que está equipado para apoyar su viaje mental”, pero ahora es un “chat -bout para auto -servicio”.
Sin embargo, “no diagnosticamos”, dijo Stephan.
Los usuarios pueden configurar el “botón de pánico” para llamar a un ser querido de confianza si están en una crisis, y el chat de combate “presionará” a los usuarios para buscar un terapeuta si su salud mental empeora. Pero esto nunca ha sido una aplicación para evitar suicidios, dijo Stefan, y la policía no será causada si alguien le cuenta a Bot sobre los pensamientos sobre la autoinforme.
Stefan dijo que estaba feliz, que la gente mira a la IA con un aspecto crítico, pero se preocupe por la capacidad de los estados para mantenerse al día con la innovación.
“La velocidad con la que todo se está desarrollando es enorme”, dijo.
El representante Ash no respondió a numerosas solicitudes de una entrevista.
Mario Treto, Jr., Secretario del Departamento de Regulación Financiera y Profesional, Illinois, dijo que, en última instancia, el objetivo era asegurarse de que los terapeutas con licencia fueran los únicos que realizan la terapia.
“La terapia es más que un intercambio de palabras”, dijo Treto. “Esto requiere simpatía, requiere un juicio clínico, requiere una responsabilidad ética, ninguna de las cuales AI realmente puede repetirlo en este momento”.
Una aplicación de chatbot está tratando de repetir completamente la terapia
En marzo, el equipo de la universidad en Dartmut publicó el primer estudio clínico aleatorizado conocido de la IA de chatbot generativa para el tratamiento de la salud mental.
El objetivo era garantizar el –bot llamado Therabot para tratar a las personas con un diagnóstico de ansiedad, depresión o trastornos alimentarios. Fue entrenado en viñetas y transcripciones escritas por un equipo para ilustrar la respuesta basada en datos reales.
El estudio encontró que los usuarios apreciaron a Therabot, similar al terapeuta y tenían síntomas significativamente más bajos en ocho semanas en comparación con las personas que no lo usaron. Cada interacción fue controlada por una persona que intervino si la respuesta del chatbot fue dañina o no basada en datos reales.
Nicholas Jacobson, un psicólogo clínico, cuyo laboratorio lidera el estudio, dijo que los resultados mostraron una promesa temprana, pero se necesitan estudios más grandes para demostrar si Therabot funciona para una gran cantidad de personas.
“El espacio es tan completamente nuevo que creo que el campo debe continuar con mucha más precaución, lo que está sucediendo en este momento”, dijo.
Muchas aplicaciones de IA están optimizadas para la participación y se crean para apoyar todo lo que dicen los usuarios, y no llamar a los pensamientos de las personas, como lo hacen los terapeutas. Muchos avanzan en la línea de comunicación y terapia, erosionando los límites de la intimidad, terapeutas que no lo harán éticamente.
El equipo técnico buscó evitar estos problemas.
La aplicación todavía está en pruebas y no está ampliamente disponible. Pero a Jacobson le preocupa que las prohibiciones estrictas signifiquen que los desarrolladores utilizan un enfoque exhaustivo. Señaló que Illinois no tenía una manera clara de proporcionar evidencia de que la aplicación es segura y efectiva.
“Quieren proteger a las personas, pero el sistema tradicional está realmente fallando a las personas”, dijo. “Entonces, un intento de adherirse al estado -kvo no es lo que necesitas hacer”.
Los reguladores y defensores de las leyes dicen que están abiertos a los cambios. Pero los bots de chat de hoy no son una decisión de la falta de proveedor de salud mental, dijo Kyle Hillman, quien presionó los proyectos de ley en Illinois y Nevada debido a su pertenencia a la Asociación Nacional de Trabajadores Sociales.
“No todos los que están tristes necesitan un terapeuta”, dijo. Pero para las personas con problemas reales de salud mental o pensamientos suicidas, “decirles”, sé que hay una falta de trabajo, pero aquí hay un bot “es una posición tan privilegiada”.
___
El Departamento de Salud y Ciencias de Associated Press recibe el apoyo del Departamento de Educación Científica de Howard Hughes y la Fundación Robert Wood Johnson. AP tiene la responsabilidad exclusiva de todo contenido.
