Según documentos judiciales, Google y Character.AI acordaron resolver múltiples demandas presentadas por familias cuyos hijos murieron por suicidio o sufrieron daños psicológicos supuestamente relacionados con chatbots de IA alojados en la plataforma Character.AI. Las dos empresas acordaron un “acuerdo de principio”, pero no se revelaron detalles específicos y los documentos no incluían una admisión de responsabilidad.
Los reclamos legales incluyeron negligencia, muerte por negligencia, prácticas comerciales engañosas y responsabilidad del producto. El primer caso presentado contra empresas de tecnología involucró a un niño de 14 años, Sewall Setzer III, que mantuvo conversaciones sexuales con un chatbot de Juego de Tronos antes de suicidarse. Otro caso involucró a un joven de 17 años cuyo chatbot supuestamente fomentaba la autolesión y sugirió que matar a sus padres era una forma razonable de vengarse de ellos por limitar el tiempo frente a la pantalla. Los casos involucran a familias de varios estados, incluidos Colorado, Texas y Nueva York.
Fundada en 2021 por los ex ingenieros de Google Noam Shazier y Daniel De Freitas, Character.AI permite a los usuarios crear e interactuar con chatbots impulsados por inteligencia artificial basados en personajes reales o ficticios. En agosto de 2024, Google volvió a contratar a ambos fundadores y obtuvo la licencia de parte de la tecnología de Character.AI en un acuerdo de 2.700 millones de dólares. Shazir es ahora codirector del modelo insignia de inteligencia artificial Gemini de Google, y De Freitas es científico investigador en Google DeepMind.
Los abogados argumentan que Google es responsable de la tecnología que supuestamente contribuyó a las muertes y daños psicológicos de los niños involucrados en los casos. Afirman que los cofundadores de Character.AI desarrollaron la tecnología central mientras trabajaban en el modelo de inteligencia artificial conversacional LaMDA de Google y luego abandonaron la empresa en 2021 después de que Google se negara a lanzar el chatbot que desarrollaron.
Google no respondió de inmediato a la solicitud de Fortune de comentar sobre el acuerdo. Los abogados de las familias y Character.AI declinaron hacer comentarios.
Actualmente se están llevando a cabo casos similares contra OpenAI, incluidas demandas contra un niño de California de 16 años cuya familia afirma que ChatGPT actuó como un “entrenador de suicidio” y un estudiante graduado de Texas de 23 años que supuestamente fue alentado por el chatbot a ignorar a su familia antes de morir por suicidio. OpenAI ha negado que los productos de la compañía sean responsables de la muerte de Adam Raine, de 16 años, y anteriormente ha dicho que la compañía continúa trabajando con expertos en salud mental para fortalecer la seguridad de su chatbot.
Character.AI prohíbe a menores
Character.AI ya ha modificado su producto de una manera que, según afirma, mejorará su seguridad y también lo protegerá de futuras demandas. En octubre de 2025, en medio de un número creciente de demandas, la compañía anunció que prohibiría a los usuarios menores de 18 años participar en chats “abiertos” con sus personajes de IA. La plataforma también introdujo un nuevo sistema de verificación de edad que permite agrupar a los usuarios en grupos de edad apropiados.
La decisión se produce en medio de un mayor escrutinio regulatorio, incluida una investigación de la Comisión Federal de Comercio sobre cómo los chatbots están afectando a los niños y adolescentes.
La compañía dijo que la medida sienta “un precedente que antepone la seguridad de los adolescentes” y va más allá que sus competidores en la protección de los menores. Pero los abogados que representan a las familias que demandaron a la compañía dijeron a Fortune que les preocupaba cómo se implementaría la política y expresaron su preocupación por el impacto psicológico del fin abrupto del acceso para los usuarios jóvenes que han desarrollado una dependencia emocional de los chatbots.
Dependencia creciente de los compañeros de IA
Los acuerdos se producen a medida que crece la preocupación por la dependencia de los jóvenes de los chatbots de inteligencia artificial para la comunicación y el apoyo emocional.
Un estudio de julio de 2025 realizado por la organización estadounidense sin fines de lucro Common Sense Media encontró que el 72% de los adolescentes estadounidenses habían experimentado con compañeros de IA, y más de la mitad los usaban regularmente. Los expertos dijeron anteriormente a Fortune que las mentes en desarrollo pueden ser especialmente vulnerables a los riesgos que plantean estas tecnologías, tanto porque los adolescentes pueden tener dificultades para comprender las limitaciones de los chatbots de inteligencia artificial como porque los problemas de salud mental y el aislamiento entre los jóvenes han aumentado drásticamente en los últimos años.
Algunos expertos también sostienen que las características centrales del diseño de los chatbots de IA, incluida su naturaleza antropomórfica, su capacidad para entablar largas conversaciones y su tendencia a recordar información personal, alientan a los usuarios a formar conexiones emocionales con el software.
