ChatGPT está cambiando silenciosamente el enfoque de la seguridad de los adolescentes

Fecha:

Compartir publicación:

El martes 20 de enero, OpenAI US lanzó una actualización de seguridad silenciosa pero importante. Esto se presenta en forma de un sistema de predicción de edad diseñado para determinar cuándo es probable que los usuarios de ChatGPT sean menores de 18 años.

El sistema refleja la creciente preocupación entre los responsables políticos, los padres y los educadores sobre el uso indebido de la inteligencia artificial generativa por parte de menores y la falta de salvaguardias suficientes.

La seguridad de los adolescentes está al frente de las conversaciones hoy en día, especialmente porque la inteligencia artificial generativa se utiliza para crear imágenes sexualizadas y como medio para avergonzar al cuerpo; Algunos jóvenes también utilizan chatbots como “amigos”, lo que lleva a algunos padres y cuidadores a argumentar que OpenAI es perjudicial para los jóvenes.

En particular, Australia ya ha prohibido el uso de las redes sociales a niños menores de 16 años y varios estados de EE. UU. están restringiendo el uso de teléfonos en las escuelas.

En agosto de 2025, Matt y Maria Raine, los padres de un chico de 16 años que se suicidó, presentaron una demanda (advertencia: la demanda contiene descripciones de autolesiones) contra OpenAI, alegando que ChatGPT ayudó a su hijo Adam a aprender métodos de suicidio e incluso le ayudó a escribir una nota de suicidio.

OpenAI ha negado reclamos y acusaciones de uso indebido de las capacidades de IA al tiempo que anunció medidas de seguridad mejoradas.

ChatGPT tiene más de 700 millones de usuarios activos semanales.

Shutterstock

Más recientemente, el chatbot Grok de Elon Musk fue noticia después de generar 4,4 millones de imágenes. De ellas, alrededor de 1,8 millones de imágenes sexualizadas de mujeres se publicaron públicamente, informa el New York Times.

En una serie de mejoras diseñadas para hacer que ChatGPT sea más seguro para usuarios menores, esta es una solución bastante práctica.

Según una publicación reciente del blog OpenAI, ChatGPT, en lugar de confiar únicamente en la edad autoinformada de los usuarios, que a menudo es un punto de discordia para las empresas de redes sociales, utilizará señales de comportamiento y a nivel de cuenta, como patrones de uso y tipos de interacción, para evaluar si un usuario es menor de edad.

Además, rastreará la hora del día en que el usuario está activo en línea, así como la edad reportada del usuario para determinar su edad.

¿Qué cambiará para los usuarios menores de 18 años?

Si ChatGPT detecta que un usuario es menor de 18 años, implementará automáticamente protecciones para evitar la exposición a contenido dañino de acuerdo con las pautas de seguridad para adolescentes.

Esto incluye censurar a los usuarios para que no accedan al siguiente contenido:

Juegos de roles sexuales, románticos o violentos Representaciones de autolesiones Contenido que promueva estándares de belleza extremos, alimentación poco saludable o vergüenza corporal Problemas virales que fomenten comportamientos de riesgo en menores

OpenAI aboga activamente por la implementación de protocolos de seguridad para proteger a los menores. En septiembre de 2025, Sam Altman publicó “Seguridad, libertad y privacidad para adolescentes”, donde Altman hablaba sobre un sistema de predicción de la edad.

Más acciones tecnológicas:

Morgan Stanley fijó un precio objetivo sorprendente para Micron después del evento. El problema de los chips chinos de NVIDIA no es el que piensa la mayoría de inversores. Quantum Computing realiza un movimiento de 110 millones de dólares que nadie esperaba.

Como parte de las nuevas reglas de seguridad, OpenAI también ha introducido controles parentales para mejorar la protección y garantizar una estrecha supervisión por parte de adultos. Los padres pueden establecer horas de silencio cuando los menores no pueden usar ChatGPT. También pueden personalizar el proceso de entrenamiento del modelo y recibir alertas “si el sistema detecta signos de angustia aguda”.

Para los usuarios que han sido clasificados por error como menores de 18 años, existe una opción sencilla para deshacer esto. ChatGPT utiliza Persona, un servicio seguro de verificación de identidad de terceros que permite a los usuarios actualizar selfies y recuperar el acceso completo.

En la Unión Europea, esta función se implementará en las próximas semanas debido a requisitos regulatorios.

La actualización de seguridad llega en medio de renovadas críticas de Elon Musk, quien acusó a OpenAI de abandonar su misión original y mantener una operación puramente sin fines de lucro. Altman rechazó abiertamente estos argumentos, calificándolos de “elegidos” por Musk.

OpenAI sostiene que la estructura actual y los cambios continuos en su modelo de negocio son necesarios para lograr un equilibrio entre acceso, seguridad y escalabilidad.

Relacionado: El discurso de Trump en Davos insinúa cambios costosos para los consumidores

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Artículos relacionados

Morgan Stanley da un veredicto de dos palabras sobre el S&P 500

"Básicamente, se estrelló".En una entrevista reciente con CNBC, Mike Wilson, de Morgan Stanley, expuso en pocas palabras su...

El juego de cuatro luces solares de seguridad para el hogar resistentes a la intemperie, de $39, más vendido en Walmart, cuesta solo $20.

TheStreet se compromete a ofrecer sólo los mejores productos y servicios. Si compra algo a través de uno...

Dividend King, de 189 años, presenta un plan de pago de 10.000 millones de dólares

Procter & Gamble lleva más de un siglo pagando dividendos. En 2026, la empresa asumió uno de los...

Amazon vende una manta de lana mate por sólo $9.

TheStreet se compromete a ofrecer sólo los mejores productos y servicios. Si compra algo a través de uno...