Internet Watch Foundation encuentra un aumento de 260 veces en CSAM generado por IA en solo un año, la ‘punta del iceberg’ | Suerte

Fecha:

Compartir publicación:

Las cifras son asombrosas, pero los expertos dicen que lo que estamos viendo es sólo el comienzo. A medida que el material de abuso sexual infantil generado por inteligencia artificial (CSAM, por sus siglas en inglés) alcanza niveles récord, los investigadores advierten que la tecnología no sólo está produciendo más contenido dañino, sino que también está cambiando fundamentalmente la forma en que se ataca a los niños; cómo se vuelve a victimizar a los supervivientes; y lo abrumados que están los investigadores.

Los investigadores ya estaban ocupados eliminando CSAM de Internet. Pero con la llegada de la IA generativa, este problema ha empeorado. La Internet Watch Foundation (IWF), la línea directa más grande de Europa contra las imágenes en línea de abuso sexual infantil, ha registrado un aumento de 260 veces en el número de vídeos de abuso sexual infantil generados por IA en 2025. El año pasado solo hubo 13, pero 3.443. Los investigadores que han estado siguiendo el problema durante años dicen que la explosión no fue una sorpresa. Sin embargo, esto es una advertencia.

“Cualquier cifra que veamos es la punta del iceberg”, dijo Melissa Strobel, vicepresidenta de investigación y análisis estratégico de Thorn, una organización sin fines de lucro que crea tecnología para combatir la explotación sexual infantil en línea. “Estamos hablando de algo que fue descubierto o informado de antemano”.

Este aumento es el resultado directo de que la IA generativa se vuelve más rápida, más barata y más accesible para los atacantes. Thorne identificó tres formas diferentes en las que estas herramientas se utilizan ahora como armas contra los niños.

El primero es la revictimización de los sobrevivientes de la violencia histórica. Un niño que sufrió abusos en 2010 y cuyas imágenes circularon en línea durante más de una década se enfrenta ahora a un nivel de daño completamente nuevo. Los delincuentes están utilizando inteligencia artificial para tomar imágenes existentes y personalizarlas: insertándose en escenas de violencia grabadas para crear material nuevo.

“Así como se puede retocar con Photoshop a una abuela que se perdió una foto navideña y convertirla en una foto navideña”, dijo Strebel a Fortune, “los malos actores pueden retocarse ellos mismos en escenas y grabaciones de un niño identificado”. Este proceso crea una nueva victimización para los sobrevivientes que pueden haber pasado años tratando de superar el abuso.

El segundo es el uso de imágenes inocentes como armas. Una foto de un niño en la página web de un equipo de fútbol escolar es ahora una fuente potencial de abuso. Con la ayuda de herramientas de inteligencia artificial ampliamente disponibles, un delincuente puede convertir esta imagen completamente inofensiva en material de agresión sexual en cuestión de minutos. Thorne también documenta casos de interacciones entre pares en los que un joven crea imágenes ofensivas de un compañero de clase sin comprender completamente la gravedad del daño que está causando.

El tercer impacto, y el más sistémico, es la carga que soportan los ya sobrecargados canales de presentación de informes. El Centro Nacional para Niños Desaparecidos y Explotados recibe decenas de millones de informes CSAM cada año. La velocidad a la que la IA ahora puede generar nuevos materiales agrava dramáticamente esta carga y crea una nueva urgencia. Cuando llega una nueva imagen, los investigadores deben determinar si representa a un niño en peligro activo en este momento o si es una imagen generada por IA.

“Esta es información realmente importante para ayudarles a clasificar y responder a estos casos”, dijo Strebel. El contenido generado por IA complica enormemente estas determinaciones, pero añadió que las autoridades informan y tratan de la misma manera tanto el caso de una imagen en tiempo real como el de una imagen generada por IA.

Esta tecnología también ha dejado peligrosamente obsoletas algunas de las pautas de seguridad infantil más repetidas. Durante años, se ha advertido a los niños que no publiquen imágenes en línea como principal defensa contra la explotación. Este consejo ya no es relevante. La propia investigación de Thorne encontró que uno de cada 17 jóvenes había experimentado personalmente violencia a partir de imágenes deepfake, y uno de cada ocho conocía a alguien que había sido atacado. A las víctimas de sextorsión ahora se les envían imágenes que se ven exactamente como ellas mismas, imágenes que nunca tomaron.

“Un niño ya no tiene que compartir una imagen para ser explotado”, dijo Strobel.

En términos de detección, la tecnología de hash tradicional, que funciona como una huella digital para archivos de abuso conocidos, no puede identificar el contenido generado por IA, ya que cada imagen generada sintéticamente es técnicamente nueva. Tomemos, por ejemplo, una fotografía de algo muy famoso, como la Estatua de la Libertad. Esta foto de la estatua tiene una huella digital. Ahora digamos que acerca, aleja un poco más y vuelve a acercar para cambiar el sombreado de un píxel en un 0,1%. Este cambio probablemente no sea perceptible para el ojo humano. Sin embargo, la impresión de esa foto ahora es completamente nueva, lo que significa que la tecnología hash no la reconocerá como la misma foto con solo un píxel de diferencia.

Anteriormente, con la tecnología de hash tradicional, una diferencia de un píxel con respecto a una foto, conocida como CSAM, significaba que la tecnología no la detectaría. Sin embargo, ahora es necesaria una tecnología de clasificación que evalúe el contenido de una imagen en lugar de relacionarla con un archivo conocido para capturar contenido que, de otro modo, se escaparía por completo.

Para los padres, el mensaje de Strebel es oportuno e inequívoco. La conversación no puede esperar y debe ir más allá de las viejas advertencias. Si un niño se presenta, la primera reacción no puede ser de escepticismo: “Nuestro trabajo es: ‘¿Estás seguro y cómo puedo ayudarte a pasar al siguiente paso?’

Website |  + posts
spot_img

Artículos relacionados

Este Apple no está lejos del árbol: Tim Cook se marcha en la cima de su juego y John Ternus es el director ejecutivo...

Las acciones de Apple cayeron ligeramente en las operaciones fuera de horario tras el anuncio de que el...

El cartel “Walkers Endure” de Nike en el maratón de Boston tenía como objetivo animar a los corredores. En cambio, los ofendió | Suerte

La semana pasada, Nike recibió un duro recordatorio de cómo el marketing vanguardista puede fácilmente hacer estallar una...

Blue Origin de Jeff Bezos detiene el lanzamiento del cohete New Glenn después de que un motor defectuoso enviara el satélite a una órbita...

La compañía de cohetes de Jeff Bezos, Blue Origin, culpó el lunes a un motor defectuoso por un...

La secretaria de Trabajo, Laurie Chávez-Deremer, abandona el gabinete de Trump tras acusaciones de romance con un subordinado y consumo de alcohol en el...

La secretaria de Trabajo, Laurie Chávez Deremer, dejó el gabinete del presidente Donald Trump, dijo el lunes la...