Escaneo facial en Instagram, video selfie en TikTok, contraseña de huella digital en YouTube y carga de identificación en Facebook. Aún no es una escena, pero recopilar nuestros datos biométricos para publicar un meme de IA se convertirá en la norma a medida que las grandes redes sociales experimenten un momento de las grandes tabacaleras.
El panorama digital está atravesando una agitación masiva tras las demandas por adicción a las redes sociales y una frenética lucha regulatoria por la verificación de la edad. Mientras las plataformas de redes sociales enfrentan un ajuste de cuentas legal histórico sobre la “respuesta a la dopamina” y las opciones de diseño adictivas que dañan a los niños, ha surgido una crisis técnica y ética fundamental. Países como Australia están imponiendo prohibiciones de redes sociales a personas menores de 16 años, y Meta está actualmente siendo juzgada por supuestamente crear un entorno adictivo para niños en sus plataformas.
En su búsqueda de la verificación de la edad de los usuarios (una herramienta clave que las empresas han implementado para combatir la adicción infantil), estas redes sociales han descubierto una paradoja comúnmente conocida como la “trampa de la verificación de la edad”. En pocas palabras, al intentar imponer reglas de verificación de edad a sus usuarios, estas empresas socavan la privacidad de esos mismos usuarios.
Big Social está teniendo un gran momento tabacalero
Empresas como Meta y TikTok se enfrentan a litigios federales y estatales que enfrentan sus plataformas y modelos de negocio con los de los mercados del tabaco y los opioides, alegando que las empresas manipulan directa e intencionalmente la forma en que están diseñadas las plataformas para promover la adicción en los usuarios. El director ejecutivo de Meta, Mark Zuckerberg, dijo recientemente que la investigación científica no ha demostrado un vínculo entre las redes sociales y el daño a la salud mental, pero los expertos argumentan lo contrario, diciendo que la adicción a las redes sociales es causada por los mismos algoritmos de ingeniería que están diseñados para mantener a los usuarios en línea.
“Estas empresas no se adhieren a ciertos estándares” que impedirían que los niños accedan a sus plataformas; una de las principales es que estas empresas “ganan cuando los niños usan sus plataformas. Más gente, más publicidad”, dijo Debra Boeldt, Ph.D., psicóloga clínica y científica en inteligencia artificial de la empresa familiar de redes sociales Aura. Boeldt, que dirige la investigación clínica en Aura, una empresa que utiliza inteligencia artificial para rastrear los hábitos en línea de los niños y proteger la privacidad de los adultos, dice que los niños son especialmente receptivos a los diseños modernos de las redes sociales porque sus funciones ejecutivas y control de impulsos aún se están desarrollando.
Para los niños, las plataformas de redes sociales no son solo aplicaciones, sino su principal fuente de conexión social, y señaló que su investigación muestra que uno de cada cinco niños de 13 años o menos pasa cuatro horas o más al día en las redes sociales, lo que genera niveles más altos de estrés, ansiedad y depresión. Los niños son inteligentes, dice Boeldt, por lo que si se les prohíbe usar una plataforma, será un juego de golpear al topo en el que simplemente se moverán de una plataforma a otra.
“Los niños son muy inteligentes y por eso pueden hacer de todo”, dijo Boeldt a Fortune. “Saben pasar desapercibidos”.
A medida que las empresas de redes sociales buscan eliminar a los usuarios menores de edad de sus plataformas o solicitar la ayuda de la inteligencia artificial para encontrar contenido censurado, será difícil para las empresas asegurarse de que pueden negar con precisión el acceso a cualquier persona menor de cierta edad. (Boeldt incluso hizo referencia a plataformas como Instagram y TikTok que monitorean el lenguaje y cómo los niños ya han encontrado lagunas al usar “PDF” o “muertos” y crear nuevo vocabulario que inutiliza a esos censores: después de todo, los niños son inteligentes).
Sin embargo, advirtió, el efecto negativo es aún peor: sólo a unos pocos usuarios se les bloquea el acceso a la red social, no a todos. Si las plataformas de redes sociales hacen pocos esfuerzos por prohibir a los usuarios menores de edad pero niegan el acceso a unos pocos elegidos al mismo tiempo, esto crea un “efecto isla” por el cual, a menos que la prohibición sea universal, un niño aislado de las redes sociales se encuentra aislado mientras sus amigos continúan conectándose en línea.
La regulación apenas puede seguir el ritmo del uso
Olvídese de las demandas actuales que sirven como prueba de fuego para las reglas de diseño de redes sociales: la regulación actual apenas puede seguir el ritmo de cómo los niños usan las redes sociales, y las herramientas que usan las empresas de redes sociales no mantienen segura la privacidad de los usuarios. En los últimos meses, las plataformas que utilizan software de verificación de terceros han visto sus datos de usuario pirateados y expuestos, han tenido que anunciar y abandonar la censura impulsada por la IA y tienen que lidiar con una mala opinión pública de una base de usuarios cada vez más insatisfecha.
Sin embargo, esto no resuelve el paradójico problema de recopilar adecuadamente datos sobre niños y usuarios sin violar los derechos de privacidad de los usuarios. El problema empeora cuando se empieza a estudiar a los usuarios de estas plataformas.
“Las personas son ahora una minoría en Internet; estamos viendo que el tráfico entre robots y humanos se multiplica por 50 año tras año”, dijo Johnny Ayers, director ejecutivo de Socure, una empresa de software de verificación de identidad basada en inteligencia artificial. Ayers dijo a la revista Fortune que los bots han aumentado el uso de deepfakes en casi un 8.000% con respecto al año pasado, inutilizando gran parte del software de verificación del mercado. En cambio, uno de los controles digitales que utiliza su empresa implica utilizar el cardán de cada teléfono móvil para comprobar si la persona realmente sostiene el teléfono durante la verificación de identidad.
Evin McMullen, cuya empresa Billions Network se utiliza para combatir el lavado de dinero y utiliza técnicas de Conozca a su cliente, dice que la recopilación de datos biométricos es una forma en que las plataformas verifican su identidad porque no puede cambiar lo que dicen sobre usted.
“Suena un poco descarado, pero la idea de que no puedes girar los pulgares significa que no puedes cambiar fácilmente tu contraseña o gestionar la seguridad de la misma manera”, dijo McMullen a Fortune. “La identidad basada en datos biométricos realmente significa priorizar la facilidad de uso y la seguridad de sus datos más importantes”, dijo, y agregó que el modelo actual de administrador de contraseñas es “insostenible y ya no es seguro”.
Pero hay cuestiones relacionadas con los niños y la privacidad que deben revisarse a la luz del fallo COPPA de la FTC.
“No se pueden recopilar datos biométricos de un niño”, dijo Ayers a Fortune. “¿Y cómo se puede comprobar que alguien tiene 13 años sin comprobar, sin recopilar nada de que tiene 13 años?”
No se necesitan más herramientas
Una forma de hacerlo es recopilar pruebas de conocimiento cero (ZKP), que identifican a una parte para verificar la veracidad de una declaración y, por tanto, la identidad de esa persona. McMullen, cuyos clientes en la industria financiera están considerando medios no invasivos de verificación de identidad, es un firme defensor de los ZKP y agrega que son particularmente útiles para establecer confianza entre las partes.
ZKP es un método que permite a una persona que desea verificarse responder a declaraciones de una manera que genere confianza en la parte verificadora sin revelar información personal o confidencial. Tomemos, por ejemplo, el problema 4+4=8. Esto es algo que la persona que necesita verificación sabe que es cierto, pero el método ZKP se basa en la confianza. En lugar de preguntar 4+4=8, el evaluador hace una serie de preguntas para determinar si la persona que desea realizar la prueba dice la verdad (o, en este caso, sabe que es verdad). El verificador puede preguntar: 4+4=7; es la suma de 4+4 números pares y así sucesivamente, y después de una serie de preguntas puede determinar la veracidad de las declaraciones de una persona, revelándolas así.
Este no es un método común para verificar la identidad. Las empresas de redes sociales ahora han implementado una variedad de tecnologías para verificar las edades de las personas, incluido el uso de verificación de identidad, como pedir a los usuarios que carguen identificaciones emitidas por el gobierno; utilizar inteligencia artificial para escanear el rostro del usuario; rastrear la actividad del usuario para determinar la edad de una persona; y aprovechar herramientas de control parental como Instagram, que ha introducido cuentas de adolescentes para alertar a los padres sobre cualquier hábito dañino en línea.
El meollo del problema es que básicamente no existe ninguna herramienta que pueda verificar la edad de un usuario sin violar su privacidad. Cualquier modelo preciso requiere medidas extremadamente invasivas como biometría o identificaciones emitidas por el gobierno, y las identificaciones son algo que incluso las empresas de redes sociales dudan en pedir debido a la brecha de identificación que deja a 15 millones de estadounidenses sin ningún tipo de identificación, un problema que afecta desproporcionadamente a los estadounidenses negros y latinos, a los inmigrantes y a las personas con discapacidades.
El uso de IA para escanear los rostros de las personas contribuye poco a resolver este problema, ya que los expertos han descubierto que estos modelos de IA son menos precisos para los grupos minoritarios y a menudo clasifican erróneamente a los adultos como menores, mientras que la IA en sí no puede distinguir una voz sintética o una voz falsa de una persona real. Los niños, que son, una vez más, inteligentes, a menudo también evitan cualquier restricción geográfica al usar una VPN, como sucedió en Florida, donde el uso de VPN aumentó en un 1,150% después de que el estado comenzó a exigir a los usuarios que verificaran la edad para acceder a Pornhub. Y lo que es menos importante, existen serios riesgos de seguridad asociados con el almacenamiento de documentos de identificación, como el reciente hackeo 5CA del proveedor externo Discord que expuso más de 70,000 identificaciones gubernamentales en línea.
En última instancia, la “trampa de la verificación de edad” es lo que sucede cuando los reguladores consideran que la verificación de edad es obligatoria y relegan la privacidad a un estado opcional. Estos expertos advierten que hasta que métodos como ZKP o la verificación basada en dispositivos se conviertan en la norma, la era digital continuará en la trampa de intentar demostrar la identidad de una persona sin violar los derechos de privacidad.
