TL;DR: Los solicitantes de empleo están demandando a una herramienta de contratación de inteligencia artificial llamada Eightfold por supuestamente producir informes secretos que ayudan a los empleadores a seleccionar candidatos. ¿Por qué es esto ilegal? Es la misma razón que las agencias de calificación tienen para explicarle por qué bajaron su calificación, afirma la demanda. Si los tribunales están de acuerdo con esta lógica, podría empezar a cambiar el mundo de la caja negra de la contratación de IA.
Qué pasó: Como muchas personas que últimamente han estado jugando al juego de los números en su búsqueda de empleo, los demandantes estaban hartos de las solicitudes que parecían quedar en el olvido. Presentaron una demanda colectiva contra Eightfold, que utilizan grandes empresas como Microsoft y PayPal para seleccionar empleados potenciales. La demanda alega que Eightfold violó la Ley de Informe Justo de Crédito y una ley similar de protección al consumidor de California al impedir que los solicitantes revisaran información sobre ellos y corrigieran los registros cuando fuera necesario.
“La tecnología de Eightfold se esconde detrás de las solicitudes de empleo”, alega la demanda, “recopilando información personal como perfiles de redes sociales, datos de ubicación, actividad web y de dispositivos, cookies y otras herramientas de seguimiento”.
Eightfold cuestiona esto: la herramienta “se basa en datos proporcionados intencionalmente por los candidatos o por nuestros clientes. No raspamos las redes sociales y similares”, nos dijo el portavoz Kurt Feller. “Eightfold considera que las acusaciones son infundadas.”
Lo que no está en duda es que Eightfold utiliza IA para producir una puntuación de cero a cinco, evaluando qué tan adecuado es un candidato para un puesto determinado.
Por qué es importante: Las empresas ahora utilizan una variedad de herramientas ocultas de inteligencia artificial para encontrar y evaluar candidatos. Los candidatos también juegan a este juego, utilizando sus propias herramientas de inteligencia artificial para buscar empleos y crear aplicaciones. Esto es inteligencia completamente artificial.
Algunos estados, incluido Nueva York, tienen leyes que regulan estas herramientas, en gran medida centradas en su potencial de prejuicio y discriminación. Pero la toma de decisiones mediante IA todavía se produce en gran medida sin que los solicitantes lo sepan.
Esta no es la primera vez que se utiliza la Ley de Informe Justo de Crédito para desafiar los sistemas de contratación basados en big data, pero en uno de esos casos el enfoque en la inteligencia artificial es nuevo, según Pauline Kim, profesora de derecho laboral en la Facultad de Derecho de la Universidad de Washington.
Lo que esto significa para usted: si la demanda tiene éxito (lo que podría llevar años), las herramientas de contratación impulsadas por IA podrían ser más transparentes sobre los datos que recopilan y trabajar más duro para garantizar la precisión, dijo Kim. Pero es posible que la ley de 55 años de antigüedad en la que se basa la demanda no refleje completamente el uso moderno.
La verdadera importancia, según Kim, es que las empresas que dependen de estas herramientas tendrán que ser más transparentes en su uso. “Sin embargo, debido a que la ley se redactó en una época anterior, incluso si los tribunales la aceptaran, solo proporcionaría una transparencia limitada, probablemente no suficiente para garantizar la equidad de estos sistemas”. -ordenador personal
Este informe fue publicado originalmente por Tech Brew.
