AI adoptada sin la debida consideración para los trabajadores, dijeron los parlamentarios

La rápida adopción de inteligencia artificial (IA) por parte de las empresas durante la pandemia ha dejado a los trabajadores de todo el Reino Unido vulnerables a una variedad de daños inducidos algorítmicamente, incluida la vigilancia invasiva, la discriminación y la intensificación severa del trabajo, se les ha dicho a los parlamentarios.

En una sesión que examinó cómo la IA y la tecnología digital en general están cambiando el lugar de trabajo, Andrew Pakes, secretario general adjunto de Prospect Union, le dijo al Comité de Estrategia Comercial, Energética e Industrial (BEIS, por sus siglas en inglés) que la rápida introducción de nuevas tecnologías en los lugares de trabajo de todo el UK ayudó a muchas empresas a mantenerse a flote durante la pandemia.

Pero dijo que la rápida implementación de tecnologías impulsadas por IA en los lugares de trabajo, incluidos los sistemas de contratación, detección de emociones, vigilancia, monitoreo de la productividad y más, significaba que las desventajas no se consideraban adecuadamente, creando una situación en la que las leyes laborales ya no se ajustan. para hacer frente a los cambios en la forma en que se gestionan las personas a través de las tecnologías digitales.

“Lo que hemos visto durante la pandemia es la aceleración de la tecnología digital que nos permite mantenernos seguros, conectados y bien, pero también hemos visto en esa aceleración menos tiempo dedicado a su escrutinio”, dijo Pakes.

Al dar el ejemplo del software de asignación de tareas que puede ayudar a los jefes con la vigilancia o la microgestión de su personal, Pakes agregó: “Inicia sesión y te dice cuánto tiempo tienes para hacer una tarea. Lo que aún no tenemos claro es cómo se utilizan esos datos en el proceso de gestión para determinar la velocidad de un trabajo, o si usted es un trabajador “bueno” o “malo”.

“Lo que se encuentra detrás de la IA es el uso de nuestros datos para tomar decisiones sobre la vida laboral individual y dónde se sientan dentro del lugar de trabajo. Muchas de nuestras leyes actualmente se basan en la presencia física, por lo que las leyes de salud y seguridad sobre daños y riesgos físicos. Todavía no tenemos un lenguaje o marco legal que represente adecuadamente el daño o el riesgo creado por el uso de nuestros datos”.

En marzo de 2021, el Congreso de Sindicatos (TUC) advirtió de manera similar que existen grandes lagunas en la legislación del Reino Unido sobre el uso de la IA en el lugar de trabajo, lo que conduciría a la discriminación y el trato injusto de los trabajadores, y pidió “cambios legislativos urgentes”.

Un año después, en marzo de 2022, el TUC dijo que el uso intrusivo y creciente de la tecnología de vigilancia en el lugar de trabajo, a menudo impulsado por IA, estaba “fuera de control”, y presionó para que se consultara a los trabajadores sobre la implementación de nuevas tecnologías en trabajar.

Refiriéndose a un informe de Robin Allen QC, que encontró que la ley del Reino Unido no cubría adecuadamente los riesgos de discriminación e igualdad que podrían surgir en el lugar de trabajo como resultado de AI, Carly Kind, directora del Instituto Ada Lovelace, dijo a los parlamentarios que muchos de los Las herramientas de IA que se implementaron no solo estaban en el borde exterior de la legalidad, sino también de la veracidad científica.

“Cosas como el reconocimiento de emociones o la clasificación, que es cuando se les pide a los entrevistados que entrevisten con un entrevistador automático o de otra manera en la pantalla, y se les aplica una forma de reconocimiento de imágenes que trata de destilar de sus movimientos faciales si son confiables o no. o confiable”, dijo, y agregó que existe una verdadera “brecha legal” en el uso de la IA para la clasificación de emociones.

Hablando sobre cómo las herramientas impulsadas por IA, como el reconocimiento de emociones, podrían afectar a las personas con condiciones neurodivergentes, por ejemplo, Kind dijo que la inequidad era una “preocupación real con la IA en general” porque “utiliza conjuntos de datos existentes para construir predicciones sobre el futuro y tiende a optimizar para homogeneidad y para el statu quo; no es muy bueno para optimizar la diferencia o la diversidad, por ejemplo”.

Cuando se trata de responsabilizar a la IA, Anna Thomas, directora del Instituto para el Futuro del Trabajo, dijo que si bien las herramientas de auditoría generalmente se consideran una forma de abordar los daños de la IA, a menudo son inadecuadas para garantizar el cumplimiento de las leyes laborales y de igualdad del Reino Unido. .

“En particular, las herramientas de auditoría en sí rara vez serán explícitas sobre el propósito de la auditoría, o se introdujeron definiciones clave que incluyen igualdad y equidad, y suposiciones para los EE. UU.”, dijo, y agregó que los legisladores deberían buscar implementar un sistema más amplio de auditoría sociotécnica para abordar los daños causados ​​por la IA. “Las herramientas generalmente no estaban diseñadas ni equipadas para abordar los problemas que se habían encontrado”, dijo.

Pakes también se refirió a la importación de suposiciones culturales a través de la tecnología, quien dijo que los problemas en torno a la IA en el lugar de trabajo se vieron exacerbados por el hecho de que la mayoría de las empresas no desarrollan sus propios sistemas de gestión internos y, por lo tanto, confían en productos listos para usar. en otras partes del mundo, donde las prácticas de gestión y los derechos laborales pueden ser muy diferentes.

Dando el ejemplo de Microsoft Teams y Office365, que contienen herramientas que permiten a los empleadores leer de forma encubierta los correos electrónicos del personal y monitorear el uso de su computadora en el trabajo, Pakes dijo que, aunque fue útil al principio, la introducción de la “puntuación de productividad” automatizada más tarde creó un multitud de cuestiones.

“Si de repente, como descubrimos, seis meses después, cuando las personas están encerradas en medidas disciplinarias, y los gerentes dicen ‘hemos estado analizando su tráfico de correo electrónico, hemos estado analizando el software que ha estado usando, hemos estado mirando sus sitios web, no creemos que sea un trabajador productivo’, creemos que eso se relaciona con el uso más espeluznante de esta tecnología”, dijo Pakes.

Pero agregó que el problema no es la tecnología en sí misma, “es la práctica de gestión de cómo se aplica la tecnología lo que debe corregirse”.

Estudio de caso: Automatización impulsada por IA en Amazon

En lo que respecta a los beneficios de la IA para la productividad, Brian Palmer, director de políticas públicas de Europa en Amazon, dijo a los parlamentarios que el uso de la automatización por parte del gigante del comercio electrónico en sus centros logísticos no está diseñado para reemplazar los trabajos existentes, sino que se utiliza para apuntar a tareas mundanas o repetitivas para los trabajadores.

“En términos de mejorar los resultados para las personas, lo que vemos es una mejora en la seguridad, la reducción de cosas como lesiones por movimientos repetitivos o trastornos musculoesqueléticos, mejoras en la retención de empleados, los trabajos son más sostenibles”, dijo.

Repitiendo el testimonio reciente dado al Comité Digital, Cultura, Medios y Deporte (DCMS) por Matthew Cole, investigador postdoctoral en el Instituto de Internet de Oxford, el parlamentario laborista Andy McDonald dijo: “Abrumadoramente, la evidencia muestra que las tecnologías que utiliza Amazon no son empoderamiento: conducen al exceso de trabajo, estrés extremo y ansiedad, y ha habido problemas con las articulaciones y problemas de salud”.

Cuando se le preguntó cómo se utilizan los datos para rastrear el comportamiento y la productividad de los empleados, Palmer negó que Amazon estuviera buscando monitorear o vigilar a los empleados.

“Su privacidad es algo que respetamos”, dijo. “El enfoque del software y el hardware que hemos estado discutiendo está en los productos, no en las personas mismas”. Palmer agregó que los datos de desempeño que se recopilan son accesibles para el empleado a través de sistemas internos.

Cuando fue desafiado por el presidente del comité, Darren Jones, quien le dijo a Palmer que estaba “incorrecto” en su caracterización, Palmer dijo que el propósito principal y secundario de los sistemas de Amazon era monitorear “la salud de la red” y el “control de inventario”, respectivamente.

Al relatar la historia de un elector de 63 años que trabaja para Amazon, Jones dijo que era un hecho que la empresa realiza un seguimiento de la productividad individual de los trabajadores, ya que este elector ya tenía dos faltas por ser demasiado lento en el empaquetado de artículos y podría ser despedido por su manager por un tercer strike.

Luego de este intercambio, Palmer admitió que los trabajadores de Amazon podrían ser despedidos por no cumplir con los objetivos de productividad. Sin embargo, sostuvo que siempre habría un “humano en el circuito”, y que cualquier problema de rendimiento generalmente resulta en que el trabajador sea trasladado a una “función” diferente dentro de la empresa.

Otros testigos también cuestionaron la caracterización de Palmer de la automatización en Amazon. Laurence Turner, jefe de investigación y política del sindicato GMB, dijo que sus miembros informaron un aumento en “la intensidad del trabajo” como resultado de objetivos de productividad cada vez más altos administrados a través de algoritmos.

Turner dijo que la vigilancia algorítmica también estaba teniendo un impacto en la salud mental de las personas, y los trabajadores informaron “una sensación de traición” a GMB “cuando se hace evidente que el empleador los ha estado monitoreando de manera encubierta; los miembros con demasiada frecuencia informan que serán llamados a una disciplina y se les presentó un conjunto de números, o un conjunto de métricas, que no sabían que se les estaba recopilando, y que no se sienten seguros de desafiar”.

Pakes dijo que los miembros del sindicato de Prospect también habían informado preocupaciones similares y “considerables” sobre el efecto de la IA en la intensidad del trabajo.

“Creemos que existe el peligro de que la IA se convierta en una nueva forma de taylorismo moderno, también de que los algoritmos se utilicen para ganancias de productividad a corto plazo que van en detrimento del empleador a largo plazo”, dijo Turner, y agregó que el testimonio de Palmer fue “un conjunto de evidencia bastante extraordinario que no refleja lo que nuestros miembros nos dicen sobre lo que sucede en esos almacenes”.

Sobre el papel de la IA en la intensificación del trabajo, Thomas dijo que los sistemas deben diseñarse teniendo en cuenta los resultados para los trabajadores. “Si el objetivo no fuera únicamente aumentar la cantidad de maletas que alguien tenía que empacar en un minuto, sino también si se hiciera con una comprensión más holística sobre los impactos en las personas: en su bienestar, dignidad, autonomía, en la participación: es más probable que los resultados sean exitosos”, dijo.

El Comité abrió una investigación sobre el crecimiento económico posterior a la pandemia de los mercados laborales del Reino Unido en junio de 2020, con la tarea declarada de comprender los problemas relacionados con la fuerza laboral del Reino Unido, incluido el impacto de las nuevas tecnologías.

Una investigación parlamentaria sobre la vigilancia del lugar de trabajo impulsada por IA descubrió previamente que la IA se estaba utilizando para monitorear y controlar a los trabajadores con poca responsabilidad o transparencia, y pidió la creación de una Ley de Responsabilidad por Algoritmos.

Exit mobile version