TUC publica propuesta legislativa para proteger a los trabajadores de la IA

El Congreso de Sindicatos (TUC) ha publicado una ley “lista para funcionar” para regular la inteligencia artificial (IA) en el lugar de trabajo, que establece una gama de nuevos derechos legales y protecciones para gestionar los efectos adversos de la toma de decisiones automatizada en trabajadores.

Al aplicar un enfoque basado en el riesgo similar al adoptado por la Unión Europea en su Ley de IA recientemente aprobada, el proyecto de ley de Inteligencia Artificial (Empleo y Regulación) del TUC se ocupa en gran medida del uso de la IA para la toma de decisiones de “alto riesgo”. que define como cuando un sistema produce “efectos jurídicos u otros efectos igualmente significativos”.

El TUC dijo que la IA se está utilizando en toda la economía para tomar decisiones importantes sobre las personas, incluido si consiguen un trabajo, cómo hacen su trabajo, dónde lo hacen y si son recompensados, disciplinados o despedidos.

Añadió que el uso de sistemas de inteligencia artificial para gestionar algorítmicamente a los trabajadores de esta manera ya está teniendo un “impacto significativo” en ellos y está generando resultados discriminatorios e injustos, falta de control sobre los datos, pérdida de privacidad e intensificación general del trabajo.

“La legislación laboral del Reino Unido simplemente no logra seguir el ritmo de la rápida velocidad del cambio tecnológico. Estamos perdiendo la carrera para regular la IA en el lugar de trabajo”, afirmó la subsecretaria general del TUC, Kate Bell.

La legislación laboral del Reino Unido simplemente no logra seguir el ritmo de la rápida velocidad del cambio tecnológico. Estamos perdiendo la carrera para regular la IA en el lugar de trabajo

Kate Bell, TUC

“La IA ya está tomando decisiones que cambian vidas en el lugar de trabajo, incluida la forma en que se contrata a las personas, se gestiona el desempeño y se despide. Necesitamos urgentemente implementar nuevas barreras para proteger a los trabajadores de la explotación y la discriminación. Esto debería ser una prioridad nacional”.

Adam Cantwell Corn, jefe de campañas y políticas del grupo de campaña Connected by Data, que participó en la redacción del proyecto de ley sobre inteligencia artificial (empleo y regulación), añadió: “En el debate sobre cómo hacer que la IA sea más segura, debemos ir más allá de lo confuso. ideas y convertir valores y principios en derechos y responsabilidades viables. El proyecto de ley hace exactamente eso y establece un indicador clave para lo que viene después”.

Aunque el gobierno del Reino Unido ahora dice que se podrían introducir normas vinculantes en el futuro para los sistemas de IA de mayor riesgo, hasta ahora se ha mostrado reacio a crear leyes para la IA, afirmando en múltiples ocasiones que no legislará hasta que sea el momento adecuado.

Derechos y responsabilidades procesables

Centrado en brindar protección y derechos a los trabajadores, empleados, solicitantes de empleo y sindicatos, así como obligaciones para los empleadores y posibles empleadores, las disposiciones clave del proyecto de ley incluyen obligar a los empleadores a llevar a cabo evaluaciones detalladas de riesgos de IA en el lugar de trabajo (WAIRA, por sus siglas en inglés) antes y después de la implementación, crear registros de los sistemas de toma de decisiones de IA que tienen en funcionamiento e invertir la carga de la prueba en casos laborales para que sea más fácil probar la discriminación por IA en el trabajo.

Bajo el marco WAIRA, el proyecto de ley también establecería procesos de consulta con los trabajadores, un derecho legal para que los sindicatos sean consultados antes de cualquier despliegue de alto riesgo y abriría el acceso a información de caja negra sobre los sistemas que colocarían a los trabajadores y a los sindicatos en una situación de riesgo. mejor posición para comprender cómo funcionan los sistemas.

Otras disposiciones incluyen una prohibición total del reconocimiento pseudocientífico de emociones, la ejecución de entornos de pruebas regulatorios para probar nuevos sistemas para que el desarrollo de la IA pueda continuar en un entorno seguro y una nueva defensa de auditoría para los empleadores que les permitiría defenderse contra demandas por discriminación si cumplen con requisitos rigurosos. normas de auditoría.

El proyecto de ley también otorgaría una variedad de derechos a los trabajadores, incluido el derecho a una declaración personalizada que explique cómo la IA toma decisiones de alto riesgo sobre ellos, el derecho a la revisión humana de las decisiones automatizadas, el derecho a desconectarse y el derecho de los sindicatos. recibir los mismos datos sobre los trabajadores que se proporcionarían al sistema de IA.

El TUC dijo que estas medidas combinadas contribuirían en gran medida a corregir el actual desequilibrio de poder sobre los datos en el trabajo.

“Se necesitan urgentemente normas legales y una regulación estricta para garantizar que los beneficios de la IA se compartan de manera justa y se eviten sus daños”, dijeron Robin Allen KC y Dee Masters de Cloisters en una declaración conjunta. “Innumerables comentaristas han defendido la necesidad de controlar la IA en el trabajo, pero hasta hoy ninguno había hecho el trabajo pesado necesario para redactar la legislación”.

Un enfoque colaborativo de múltiples partes interesadas

Si bien el texto fue redactado por AI Law Consultancy en Cloisters Chambers con la asistencia del Centro Minderoo para Tecnología y Democracia de la Universidad de Cambridge, el proyecto de ley en sí fue elaborado por un comité asesor especial creado por el TUC en septiembre de 2023.

En el debate sobre cómo hacer que la IA sea más segura, debemos ir más allá de las ideas confusas y convertir los valores y principios en derechos y responsabilidades viables. El proyecto de ley hace exactamente esto y establece un indicador clave para lo que viene a continuación.

Adam Cantwell Corn, conectado por datos

Lleno de representantes de una amplia gama de partes interesadas (incluidos el Instituto Ada Lovelace, el Instituto Alan Turing, Connected by Data, TechUK, la Sociedad Británica de Computación, United Tech and Allied Workers, GMB y parlamentarios de todos los partidos), el TUC destacó la importancia de enfoques colaborativos y de múltiples partes interesadas en el desarrollo de políticas de IA.

Añadió que si bien ya existe una serie de leyes que se aplican al uso de la tecnología en el trabajo, incluido el Reglamento General de Protección de Datos (GDPR) del Reino Unido, el Reglamento de Información y Consulta, varias normas de salud y seguridad, y el Convenio Europeo de Derechos Humanos Derechos Humanos (CEDH): todavía existen lagunas importantes en el marco jurídico actual.

Estos incluyen la falta de transparencia y explicabilidad, la falta de protección contra algoritmos discriminatorios, un desequilibrio de poder sobre los datos y la falta de voz y consulta de los trabajadores.

Otro proyecto de ley de IA centrado en los trabajadores fue presentado por el parlamentario laborista Mick Whitely en mayo de 2023, que de manera similar se centró en la necesidad de realizar consultas significativas con los trabajadores sobre la IA, la necesidad de evaluaciones y auditorías de impacto obligatorias y la creación de un derecho formal a desconectarse. .

Si bien ese proyecto de ley tuvo su primera lectura el mismo mes, la prórroga del Parlamento en octubre de 2023 antes de su segunda lectura en noviembre significa que no logrará más avances.

Cuando regresó al Parlamento, el par conservador Lord Chris Holmes presentó un proyecto de ley separado sobre IA, que destacaba la necesidad de un “compromiso público significativo y a largo plazo sobre las oportunidades y riesgos que presenta la IA”.

En declaraciones a Computer Weekly en marzo de 2024, Holmes dijo que el enfoque de “esperar y ver” del gobierno del Reino Unido para regular la IA no es lo suficientemente bueno cuando en este momento se están produciendo daños reales.

“La gente ya está en el lado equivocado de las decisiones de IA en el reclutamiento, en la preselección, en la educación superior, y no sólo pueden encontrarse en el lado equivocado de una decisión de IA, sino que muchas veces es posible que ni siquiera sepan que es el caso. ” él dijo.

En un evento previo a la Cumbre Mundial AI for Good de las Naciones Unidas (ONU), que se celebrará a finales de mayo de 2024, la secretaria general de la Unión Internacional de Telecomunicaciones (UIT), Doreen Bogdan-Martin, dijo que un importante enfoque de la cumbre sería “pasar de los principios a la implementación”.

Añadió que “los estándares son la piedra angular de la IA”, pero estos estándares deben crearse de manera colaborativa a través de plataformas de múltiples partes interesadas como la ONU.

Más contenido para leer:  La investigación de Google Cloud destaca la desconexión entre la intención y la entrega en iniciativas de TI ecológicas

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales