‘Brechas significativas’ en la regulación de IA del Reino Unido, dice el Instituto Ada Lovelace

Las propuestas de reforma de datos “desregulatorias” del gobierno del Reino Unido socavarán el desarrollo seguro y el despliegue de inteligencia artificial (IA) al empeorar “un panorama ya pobre de reparación y responsabilidad”, dijo el Instituto Ada Lovelace.

Publicado el 29 de marzo, el documento técnico de IA del gobierno describió su enfoque “adaptable” para regular la IA, que, según afirmó, impulsará la innovación responsable mientras mantiene la confianza pública en la tecnología.

Como parte de este marco “pro-innovación” propuesto, el gobierno dijo que facultaría a los reguladores existentes, incluida la Oficina del Comisionado de Información (ICO), el Ejecutivo de Salud y Seguridad, la Comisión de Igualdad y Derechos Humanos (EHRC) y la Autoridad de Mercados y Competencia. para crear reglas personalizadas y específicas del contexto que se adapten a las formas en que se utiliza la IA en los sectores que examinan.

Programado para pasar en otoño de 2023, el proyecto de ley de Protección de Datos e Información Digital (DPDI) también modificará la implementación del Reino Unido del Reglamento General de Protección de Datos (GDPR) y la Directiva de Aplicación de la Ley (LED) de la Unión Europea; que grupos de la sociedad civil han condenado previamente como “una desregulación total del marco de protección de datos del Reino Unido”.

Sin embargo, en un informe que analiza las propuestas del Reino Unido para la regulación de la IA, el Instituto Ada Lovelace descubrió que, debido a que “grandes sectores” de la economía del Reino Unido no están regulados o solo están parcialmente regulados, no está claro quién sería responsable de examinar los despliegues de IA en una gama de contextos diferentes.

Esto incluye las prácticas de contratación y empleo, que no se supervisan exhaustivamente; la educación y la vigilancia, que son monitoreadas y aplicadas por una red desigual de reguladores; y actividades realizadas por departamentos del gobierno central que no están directamente reguladas.

“En estos contextos, no habrá un regulador específico de dominio existente con una supervisión general clara para garantizar que los nuevos principios de IA estén integrados en la práctica de las organizaciones que implementan o usan sistemas de IA”, dijo, y agregó que el análisis legal independiente realizado para el Instituto de la agencia de derechos de datos AWO descubrió que, en estos contextos, las protecciones que ofrece actualmente la legislación transversal, como el RGPD del Reino Unido y la Ley de Igualdad, a menudo no protegen a las personas de los daños ni les brindan una vía efectiva para repararlos. “Esta brecha en la aplicación con frecuencia deja a las personas dependientes de la acción judicial para hacer valer sus derechos, lo cual es costoso y requiere mucho tiempo, y a menudo no es una opción para los más vulnerables”.

Derechos de datos debilitados

Sobre el proyecto de ley de la DPDI, el Instituto agregó que, al ampliar las bases legales para la recolección y tratamiento de datos, eliminando requisitos como la obligación de realizar estudios de impacto en materia de protección de datos cuando se están realizando tratamientos de alto riesgo, se debilitan los actuales derechos de datos incluso más.

“Una salvaguardia particularmente importante en el contexto de la IA es el artículo 22 del RGPD del Reino Unido, que actualmente prohíbe a las organizaciones tomar decisiones sobre personas con efectos ‘legales o de importancia similar’ basados ​​únicamente en el procesamiento automatizado, con algunas excepciones”, dijo.

“El proyecto de ley elimina la prohibición de muchos tipos de decisiones automatizadas y, en cambio, requiere que los controladores de datos tengan salvaguardas, como medidas que permitan a una persona impugnar la decisión, lo que es, en la práctica, un nivel más bajo de protección”.

Alex Lawrence-Archer, abogado de AWO, dijo: “Para que la gente común esté protegida de manera efectiva de los daños en línea, necesitamos regulación, reguladores fuertes, derechos de reparación y vías realistas para que esos derechos se hagan cumplir.

“Nuestro análisis legal muestra que existen brechas significativas que significan que los daños de la IA pueden no prevenirse o abordarse lo suficiente, incluso cuando la tecnología que amenaza con causarlos se vuelve cada vez más omnipresente”.

Recomendaciones

Por lo tanto, el Instituto ha recomendado que el gobierno “reconsidere” los elementos del proyecto de ley DPDI que socavarían la seguridad de las personas, y particularmente en torno al marco de rendición de cuentas que establece.

Agregó que el gobierno también debe revisar los derechos y protecciones proporcionados por la legislación existente y, cuando sea necesario, legislar para introducir nuevos derechos y protecciones; y producir una “declaración consolidada” de las protecciones que las personas deben esperar al usar o interactuar con los sistemas de IA.

Recomendó además explorar la creación de un “ombudsman de AI”, y señaló que existe la necesidad de algún tipo de reparación o mecanismo de resolución de disputas para las personas afectadas por AI, especialmente en sectores donde actualmente no existen mecanismos formales.

“Adoptar un modelo al estilo del ombudsman podría actuar como un complemento de otras funciones centrales que el gobierno ha establecido, apoyando a las personas en la resolución de sus quejas, dirigiéndolas a los reguladores apropiados cuando esto no sea posible, y brindando al gobierno y a los reguladores información importante sobre los tipos de daños de la IA que las personas están experimentando y si están asegurando una reparación efectiva”, dijo.

Dada la naturaleza “exclusivamente personal” de los datos biométricos, el Instituto dijo que la evidencia muestra que “no existe una aceptación pública generalizada ni apoyo para el uso de la biometría” salvaguardias que el marco legal existente no brinda, y agregó que la biometría es una de las varias áreas donde se pueden necesitar “nuevos derechos y protecciones” para gobernar efectivamente la IA.

Tanto el Parlamento como la sociedad civil han pedido repetidamente nuevos marcos legales para regir el uso de la biometría, particularmente por parte de los organismos encargados de hacer cumplir la ley, incluida una investigación de la Cámara de los Lores sobre el uso policial de tecnologías algorítmicas avanzadas; el excomisionado de biometría del Reino Unido, Paul Wiles; una revisión legal independiente por Matthew Ryder QC; la Comisión de Igualdad y Derechos Humanos del Reino Unido; y el Comité de Ciencia y Tecnología de la Cámara de los Comunes, que pidió una moratoria sobre el reconocimiento facial en vivo desde julio de 2019.

Sin embargo, el gobierno sostiene que “ya existe un marco integral”.

En otra parte, el informe pide una mayor urgencia por parte del gobierno dados los “daños significativos asociados con el uso de la IA en la actualidad, muchos de los cuales los sienten de manera desproporcionada los más marginados”.

Agregó que el ritmo con el que los modelos básicos de IA se están integrando en la economía también corre el riesgo de aumentar estos daños.

“Cuando los modelos básicos se utilizan como base para una variedad de aplicaciones, cualquier error o problema en el nivel del modelo básico puede afectar cualquier aplicación construida sobre o ‘ajustada’ a partir de ese modelo”, dijo.

“Esta distribución sin control de modelos básicos corre el riesgo de agravar los desafíos de incorporar los principios de IA en las prácticas de las organizaciones que implementan y usan IA. Será necesaria una acción oportuna del Grupo de trabajo del modelo de base para garantizar que, a medida que crece el uso de modelos de base, estas tecnologías de vanguardia sean consideradas confiables por las empresas y el público”.

Por lo tanto, el Instituto ha recomendado introducir requisitos de informes obligatorios para los desarrolladores de modelos de cimientos; proyectos piloto para desarrollar una mejor experiencia y seguimiento en el gobierno; e incluir una gama más diversa de voces en la próxima Cumbre de Seguridad de IA del gobierno en otoño de 2023.

Agregó que el Grupo de trabajo modelo de la fundación del gobierno, establecido en junio de 2023 con una financiación de £ 100 millones para liderar la seguridad de la IA, podría desempeñar un papel en la ejecución de cualquier programa piloto, así como en la revisión de oportunidades y barreras para la aplicación de la ley existente.

Otras recomendaciones hechas por el Instituto incluyen aumentar “significativamente” los fondos disponibles para los reguladores (en línea con las llamadas de la EHRC); aclarar la ley sobre la responsabilidad de la IA, de modo que la responsabilidad legal y financiera por el riesgo de la IA se distribuya proporcionalmente a lo largo de las cadenas de valor de la IA; y considerando el desarrollo público de capacidades de IA para dirigir la tecnología hacia el beneficio público a largo plazo.

Exit mobile version