La IA no se puede regular únicamente con medidas técnicas

Cualquier intento de regular la inteligencia artificial (IA) no debe depender únicamente de medidas técnicas para mitigar los daños potenciales, sino que debe avanzar para abordar los desequilibrios de poder fundamentales entre quienes desarrollan o implementan la tecnología y quienes están sujetos a ella, dice un informe. encargado por European Digital Rights (EDRi).

Publicado el 21 de septiembre de 2021, el informe de 155 páginas Más allá del debiasing: regulando la IA y sus desigualdades criticó específicamente el enfoque “tecnocrático” de la Unión Europea (UE) para la regulación de la IA, que dijo que estaba demasiado centrado en la implementación de medidas técnicas de mitigación de sesgos, también conocidas como “atenuación”, para ser eficaz en la prevención de la gama completa de daños relacionados con la IA .

La Ley de Inteligencia Artificial (AIA) propuesta por la Comisión Europea (CE) se publicó en abril de 2021 y buscaba crear un enfoque basado en el riesgo y liderado por el mercado para regular la IA mediante el establecimiento de autoevaluaciones, procedimientos de transparencia y diversos estándares técnicos.

Expertos y organizaciones en derechos civiles digitales le han dicho anteriormente a Computer Weekly que aunque la regulación es un paso en la dirección correcta, en última instancia no protegerá los derechos fundamentales de las personas ni mitigará los peores abusos de la tecnología porque no aborda los desequilibrios de poder fundamentales entre las empresas de tecnología. y los que están sujetos a sus sistemas.

El informe encargado por EDRi dijo que, si bien los legisladores europeos han reconocido públicamente que la IA puede producir una amplia gama de daños en diferentes dominios, incluidos el empleo, la vivienda, la educación, la salud y la policía, su enfoque láser en el desvanecimiento algorítmico se debe a un malentendido de lo existente. técnicas y su eficacia.

“Los documentos de política de la UE favorecen el desvanecimiento de conjuntos de datos como el mejor medio para abordar la discriminación en la IA, pero no comprenden los conceptos básicos de los enfoques de desvanecimiento”, dijo. “Cuando se habla de la eliminación de diamantes, los documentos sugieren erróneamente que mitigar los sesgos en los conjuntos de datos garantiza que los sistemas futuros basados ​​en estos llamados ‘conjuntos de datos con atenuación’ no serán discriminatorios”.

Más contenido para leer:  NCSC guidance to help CEOs work through cyber incidents

El informe agregó que el reglamento propuesto por la CE tampoco considera otras formas de sesgo que pueden ocurrir en los modelos y sus resultados, lo que revela una falta de conocimiento sobre las limitaciones del desvanecimiento.

“Ya sea que se apliquen a conjuntos de datos o algoritmos, las técnicas de atenuación tecnocéntrica tienen profundas limitaciones: abordan el sesgo en términos meramente estadísticos, en lugar de tener en cuenta los variados y complejos requisitos y necesidades de equidad de las diversas partes interesadas del sistema”, dijo.

“Los reguladores se han olvidado de lidiar con las implicaciones, incluida la imposibilidad técnica que da como resultado el desvanecimiento (es decir, es imposible cumplir con múltiples requisitos de desvanecimiento dentro del mismo modelo) y el aplanamiento de las diferencias, especialmente las diferencias sociales y políticas, que resultan de la búsqueda de conjuntos de datos ‘no sesgados’ “.

El informe también afirmó que, al adoptar un enfoque de suavizado “tecnocéntrico”, los responsables de la formulación de políticas están reduciendo los problemas sociales, políticos y económicos complejos a cuestiones meramente técnicas de la calidad de los datos, cediendo un poder y control significativos sobre una serie de cuestiones a las empresas de tecnología en el proceso. .

“Debiasing ubica los problemas y soluciones en entradas y salidas algorítmicas, trasladando los problemas políticos al dominio del diseño dominado por actores comerciales”, dijo. “Los documentos de políticas confieren una amplia discreción a los desarrolladores de tecnología y proveedores de servicios para establecer los términos de las prácticas de desvanecimiento, dejando fuera las cuestiones políticas y económicas desafiantes de estos métodos a la discreción de los proveedores de servicios”.

Añadió que, al trasladar los complejos problemas socio-técnicos de discriminación al dominio de los proveedores de servicios y al promover marcos de desvanecimiento que les dan tanta discreción, los responsables políticos europeos han colocado implícitamente a las empresas de tecnología como árbitros de los conflictos sociales.

Más contenido para leer:  Cinco formas en que está cambiando el mercado de la infraestructura hiperconvergente

“Es probable que esta formulación de políticas fortalezca el poder regulador de las empresas de tecnología en materia de discriminación y desigualdades, al tiempo que normaliza la aplicación de métodos de gestión de la población basados ​​en inteligencia artificial alineados con los objetivos de ganancias”, dijo.

Dadas las limitaciones de las técnicas de suavizado, el informe concluyó que “en general, los responsables de la formulación de políticas deberían dejar de defender el suavizado como la única respuesta a la IA discriminatoria” y, en cambio, promoverlo solo para las aplicaciones limitadas para las que es adecuado.

El informe fue investigado y escrito por Agathe Balayn y Seda Gürses de la Universidad Tecnológica de Delft en los Países Bajos.

En el prólogo del informe, Sarah Chander, asesora sénior de políticas de EDRi, dijo: “Enmarcar el debate en torno a las respuestas técnicas oscurecerá la complejidad del impacto de los sistemas de IA en una economía política más amplia y delimitará las posibles respuestas a las esfera, centralizando aún más poder con las empresas de tecnología dominantes “.

Chander agregó que “no deberíamos permitir que los enfoques tecnocéntricos ofusquen respuestas más radicales a los daños estructurales generales que emanan de los sistemas de IA”, y pidió además prohibir los “usos de la IA que infrinjan los derechos fundamentales de forma inherente”.

El apoyo a las prohibiciones también se repitió en otras partes del informe, que recomendaban que “los responsables de la formulación de políticas deberían implementar procesos regulatorios para que los sistemas de IA que son inherentemente dañinos o contrarios al interés público puedan limitarse, prohibirse o detenerse mientras están en uso”.

A principios de este mes, la alta comisionada de las Naciones Unidas (ONU) para los derechos humanos, Michelle Bachelet, pidió una moratoria sobre la venta y el uso de sistemas de inteligencia artificial que representan un riesgo grave para los derechos humanos, al menos hasta que se implementen las salvaguardias adecuadas. en cuanto a la prohibición absoluta de las aplicaciones de IA que no pueden utilizarse de conformidad con el derecho internacional de los derechos humanos.

Más contenido para leer:  Expertos cibernéticos sobre cómo hacer gala de un ataque Nobelio

“La inteligencia artificial ahora llega a casi todos los rincones de nuestra vida física y mental e incluso a los estados emocionales”, dijo. “Los sistemas de inteligencia artificial se utilizan para determinar quién obtiene los servicios públicos, decidir quién tiene la oportunidad de ser contratado para un trabajo y, por supuesto, afectan la información que las personas ven y pueden compartir en línea.

“Dado el rápido y continuo crecimiento de la IA, llenar la inmensa brecha de responsabilidad en la forma en que se recopilan, almacenan, comparten y utilizan los datos es una de las cuestiones de derechos humanos más urgentes que enfrentamos”.

Un informe adjunto de la Oficina de Derechos Humanos de la ONU, que analizó cómo la IA afecta una variedad de derechos, encontró que tanto los estados como las empresas a menudo se han apresurado a implementar sistemas de IA y en gran medida no están llevando a cabo la debida diligencia sobre cómo estos sistemas afectan los derechos humanos.

Y en agosto de 2021, un estudio global de responsabilidad algorítmica en el sector público realizado por el Instituto Ada Lovelace encontró que muy pocas intervenciones políticas han intentado de manera significativa garantizar la participación pública, ya sea del público en general o de personas directamente afectadas por un sistema algorítmico.

“Los defensores de la participación pública, especialmente de las comunidades afectadas, argumentan que no solo es útil para mejorar los procesos y principios, sino que es crucial para diseñar políticas que satisfagan las necesidades identificadas de las comunidades afectadas, y para incorporar perspectivas contextuales que impulsan la experiencia es posible que los objetivos de las políticas no se cumplan ”, dijo el análisis.

Agregó que para que las formas de gobernanza participativa sean significativas, los formuladores de políticas también deben considerar cómo los actores con diferentes niveles de recursos pueden contribuir al proceso.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales