Más de 100 grupos de la sociedad civil piden cambios en la Ley de IA de la UE

Un total de 114 organizaciones de la sociedad civil han firmado una carta abierta pidiendo a las instituciones europeas que modifiquen la próxima Ley de Inteligencia Artificial (AIA) para que proteja adecuadamente los derechos humanos fundamentales y aborde los impactos estructurales de la inteligencia artificial (IA).

El AIA propuesto por la Comisión Europea se publicó en abril de 2021 y buscaba crear un enfoque basado en el riesgo y dirigido por el mercado para regular la IA mediante el establecimiento de autoevaluaciones, procedimientos de transparencia y varios estándares técnicos.

Expertos y organizaciones en derechos civiles digitales le han dicho anteriormente a Computer Weekly que aunque la regulación es un paso en la dirección correcta, en última instancia no protegerá los derechos fundamentales de las personas ni mitigará los peores abusos de la tecnología porque no aborda los desequilibrios de poder fundamentales entre las empresas de tecnología. y los que están sujetos a sus sistemas.

Según la carta abierta de los grupos de la sociedad civil, que fue coordinada por European Digital Rights (EDRi) y publicada el 30 de noviembre, “es vital que la AIA aborde los impactos estructurales, sociales, políticos y económicos del uso de la IA, está preparada para el futuro y prioriza los valores democráticos y la protección de los derechos fundamentales ”.

Agrega: “Reconocemos específicamente que los sistemas de inteligencia artificial exacerban los desequilibrios estructurales de poder, y los daños a menudo recaen sobre los más marginados de la sociedad. Como tal, esta declaración colectiva establece el llamado de 114 organizaciones de la sociedad civil hacia una Ley de Inteligencia Artificial que destaque los derechos fundamentales ”.

Sarah Chander, asesora senior de políticas de EDRi, dijo a Computer Weekly: “La Ley de IA de la UE necesita una actualización seria para proteger a las personas de los innumerables daños que presenta el uso de sistemas de IA.

“Para proteger verdaderamente los derechos fundamentales de las personas, la Ley necesita, como mínimo, actualizar sus prohibiciones, incluida una prohibición total de la identificación biométrica en público, vigilancia policial predictiva, exigir que los implementadores realicen evaluaciones de impacto antes de su uso y proporcionar reparación a las personas dañadas por los sistemas de inteligencia artificial. . “

Los firmantes, que incluyen Access Now, Fair Trials, Algorithm Watch, Homo Digitalis, Privacy International, Statewatch, App Drivers and Couriers Union y Big Brother Watch, hacen una serie de recomendaciones sobre cómo se puede modificar el AIA para garantizar que realmente prevenga y protege a las personas de los peores abusos de las tecnologías de IA.

Más contenido para leer:  El Grupo Raxio establece planes de expansión del centro de datos de colocación panafricana

Estos incluyen imponer más obligaciones a los usuarios de sistemas de IA de alto riesgo para facilitar una mayor responsabilidad, crear requisitos de accesibilidad obligatorios para que las personas con discapacidades puedan obtener fácilmente información sobre los sistemas de IA y prohibir el uso de cualquier sistema que represente un riesgo inaceptable para derechos fundamentales.

La carta señala, por ejemplo, que la AIA impone predominantemente obligaciones a los proveedores de sistemas de inteligencia artificial en lugar de a los usuarios finales que los implementan, y agrega que, si bien algunos de los riesgos que plantean los sistemas de inteligencia artificial de alto riesgo provienen de cómo están diseñados, Los riesgos importantes también se derivan de cómo se implementan.

“Para remediar esto, recomendamos que se modifique la AIA para incluir la obligación de los usuarios de sistemas de IA de alto riesgo de realizar una evaluación de impacto sobre los derechos fundamentales antes de implementar cualquier sistema de IA de alto riesgo”, dice.

“Para cada implementación propuesta, los usuarios deben designar las categorías de individuos y grupos que probablemente se verán afectados por el sistema, evaluar el impacto del sistema en los derechos fundamentales, su accesibilidad para las personas con discapacidad y su impacto en el medio ambiente y el interés público en general”.

Vinculada a las obligaciones de los usuarios de sistemas de alto riesgo, la carta también pide una transparencia consistente y significativa.

En su forma actual, la AIA crearía una base de datos de sistemas de alto riesgo en toda la UE, que se podrá ver públicamente y se basará en “evaluaciones de conformidad” que buscan evaluar el cumplimiento del sistema con los criterios legales, pero solo para la información registrada por los proveedores. , sin información sobre el contexto de uso.

“Este vacío legal socava el propósito de la base de datos, ya que evitará que el público descubra dónde, por quién y con qué propósito (s) se utilizan realmente los sistemas de IA de alto riesgo”, dice la carta abierta. “Además, la AIA solo exige la notificación a las personas afectadas por los sistemas de IA enumerados en el artículo 52. Este enfoque es incoherente porque la AIA no requiere una obligación paralela de notificar a las personas afectadas por el uso de sistemas de IA de mayor riesgo”.

Más contenido para leer:  AT&T se asocia con Microsoft para obtener una ventaja 5G privada

Añade que debería imponerse a los usuarios la obligación de registrar sus sistemas en la base de datos y proporcionar información para cada despliegue específico.

Aunque los signatarios creen que estas medidas ayudarán a mitigar algunos de los peores abusos, también dicen que algunas prácticas de inteligencia artificial son simplemente incompatibles con los derechos fundamentales y deberían prohibirse por completo. Estos incluyen el uso de cualquier sistema de inteligencia artificial para el reconocimiento de emociones, la categorización biométrica, la vigilancia policial predictiva y la aplicación de la ley de inmigración.

Los grupos de la sociedad civil también recomiendan incluir un conjunto integral de vulnerabilidades que los sistemas de inteligencia artificial podrían aprovechar, en lugar de limitarlo, como lo hace el artículo 5 de la AIA, a la “edad, discapacidad física o mental”.

La carta agrega: “Si un sistema de inteligencia artificial explota las vulnerabilidades de una persona o grupo en función de cualquier característica sensible o protegida, que incluye, entre otros, la edad, el género y la identidad de género, el origen racial o étnico, el estado de salud, la orientación sexual, el sexo características, condición social o económica, condición de trabajador, condición migratoria o discapacidad, entonces es fundamentalmente perjudicial y por lo tanto debe prohibirse ”.

En septiembre de 2021, la alta comisionada de las Naciones Unidas para los derechos humanos, Michelle Bachelet, pidió una moratoria sobre la venta y el uso de sistemas de inteligencia artificial que representan un riesgo grave para los derechos humanos, al menos hasta que se implementen las salvaguardias adecuadas, así como para una prohibición absoluta de las aplicaciones de inteligencia artificial que no puedan utilizarse de conformidad con el derecho internacional de los derechos humanos.

“La inteligencia artificial ahora llega a casi todos los rincones de nuestra vida física y mental e incluso a los estados emocionales”, dijo. “Los sistemas de inteligencia artificial se utilizan para determinar quién obtiene los servicios públicos, decidir quién tiene la oportunidad de ser contratado para un trabajo y, por supuesto, afectan la información que la gente ve y puede compartir en línea.

“Dado el rápido y continuo crecimiento de la IA, llenar la inmensa brecha de responsabilidad en la forma en que se recopilan, almacenan, comparten y utilizan los datos es una de las cuestiones de derechos humanos más urgentes que enfrentamos”.

Un informe adjunto de la Oficina de Derechos Humanos de la ONU, que analizó cómo la IA afecta una variedad de derechos, encontró que tanto los estados como las empresas a menudo se han apresurado a implementar sistemas de IA y en gran medida no están llevando a cabo la debida diligencia sobre cómo estos sistemas afectan los derechos humanos.

Más contenido para leer:  Security Think Tank: Three ways to identify the best encryption use cases

Sobre el tema de otorgar derechos de reparación significativos a las personas perjudicadas por los sistemas de IA, la carta de la sociedad civil agrega que la AIA actualmente no contiene ninguna disposición o mecanismo para la reparación individual o colectiva y, como tal, “no aborda completamente la miríada de daños que surgen de la opacidad, complejidad, escala y desequilibrio de poder en el que se implementan los sistemas de IA ”.

Para facilitar una reparación significativa, recomienda agregar al AIA dos nuevos derechos para las personas: no estar sujetos a sistemas de IA que representen un riesgo inaceptable o no cumplan con la Ley, y que se les proporcione una explicación clara e inteligible de las decisiones tomadas. con la ayuda de sistemas de IA.

Recomienda además incluir un derecho adicional a un recurso efectivo, que se aplicaría tanto a individuos como a colectivos, y crear un mecanismo para que las organizaciones de interés público presenten quejas ante las autoridades nacionales de supervisión.

A principios de noviembre de 2021, basándose en estudios de caso de Irlanda, Francia, los Países Bajos, Austria, Polonia y el Reino Unido, Human Rights Watch publicó un informe que descubrió que la tendencia europea hacia la automatización discrimina a las personas que necesitan apoyo de la seguridad social, comprometiendo su privacidad y les dificulta obtener asistencia del gobierno.

Dijo que si bien la propuesta de AIA reconoce ampliamente los riesgos asociados con la IA, “no protege de manera significativa los derechos de las personas a la seguridad social y un nivel de vida adecuado”.

El informe agregó: “En particular, sus escasas salvaguardas descuidan cómo las inequidades existentes y las fallas para proteger adecuadamente los derechos, como la brecha digital, los recortes de seguridad social y la discriminación en el mercado laboral, dan forma al diseño de sistemas automatizados y se integran por ellos.”

Amos Toh, investigador principal sobre inteligencia artificial y derechos humanos de Human Rights Watch, dijo que la propuesta finalmente no logrará poner fin a la “vigilancia y perfiles abusivos” de quienes viven en la pobreza. “La propuesta de la UE no hace lo suficiente para proteger a las personas de los algoritmos que les privan injustamente de los beneficios que necesitan para mantenerse o encontrar un trabajo”, dijo.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales