Lord Holmes: el Reino Unido no puede “esperar y ver” para regular la IA

El enfoque de “esperar y ver” del gobierno del Reino Unido para regular la inteligencia artificial (IA) no es lo suficientemente bueno cuando en este momento se están produciendo daños reales, dice su colega conservador Lord Christopher Holmes, quien ha presentado un proyecto de ley de miembros privados para crear una supervisión legal para la tecnología. .

Desde que el gobierno publicó su documento técnico sobre IA en marzo de 2023, ha habido un importante debate sobre si el marco “ágil y pro-innovación” que describió para regular la tecnología es el enfoque correcto.

Según estas propuestas, el gobierno confiaría en los reguladores existentes para crear reglas adaptadas y específicas al contexto que se adapten a las formas en que se utiliza la tecnología en los sectores que examinan.

Desde que se publicó el documento técnico, el gobierno ha estado promoviendo ampliamente la necesidad de seguridad de la IA, sobre la base de que las empresas no adoptarán la IA hasta que tengan confianza en que los riesgos asociados con la tecnología, desde el sesgo y la discriminación hasta el impacto en el empleo y la justicia. resultados – se están mitigando efectivamente.

Si bien el gobierno redobló este enfoque general en su respuesta formal a la consulta del documento técnico de enero de 2024, y afirmó que no legislará sobre la IA hasta que sea el momento adecuado, ahora dice que podrían introducirse normas vinculantes en el futuro para el la mayoría de los sistemas de IA de alto riesgo.

Hablando con Computer Weekly sobre su propuesta de legislación sobre IA, que se presentó al Parlamento en noviembre de 2023 y pasó por su segunda lectura el 22 de marzo, Holmes dijo que “esperar y ver no es una respuesta adecuada”, ya que significa estar “cargado con los riesgos”. ” de la tecnología sin poder aprovechar sus beneficios.

Más contenido para leer:  Disponibilidad de 5G en el Reino Unido y velocidades que progresan a un ritmo constante

“La gente ya está en el lado equivocado de las decisiones de IA en el reclutamiento, en la preselección, en la educación superior, y no sólo pueden encontrarse en el lado equivocado de una decisión de IA, sino que muchas veces, es posible que ni siquiera sepan que es el caso. ” él dijo.

Quiero ver al filósofo, al especialista en ética, al artista, al emprendedor de la industria, al emprendedor, al capitalista de riesgo: toda la gama de personas que pueden aportar su experiencia.

Señor Chris Holmes

Holmes dice que su proyecto de ley se basa en siete principios de confianza, transparencia, inclusión, innovación, interoperabilidad, compromiso público y rendición de cuentas, y establecería un regulador central horizontal para gestionar y coordinar el actual enfoque sectorial del gobierno. También crearía “funcionarios responsables de la IA” que cumplirían en las empresas una función similar a la de los responsables de protección de datos, y establecería reglas claras sobre el etiquetado de datos y las obligaciones de propiedad intelectual, de acuerdo con las leyes existentes.

El proyecto de ley también “implementaría un programa para una participación pública significativa y a largo plazo sobre las oportunidades y riesgos que presenta la IA” y haría un mayor uso de entornos de prueba regulatorios para que la tecnología se pruebe de manera segura antes de los despliegues reales.

Si bien los proyectos de ley de miembros privados rara vez se convierten en ley, a menudo se utilizan como mecanismo para generar debates sobre temas importantes y poner a prueba la opinión en el Parlamento.

Seguridad, inclusión y participación

Tras señalar el énfasis del gobierno en la seguridad de la IA, Holmes dijo que era “algo extraño” ver tanta discusión sobre la amenaza potencialmente existencial de la tecnología en el período previo a la Cumbre de Seguridad de la IA del Primer Ministro en Bletchley Park el año pasado, solo para adoptar una decisión en gran medida voluntaria. acercarse.

“Si somos conscientes del elemento de seguridad, entonces necesariamente y debemos conectar los elementos en los que la IA ya está impactando la vida de las personas. La forma de controlar la seguridad y el uso positivo y ético de la IA es, sin duda, legislar”, afirmó.

“El argumento del gobierno es algo así como: ‘Es demasiado pronto, ahogarás la innovación antes de que haya tenido la oportunidad de despegar, potencialmente estás ahogando la inversión’, pero todas las lecciones de la historia nos demuestran que si “Tener el marco legislativo adecuado es un beneficio positivo, porque los inversores y los innovadores conocen el entorno en el que se encuentran”.

Para Holmes, parte de hacer que los sistemas de IA sean seguros para las empresas y el público es hacerlos inclusivos por diseño.

“Si desea obtener los mejores resultados, entonces debe –absolutamente debe– adoptar un enfoque inclusivo desde el diseño”, afirmó. “Es la inclusión la que permite una innovación real y generalizada”.

Al vincular esto con la creación por parte del gobierno de un Instituto de Seguridad de IA a raíz de la Cumbre de Bletchley, Holmes agregó que es necesario incorporar a la organización una gama mucho más amplia de personas, que en la actualidad se compone principalmente de expertos técnicos provenientes de la industria y el mundo académico.

“Quiero ver al filósofo, al especialista en ética, al artista, al emprendedor de la industria, al emprendedor, al capitalista de riesgo: toda la gama de personas que pueden aportar sus conocimientos, su experiencia, sus voces; no sólo de una IA limitada, sino de un montón de sectores”, dijo.

Si bien es necesario que haya diversidad e inclusión a nivel de políticas e investigación, Holmes añadió que el “corazón palpitante” de su proyecto de ley es la participación pública, ya que genera confianza en la tecnología y los procesos que la rodean.

Sin la confianza que surge de una participación pública significativa, Holmes reiteró que será “poco probable que las personas obtengan los beneficios” y al mismo tiempo “es extremadamente probable que sufran las cargas de la IA impuesta”.

Dijo que la proliferación de la IA “nos brinda la oportunidad de transformar completamente la forma en que el Estado interactúa con los individuos, con los ciudadanos, para que las consultas cobren vida y sean adecuadamente humanas”.

Destacando la idea de asambleas ciudadanas y el ejemplo de las “asambleas de alineación” de Taiwán (un proyecto gubernamental que intenta generar consenso en torno a la IA y garantizar que las aplicaciones de la tecnología sean consistentes con los intereses de la gente), Holmes dijo que se podría adoptar algo similar en el Reino Unido.

“El tipo de resultados, el tipo de ideas, el tipo de inteligencia real que podría surgir de eso seguramente sería muy profundo”, dijo.

Tapando las brechas

Un pilar clave del proyecto de ley de IA de Holmes es la necesidad de una “autoridad de IA” global, que desempeñaría un papel de coordinación para garantizar que todos los reguladores existentes cumplan con sus obligaciones bajo el enfoque gubernamental.

“El verdadero propósito de la autoridad de IA, tal como se establece en el proyecto de ley, no es ser un gran regulador de IA que lo haga todo, ni una pizca de eso. Eso sería excesivamente costoso, burocrático, duplicativo y subóptimo”, afirmó. “Su función es mirar horizontalmente a los reguladores”.

Holmes añadió que esto garantizaría una evaluación independiente de la competencia de los reguladores en torno a la IA, así como la idoneidad de los marcos legales actuales, al tiempo que garantizaría que todas las acciones estén respaldadas por principios clave.

“Transparencia, confiabilidad, inclusión, interoperabilidad, una perspectiva internacional, responsabilidad, garantía: la autoridad de IA puede ser la proliferadora absoluta de todos esos principios en todo el mundo”, dijo.

Destacando el éxito de los entornos de pruebas de tecnología financiera (fintech) del Reino Unido, que desde entonces se han replicado en jurisdicciones de todo el mundo, Holmes dijo que la autoridad de IA también podría desempeñar un papel en la coordinación de los entornos de pruebas regulatorios para probar adecuadamente diversos usos de la IA.

Un análisis de brechas realizado en julio de 2023 por el Instituto Ada Lovelace encontró que “grandes sectores” de la economía del Reino Unido no están regulados o solo están parcialmente regulados, lo que significa que no está claro quién sería responsable de examinar los despliegues de IA según el enfoque propuesto por el gobierno. Holmes dijo que un organismo horizontal como la autoridad de IA propuesta podría abordar algunos de estos problemas relacionados con la falta de cobertura y la falta de reparación.

“El papel de la autoridad de IA es en gran medida resaltar todas esas brechas, todas esas deficiencias ante el gobierno, para que puedan abordarse, en lugar de creer que, en algún sentido, es posible que los reguladores existentes simplemente hagan todo esto de manera vertical. manera, sin que todo se haya visto desde un enfoque coherente, consistente y horizontal”, dijo.

Hacer cumplir las reglas existentes

Parte del proyecto de ley sobre IA presentado por Holmes se centra en la necesidad de que los usos de la tecnología cumplan con las leyes que ya existen, pero que en general han quedado en el camino en lo que respecta a la IA.

“La inteligencia artificial es sólo el último ejemplo del argumento ‘fronterizo’, que se utiliza a lo largo de la historia en cualquier período de innovación significativa”, afirmó.

“Es el argumento que se remonta a la fundación de muchas naciones: ‘No me encierren; las reglas no se aplican a mí; tienes que dejarnos seguir adelante; Estamos haciendo cosas tan innovadoras y tan diferentes a las de los demás, que las reglas no se aplican». Ese argumento nunca ha tenido peso, mérito o fundamento ético en ningún momento de la historia de la humanidad”.

En particular, Holmes destacó la importancia de las normas existentes sobre protección de datos y propiedad intelectual, señalando, por ejemplo, que no se trata de impedir por completo el uso de obras protegidas por derechos de autor en los modelos de entrenamiento de IA, sino de ponerlas a disposición mediante negociación con los titulares de los derechos.

“Tener un argumento en el que la IA puede simplemente arrastrarse sobre el trabajo de las personas con total abandono, como si las reglas no se aplicaran, es total y absolutamente inaceptable”, dijo, añadiendo que se necesita urgentemente una legislación sobre IA para proteger a los creativos del Reino Unido: “Si “No actuemos, si no legislamos, en muchos casos será demasiado tarde”.

“Escritura, obras artísticas, música. Estas son las cosas que sintonizan con nuestra alma humana: no pueden ser tomadas y arrancadas sin más, sin pensamiento, sin palabra, sin pago, sin respeto”, dijo.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales