El próximo gobierno del Reino Unido debería estar preparado para legislar sobre inteligencia artificial (IA) si encuentra lagunas en los poderes de los reguladores para proteger el interés público de los rápidos avances tecnológicos, dijo el Comité de Ciencia, Innovación y Tecnología (SITC) de la Cámara de Representantes.
Tras su investigación sobre la gobernanza de la IA en el Reino Unido, que se lanzó en octubre de 2022 para examinar cómo el Reino Unido garantiza que la tecnología se utilizará de manera ética y responsable, la Cámara de los Comunes SITC ha dicho que el próximo gobierno debe estar preparado para legislar. sobre la IA si el actual enfoque de no intervención resulta insuficiente para abordar los daños actuales y futuros asociados con la tecnología.
El comité añadió que, si bien está de acuerdo en gran medida con el enfoque actual de utilizar a los reguladores existentes para gestionar la proliferación de la IA en sus sectores, el inminente final de la actual sesión parlamentaria significa que no hay tiempo para presentar actualizaciones de las competencias o poderes de los reguladores si existen lagunas. son identificados.
Dadas las enormes disparidades financieras entre los reguladores y los principales desarrolladores de IA que “pueden disponer de vastos recursos”, la CUCI dijo que el próximo gobierno también necesitará ofrecer más apoyo material a los reguladores del Reino Unido para ayudar a que las empresas rindan cuentas.
“Es correcto trabajar a través de los reguladores existentes, pero el próximo gobierno debería estar preparado para legislar rápidamente si resulta que alguno de los muchos reguladores carece de los poderes legales para ser eficaz. Nos preocupa que los reguladores del Reino Unido no tengan suficientes recursos en comparación con la financiación que los grandes promotores pueden obtener”, dijo el presidente de SITC, Greg Clark.
La SITC también plantea preocupaciones sobre los informes de Politico de que el Instituto de Seguridad de la IA (AISI) del Reino Unido no ha podido acceder a algunos de los modelos de los desarrolladores de IA para las pruebas de seguridad previas al despliegue, como se acordó voluntariamente en la Cumbre de Seguridad de la IA del gobierno del Reino Unido en Bletchley Park. en noviembre de 2023.
Tapando brechas
En un informe provisional de agosto de 2023, la CUCI advirtió previamente que el Reino Unido corre el riesgo de quedarse atrás debido a otras leyes relacionadas con la IA que se están desarrollando en otras jurisdicciones como la Unión Europea (UE), y presionó al gobierno para que confirmara si lo haría y cuándo. considere oportuno legislar formalmente.
Sin embargo, en sesiones de seguimiento, la CUCI escuchó a altos funcionarios de Whitehall y a la secretaria digital, Michelle Donelan, que el gobierno no estaba de acuerdo en la necesidad de una legislación específica para la IA y que era más importante mejorar la seguridad de la tecnología y crear capacidad regulatoria en apoyo al marco “pro-innovación” descrito en su documento técnico sobre IA de marzo de 2023.
Según este enfoque, el gobierno del Reino Unido confiaría en los reguladores sectoriales existentes para crear reglas adaptadas y específicas al contexto que se adapten a las formas en que se utiliza la IA en los sectores que examinan, de conformidad con las leyes que ya están vigentes.
Si bien el gobierno ha reafirmado en gran medida su compromiso de posponer las leyes de IA hasta que llegue el momento adecuado, en febrero de 2024 dijo que consideraría requisitos legales vinculantes para las empresas que desarrollen los sistemas de IA más potentes, y señaló que cualquier medida voluntaria para las empresas de IA probablemente sea “inconmensurable con el riesgo” que presentan las capacidades más avanzadas.
“En su respuesta a este informe, el gobierno debería proporcionar una mayor consideración de los criterios sobre los cuales se activará una decisión de legislar, incluidos qué indicadores de desempeño del modelo, requisitos de capacitación como la potencia de cómputo u otros factores se considerarán”, dijo la SITC en sus recomendaciones.
Añadió que el próximo gobierno debería comprometerse a presentar ante el Parlamento revisiones trimestrales de su actual enfoque de la regulación de la IA, que deberían incluir un resumen de los avances tecnológicos relacionados con sus criterios declarados para desencadenar una decisión de legislar, así como una evaluación de si estos criterios se han cumplido.
Dadas las disparidades entre los reguladores y las empresas de IA, la CUCI añadió además que los niveles de financiación actuales son “claramente insuficientes para afrontar el desafío” y que el próximo gobierno debe “anunciar un mayor apoyo financiero, acordado en consulta con los reguladores, que sea proporcional al escala de la tarea”.
Si bien la CUCI acogió con satisfacción el compromiso del gobierno de realizar un “análisis de brechas regulatorias” para ver si se requieren más poderes para los reguladores, dijo que el próximo final de la actual sesión parlamentaria significa que no queda tiempo para actualizar sus competencias o poderes regulatorios si las brechas son identificados.
En julio de 2023, un análisis de brechas regulatorias realizado por el Instituto Ada Lovelace encontró que debido a que “grandes sectores” de la economía del Reino Unido no están regulados o solo están parcialmente regulados, actualmente no está claro quién sería responsable de examinar los despliegues de IA en una variedad de diferentes contextos.
Esto incluye prácticas de reclutamiento y empleo, que no son monitoreadas exhaustivamente; educación y vigilancia, que son monitoreadas y aplicadas por una red desigual de reguladores; y actividades llevadas a cabo por departamentos del gobierno central que no están directamente regulados.
“En estos contextos, no existirá un regulador específico de un dominio con una supervisión general clara para garantizar que los nuevos principios de la IA estén integrados en la práctica de las organizaciones que implementan o utilizan sistemas de IA”, dijo el instituto.
Añadió que un análisis legal independiente realizado para el instituto por la agencia de derechos de datos AWO encontró que, en estos contextos, las protecciones que actualmente ofrecen la legislación transversal como el GDPR del Reino Unido y la Ley de Igualdad a menudo no protegen a las personas de daños ni les brindan una vía eficaz para obtener reparación.
Pruebas previas a la implementación
En cuanto a las pruebas previas al despliegue, la SITC dijo que está “preocupada” por las sugerencias de que el AISI no ha podido acceder a modelos inéditos para realizar pruebas de seguridad antes de su implementación, lo que se acordó con las empresas de forma voluntaria durante el AI Safety. Cumbre en noviembre de 2023.
“De ser cierto, esto socavaría el cumplimiento de la misión del instituto y su capacidad para aumentar la confianza del público en la tecnología”, dijo. “En su respuesta a este informe, el gobierno debe confirmar en qué modelos el AI Safety Institute ha realizado pruebas de seguridad previas al despliegue, la naturaleza de las pruebas, un resumen de los hallazgos, si los desarrolladores del modelo realizaron algún cambio como medida resultado, y si a algún desarrollador se le pidió que hiciera cambios pero se negó a hacerlo.
“El gobierno también debería confirmar a qué modelos el instituto no ha podido acceder y el motivo. Si algún desarrollador ha negado el acceso, lo que representaría una contravención del acuerdo informado en la Cumbre de noviembre de 2023 en Bletchley Park, el gobierno debería nombrarlo y detallar su justificación para hacerlo”.
Computer Weekly se puso en contacto con DSIT para comentar sobre el informe SITC y específicamente si realizó pruebas de seguridad previas al despliegue de todos los modelos a los que las empresas acordaron brindar acceso, pero no recibió respuesta.
Durante la Cumbre de IA de Seúl en Corea del Sur, 16 empresas globales de IA firmaron los Compromisos de Seguridad de Frontier AI, que es un conjunto voluntario de medidas sobre cómo desarrollarán la tecnología de forma segura.
Específicamente, se comprometieron voluntariamente a evaluar los riesgos que plantean sus modelos en cada etapa de todo el ciclo de vida de la IA; establecer umbrales de riesgo inaceptables para hacer frente a las amenazas más graves; articular cómo se identificarán e implementarán las mitigaciones para garantizar que no se superen los umbrales; e invertir continuamente en sus capacidades de evaluación de seguridad.
Según uno de los compromisos voluntarios clave, las empresas no desarrollarán ni implementarán sistemas de inteligencia artificial si los riesgos no pueden mitigarse lo suficiente.
Yoshua Bengio: académico de IA ganador del Premio Turing y miembro del Consejo Asesor Científico de la ONU que lidera la IA en la frontera Estado de la ciencia informe acordado en Bletchley – dijo que, si bien le complace ver que tantas empresas líderes en IA se inscriban (y acoge con especial satisfacción sus compromisos de detener los modelos que presenten riesgos extremos), necesitarán estar respaldadas por medidas regulatorias más formales en el futuro. línea.
“Este compromiso voluntario obviamente tendrá que ir acompañado de otras medidas regulatorias, pero de todos modos marca un importante paso adelante en el establecimiento de un régimen de gobernanza internacional para promover la seguridad de la IA”, dijo.