Más de dos docenas de países se han comprometido a desarrollar umbrales de riesgo compartidos para modelos de inteligencia artificial (IA) de frontera para limitar sus impactos dañinos, como parte de un acuerdo para promover una IA segura, innovadora e inclusiva.
Firmado el segundo día de la Cumbre de AI en Seúl por 27 gobiernos y la Unión Europea (UE), el Declaración ministerial de Seúl para promover la seguridad, la innovación y la inclusión de la IA establece su compromiso de profundizar la cooperación internacional en materia de seguridad de la IA.
Esto incluirá acordar colectivamente umbrales de riesgo en los que los riesgos planteados por los modelos o sistemas de IA serían graves sin las mitigaciones adecuadas; establecer marcos interoperables de gestión de riesgos para la IA en sus respectivas jurisdicciones; y promover evaluaciones externas creíbles de los modelos de IA.
En cuanto a los riesgos graves, la declaración destacó el potencial de las capacidades del modelo de IA que permitirían a los sistemas evadir la supervisión humana o actuar de otro modo de forma autónoma sin la aprobación o el permiso humano explícito; así como ayudar a los actores no estatales a avanzar en el desarrollo de armas químicas o biológicas.
Al señalar que “es imperativo protegerse contra todo el espectro de riesgos de la IA”, la declaración agrega que los institutos de seguridad de IA que se están creando en todo el mundo se utilizarán para compartir mejores prácticas y conjuntos de datos de evaluación, así como para colaborar para establecer pruebas de seguridad interoperables. pautas.
“Los criterios para evaluar los riesgos que plantean los modelos o sistemas fronterizos de IA pueden incluir la consideración de capacidades, limitaciones y propensiones, salvaguardas implementadas, incluida la solidez contra ataques y manipulación maliciosos de adversarios, usos y usos indebidos previsibles, contextos de implementación, incluido el sistema más amplio en el que se encuentra un El modelo de IA puede integrarse, alcanzar y otros factores de riesgo relevantes”, dijo.
Sin embargo, si bien la declaración careció de especificidad, sí afirmó el compromiso de los firmantes con las leyes internacionales pertinentes, incluidas las resoluciones de las Naciones Unidas (ONU) y los derechos humanos internacionales.
La secretaria digital del Reino Unido, Michelle Donelan, dijo que los acuerdos alcanzados en Seúl marcan el comienzo de la “fase dos de la agenda de seguridad de la IA”, en la que los países tomarán “medidas concretas” para ser más resilientes a diversos riesgos de la IA.
“Para las empresas, se trata de establecer umbrales de riesgo más allá de los cuales no lanzarán sus modelos”, afirmó. “Para los países, colaboraremos para establecer umbrales en los que los riesgos se vuelvan graves. El Reino Unido seguirá desempeñando un papel de liderazgo en el escenario mundial para hacer avanzar estas conversaciones”.
Innovación e inclusión
La declaración también destacó la importancia de la “innovación” y la “inclusividad”. Para el primero, destacó específicamente la necesidad de que los gobiernos prioricen la inversión en IA y la financiación de la investigación; facilita el acceso a recursos relacionados con la IA para pequeñas y medianas empresas, nuevas empresas, instituciones académicas e individuos; y sostenibilidad al desarrollar IA.
“En este sentido, alentamos a los desarrolladores e implementadores de IA a que tengan en cuenta su posible huella ambiental, como el consumo de energía y recursos”, dijo. “Damos la bienvenida a los esfuerzos de colaboración para explorar medidas sobre cómo nuestra fuerza laboral puede mejorarse y recapacitarse para que sean usuarios y desarrolladores seguros de IA que mejoren la innovación y la productividad.
“Además, alentamos los esfuerzos de las empresas para promover el desarrollo y el uso de modelos o sistemas e insumos de IA que aprovechen los recursos, como la aplicación de chips de IA de bajo consumo y la operación de centros de datos respetuosos con el medio ambiente en todo el desarrollo y los servicios de IA”.
Al comentar sobre los aspectos de sostenibilidad, el ministro de ciencia y TIC de Corea del Sur, Lee Jong-Ho, dijo: “Fortaleceremos la cooperación global entre los institutos de seguridad de IA en todo el mundo y compartiremos casos exitosos de chips de IA de bajo consumo para ayudar a mitigar los impactos negativos globales en la energía y el medio ambiente causado por la propagación de la IA.
“Continuaremos con los logros alcanzados en la República de Corea. [the Republic of Korea] y el Reino Unido a la próxima cumbre en Francia, y esperamos minimizar los riesgos potenciales y efectos secundarios de la IA y al mismo tiempo crear más oportunidades y beneficios”.
En cuanto a la inclusión, la declaración agregó que los gobiernos están comprometidos a promover la educación relacionada con la IA a través del desarrollo de capacidades y una mayor alfabetización digital; utilizar la IA para abordar algunos de los desafíos más apremiantes del mundo; y fomentar enfoques de gobernanza que fomenten la participación de los países en desarrollo.
Día uno
Durante el primer día de la Cumbre, la UE y un grupo más pequeño de 10 países firmaron la Declaración de Seúl, que se basa en la Desaceleración de Bletchley firmada hace seis meses por 28 gobiernos y la UE en la Cumbre inaugural de Seguridad de la IA en el Reino Unido.
Si bien la Declaración de Bletchley destacó la importancia de una acción inclusiva en materia de seguridad de la IA, la Declaración de Seúl afirmó explícitamente “la importancia de la colaboración activa de múltiples partes interesadas” en esta área y comprometió a los gobiernos involucrados a incluir “activamente” una amplia gama de partes interesadas en la IA. -discusiones relacionadas.
Los mismos 10 países y la UE también firmaron la Declaración de Intención de Seúl hacia la Cooperación Internacional en la Ciencia de la Seguridad de la IA, en la que los institutos de investigación con respaldo público se unirán para garantizar la “complementariedad e interoperabilidad” entre su trabajo técnico y los enfoques generales de la seguridad de la IA, algo que Esto ya se ha estado llevando a cabo entre los institutos de EE. UU. y el Reino Unido.
El mismo día, 16 empresas globales de IA firmaron los Compromisos de seguridad de Frontier AI, que es un conjunto voluntario de medidas sobre cómo desarrollarán la tecnología de forma segura.
Específicamente, se comprometieron voluntariamente a evaluar los riesgos que plantean sus modelos en cada etapa de todo el ciclo de vida de la IA; establecer umbrales de riesgo inaceptables para hacer frente a las amenazas más graves; articular cómo se identificarán e implementarán las mitigaciones para garantizar que no se superen los umbrales; e invertir continuamente en sus capacidades de evaluación de seguridad.
Según uno de los compromisos voluntarios clave, las empresas no desarrollarán ni implementarán sistemas de inteligencia artificial si los riesgos no pueden mitigarse lo suficiente.
Al comentar sobre el compromiso de las empresas con los umbrales de riesgo, Beth Barnes, fundadora y jefa de investigación de la organización sin fines de lucro METR para la seguridad del modelo de IA, dijo: “Es vital lograr un acuerdo internacional sobre las ‘líneas rojas’ donde el desarrollo de la IA se volvería inaceptablemente peligroso. a la seguridad pública”.