Cumbre de IA en Seúl: 16 empresas de IA asumen compromisos voluntarios de seguridad

Los gobiernos del Reino Unido y Corea del Sur han obtenido compromisos voluntarios de 16 empresas mundiales de inteligencia artificial (IA) para desarrollar de forma segura la tecnología, incluidas empresas de EE. UU., China y los Emiratos Árabes Unidos.

Firmados durante el primer día de la Cumbre de AI de Seúl, los Compromisos de Seguridad de Frontier AI dijeron que las compañías no desarrollarán ni implementarán sistemas de AI si los riesgos no pueden mitigarse lo suficiente, y describieron una serie de medidas que deben tomar para garantizar que sus enfoques sean transparentes y responsable.

Esto incluye evaluar los riesgos que plantean sus modelos en cada etapa de todo el ciclo de vida de la IA; establecer umbrales de riesgo inaceptables para hacer frente a las amenazas más graves; articular cómo se identificarán e implementarán las mitigaciones para garantizar que no se superen los umbrales; e invertir continuamente en sus capacidades de evaluación de seguridad.

Los firmantes (que incluyen empresas como Google, Meta, Amazon, Microsoft, Anthropic, OpenAI, Mistral AI, IBM, Samsung, xAI, Naver, Cohere y Zhipu.ai) también se han comprometido voluntariamente a explicar cómo los actores externos del gobierno, la sociedad civil la sociedad y el público participan en el proceso de evaluación de riesgos, además de proporcionar transparencia pública durante todo el proceso.

Sin embargo, el compromiso en materia de transparencia pública es limitado, ya que las empresas no tendrán que proporcionar ninguna información si “al hacerlo aumentaría el riesgo o divulgaría información comercial sensible en un grado desproporcionado para el beneficio social”; aunque todavía se espera que divulguen información más detallada con “actores confiables” como gobiernos u organismos designados en estos casos.

Más contenido para leer:  La estafa de CryptoRom abusa de las tiendas de aplicaciones de Apple y Google para reclamar víctimas

Las empresas también afirmaron su compromiso de implementar las mejores prácticas actuales de la industria en materia de seguridad de la IA, incluida la formación de equipos internos y externos de modelos de IA de vanguardia; invertir en seguridad cibernética y salvaguardias contra amenazas internas para proteger los pesos de los modelos propietarios e inéditos; incentivar el descubrimiento y la notificación de problemas y vulnerabilidades por parte de terceros; priorizar la investigación sobre los riesgos sociales que plantean los modelos y sistemas de IA de vanguardia; y desarrollar e implementar modelos y sistemas de inteligencia artificial de vanguardia para ayudar a abordar los mayores desafíos del mundo.

Los 16 han dicho que publicarán sus marcos de seguridad sobre cómo gestionarán todas estas cuestiones antes de la próxima Cumbre de IA en Francia.

“Es una primicia mundial que tantas empresas líderes en IA de tantas partes diferentes del mundo acuerden los mismos compromisos en materia de seguridad de la IA”, dijo el primer ministro del Reino Unido, Rishi Sunak.

“Estos compromisos garantizan que las principales empresas de IA del mundo proporcionen transparencia y responsabilidad en sus planes para desarrollar una IA segura. Sienta un precedente para los estándares globales sobre seguridad de la IA que desbloquearán los beneficios de esta tecnología transformadora”.

La secretaria digital Michelle Donelan añadió que el verdadero potencial de la IA sólo se aprovechará si se comprenden adecuadamente los riesgos: “Nos corresponde a todos garantizar que la IA se desarrolle de forma segura y el acuerdo de hoy significa que ahora hemos reforzado los compromisos de las empresas de IA y hemos mejorado representación en todo el mundo.

Más contenido para leer:  AWS profit and revenue rises as enterprise demand for new cloud workloads bounces back

“Con modelos de IA más potentes en funcionamiento y más pruebas de seguridad programadas en todo el mundo, estamos liderando la gestión de los riesgos de la IA para que podamos aprovechar su potencial transformador para el crecimiento económico”.

Los compromisos voluntarios asumidos en Seúl se basan en compromisos previos asumidos por países y empresas durante la primera Cumbre de Seguridad de la IA del gobierno del Reino Unido en Bletchley Park hace seis meses.

Esto incluyó a los 28 gobiernos presentes que firmaron la Declaración de Bletchley (un comunicado no vinculante que los comprometía a profundizar su cooperación en torno a los riesgos asociados con la IA) y una serie de empresas de IA que acordaron abrir sus modelos al Instituto de Seguridad de la IA del Reino Unido ( AISI) para pruebas previas al despliegue.

Los países también acordaron apoyar a Yoshua Bengio, un académico de IA ganador del Premio Turing y miembro del Consejo Asesor Científico de la ONU, para liderar el primer informe “Estado de la ciencia” de la IA de frontera que evalúa la investigación existente sobre los riesgos y capacidades de la IA de frontera; cuya versión provisional se publicó en mayo de 2024.

Al comentar sobre los nuevos compromisos de seguridad, Bengio dijo que, si bien le complace ver que tantas empresas líderes en IA se inscriban (y acoge con especial satisfacción sus compromisos de detener los modelos que presenten riesgos extremos), necesitarán estar respaldados por medidas regulatorias más formales. abajo de la línea.

“Este compromiso voluntario obviamente tendrá que ir acompañado de otras medidas regulatorias, pero de todos modos marca un importante paso adelante en el establecimiento de un régimen de gobernanza internacional para promover la seguridad de la IA”, afirmó.

Más contenido para leer:  La capacidad gigabit de Virgin Media O2 cubre más de la mitad del espacio de red del Reino Unido

Al comentar sobre el compromiso de las empresas de establecer umbrales de riesgo, Beth Barnes, fundadora y jefa de investigación de la organización sin fines de lucro METR para la seguridad del modelo de IA, agregó: “Es vital lograr un acuerdo internacional sobre las ‘líneas rojas’ donde el desarrollo de la IA se volvería inaceptablemente peligroso. a la seguridad pública”.

Si bien cuatro importantes desarrolladores de modelos básicos de IA acordaron durante la cumbre de Bletchley abrir sus sistemas para pruebas previas a la implementación, Politico informó a fines de abril de 2024 que tres de ellos aún deben proporcionar el acceso previo al lanzamiento acordado al AISI.

Computer Weekly se puso en contacto con el Departamento de Ciencia, Innovación y Tecnología (DSIT) para preguntar cuándo impulsará compromisos obligatorios por parte de las empresas de IA, así como si cree que los compromisos voluntarios asumidos son suficientes dados los problemas relacionados con el acceso previo al despliegue, pero no lo hizo. recibir una respuesta al momento de la publicación.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales