Regulación de la IA necesaria para evitar los errores de las redes sociales

Los expertos que dieron testimonio al Comité de Comunicaciones y Digital de la Cámara de los Lores han advertido que sin una regulación suficiente, la inteligencia artificial (IA) podría seguir el camino de las plataformas de redes sociales en gran parte no reguladas.

Entre los temas que se exploraron durante la audiencia de prueba se encontraba la naturaleza de las regulaciones internacionales y si la autorregulación funciona.

Tabitha Goldstaub, cofundadora de CogX y presidenta del Consejo de IA, dijo: “Las empresas pueden implementar sistemas de IA en un mercado casi no regulado. Necesitamos asegurarnos de que el gobierno pueda escudriñar los sistemas “.

OpenAI, desarrollador del algoritmo GPT-3, también fue invitado a brindar evidencia. Mira Murati, vicepresidente senior de investigación, productos y asociaciones de OpenAI, describió al comité no solo el ritmo de desarrollo de la IA y la facilidad de acceso a través de interfaces de programación de aplicaciones (API), sino también por qué es necesario que los reguladores actúa rápido.

“Predecimos que la IA tendrá el mismo impacto que las redes sociales en la próxima década, con muy poca atención a cómo se utilizan los sistemas”, dijo. “Es hora de comprender los riesgos y las oportunidades antes de que estén ampliamente disponibles”.

Para Goldstaub, entre los desafíos y oportunidades que enfrenta la IA está el equilibrio entre la investigación académica en el dominio público, donde se pueden analizar los algoritmos, y el nivel de I + D que llevan a cabo las principales empresas de software. Según Goldstaub, la I + D se realiza a una velocidad vertiginosa. Entre los principales artículos presentados en conferencias de IA, la mitad provino de centros de investigación corporativos como Google, Facebook y Microsoft, y la mitad del mundo académico, dijo.

Más contenido para leer:  Hyperscalers lidera las empresas de telecomunicaciones en apuestas de redes privadas

Advirtió al comité que este nivel de actividad comercial está llevando a un alejamiento de la naturaleza abierta de la investigación, lo que perjudica la capacidad de los investigadores para reproducir algoritmos de IA.

Murati habló sobre el rápido ritmo del desarrollo de la IA, que está llevando a organizaciones como OpenAI a autorregularse. “Podemos armar una gran red neuronal, grandes cantidades de datos y grandes computadoras, lo que nos da un progreso de IA confiable y asombroso”, dijo. “Si continuamos en esta trayectoria, podemos avanzar más y rápidamente tendremos sistemas capaces de escribir programas”.

Tal trayectoria eventualmente conduciría al desarrollo de la inteligencia artificial general (AGI), en la que los algoritmos pueden potencialmente superar la inteligencia humana, dijo Murati, y agregó: “Nuestra misión es asegurar que una vez que alcancemos AGI, lo desarrollemos y lo implementemos de maneras que benefician a toda la humanidad “.

Al describir el enfoque que ha adoptado OpenAI en materia de autorregulación, Murati le dijo al comité que aunque GPT-3 se lanzó originalmente en mayo de 2020 y una API se puso a disposición en junio de 2020, la compañía había establecido muchas restricciones. “Teníamos muchas restricciones porque no estábamos seguras de que pudiera usarse de manera segura y confiable”, dijo.

Murati dijo que OpenAI había hecho que la API estuviera completamente disponible solo recientemente después de haber avanzado lo suficiente en los protocolos de seguridad y la configuración de sistemas para detectar malos comportamientos. “Contamos con un equipo de seguridad dedicado para asegurarnos de que implementamos la tecnología de manera responsable, nos alineamos con los valores humanos y reducimos el contenido tóxico y dañino”, dijo. “Creemos que la regulación es esencial para generar y mantener la confianza del público en la tecnología y garantizar que se implemente de manera segura, justa y transparente”.

Más contenido para leer:  Los temas de 5PRING piden la innovación 5G en el sector de eventos del Reino Unido

Entre las áreas problemáticas que enfrenta el gobierno en la elaboración de un marco regulatorio para la IA se encuentra el hecho de que la tecnología cruza las fronteras internacionales. Chris Philp, ministro de tecnología y economía digital en el Departamento de Digital, Cultura, Medios y Deporte, dijo que el ritmo de los desarrollos de la IA es un desafío para los reguladores.

“Las tecnologías tienen un alcance internacional, lo que significa que no podemos separar qué piezas están bajo la jurisdicción del Reino Unido”, dijo. Al mismo tiempo, el gobierno no quería implementar un marco regulatorio que sofocara la innovación o tuviera una arquitectura fija que quedaría inmediatamente desactualizada, dijo Philp.

Más allá de la necesidad de regulaciones que sigan el ritmo del cambio sin obstaculizar la innovación, Goldstaub sugirió que el comité también explore cómo se puede educar mejor al público en general en la toma de decisiones de IA. “Para que las personas confíen, deben comprender la importancia de la IA”, dijo.

Haciendo una analogía con la industria automotriz y aérea, donde existen regulaciones de seguridad establecidas que las personas pueden apreciar en un alto nivel sin necesidad de comprender el funcionamiento interno, dijo: “Una de las piezas que faltan como consumidores de tecnología de inteligencia artificial es que cada niño abandona la escuela con los conceptos básicos de los datos y la alfabetización en IA “.

Murati instó al comité a analizar cómo el gobierno puede trabajar en estrecha colaboración con la industria para identificar problemas emergentes. Ella sugirió que los reguladores podrían implementar regulaciones que cubran la transparencia y la explicabilidad de los sistemas de inteligencia artificial para comprender el riesgo y garantizar que las mitigaciones estén implementadas. Los reguladores también podrían implementar controles que evalúen la confiabilidad de los algoritmos de IA, y las empresas serían responsables de los algoritmos de IA no confiables, dijo.

Más contenido para leer:  Los gigantes tecnológicos se comprometen con el plan de acción de seguridad cibernética de Biden

Para Murati, los estándares de la industria para la explicabilidad, la solidez y la confiabilidad, combinados con un conjunto de principios con los que se puede evaluar a las empresas, ayudarían a garantizar el desarrollo y la implementación seguros de los sistemas de inteligencia artificial. “Los estándares de incentivo contribuirían en gran medida a garantizar un uso seguro”, agregó.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales