El poder de la IA se puede desatar con un enfoque en la ética

La inteligencia artificial (IA) ya es una característica omnipresente de nuestra vida diaria y es probable que su uso creciente transforme el mundo que nos rodea. Pero el rápido desarrollo de las herramientas de IA ha ido acompañado de crecientes cuestiones éticas, que en última instancia podrían limitar la medida en que la IA prospera y alcanza su máximo potencial. De hecho, la gobernanza de la IA es uno de los tres pilares de la estrategia nacional de IA del gobierno del Reino Unido, publicada en septiembre.

Para que la IA alcance su máximo potencial, las cuestiones relativas a la gobernanza y la ética deben abordarse con urgencia. Para responder a estas preguntas, las empresas no solo deben incorporar la ética en su inteligencia artificial y entender bien los conceptos básicos, sino que también deben pensar de manera proactiva sobre cómo ir más allá de esto, incluyendo hacer de la tecnología una fuerza para el bien.

A raíz de la estrategia nacional de IA, EY UK&I ha publicado un informe, Cómo la IA puede ofrecer un futuro ético, por lo que encuestamos a más de 2,000 consumidores, para comprender cómo se relacionan con la IA y qué preocupaciones, si las hay, tienen sobre su uso.

Dada la ubicuidad de la IA, quizás no sea sorprendente que casi todos los consumidores conozcan la tecnología; muchos también ven los beneficios de los servicios rápidos y personalizados que puede habilitar. Pero, a pesar de la familiaridad con la IA, la comprensión de los consumidores sobre dónde se usa y cómo funciona es extremadamente baja.

Según la encuesta de EY, mientras que el 96% de los encuestados dijo que conocía la IA, solo el 25% dijo que tenía una buena comprensión de lo que era. Esta brecha contribuye a un sentimiento de ansiedad y falta de confianza.

Más contenido para leer:  El gobierno de EE. UU. Dio permiso para apelar la decisión del Reino Unido de no extraditar a Julian Assange

El bajo nivel de confianza en la IA entre los consumidores es más pronunciado cuando se trata de sus datos y privacidad. También existe preocupación sobre cómo la IA puede perpetuar los prejuicios basados ​​en la etnia y el género. Solo el 11% de los encuestados dijeron que sentían que su privacidad estaba protegida cuando las empresas recopilaban datos personales para su uso en IA. La confianza se pierde cuando los consumidores no son conscientes o no saben cómo se utilizan sus datos.

“Las preocupaciones de los consumidores sobre la IA no deben ignorarse, y no son insuperables”

Praveen Shankar, EY

Los consumidores con los que hablamos quieren que se tomen medidas para abordar sus preocupaciones. Quieren control sobre el uso de sus datos personales, acción proactiva para combatir el sesgo de la IA y acción tangible de los reguladores.

La capacidad de tomar decisiones simples y efectivas con respecto a sus datos personales también es sumamente importante para los consumidores. En la actualidad, el 59% de los encuestados estuvo de acuerdo en que las empresas no están haciendo lo suficiente para garantizar que las decisiones tomadas por la IA sean justas, transparentes y libres de prejuicios: el 40% de los encuestados dijo que no sabía cómo informar un problema de IA. .

Las preocupaciones de los consumidores sobre la IA no deben ignorarse, y no son insuperables. A medida que las empresas invierten en IA, necesitan adoptar una perspectiva más amplia que no se centre exclusivamente en la tecnología en sí. Hay tres aspectos de este enfoque que deben abordar el gobierno, los reguladores y las empresas, cada uno de los cuales puede abordar cuestiones éticas y mejorar la confianza.

Más contenido para leer:  Vocus contrata a Nokia para conducir una red óptica de 200G a más de 4.000 km en Australia

El primero de ellos es generar confianza en los cimientos de la IA a través de un enfoque dirigido por humanos, comenzando con el diseño de algoritmos de IA. Los datos de entrada deben estar libres de sesgos, mientras que las personas detrás de las herramientas de IA deben tener la capacitación adecuada para garantizar resultados libres de sesgos. Sobre todo, debe haber transparencia y responsabilidad en la forma en que AI toma las decisiones.

Citar las limitaciones tecnológicas como una razón para la falta de transparencia o no responsabilizarse por la toma de decisiones de AI no será aceptado por los consumidores ni por los reguladores.

Para cerrar la brecha de confianza, la colaboración es clave y las partes interesadas de la IA deben trabajar como un ecosistema para mitigar los riesgos. Las empresas deben asegurarse de que la inteligencia artificial sea un elemento de la agenda a nivel de directorio y una parte central de su estrategia general, y debe haber un diálogo proactivo entre el gobierno, los proveedores, los consumidores y los reguladores.

Los socios, vendedores y proveedores deben comprender y respetar las barreras éticas de una empresa, y es responsabilidad de todas las partes colaborar en un marco de riesgo común que mantenga a todos en el camino correcto. Del mismo modo, es imperativo un enfoque proactivo con los reguladores: es mucho mejor involucrar a los reguladores en un diálogo ético continuo que abordar un problema de manera retrospectiva.

El paso final y crucial es centrarse en el papel de la IA como fuerza para el bien. De hecho, en muchos sentidos, una solución a los desafíos que plantea la IA se puede encontrar dentro de la propia IA.

Más contenido para leer:  Cómo los desarrolladores de software pueden crear aplicaciones móviles de forma segura y rápida

Las herramientas de inteligencia artificial pueden ayudar a contrarrestar los prejuicios inconscientes de los programadores humanos, por ejemplo, mientras que también pueden usarse para proteger, en lugar de socavar, la privacidad y la seguridad. Más allá de eso, los esfuerzos para abordar problemas globales como la sostenibilidad, el cambio climático o las desigualdades en salud y educación podrían beneficiarse de la aplicación de herramientas de IA. La educación del cliente es vital aquí y representa una oportunidad significativa para ayudar a los consumidores a comprender el potencial transformador y positivo de la IA.

La IA llegó para quedarse. Está transformando nuestras vidas, sociedades y economías, al tiempo que redefine industrias y negocios. Pero para desbloquear todo su potencial, es vital que la ética esté entretejida en el tejido de la IA. Si lo logra, la IA podrá actuar como la fuerza del bien que promete ser.

Praveen Shankar es director de tecnología, medios y telecomunicaciones de EY Reino Unido e Irlanda.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales