El comité parlamentario critica la respuesta de las grandes tecnológicas a las amenazas electorales

Las grandes empresas de tecnología y redes sociales han sido criticadas por no abordar adecuadamente los riesgos que plantean la desinformación y los deepfakes de inteligencia artificial (IA) para la integridad de las elecciones en el Reino Unido.

Un comité parlamentario conjunto dijo hoy que las grandes empresas tecnológicas, incluidas X, TikTok, Snap, Meta, Microsoft y Google, habían adoptado un “enfoque descoordinado y aislado” ante los posibles daños y amenazas que enfrenta la democracia.

El Comité Conjunto sobre la Estrategia de Seguridad Nacional (JCNSS) dijo que las grandes empresas tecnológicas habían respondido a las preguntas del comité sobre el riesgo para la democracia que representan las falsificaciones de IA y la desinformación con declaraciones “opacas y difusas” que dificultaban su control. cuenta.

La intervención de la presidenta del JCNSS, Margaret Beckett, se produce en medio de una “amenaza creciente” de actores maliciosos que utilizan tecnologías emergentes como la inteligencia artificial para crear deepfakes engañosos y difundir narrativas falsas para interferir con las elecciones nacionales.

Se espera que este año un número récord de personas acudan a las urnas en todo el mundo, y se esperan elecciones en más de 70 países, incluidos el Reino Unido, Europa, Estados Unidos y la India.

Las pruebas presentadas a la investigación por las grandes empresas tecnológicas sobre cómo están abordando los riesgos (publicadas hoy y revisadas por Computer Weekly) parecen tener mucha relación con las relaciones públicas y poca evidencia concreta de un progreso coordinado contra la interferencia electoral.

“Me preocupa ver la enorme disparidad en los enfoques y actitudes para gestionar contenido digital dañino en la evidencia escrita que hemos recibido entre empresas, desde X, TikTok, Snap y Meta hasta Microsoft y Google”, dijo Beckett.

Me preocupa ver la enorme disparidad en los enfoques y actitudes a la hora de gestionar contenidos digitales nocivos.

Margaret Beckett, JCNSS

Dijo que mientras otros estaban desarrollando tecnología para ayudar a la gente a descifrar la “vertiginosa variedad” de información disponible en línea, el comité parlamentario habría esperado que las empresas de tecnología que se benefician de la difusión de la información asumieran responsabilidad y fueran igualmente proactivas.

“Gran parte de la evidencia escrita que se presentó muestra, con pocas y notables excepciones, un enfoque descoordinado y aislado de las muchas amenazas y daños potenciales que enfrenta el Reino Unido y la democracia global”, dijo.

“La cobertura de la libertad de expresión no cubre el discurso mentiroso o dañino, y no les da a las empresas de medios tecnológicos una tarjeta de salida libre para rendir cuentas por la información propagada en sus plataformas”, agregó.

Mientras las investigaciones continúan, el presidente del comité dijo que había muy poca evidencia de las compañías tecnológicas globales que mostraran la previsión que el comité esperaba para abordar las amenazas a las elecciones. Con múltiples elecciones en todo el mundo, las empresas de tecnología no anticipan ni desarrollan de manera proactiva políticas transparentes, verificables de forma independiente y responsables.

“Hay muy poca evidencia del aprendizaje y la cooperación necesarios para una respuesta efectiva a una amenaza sofisticada y en evolución”, dijo Beckett.

Las empresas tecnológicas han adoptado un enfoque aislado, afirmó, y gran parte de la evidencia muestra que las empresas desarrollan políticas individuales, cada una basada en su propio conjunto de principios, en lugar de coordinar estándares y mejores prácticas.

El comité también está preocupado por la falta de regulación de los algoritmos utilizados por las grandes empresas de tecnología y redes sociales para promocionar sus contenidos. Esto tiene el potencial de crear “cámaras de eco” para los usuarios de las redes sociales que limitarían su acceso a la información necesaria para emitir juicios informados durante un período electoral.

“El comité entiende perfectamente que muchas plataformas de redes sociales nacieron, al menos nominalmente, como plataformas para democratizar las comunicaciones, permitir y apoyar la libertad de expresión y eludir la censura”, dijo.

Beckett añadió que las empresas de tecnología, o los propietarios que se benefician de ellas –en muchos casos monetizando información difundida a través de tecnologías adictivas– no tenían el derecho o la autoridad para arbitrar sobre qué es la libertad de expresión legítima. “Ese es el trabajo de las autoridades democráticamente responsables”, dijo.

Criticó a las empresas de tecnología por no participar de manera proactiva en las investigaciones del Parlamento sobre los riesgos que plantean para las elecciones la inteligencia artificial, la desinformación, la desinformación y los deepfakes.

“Si debemos perseguir a una empresa que opera y obtiene ganancias en el Reino Unido para que participe en una investigación parlamentaria, esperamos mucho más que una regurgitación de parte de su contenido disponible públicamente que no aborda específicamente nuestra investigación”, dijo.

El regulador de telecomunicaciones, Ofcom, dijo al comité en marzo que los nuevos poderes para combatir las amenazas en línea probablemente sólo entrarían en vigor después de unas elecciones en el Reino Unido.

La investigación de la comisión sobre la defensa de la democracia continúa.

Más contenido para leer:  The Post Office Scandal: Drawing parallels between Horizon and the UK cloud market

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales