El gobierno del Reino Unido anuncia a los ganadores del fondo del desafío de tecnología de seguridad

El gobierno del Reino Unido ha anunciado los cinco ganadores de su Safety Tech Challenge Fund, que recibirán cada uno £ 85,000 para ayudarlos a avanzar en sus propuestas técnicas para nuevas herramientas y aplicaciones digitales para detener la propagación de material de abuso sexual infantil (CSAM) en comunicaciones cifradas.

Lanzado en septiembre de 2021, el fondo de desafío está diseñado para impulsar la innovación en inteligencia artificial (IA) y otras tecnologías que pueden escanear, detectar y marcar imágenes de abuso infantil ilegal sin romper el cifrado de extremo a extremo (E2EE).

El fondo está siendo administrado por el Departamento de Digital, Cultura, Medios y Deporte (DCMS) y el Ministerio del Interior, que pondrá a disposición fondos adicionales de £ 130,000 para los proyectos más sólidos después de cinco meses.

El ministro digital Chris Philp dijo a Computer Weekly que el escaneo CSAM era el único uso inherente de las tecnologías y que el gobierno no exigiría su uso más allá de este propósito.

El fondo de desafío es parte del esfuerzo más amplio del gobierno para combatir los comportamientos dañinos en línea y promover la seguridad en Internet a través del proyecto de ley de seguridad en línea, que tiene como objetivo establecer un “deber de cuidado” legal en las empresas de tecnología que alojan contenido generado por el usuario o permiten que las personas comunicar.

Según el deber, las empresas de tecnología estarán legalmente obligadas a identificar, eliminar y limitar de manera proactiva la difusión de contenido tanto ilegal como legal pero dañino, como abuso sexual infantil, terrorismo y material suicida, o podrían recibir una multa de hasta el 10% de su contenido. volumen de negocios del regulador de daños online Ofcom.

El gobierno ha confirmado que el deber de diligencia seguirá aplicándose a las empresas que opten por utilizar E2EE. También ha afirmado que el proyecto de ley salvaguardará la libertad de expresión, aumentará la responsabilidad de los gigantes tecnológicos y protegerá a los usuarios de daños en línea.

Tecnologías propuestas

Durante los próximos meses, los cinco proyectos seguirán desarrollando sus propuestas con el objetivo de llevarlo al mercado en algún momento de 2022.

Los proyectos incluyen un complemento alimentado por IA que se puede integrar con plataformas sociales encriptadas para detectar CSAM al comparar el contenido con material ilegal conocido; usar algoritmos de estimación de edad y tecnología de reconocimiento facial para buscar y detectar CSAM antes de que se cargue; y un conjunto de tecnologías de inteligencia artificial de moderación de video en vivo que pueden ejecutarse en cualquier dispositivo inteligente para evitar la filmación de desnudez, violencia, pornografía y CSAM en tiempo real, a medida que se produce.

Las organizaciones involucradas incluyen la startup de tecnología policial con sede en Edimburgo Cyan Forensics y la firma de inteligencia artificial Crisp Thinking, que trabajará en asociación con la Universidad de Edimburgo e Internet Watch Foundation para desarrollar el complemento; la empresa de seguridad cibernética SafeToNet, que está estudiando cómo utilizar la IA en la moderación de video; y T3K-Forensics, una empresa austriaca de extracción de datos móviles que trabaja para implementar su tecnología de detección de abuso sexual infantil basada en inteligencia artificial en teléfonos inteligentes de una manera compatible con E2EE.

Otras compañías incluyen la plataforma de cifrado de correo electrónico de extremo a extremo GalaxKey y la empresa de moderación de video DragonflAI, que trabajarán con la firma de biometría Yoti en proyectos separados que implican la implementación de sus tecnologías de estimación de edad.

GalaxKey, por ejemplo, trabajará con Yoti para implementar algoritmos de verificación de edad para detectar CSAM antes de que se cargue y comparta en un entorno E2EE.

DragonflAI también trabajará con Yoti para combinar su tecnología de detección de desnudez AI en el dispositivo con tecnologías de aseguramiento de la edad para detectar nuevas imágenes indecentes dentro de los propios entornos E2EE.

“Estamos orgullosos de presentar nuestras soluciones para fomentar la innovación, ayudando a cambiar el espacio digital para proteger mejor a los niños en línea”, dijo Robin Tombs, CEO de Yoti. “Agradecemos al Safety Tech Challenge Fund por dar la bienvenida al uso de la tecnología para abordar el aumento de los delitos sexuales vinculados en línea, y esperamos trabajar con nuestros socios para crear herramientas que hagan de Internet un lugar más seguro para los niños”.

Según Philp, “es totalmente posible que las plataformas de redes sociales utilicen el cifrado de extremo a extremo sin obstaculizar los esfuerzos para erradicar el abuso infantil. Pero no tomaron medidas para abordar este problema, por lo que estamos interviniendo para ayudar a desarrollar las soluciones necesarias. No es aceptable implementar E2EE sin asegurarse de que se sigan aplicando las medidas de aplicación y de protección infantil.

“Estamos a favor de la tecnología y la privacidad, pero no vamos a comprometer la seguridad de los niños”, dijo. “A través de nuestro proyecto de ley de seguridad en línea pionero, y en asociación con empresas de tecnología de seguridad de vanguardia, haremos del mundo en línea un lugar más seguro para los niños”.

Hablando con Computer Weekly, Philp dijo que las nuevas tecnologías que se están desarrollando permitirán escanear el contenido de los mensajes en busca de CSAM incluso cuando se utilice E2EE, ya que “no estamos preparados para aceptar o tolerar una situación en la que el cifrado de extremo a extremo significa que no podemos buscar imágenes de explotación sexual infantil “.

En agosto de 2021, Apple anunció su plan para introducir escaneos para CSAM en los dispositivos de sus clientes de EE. UU., Que funcionarían realizando una comparación en el dispositivo con una base de datos de hashes de imágenes CSAM conocidas proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil.

Sin embargo, según los expertos en criptografía, el plan de Apple de escanear automáticamente las fotos para la detección de CSAM pondría en riesgo indebidamente la privacidad y seguridad de los ciudadanos respetuosos de la ley y podría abrir el camino a la vigilancia.

Salvaguardias

En respuesta a las salvaguardas que se están considerando para proteger la privacidad, Philp dijo que cualquier plataforma o empresa de redes sociales que permita que una de las tecnologías se desarrolle en sus entornos E2EE querrá estar satisfecha de que la privacidad de los usuarios no se vea comprometida sin razón: “el las propias plataformas que introducen el cifrado de extremo a extremo obviamente vigilarán eso “.

Agregó que el gobierno no exigirá ningún escaneo que vaya más allá del alcance de descubrir material de abuso infantil: “Estas tecnologías son específicas de CSAM … Me reuní con las empresas hace dos días y [with] todas estas tecnologías se trata de escanear imágenes e identificarlas como imágenes CSAM previamente identificadas o como imágenes nuevas creadas de primera generación, esa es la única capacidad inherente a estas tecnologías ”.

Cuando se le preguntó si hay alguna capacidad para escanear cualquier otro tipo de imágenes o contenido en los mensajes, Philp dijo: “no están diseñados para hacer eso, tendrían que ser reutilizados para eso, no es así como han sido diseñados o configuradas, son tecnologías de escaneo CSAM específicas “.

Philp confirmó además que el Centro Nacional de Seguridad Cibernética (NCSC), el brazo de aseguramiento de la información de la agencia de inteligencia de señales del Reino Unido GCHQ, había estado involucrado en la evaluación de las solicitudes de fondos de desafío: “Van a observar muy de cerca estas tecnologías a medida que se presenten desarrollado porque necesitamos asegurarnos de que aprovechamos la experiencia que GCHQ tiene técnicamente, además de trabajar en estrecha colaboración con el Ministerio del Interior. Esta es una asociación real entre NCSC, parte de GCHQ, el Ministerio del Interior y DCMS “.

En la Revisión de gastos y presupuesto de otoño para 2021, anunciada a fines de octubre, se asignaron más de 110 millones de libras esterlinas para el nuevo régimen de seguridad en línea del gobierno, que Philp confirmó que estaba separado del fondo de desafío, y agregó que, si bien una parte se usaría para construir La propia capacidad del DCMS, “una gran parte de ella se destinará a Ofcom” para financiar su supervisión regulatoria bajo el Proyecto de Ley de Seguridad en Línea.

En mayo de 2020, un informe de investigación realizado por la firma de asesoría económica Perspective Economic en nombre de DCMS, los proveedores de tecnología de seguridad del Reino Unido tienen aproximadamente el 25% de la participación del mercado mundial, y el número de empresas de tecnología de seguridad se duplicó desde 2015 de 35 a 70. y la inversión se multiplicó por ocho.

Más contenido para leer:  Las principales vulnerabilidades apuntan a los dispositivos del perímetro

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales