Italia levantará la prohibición de ChatGPT sujeta a nuevos controles de protección de datos

El regulador de privacidad y protección de datos de Italia levantará la prohibición impuesta recientemente al servicio ChatGPT de OpenAI a fines de abril de 2023 si el servicio implementa una serie de medidas para abordar las preocupaciones del regulador.

Garante per la Protezione dei Dati Personali (GPDP) ordenó a OpenAI, respaldado por Microsoft, que dejara de ofrecer su servicio en Italia a fines de marzo, diciendo que no había forma de que ChatGPT procesara datos sin violar las leyes de privacidad y que no había ninguna base legal que respaldara su recogida y tratamiento de datos con fines formativos.

También citó la falta de un mecanismo de verificación de edad, lo que significa que los niños menores de 13 años podrían estar expuestos a respuestas inapropiadas de las indicaciones ingresadas en ChatGPT.

El GPDP ahora ha impuesto una serie de condiciones en OpenAI que cree que satisfarán sus preocupaciones sobre la seguridad de la oferta de ChatGPT.

“OpenAI deberá cumplir antes del 30 de abril con las medidas establecidas por la SA italiana con respecto a la transparencia, el derecho de los interesados, incluidos usuarios y no usuarios, y la base legal del procesamiento para el entrenamiento algorítmico basado en los datos de los usuarios. ”, dijo el regulador en un comunicado.

“Solo en ese caso, la SA italiana levantará su orden que impuso una limitación temporal en el procesamiento de los datos de los usuarios italianos, ya que ya no existe la urgencia que sustenta la orden, por lo que ChatGPT estará disponible una vez más desde Italia”.

Más contenido para leer:  El papel de la plataforma criptográfica en la incursión de ransomware Cl0p

OpenAI ahora debe redactar y poner a disposición en línea un aviso que describa los “arreglos y la lógica” del procesamiento de datos necesarios para ejecutar ChatGPT y los derechos otorgados a los interesados, tanto usuarios como no usuarios.

Los usuarios que se registren en Italia deberán recibir este aviso y declarar que son mayores de 18 años, o que han obtenido el consentimiento de los padres si tienen entre 13 y 18 años, antes de que se les permita usar ChatGPT. El mecanismo de control de edad debe implementarse antes del 30 de septiembre de 2023.

También se ordenó a OpenAI que elimine todas las referencias al desempeño contractual y se base, de acuerdo con los principios de responsabilidad en el RGPD de la Unión Europea (UE), en el consentimiento o la base legítima como la base legal aplicable para el procesamiento de datos personales para algoritmos de entrenamiento.

Debe aplicar un conjunto de medidas para permitir a los interesados ​​borrar o rectificar sus datos personales si ChatGPT los usa incorrectamente, y permitir que los no usuarios ejerzan su derecho a objetar el procesamiento de datos personales, incluso si se elige el interés legítimo como el base legal para su procesamiento.

Finalmente, OpenAI recibió instrucciones de realizar una campaña de concientización pública en los medios italianos para informar a las personas sobre el uso de sus datos para entrenar algoritmos.

“La SA italiana continuará sus investigaciones para establecer posibles infracciones de la legislación vigente, y podrá decidir tomar medidas adicionales o diferentes si resulta necesario una vez que finalice el ejercicio de investigación en curso”, dijo el GPDP.

Más contenido para leer:  Los inversores privados respaldan a los innovadores para impulsar la conectividad africana

Ilia Kolochenko, fundadora de Immuniweb y miembro de la red de expertos en protección de datos de Europol, comentó: “Los problemas de privacidad son solo una pequeña fracción de los problemas regulatorios que la IA generativa, como ChatGPT, puede enfrentar en un futuro cercano. Muchos países están trabajando activamente en una nueva legislación para todo tipo de tecnologías de IA, con el objetivo de garantizar la no discriminación, la explicabilidad, la transparencia y la equidad, independientemente del significado de estas palabras inspiradoras en un contexto específico, como la atención médica, los seguros o el empleo.

“Cabe destacar que la tendencia regulatoria no es una prerrogativa de los reguladores europeos. Por ejemplo, en los Estados Unidos, la FTC está preparada para dar forma activa al futuro de la IA”.

Datos de entrenamiento

Kolochenko dijo que claramente uno de los mayores problemas con la IA generativa son los datos de entrenamiento, que los proveedores de IA recopilan con demasiada frecuencia sin el permiso de los creadores de contenido o de las personas.

Advirtió que si bien la ley actual de propiedad intelectual (PI) parecería brindar poca o ninguna protección contra esto, las prácticas de extracción de datos a gran escala probablemente violen los términos de servicio de los recursos digitales, lo que eventualmente puede conducir a un litigio.

Dicho esto, agregó Kolochenko, prohibir la IA todavía no era una gran idea. “Mientras que las empresas respetuosas de la ley seguirán sumisamente la prohibición, los estados-nación hostiles y los actores de amenazas continuarán fácilmente con su investigación y desarrollo, obteniendo una ventaja injusta en la carrera global de IA”, dijo.

Más contenido para leer:  Google lanza un programa de capacitación en seguridad para pymes respaldado por piratas informáticos

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales