Prohibición de ChatGPT en Italia: ¿precaución sobria o reacción exagerada escalofriante?

Una prohibición repentina del uso de ChatGPT por parte de la autoridad italiana de protección de datos ha dividido a los expertos en inteligencia artificial (IA) y privacidad de datos sobre si restringir oficialmente el uso del servicio innovador pero altamente controvertido es una precaución sensata y correcta dadas las circunstancias. o una reacción exagerada masiva con implicaciones escalofriantes para las libertades de las personas.

El regulador de protección de datos, Garante per la Protezione dei Dati Personali (GPDP), emitió su orden contra los propietarios estadounidenses de ChatGPT, OpenAI, el viernes 31 de marzo.

La autoridad acusó a ChatGPT de recopilar datos de manera ilegal. Afirmó que “no había forma” de que ChatGPT continuara procesando datos sin infringir las leyes de privacidad y que no había una base legal que respaldara su recopilación y procesamiento de datos con fines de capacitación. El GPDP agregó que la información que proporciona el bot ChatGPT no siempre es precisa, lo que implica que se están procesando datos inexactos.

Además, dijo el GPDP, ChatGPT carece de un mecanismo de verificación de edad y, al hacerlo, expone a los menores a recibir respuestas que son apropiadas para su edad y conciencia, a pesar de que los términos de servicio de OpenAI afirman que el servicio está dirigido solo a usuarios mayores de 13 años.

Los italianos también tuvieron en cuenta una violación de datos del 20 de marzo en el servicio. Este incidente se debió a un error en la biblioteca de código abierto redis-py que expuso los historiales de chat de los usuarios activos a otros usuarios en algunas circunstancias y, además, expuso la información de pago de aproximadamente el 1,2 % de los suscriptores del servicio ChatGPT Plus durante un período de nueve horas. Estos datos incluían nombres y apellidos, direcciones de correo electrónico y postales, y datos limitados de tarjetas de crédito.

Según el Reglamento General de Protección de Datos (GDPR) de la Unión Europea (UE), el representante designado de OpenAI en el Espacio Económico Europeo (EEE) tendrá 20 días para notificar al GPDP de las medidas implementadas para cumplir con la orden, o enfrentar multas de hasta € 20 millones o el 4% de la facturación anual mundial.

La decisión convierte a Italia en el primer país que emitió algún tipo de prohibición o restricción en el uso de ChatGPT, aunque no está disponible en varios países, incluidos China, Irán, Corea del Norte y Rusia, porque OpenAI no lo ha puesto a disposición allí.

Compromiso con la privacidad

En un comunicado, ChatGPT dijo que, como resultado, había deshabilitado el acceso al servicio en Italia, pero esperaba tenerlo nuevamente en línea pronto. Dijo que estaba “comprometido con la protección de la privacidad de las personas” y que, según su leal saber y entender, opera de conformidad con el RGPD y otras leyes y reglamentos de privacidad.

Más contenido para leer:  Top 10 networking stories of 2023

Agregó que ha estado trabajando para reducir el uso de datos personales en la capacitación de ChatGPT porque quería que el sistema aprendiera sobre el mundo en general, no sobre individuos privados.

Tiempo para un reinicio

Casi al mismo tiempo que las autoridades italianas daban los toques finales a su anuncio, un grupo de más de 1000 expertos en IA y otras figuras de la industria tecnológica, entre ellos el cofundador de Apple, Steve Wozniak, y el barón de las redes sociales, cada vez más errático, Elon Musk, puso sus nombres en una carta abierta que pedía una moratoria temporal en la creación y el desarrollo de modelos de IA como el modelo de lenguaje grande (LLM) detrás de ChatGPT.

En su carta, los signatarios argumentaron que la carrera para implementar IA se ha salido de control y que era necesaria una pausa para permitir que la humanidad determine si tales sistemas realmente tendrán efectos beneficiosos y riesgos manejables. Hicieron un llamado a los gobiernos para que intervengan, en caso de que la industria no se contenga voluntariamente.

Michael Covington, vicepresidente de estrategia de Jamf, fue uno de los muchos que aplaudieron la decisión del GPDP por motivos similares. “Me alienta ver a los reguladores ponerse de pie y aplicar políticas escritas que fueron diseñadas para proteger la privacidad individual, algo que en Jamf consideramos un derecho humano fundamental”, dijo.

“ChatGPT ha estado experimentando un crecimiento masivo, y este crecimiento ha ocurrido con barreras de protección casi nulas. OpenAI se ha ocupado de algunos problemas, como la falta de políticas de manejo de datos y violaciones de datos bien publicitadas. Veo valor en forzar un reinicio para que esta tecnología verdaderamente innovadora pueda desarrollarse de una manera más controlada.

“Dicho esto, me preocupo cuando veo intentos de regular el sentido común y forzar una ‘verdad’ sobre otra”, agregó Covington. “En Jamf, creemos en educar a los usuarios sobre la privacidad de los datos y empoderarlos con más control y autoridad para tomar decisiones sobre qué datos están dispuestos a compartir con terceros.

“Restringir la tecnología por temor a que los usuarios den demasiado a cualquier servicio de inteligencia artificial podría frenar el crecimiento de herramientas como ChatGPT, que tiene un potencial increíble para transformar la forma en que trabajamos”, dijo.

Más contenido para leer:  Hemos despegado... Las oportunidades y los riesgos de la IA generativa

“Además, hoy en día hay mucha información errónea en Internet, pero sin saber cómo el mundo monitoreará los ‘hechos’, tenemos que respetar la libertad de expresión, y eso incluye inexactitudes de hecho. Deje que el mercado decida qué motor de IA es más confiable, pero no silencie las herramientas por miedo a las imprecisiones, especialmente porque esta emocionante tecnología está en su infancia”.

Las preocupaciones de seguridad empeorarán

Dan Shiebler, jefe de aprendizaje automático de Abnormal Security, dijo que las preocupaciones de seguridad sobre los LLM probablemente empeorarían “sustancialmente” a medida que los modelos se integren más estrechamente con las API y la Internet pública, algo que, en su opinión, está siendo demostrado por la reciente implementación de OpenAI de soporte para complementos de ChatGPT.

Especuló que podrían seguir más acciones de este tipo. “La UE en general ha demostrado ser bastante rápida en la regulación tecnológica (RGPD fue una gran innovación), por lo que espero ver más discusiones sobre la regulación de otros países miembros y, potencialmente, de la propia UE”, dijo.

Shiebler dijo que era poco probable que la prohibición tuviera mucho impacto en el desarrollo de la IA, simplemente porque esto se puede hacer de manera muy flexible desde cualquier jurisdicción. Sin embargo, si las prohibiciones o restricciones comenzaran a extenderse por la UE o los EE. UU., esto sería un obstáculo mucho mayor.

Sin embargo, dijo, si bien el Reino Unido debería “absolutamente” analizar las preocupaciones sobre posibles casos de uso malicioso de LLM, adoptar una política similar no sería útil. “Es más probable que una prohibición general inmediata excluya al Reino Unido de la conversación que cualquier otra cosa”, señaló.

Andrew Patel de WithSecure, quien ha realizado una extensa investigación sobre los LLM que sustentan ChatGPT, estuvo de acuerdo y dijo que la prohibición de Italia tendría poco impacto en el desarrollo continuo de los sistemas de IA y, además, podría hacer que los modelos futuros sean sustancialmente más peligrosos para los hablantes de italiano.

“Los conjuntos de datos utilizados para entrenar estos modelos ya contienen una gran cantidad de ejemplos de italiano”, dijo. “En todo caso, al cerrar la entrada italiana a los modelos futuros, estos modelos serán levemente peores para las entradas italianas que para otros. Esa no es una gran situación para estar”.

Reacción exagerada flagrante

Cuando se le preguntó si pensaba que las autoridades italianas tal vez habían ido demasiado lejos, Patel dijo simplemente: “Sí, esto es una reacción exagerada”.

Más contenido para leer:  Entrevista: Rachel Phillips, vicepresidenta de Reino Unido e I, Okta

Al describir ChatGPT como una progresión tecnológica “natural”, Patel dijo que si el problema del GPDP realmente tuviera que ver con los ciudadanos italianos que interactúan con una empresa de tecnología estadounidense invasiva, habría tomado medidas similares contra otras plataformas con sede en los EE. UU.

“El hecho de que ChatGPT sea alojado por una empresa estadounidense no debería ser un factor”, dijo. “Tampoco debería preocuparnos que la IA pueda apoderarse del mundo.

Patel argumentó que al restringir la capacidad de todos los ciudadanos italianos para acceder a ChatGPT, Italia se estaba poniendo en una desventaja sustancial.

“ChatGPT es una herramienta útil que permite la creatividad y la productividad”, dijo. “Al cerrarlo, Italia ha cortado quizás la herramienta más importante disponible para nuestra generación. Todas las empresas tienen problemas de seguridad y, por supuesto, se debe instruir a los empleados para que no proporcionen a ChatGPT y sistemas similares datos confidenciales de la empresa. [But] tales políticas deben ser controladas por organizaciones individuales y no por el país anfitrión”.

Erick Galinkin, investigador principal de IA en Rapid7, dijo que se sabe desde hace años que los LLM memorizan datos de entrenamiento, y ya ha habido innumerables ejemplos de modelos generativos que reproducen ejemplos de sus datos de entrenamiento, por lo que ChatGPT no podría haber sido una sorpresa para el PIBP.

En última instancia, dijo, las preocupaciones del GPDP parecen provenir más de la recopilación de datos que de la capacitación y el despliegue reales de los LLM, por lo que la industria realmente debe abordar cómo los datos confidenciales se convierten en datos de capacitación y cómo se recopilan.

“Como Bender et al cubren bien en su artículo, Sobre los peligros de los loros estocásticosestos modelos tienen riesgos reales de privacidad que la comunidad de ética y seguridad de IA conoce bien desde hace años”, dijo Galinkin.

“No podemos volver a poner la pasta de dientes en el tubo, por así decirlo. ‘Prohibir’ estos modelos, sea lo que sea que ese término signifique en este contexto, es simplemente alentar una mayor perfidia por parte de estas empresas para restringir el acceso y concentrar más poder en manos de los gigantes tecnológicos que pueden invertir el dinero en entrenar tales modelos.

“Más bien, deberíamos buscar una mayor apertura en torno a qué datos se recopilan, cómo se recopilan y cómo se entrenan los modelos”, dijo.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales