La Cámara de los Lores inicia una investigación sobre la IA generativa

La Cámara de los Lores ha hecho un llamado a la evidencia al comenzar una investigación sobre los cambios sísmicos provocados por la IA generativa (inteligencia artificial) y los grandes modelos de lenguaje.

La velocidad de desarrollo y la falta de comprensión acerca de las capacidades de estos modelos ha llevado a algunos expertos a advertir sobre un riesgo creíble y creciente de daño. Por ejemplo, el Centro para la Seguridad de la IA ha emitido una declaración con varios líderes tecnológicos como signatarios que insta a los involucrados en el desarrollo y las políticas de IA a priorizar la mitigación del riesgo de extinción de la IA. Pero hay otros, como el ex director ejecutivo de Microsoft, Bill Gates, que creen que el auge de la IA liberará a las personas para que realicen trabajos que el software nunca podrá realizar, como enseñar, cuidar a los pacientes y apoyar a los ancianos.

Según las cifras citadas en un informe de Goldman Sachs, la IA generativa podría aportar aproximadamente 5,5 billones de libras esterlinas a la economía global en 10 años. El informe del banco de inversión estimó que 300 millones de puestos de trabajo podrían estar expuestos a la automatización. Pero también se podrían crear otros roles en el proceso.

Los modelos grandes pueden generar respuestas contradictorias o ficticias, lo que significa que su uso en algunas industrias podría ser peligroso sin las garantías adecuadas. Los conjuntos de datos de entrenamiento pueden contener contenido sesgado o dañino, y los derechos de propiedad intelectual sobre el uso de los datos de entrenamiento son inciertos. La naturaleza de “caja negra” de los algoritmos de aprendizaje automático hace que sea difícil comprender por qué un modelo sigue un curso de acción, qué datos se usaron para generar un resultado y qué podría hacer el modelo a continuación, o sin supervisión.

Más contenido para leer:  CCS urged to do more to make Cloud Compute 2 framework more accessible to SMEs

La baronesa Stowell de Beeston, presidenta del comité, dijo: “Los últimos modelos de lenguajes grandes presentan oportunidades enormes y sin precedentes. Pero tenemos que ser claros acerca de los desafíos. Tenemos que investigar los riesgos en detalle y encontrar la mejor manera de abordarlos, sin sofocar la innovación en el proceso. También debemos tener claro quién ejerce el poder a medida que estos modelos se desarrollan y se integran en los negocios diarios y en la vida personal”.

Entre las áreas en las que el comité está buscando información y evidencia está cómo se espera que se desarrollen los modelos de lenguaje extenso en los próximos tres años, oportunidades y riesgos y una evaluación de si los reguladores del Reino Unido tienen la experiencia y los recursos suficientes para responder a los modelos de lenguaje extenso.

“Este pensamiento debe ocurrir rápido, dada la vertiginosa velocidad del progreso. No debemos permitir que las predicciones más aterradoras sobre el poder futuro potencial de la IA nos distraigan de comprender y abordar las preocupaciones más apremiantes desde el principio. Del mismo modo, no debemos sacar conclusiones apresuradas en medio de la exageración”, dijo Stowell.

“Por lo tanto, nuestra investigación analizará con seriedad la evidencia en todo el Reino Unido y en todo el mundo, y presentará propuestas al gobierno y a los reguladores para ayudar a garantizar que el Reino Unido pueda ser un actor líder en el desarrollo y la gobernanza de la IA”.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales