Cómo los grandes modelos de lenguaje abordan la TI empresarial

La reciente mejora del producto Copilot de Microsoft en Office 365 muestra cómo se está integrando una nueva generación de capacidades de inteligencia artificial (IA) en los procesos comerciales. De manera similar, Google ha comenzado a obtener una vista previa de las interfaces de programación de aplicaciones (API) para acceder a su propia IA generativa, a través de Google Cloud y Google Workplace.

El reciente anuncio de Firefly de IA generativa de texto a imagen de Adobe también demuestra cómo la industria está yendo más allá de las demostraciones ingeniosas utilizadas para mostrar estos sistemas en tecnología que tiene el potencial de resolver problemas comerciales.

Microsoft 365 Copilot utiliza modelos de lenguaje grandes con datos comerciales y aplicaciones de Microsoft 365 para impulsar el paquete de productividad de Microsoft Office con un asistente basado en IA que ayuda a los usuarios a trabajar de manera más efectiva. Por ejemplo, en Word, escribe, edita y resume documentos; en PowerPoint, apoya el proceso creativo al convertir ideas en una presentación a través de comandos de lenguaje natural; y en Outlook, ayuda a las personas a administrar su bandeja de entrada. Copilot en Teams se sienta detrás de las reuniones en línea, hace resúmenes de la conversación y presenta puntos de acción.

Adobe ha lanzado la versión inicial de su IA generativa para la creación de imágenes, entrenada con imágenes de Adobe Stock, contenido con licencia abierta y contenido de dominio público donde los derechos de autor han expirado. En lugar de intentar despedir a los artistas, diseñadores y fotógrafos digitales, Adobe ha optado por entrenar su sistema Firefly, basado en imágenes generadas por humanos, que se centra en generar contenido a partir de imágenes y efectos de texto que, según Adobe, es seguro. para uso comercial.

Google puso en versión beta su modelo de lenguaje grande, Bard, e incorporó dos modelos generativos de IA, PaLM API y MakerSuite, en Google Cloud y Google Workspace. Al presentar el nuevo desarrollo, el CEO de Google, Sundar Pichai, escribió en una publicación de blog: “Bard busca combinar la amplitud del conocimiento mundial con el poder, la inteligencia y la creatividad de nuestros grandes modelos de lenguaje. Se basa en información de la web para proporcionar respuestas frescas y de alta calidad. Bard puede ser una salida para la creatividad y una plataforma de lanzamiento para la curiosidad”.

Si bien existen numerosas comparaciones en línea de los dos modelos de lenguaje grande rivales, ChatGPT se considera una tecnología más antigua, pero la inversión de $ 10 mil millones de Microsoft en OpenAI, el desarrollador de ChatGPT, representa un compromiso muy público con ella.

Hablando en la BBC Hoy programa, Michael Woodridge, director de investigación fundamental de IA en el Instituto Turing, dijo: “Google tiene una tecnología que, en términos generales, es tan buena como OpenAI. La diferencia es que OpenAI y Microsoft tienen un año de ventaja en el mercado, y eso es un año de ventaja en el espacio de la IA, donde las cosas se mueven ridículamente rápido”.

En un blog reciente que analiza la velocidad con la que ChatGPT de OpenAI se ha convertido en un modelo que aparentemente entiende el habla humana, el cofundador de Microsoft, Bill Gates, dijo: “Cualquier nueva tecnología que sea tan disruptiva seguramente hará que la gente se sienta incómoda, y eso es ciertamente cierto con los dispositivos artificiales”. inteligencia. Entiendo por qué: plantea preguntas difíciles sobre la fuerza laboral, el sistema legal, la privacidad, los prejuicios y más. Las IA también cometen errores fácticos y experimentan alucinaciones”.

Para Gates, IA como ChatGPT ofrece una forma para que las empresas automaticen muchas de las tareas manuales que los trabajadores de oficina deben realizar como parte de su trabajo diario.

“Aunque los humanos siguen siendo mejores que GPT en muchas cosas, hay muchos trabajos en los que estas capacidades no se usan mucho”, dijo.

“Por ejemplo, muchas de las tareas realizadas por una persona en ventas (digitales o telefónicas), servicios o manejo de documentos (como cuentas por pagar, contabilidad o disputas de reclamos de seguros) requieren la toma de decisiones, pero no la capacidad de aprender continuamente. Las corporaciones tienen programas de capacitación para estas actividades y, en la mayoría de los casos, tienen muchos ejemplos de buenos y malos trabajos. Los seres humanos se capacitan con estos conjuntos de datos y, pronto, estos conjuntos de datos también se utilizarán para capacitar a las IA que permitirán a las personas realizar este trabajo de manera más eficiente”.

Usos para negocios

Al analizar el uso de la IA generativa y los modelos de lenguaje extenso en los negocios, Rowan Curran, analista de Forrester, dijo: “El gran avance aquí es que estos modelos de lenguaje extenso esencialmente nos brindan una forma de interactuar con los sistemas digitales de una manera muy flexible y dinámica. forma.” Esto, dijo, no ha estado disponible para una gran parte de los usuarios en el pasado, y les brinda la capacidad de interactuar con los datos de una “manera más natural”.

Los reguladores están interesados ​​en comprender las implicaciones de esta tecnología. La Comisión Federal de Comercio de EE. UU. (FTC), por ejemplo, publicó recientemente un aviso sobre herramientas de IA generativa como ChatGPT. En la publicación, el regulador dijo: “Ya existe evidencia de que los estafadores pueden usar estas herramientas para generar contenido realista pero falso de manera rápida y económica, difundiéndolo a grandes grupos o apuntando a ciertas comunidades o individuos específicos. Pueden usar chatbots para generar correos electrónicos de phishing selectivo, sitios web falsos, publicaciones falsas, perfiles falsos y reseñas de consumidores falsas, o para ayudar a crear malware, ransomware y ataques de inyección rápida. Pueden usar falsificaciones profundas y clones de voz para facilitar las estafas de impostores, la extorsión y el fraude financiero. Y esa es una lista no exhaustiva”.

La Ley de la FTC que cubre la prohibición de conducta engañosa o desleal se puede aplicar si una organización fabrica, vende o usa una herramienta que está diseñada para engañar, incluso si esa no es su intención o su único propósito.

Curran dijo que la tecnología utilizada en estos nuevos sistemas de inteligencia artificial es opaca para la comprensión humana. “En realidad, no es posible mirar dentro del modelo y descubrir por qué está encadenando una secuencia de palabras de una manera particular”, dijo.

También son propensos a unir palabras para formar frases que, si bien son sintácticamente correctas, no tienen sentido. Este fenómeno se describe a menudo como alucinación. Dadas las limitaciones de la tecnología, Curran dijo que será necesario que los curadores humanos verifiquen los resultados de estos sistemas para minimizar los errores.

Exit mobile version