Entrevista ejecutiva: la oportunidad de innovación GenAI de AWS

Amazon lleva más de 20 años construyendo sistemas de inteligencia artificial (IA) y utilizando el aprendizaje automático. La personalización y las recomendaciones estuvieron entre las primeras innovaciones introducidas en el sitio de comercio electrónico, y estos y otros conceptos tecnológicos, como el asistente de voz Alexa, ayudan a impulsar la innovación en IA en el servicio de nube pública de Amazon Web Services (AWS). Luego estará disponible para sus clientes empresariales de TI.

Comenzar a utilizar la IA puede ser una tarea desalentadora, dada la charla casi constante de la industria que parece dominar las conversaciones de TI. Computer Weekly analizó recientemente los desafíos de la IA en la empresa con Francessca Vasquez, vicepresidenta de servicios profesionales y del Centro de Innovación GenAI de AWS.

Cuando se le preguntó cómo los líderes empresariales y de TI pueden desarrollar una estrategia de IA viable, dado todo el revuelo de la industria en torno a esta tecnología, Vásquez insta a las empresas que incorporan la IA en su estrategia de negocios a comenzar considerando las capacidades de su infraestructura de TI, que es necesaria para construir y entrenar modelos de cimentación.

Con todo lo que parece estar sucediendo con la IA, Vásquez cree que para muchas organizaciones, el aprendizaje automático sigue siendo una herramienta muy útil.

“No necesariamente se necesitan algunas de las complejas entradas y salidas del aprendizaje profundo que ofrece la IA generativa. [GenAI] proporciona”, dice Vásquez, y agrega que las empresas están priorizando los casos de uso de IA y aprendizaje automático que consideran más significativos e impactantes. Estos proyectos, afirma, suelen tener un buen retorno de la inversión.

“Por lo general, presentan un riesgo menor y permiten a las organizaciones comenzar más rápido”, dice Vásquez. Esto es un poco como cuando se implementaba la automatización para resolver las llamadas ineficiencias de “fruta madura” que enfrentaban las organizaciones.

Más contenido para leer:  Tech Nation anuncia la segunda cohorte del acelerador Net Zero

Proporcionar un nivel de inteligencia en la automatización de dichas tareas permite que la organización funcione más rápido, en términos de racionalizar los pasos ineficientes en los procesos de negocio.

“Lo que más me entusiasma y creo que cada cliente puede generar resultados tangibles es cuando se analizan aspectos como cómo los desarrolladores producen software y todo el ciclo de vida del desarrollo de software”, dice. “Para mí, este es un gran caso de automatización, inteligencia artificial y humanos utilizados para impulsar una mayor eficiencia”.

Servicios de IA en AWS

Al analizar las ofertas de inteligencia artificial de AWS, Vásquez dice: “Hemos estado invirtiendo mucho en nuestra propia computación y silicio personalizado”.

Por encima del hardware, AWS opera una capa de plataforma conocida como Bedrock for GenAI. “Estos son realmente los servicios administrados donde permitimos a las organizaciones utilizar modelos de lenguaje grande (LLM) y modelos básicos”, dice.

Bedrock ofrece lo que AWS llama una base para crear y escalar aplicaciones GenAI seguras. Específicamente, su objetivo es proporcionar una plataforma única a través de una única interfaz de programación de aplicaciones (API) que, según Vásquez, da acceso a Titan LLM de la compañía. [large language model] junto con varios modelos fundamentales de terceros. Estos incluyen los modelos proporcionados por AI21 Labs, Cohere, Stability AI o Anthropic, Meta y Mistral AI.

“Lo que realmente me entusiasma es que la parte superior de nuestra pila de IA generativa es donde se ve la innovación con la capacidad de crear aplicaciones GenAI”, dice.

Una de estas aplicaciones de IA es Amazon Q, un asistente impulsado por GenAI que puede responder preguntas, proporcionar resúmenes, generar contenido y completar tareas basadas en datos e información en sistemas empresariales. AWS dice que todo esto se puede lograr de forma segura.

Más contenido para leer:  Cómo Twilio está empoderando a las mujeres en la tecnología

Gestión de modelos de IA y acceso a datos

Siempre existe un equilibrio entre bloquear el acceso a los datos para el cumplimiento y garantizar que se cumplan políticas sólidas de ciberseguridad y la capacidad de utilizar datos específicos de la empresa para impulsar la innovación y generar valor. Ha habido una serie de ejemplos de alto perfil en los que se han filtrado datos sin darse cuenta al utilizar LLM públicos.

Cuando se le pregunta sobre el consejo que daría a las empresas que estén considerando realizar un LLM, Vásquez dice: “Lo primero que diré es que los datos están creciendo a un ritmo exponencial. Todos deberíamos basarnos en eso”.

La mayoría de las organizaciones almacenan terabytes; algunos tienen petabytes de almacenamiento de datos; y, en algunos casos raros, algunos almacenan exabytes de datos. “La escala de la información está creciendo y la creación de información se produce en más formatos más allá de lo que se podría considerar datos estructurados”, afirma.

Para Vásquez, para obtener valor de todos los diferentes almacenes de datos de la organización que contienen grandes cantidades de datos en una multitud de formatos, las empresas necesitan el poder de GenAI. “La mayoría de las organizaciones primero tendrán que llegar a la nube pública para aprovechar la IA generativa”, afirma.

Vásquez explica: “En AWS, si solo pienso en nuestra nube, la seguridad, al igual que la privacidad de los datos, es una prioridad bastante grande”.

Esto significa que a medida que AWS desarrolla y lanza nuevos servicios, la seguridad no se considera por separado. “Creemos que toda la información debe cifrarse y controlarse”, afirma. “Seguimos aplicando los mismos conceptos de responsabilidad compartida. Tienes que poder crear aplicaciones en una nube pública virtual. [VPC]y esa información nunca sale del VPC”.

Más contenido para leer:  Reino Unido y EE. UU. se acercan a un acuerdo de puente de datos transatlántico

Según Vásquez, este pensamiento está evolucionando para respaldar lo que los clientes de AWS esperan de los servicios LLM. “Los clientes necesitan barreras de seguridad más sólidas en los controles de acceso y la gobernanza de modelos que puedan filtrar automáticamente conceptos, discursos o malas palabras no deseados, o cosas que no desea que se incluyan en el modelo”, afirma.

El enfoque de AWS es incorporar dichas capacidades en Bedrock.

Entrenamiento para evitar confusiones

Vásquez reconoce que los LLM pueden confundirse fácilmente, como cuando un chatbot responde sin sentido a una pregunta ambigua. “A medida que observamos cómo se aplican estos modelos a nivel mundial, esto se vuelve aún más importante”, afirma. “No imaginamos un mundo en el que haya un único modelo de base que pueda hacerlo todo”.

Vásquez insta a las empresas que implementan LLM a centrarse en optimizar los modelos básicos que utilizan. Un ejemplo común es el contexto del aprendizaje con generación aumentada de recuperación, donde el modelo se adapta en función de los datos adicionales obtenidos.

Es posible que algunas empresas necesiten ir más allá del autoaprendizaje. “Creemos que algunos clientes querrán tener la capacidad de realizar ajustes, y verá que algunos clientes querrán un entrenamiento previo continuo de los modelos a medida que llegue nueva información”, afirma.

Para Vásquez, siempre habrá un elemento de modelos de IA que trabajen con humanos para dar sentido a aquellas situaciones en las que el entrenamiento del modelo es inadecuado. “Al final del día, todo es razonamiento”, dice. “Quizás puedas llamarlo lógica humana o inteligencia humana”.

Escuche el podcast con Francessca Vasquez de AWS aquí.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales