El impacto de la IA generativa en el centro de datos

Quedan dudas sobre el impacto potencial en los centros de datos de la adopción de la inteligencia artificial generativa (IA), incluso cuando se trata de la necesidad de más procesamiento, almacenamiento y energía. Una cosa segura es que habrá un impacto.

Slawomir Dziedziula, director de ingeniería de aplicaciones de Vertiv, advierte que nadie ha calculado completamente el consumo de energía para aplicaciones individuales. Por lo tanto, sigue siendo incierto cómo afectarán específicamente tantas solicitudes a los requisitos de software y hardware.

“Todavía es pronto para decir con precisión”, está de acuerdo, y señala que los países que prohibieron la criptominería tenían preocupaciones similares sobre los impactos y la sostenibilidad de la infraestructura.

“Un lado es cuánto puede confiar en la IA generativa, aunque definitivamente puede usarla para mejorar su conocimiento y también sus habilidades”, dice Dziedziula.

“La otra cosa es que necesita muchos servidores, GPU, dispositivos de almacenamiento de datos, etc., y luego sus ingenieros. Si utilizan scripts de valor para su uso en aplicaciones, necesitarán personalización”.

Ya puede ser difícil identificar el uso de un modelo de lenguaje grande (LLM). Los programadores experimentados utilizan la IA generativa para generar nuevas ideas y perspectivas; sin embargo, es posible que algunos no detecten resultados objetivamente deficientes, señala.

“Todo el mundo puede creer que es realmente bueno en algo mediante el uso de IA generativa”, señala Dziedziula.

Trabajar con IA generativa implica una gran cantidad de verificación. Es posible que se requieran conjuntos de habilidades y nuevas aplicaciones. Las presiones de seguridad cibernética también pueden intensificarse. ChatGPT puede producir grandes volúmenes de correos electrónicos de phishing creíbles, por ejemplo.

“Habrá una mayor dependencia de los trabajadores calificados”, advierte Dziedziula. “Sin embargo, en lugar de 10 personas, solo necesito dos personas y un software inteligente para hacer el resto”.

Chris Anley, científico jefe del proveedor de seguridad de TI, aseguramiento y custodia de software NCC Group, dice que el centro de datos puede necesitar una nueva mirada al consumo de recursos, la gestión de la infraestructura y la seguridad.

Las infraestructuras de red emergentes, las arquitecturas, el almacenamiento de datos y los modelos de recuperación deberán protegerse, por lo que los impactos no se relacionan simplemente con la escala y la capacidad. El aprovisionamiento de nuevas formas implicará mecanismos de almacenamiento distribuido a escala de Internet, yendo más allá de las bases de datos relacionales para lograr el rendimiento para la capacitación de sistemas de inteligencia artificial y aprendizaje automático (ML).

“No puedes tener un solo clúster haciéndolo; tienes que repartir la carga entre muchas GPU”, dice Anley. “Los nuevos requisitos cambiarán los centros de datos, desde la refrigeración y la energía hasta la estructura física y lógica de las redes. Un centro de datos optimizado para IA puede verse muy diferente a uno optimizado para operaciones corporativas típicas”.

Centros de datos ya en modo de adaptación

Sin embargo, las herramientas de ML han estado penetrando gradualmente en el mercado durante años a pesar de la “bombo alarmista de los medios sobre que la IA generativa se está comiendo el mundo”, señala Anley.

Más contenido para leer:  Cinco tendencias tecnológicas clave para los líderes digitales en 2022

Confirma el uso de ChatGPT para la revisión del código de seguridad. Sin embargo, si bien puede ayudar a identificar o clasificar problemas, cree que los resultados no son del todo confiables. “Puede inventar hechos, ya sea omitiendo errores por completo, centrándose simplemente en otra cosa, o ‘alucinando’ errores ficticios. Ambos son malos para la seguridad”.

Se apresura a agregar que, en general, hay poca amenaza de esto. Los programadores que necesitan IA generativa para codificar no suelen trabajar en aplicaciones corporativas críticas. Además, aunque ocurren “errores sutiles”, el código incorrecto suele ser evidente de inmediato porque simplemente no hace lo que usted quiere.

“El código no es una de esas cosas en las que puede ser ‘principalmente correcto’ como una canción o una producción teatral o una pieza de prosa o lo que sea”, dice Anley.

Es probable que la IA generativa siga siendo principalmente para hacer que el personal calificado sea más eficiente y productivo. Incluso una mejora de la productividad del 10% puede reducir drásticamente los costos a nivel organizacional, dice.

La IA generativa ya es “buena en las cosas pequeñas”, como el código de la biblioteca donde un programador puede no estar muy familiarizado con la biblioteca, no sabe el nombre de la función específica en esa biblioteca o para ciertas tareas técnicas como la conversión de datos. de un formato a otro.

“Autocompletará algo, ahorrándote un viaje al navegador web oa la documentación”, continúa Anley. “Creo que la mayoría de nuestros clientes ahora usan IA de una forma u otra, ya sea para atención al cliente, chatbots o simplemente para optimizar procesos internos”.

Sin embargo, con el desarrollo complejo de IA o ML y las tecnologías de hospedaje introducidas en las redes corporativas, se requiere precaución. Por ejemplo, agregar muchos datos de entrenamiento a través de los límites de seguridad puede eliminar controles importantes sobre lo que se puede “ver”.

Los datos de entrenamiento se pueden recuperar de modelos entrenados simplemente consultándolos, utilizando ataques como la inferencia de membresía y la inversión de modelos. “El resultado es una situación similar a los conocidos ataques de violación de datos de inyección SQL”.

Señala que al menos un proveedor prohibió recientemente la IA generativa porque los desarrolladores estaban agregando código corporativo confidencial en un motor de políticas de terceros solo para ayudarlos a escribir. Sin embargo, no hacer esto debería ser de sentido común, y muchas empresas ya tienen políticas que prohíben compartir códigos con terceros.

Matt Hervey, socio y jefe de leyes de IA en Gowling WLG, dice que si bien todavía es difícil entrenar estos modelos para generar y categorizar datos perfectamente, la calidad “parece haber aumentado drásticamente” en los últimos seis a 12 meses. Dado que las técnicas de ML se están integrando en herramientas estándar, se pueden esperar “impactos profundos”, pero en su mayoría pueden representar una oportunidad comercial.

Más contenido para leer:  IA generativa: Databricks presenta un modelo de lenguaje grande de código abierto

“Sospecho que esta es una buena noticia para el negocio de los centros de datos… y hay movimientos para lograr resultados similares con conjuntos de entrenamiento más pequeños”, dice Hervey.

Sin embargo, cierta “mala actividad” puede terminar en el espacio privado, agrega, y quedan dudas sobre si los centros de datos estarán completamente protegidos en lo que respecta al riesgo legal.

Con un aumento masivo en el uso de ML que implica aumentos en el procesamiento y el poder más allá de lo que se ha visto anteriormente, algunos también trasladarán las aplicaciones o servicios en la nube al borde. El procesamiento a bordo en teléfonos móviles, por ejemplo, presenta potencial para la privacidad u otros problemas de cumplimiento normativo.

Las opiniones sobre “el valor económico” de ciertas actividades o roles cambiarán, y algunas áreas o actividades se volverán más o menos rentables, repercutiendo en varias industrias y sectores, incluidos los centros de datos, dice Hervey.

Jocelyn Paulley, socia y codirectora de los sectores de comercio minorista, protección de datos y seguridad cibernética del Reino Unido en Gowling WLG, agrega que las expansiones de los centros de datos y la conectividad donde ya hay problemas de capacidad, como Londres, podrían agregar un desafío, pero quizás se solucionen con la infraestructura. y el enfriamiento se replantea y aumenta la densidad de los servidores.

Los centros de datos pueden evitar el riesgo relacionado con el contenido

El uso descuidado o no conforme de ChatGPT por parte de los clientes, por ejemplo, no afectará a los proveedores de colocación sin acceso al software del cliente y entornos que no alojan aplicaciones o contenido de otras personas, y donde eso puede ser un problema, la legislación ya está evolucionando, Paulley. dice.

Jaco Vermeulen, director de tecnología de la consultora BML Digital, señala que la IA generativa en realidad no hace nada más avanzado que la búsqueda, lo que significa fuerza bruta en términos de ciberataques. Si bien los LLM pueden requerir una mayor intervención humana en la interpretación o la unión de ciertos factores en el análisis, por ejemplo, la última iteración de IA “no es realmente una amenaza en sí misma”.

“Primero debe ser dirigido y luego validado”, dice.

El acceso al centro de datos ya requiere identificación física, biométrica o “posiblemente doble biométrica”, más una segunda parte. Por lo general, se necesitan dos personas para acceder a un edificio, cada una con tres elementos de identificación y luego verificación.

Para que AI extraiga todo eso, necesita mucho acceso a la información personal, que simplemente no está disponible en Internet, y si está extrayendo datos a los que no debe acceder, eso depende de las organizaciones y las personas que los usan, dice Vermeulen. .

Más contenido para leer:  Loïc Giraud, director global de plataforma digital y entrega de productos, Novartis

El uso de indicaciones más complejas para lograr una mayor sofisticación solo dará como resultado que las respuestas “fallen más miserablemente… porque intentará brindarle inteligencia real sin un contexto real sobre cómo aplicarla. Solo tiene un enfoque de banda estrecha”, dice Vermeulen.

“Vas a tener actores malos o perezosos en cualquier lugar. Esta máquina no va más allá de la caja. Y si en el futuro se convierte en Skynet, desconectémoslo”.

Además, Vermeulen dice que la mayoría de los agentes se desplegarán donde una organización tenga control total sobre ellos. También echa agua sobre la necesidad de cualquier propuesta única relacionada con el centro de datos.

“La IA generativa es básicamente más de lo mismo, a menos que haya un caso comercial real en el producto real”, dice Vermeulen. “Es solo reconocimiento de patrones con salida que detecta variaciones. El modelo comercial se mantendrá sobre el consumo, el soporte y la capacidad”.

Rob Farrow, jefe de ingeniería de Profusion, agrega que la mayoría de los modelos de IA simplemente se vuelven a entrenar con las mismas entradas para producir sus modelos. Aunque los desarrollos, como la capacidad de autodiseñarse, podrían hacer que la IA sea una amenaza suficiente como para requerir alguna opción de interruptor a prueba de fallas o de apagado, esto parece poco probable dentro de unos 10 años.

“No existe un nivel válido real de complejidad ni nada parecido a la inteligencia humana”, señala Farrow. “Hay un montón de problemas técnicos. Cuando suceda, tenemos que pensar en ello”.

Eso nos lleva de vuelta al gasto computacional de ejecutar ML. Quedan más incertidumbres, derivadas de una mayor complejidad del software, por ejemplo, por lo que más cosas pueden salir mal. Eso sugiere valor en trabajar en el desarrollo de la transparencia del software y cómo opera o toma decisiones.

Escribir menos código y simplificar cuando sea posible puede ayudar, pero las plataformas para esto a menudo no brindan suficientes matices, dice Farrow.

Si bien advierte contra las organizaciones que se lanzan a proyectos generativos de IA o ML sin bases de datos suficientemente sólidas, sugiere que los impactos en la energía, el procesamiento y el almacenamiento podrían contrarrestarse mediante el uso de IA o ML para desarrollar una mayor previsibilidad, logrando ahorros en todos los sistemas.

“Algunos centros de datos de Amazon tienen paneles solares con miles de baterías, lo que genera enormes cantidades de calor, pero en realidad usan ML para tomar energía solar en función de los ritmos circadianos”, dice.

Pero muchas empresas se apresuran a buscar el modelo de IA o ML que desean. Está construyendo una casa sobre arena si no puede volver a entrenarla, no puede ir y obtener nuevos datos, no tiene visibilidad y no puede auditarlo. Podría funcionar por un corto tiempo y luego fallar, advierte Farrow.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales