Nvidia ha seguido experimentando un crecimiento récord en su negocio de centros de datos, impulsado por la aceleración de las cargas de trabajo de inteligencia artificial (IA).
La compañía informó ingresos trimestrales de 35.100 millones de dólares, un 17% más que en el segundo trimestre y un 94% más que hace un año. Su negocio de centros de datos, que proporciona unidades de procesamiento de gráficos (GPU) para servidores de IA, aportó 30.800 millones de dólares durante el trimestre, lo que representa la mayor parte de los ingresos de la empresa.
“La era de la IA está en pleno apogeo, impulsando un cambio global hacia la informática Nvidia”, afirmó Jensen Huang, fundador y director ejecutivo de Nvidia.
Al hablar de la empresa y de los chips de próxima generación, añadió: “La demanda de Hopper y la anticipación de Blackwell (en plena producción) son increíbles a medida que los fabricantes de modelos básicos escalan el pre-entrenamiento, el post-entrenamiento y la inferencia.
“La IA está transformando todas las industrias, empresas y países”, afirmó Huang. “Las empresas están adoptando IA agente para revolucionar los flujos de trabajo. Las inversiones en robótica industrial están aumentando con los avances en la IA física, y los países han despertado a la importancia de desarrollar su infraestructura y su IA nacional”.
Según una transcripción de la llamada de resultados publicada en Buscando Alpha, la directora financiera Colette Kress dijo que las ventas de GPU Nvidia H200 aumentaron significativamente a “miles de millones de dos dígitos”. Describió esto como “el avance de productos más rápido en la historia de nuestra empresa”, y agregó que los proveedores de servicios en la nube representaron aproximadamente la mitad de las ventas de centros de datos de Nvidia.
Durante la llamada sobre resultados, Huang analizó métodos para mejorar la precisión y la escala de modelos de lenguaje grandes. “La ampliación previa al entrenamiento del modelo básico de IA está intacta y continúa”, dijo. “Como saben, esta es una ley empírica, no una ley física fundamental, pero la evidencia es que continúa aumentando”.
Huang dijo que la ampliación posterior al entrenamiento, que comenzó con el aprendizaje por refuerzo de la retroalimentación humana, ahora utiliza retroalimentación de IA y datos generados sintéticamente.
Otro enfoque es el escalamiento del tiempo de prueba. “Cuanto más piensa, mejor y de mayor calidad es la respuesta que produce, y considera enfoques como la cadena de pensamiento y la planificación de múltiples caminos y todo tipo de técnicas necesarias para reflexionar, y así sucesivamente”, dijo. “Es un poco como si pensáramos en nuestra cabeza antes de responder una pregunta”.
Huang dijo que aumentar el rendimiento de las GPU reduce el costo de capacitación y de inferencia de IA. “Estamos reduciendo el coste de la IA para que pueda ser mucho más accesible”, añadió.
Al analizar los factores que podrían frenar la fenomenal trayectoria de crecimiento de la compañía, Huang dijo: “La mayoría de los centros de datos ahora tienen entre cien megavatios y varios cientos de megavatios, y estamos planeando centros de datos de gigavatios.
“Realmente no importa cuán grandes sean los centros de datos, la potencia es limitada”, dijo, y agregó que lo que les importa a los clientes de centros de datos de Nvidia es cómo pueden ofrecer el mayor rendimiento por vatio, lo que se traduce directamente en los mayores ingresos.