«Hemos llegado al punto de inflexión de una nueva era informática»: Según Jensen Huang, CEO de Nvidia, la computación acelerada es el sinónimo del centro de datos del futuro. (Y, oh sí, la compañía sigue vendiendo tarjetas GeForce RTX).
La keynote de Computex de Nvidia, que encabezó la jornada del lunes «previa al inicio» de la mayor feria de TI de Asia (su primera gran edición presencial desde 2019), fue un tour de force de innovaciones en IA y centros de datos. Y, si le tomas la palabra al CEO de Nvidia, Jensen Huang, estos movimientos tocarán todos los negocios y todas las industrias, en los próximos años. (Wall Street parece estar de acuerdo) Esto se debe a que la IA generativa está a punto de infiltrarse en empresas y disciplinas que hasta ahora no se habían visto afectadas por las iniciativas de IA. La nueva tecnología está a punto de transformar el desarrollo de software tal y como lo conocemos.
El hardware de Nvidia y otras iniciativas son la base de los cambios que se están produciendo en el ámbito de la IA. La computación acelerada es un tema al que Huang volvió una y otra vez en su discurso. Nvidia define la computación acelerada como «el uso de hardware especializado para acelerar drásticamente el trabajo, a menudo con procesamiento paralelo que agrupa tareas que se producen con frecuencia». Se utiliza en campos tan exigentes como el aprendizaje automático, el análisis de datos y las simulaciones, y las GPU son un acelerador robusto y común que sitúa a Nvidia justo en el corazón del mercado.
Huang señaló que esta presentación era la primera que hacía en persona desde el inicio de la pandemia de COVID-19 («¡Deséenme suerte!»): La keynote duró dos horas y hubo que deshacer más equipajes que el remolque lleno de material de todo un equipo de fútbol. Lo hemos resumido en ocho puntos destacados.
1. «La computación acelerada es computación sostenible»
Huang ofreció algunas perspectivas sobre el auge y la potencia del cálculo en la GPU en relación con los modelos de IA y las capacidades que ya existen en el mercado. Dada la insaciable demanda de potencia de cálculo para entrenar modelos de IA, utilizó 10 millones de dólares como referencia. Mientras que no hace mucho, con ese dinero se podían comprar 960 servidores basados en CPU, que consumían 11 gigavatios hora de energía para entrenar un modelo de lenguaje de IA (LLM), ahora con el mismo dinero se pueden comprar 48 servidores basados en GPU que consumen aproximadamente un tercio de la energía… y con la capacidad de entrenar la friolera de 44 LLM.
Por el contrario, para «simplemente hacer el trabajo», como él dice, dos servidores de GPU con capacidad para entrenar a un LLM costarían ahora unos 400.000 dólares en lugar de los 10 millones originales. Esta es la magnitud del cambio que hemos observado, afirma, en términos de potencia de cálculo para procesar la IA en el back-end.
2. «Podemos aprender el lenguaje de todo lo que tenga estructura»
Hablando en términos generales sobre la IA y el repentino giro que puede parecer, a los observadores externos, haber caído del cielo como un rayo en términos de su impacto, Huang postula que la industria ha alcanzado un punto de inflexión que se cumplió en la confluencia del aprendizaje profundo y la computación distribuida.
«Cualquier cosa que tenga estructura, podemos aprender ese lenguaje», apunta Huang. «Ahora podemos aplicar la informática a tantos campos que antes era imposible». Una consecuencia clave de eso: la capacidad de la IA para cruzar tipos de información.
Los grandes avances que han catapultado la IA a la conciencia del público pueden ser bots de chat fáciles de manejar como ChatGPT, pero las aplicaciones de IA de «cruce de tipos de contenido» sugieren un impacto aún más radical: transformar texto en vídeo, vídeo en texto o texto en música. El CEO de Nvidia dio algunos ejemplos viscerales. En uno, puso un bloque de texto que una IA transformó al instante en una mujer aparentemente real diciendo sus palabras en vídeo. En otra demostración, generó un flujo de música tradicional taiwanesa atmosférica simplemente a partir de una descripción por voz del tipo de música que quería escuchar. Además, utilizó un mensaje para crear la letra de una canción tipo jingle, a la que la IA puso música y luego habilitó una versión generada de forma diferente para que el público la cantara.
Lo cual no es más que decir: Algunas de las barreras clave que se han derribado en esta última oleada de IA son las fronteras entre los tipos de información y la capacidad de utilizar una para manipular la otra. Las implicaciones son profundas cuando se piensa en otros posibles cruces: texto, código, incluso ADN.
3. Nvidia ACE: Personajes realistas en el juego
Huang detalló el Nvidia Avatar Cloud Engine, o Nvidia ACE, para desarrolladores de juegos. Esta tecnología está diseñada para que los desarrolladores puedan generar y personalizar personajes de inteligencia artificial en el juego. Los modelos de los personajes están preentrenados y vienen listos para generar diálogos basados en historias que la IA puede utilizar para generar una sensación de coherencia y realismo. (Las directrices dentro del marco ACE mantendrán las conversaciones en su punto y relevantes para el juego). La idea es que, en última instancia, en los extremos de un juego de PC, los personajes no jugadores puedan ser manejados por interacciones generadas por la IA como éstas, en lugar de por progresiones guionizadas.
El dueño de esta tienda, en el ejemplo de Nvidia, ofrece una conversación de fondo generada por la IA y relevante para la trama del juego:
Puede que suene un poco rebuscado, pero aún es pronto. Además, ACE incorpora tecnologías como Omniverse Audio2Face para animar las expresiones de los NPC.
4. «Grace Hopper» ha entrado en el chat
El «superchip» GH200 de Nvidia, también conocido como «Grace Hopper», ya está en producción, según ha anunciado Huang. (Grace Hopper reúne en un solo paquete la CPU «Grace» de Nvidia basada en Arm y la GPU «Hopper» H100 de Nvidia basada en tensor-core sobre interconexiones de alta velocidad). Diseñado para soportar la computación acelerada, el GH200 incluye una CPU basada en Arm de 72 núcleos, 96 GB de memoria HBM3 y 576 GB de memoria gráfica.
Huang habló de los más de 200.000 millones de transistores del GH200 y también mencionó que los centros de datos japoneses de Softbank incorporarían Grace Hopper a sus operaciones.
5. Un superordenador con «gracia»
Siguiendo con los desarrollos de Grace Hopper, Huang detalló el Nvidia DGX GH200. Se trata de una solución de superordenador a escala masiva basada en el GH200 para entrenamiento de IA generativa y LLM, prevista para finales de año. En definitiva, en un DGX GH200 se conectan 256 Grace Hoppers. Los grupos de ocho se conectan entre sí mediante NVLink. Luego, a su vez, 32 de estos grupos, conectados a través de una capa de conmutadores, crean en esencia una gran GPU a escala de superordenador, como la denominó Huang. Una DGX GH200 tendrá 150 millas de cable de fibra óptica, más de 2.000 ventiladores y, según Huang, pesará «cuatro elefantes» (18 toneladas).
Este superordenador promete ser un monstruo para las aplicaciones de IA generativa, con 144 TB de memoria GPU compartida e incluso capaz de ejecutar una pila virtual de comunicaciones 5G totalmente por software. Debería ser capaz de alcanzar un rendimiento a escala de exaflops y se utilizará en los modelos lingüísticos más complejos, así como en entornos como motores algorítmicos de «recomendación» y redes neuronales de alta demanda. Nvidia está trabajando con Google, Meta y Microsoft para que estos gigantes puedan acceder a DGX GH200 y avanzar en la vanguardia de la investigación de la IA.
6. Spectrum-X: Conexiones que crean IA
Con todos estos avances en computación acelerada, ¿no podrían estar muy lejos los avances en interconectividad paralela? La plataforma Spectrum-X, una evolución de Ethernet, está diseñada para las demandas extremas de ancho de banda de la informática acelerada y la IA. Se trata de una tecnología sin pérdida de paquetes (lossless) que la empresa ha bautizado como «la primera Ethernet de alto rendimiento del mundo para IA».
Huang mostró los primeros frutos de la iniciativa Spectrum-X en forma del conmutador Spectrum-4, con 51Tbits por segundo de ancho de banda. El Spectrum-4 emplea una enorme matriz de 90 mm cuadrados y 500 vatios de consumo; Huang alzó uno para mostrar su enorme escala. «Por primera vez, estamos introduciendo en el mercado de Ethernet las capacidades de la informática de alto rendimiento», señaló. Funciona con los chips Bluefield de Nvidia para priorizar el tráfico de red.
7. Una iniciativa de estandarización de servidores
Ya entrada la segunda hora, aparece la especificación del servidor MGX. Nvidia anunció este conjunto de directrices, que constituyen una arquitectura de referencia para construir servidores adecuados para la formación en IA y otras necesidades de alto rendimiento. Muchos de los principales actores del sector de los servidores (entre ellos ASRock, Asus, Gigabyte, Pegatron, QCT y Supermicro) están a punto de sumarse a MGX. Los servidores basados en MGX esbozarán arquitecturas informáticas básicas y, a continuación, ofrecerán variantes predefinidas para cargas de trabajo específicas en formación de modelos, trabajos de diseño y aplicaciones edge-compute. Los diseños de servidores basados en MGX deberían empezar a aparecer a finales de este verano de la mano de incondicionales de los servidores como QCT y Supermicro.
8. ¿Alguien quiere comprar una GPU?
¿Puede algo ser una «ocurrencia tardía» si es una de las primeras cosas que se mencionan en la gigantesca keynote? Por debajo de las principales GeForce de sobremesa, las GeForce RTX 4090 y RTX 4080, está la GeForce RTX 4060 Ti, que debutó hace unas semanas. Huang mostró brevemente una muestra (la típica tarjeta Nvidia RTX Founders Edition de los últimos tiempos) y mencionó que ya está siendo producida en grandes cantidades por socios de Taiwán.
También alzó un portátil RTX de muestra, un modelo ligero de 14 pulgadas de los que ya están en el mercado, basado en una GPU «Ada Lovelace», que ejecuta juegos con trazado de rayos a 60 fps, promocionándolo como más potente que las PlayStations de gama más alta.