La startup de chips de IA Groq consigue 640 millones de dólares para desafiar a Nvidia

Groq, una startup que desarrolla chips para ejecutar modelos generativos de IA más rápido que los procesadores convencionales, ha dicho hoy que ha recaudado 640 millones de dólares en una nueva ronda de financiación liderada por Blackrock. También han participado Neuberger Berman, Type One Ventures, Cisco, KDDI y Samsung Catalyst Fund.

El tramo, que eleva el total recaudado por Groq a más de 1.000 millones de dólares y valora la empresa en 2.800 millones de dólares, es una gran victoria para Groq que, según los informes, originalmente buscaba recaudar 300 millones de dólares con una valoración ligeramente inferior (2.500 millones de dólares). Es más del doble de la valoración anterior de Groq (~ 1.000 millones de dólares) en abril de 2021, cuando la empresa recaudó 300 millones de dólares en una ronda liderada por Tiger Global Management y D1 Capital Partners.

El científico jefe de IA de Meta, Yann LeCun, servirá como asesor técnico de Groq y Stuart Pann, el ex jefe del negocio de fundición de Intel y ex-CIO de HP, se unirá a la startup como director de operaciones, también anunció hoy Groq. El nombramiento de LeCun es un tanto inesperado, dadas las inversiones de Meta en sus propios chips de inteligencia artificial, pero sin duda proporciona a Groq un poderoso aliado en un espacio muy competitivo.

Groq, que salió del anonimato en 2016, está creando lo que denomina un motor de inferencia LPU (unidad de procesamiento del lenguaje). La empresa afirma que sus LPU pueden ejecutar modelos de IA generativa existentes similares en arquitectura a ChatGPT y GPT-4o de OpenAI a 10 veces la velocidad y una décima parte de la energía.

Jonathan Ross, CEO de Groq, es famoso por haber ayudado a inventar la unidad de procesamiento tensorial (TPU), el chip acelerador de IA personalizado de Google que se utiliza para entrenar y ejecutar modelos. Ross se asoció con Douglas Wightman, emprendedor y antiguo ingeniero del laboratorio X moonshot de Alphabet, empresa matriz de Google, para cofundar Groq hace casi una década.

Groq ofrece una plataforma para desarrolladores impulsada por LPU llamada GroqCloud que ofrece modelos «abiertos» como la familia Llama 3.1 de Meta, Gemma de Google, Whisper de OpenAI y Mixtral de Mistral, así como una API que permite a los clientes utilizar sus chips en instancias en la nube (Groq también alberga una zona de juegos para chatbots impulsados por IA, GroqChat, que lanzó a finales del año pasado). En julio, GroqCloud tenía más de 356.000 desarrolladores; Groq dice que una parte de los ingresos de la ronda se utilizará para ampliar la capacidad y añadir nuevos modelos y características.

«Muchos de estos desarrolladores trabajan en grandes empresas», explica Stuart Pann, director de operaciones de Groq. «Según nuestras estimaciones, más del 75% de las empresas Fortune 100 están representadas».

A medida que prosigue el auge de la IA generativa, Groq se enfrenta a una competencia cada vez mayor, tanto de sus rivales en el sector de los chips de IA como de Nvidia, el formidable incumbente en el sector del hardware de IA.

Se calcula que Nvidia controla entre el 70% y el 95% del mercado de chips de IA utilizados para entrenar y desplegar modelos de IA generativa, y está tomando medidas agresivas para mantener su dominio.

Nvidia se ha comprometido a lanzar una nueva arquitectura de chip de IA cada año, en lugar de cada dos años como sucedía históricamente. Y, según los informes, está creando una nueva unidad de negocio centrada en el diseño de chips a medida para empresas de computación en la nube y otras, incluido el hardware de IA.

Además de Nvidia, Groq compite con Amazon, Google y Microsoft, que ofrecen, o pronto ofrecerán, chips personalizados para cargas de trabajo de IA en la nube. Amazon cuenta con sus procesadores Trainium, Inferentia y Graviton, disponibles a través de AWS; los clientes de Google Cloud pueden utilizar las mencionadas TPU y, con el tiempo, el chip Axion de Google; y Microsoft lanzó recientemente instancias Azure en vista previa para su CPU Cobalt 100, con instancias Maia 100 AI Accelerator que llegarán en los próximos meses.

Groq también podría considerar rivales a Arm, Intel, AMD y un número creciente de startups, en un mercado de chips de IA que podría alcanzar los 400.000 millones de dólares en ventas anuales en los próximos cinco años, según algunos analistas. Arm y AMD, en particular, cuentan con un floreciente negocio de chips de IA, gracias al aumento del gasto de capital de los proveedores de la nube para satisfacer la demanda de capacidad de la IA generativa.

A finales del año pasado, D-Matrix recaudó 110 millones de dólares para comercializar lo que caracteriza como la primera plataforma de cálculo de inferencia de su clase. En junio, Etched salió del anonimato con 120 millones de dólares para un procesador hecho a medida para acelerar la arquitectura del modelo de IA generativa dominante en la actualidad, el transformador. Se dice que Masayoshi Son, de SoftBank, quiere recaudar 100.000 millones de dólares para una empresa de chips que compita con Nvidia. Y se dice que OpenAI está en conversaciones con empresas de inversión para lanzar una iniciativa de fabricación de chips de IA.

Para hacerse un hueco, Groq está invirtiendo mucho en el ámbito empresarial y gubernamental.

En marzo, Groq adquirió Definitive Intelligence, una empresa con sede en Palo Alto que ofrece una gama de soluciones de IA orientadas a las empresas, para formar una nueva unidad de negocio llamada Groq Systems. Dentro del ámbito de Groq Systems se encuentra el servicio a organizaciones, incluidas agencias gubernamentales estadounidenses y naciones soberanas, que deseen añadir los chips de Groq a centros de datos existentes o construir nuevos centros de datos utilizando procesadores Groq.

Más recientemente, Groq se asoció con Carahsoft, un contratista de TI gubernamental, para vender sus soluciones a clientes del sector público a través de los socios distribuidores de Carahsoft, y la startup tiene una carta de intenciones para instalar decenas de miles de sus LPU en el centro de datos de Noruega de la empresa europea Earth Wind & Power.

Groq también colabora con la consultora saudí Aramco Digital para instalar LPU en futuros centros de datos de Oriente Medio.

Al mismo tiempo que establece relaciones con sus clientes, Groq, con sede en Mountain View (California), avanza hacia la próxima generación de su chip. El pasado agosto, la empresa anunció que contrataría a la fundición de Samsung para fabricar LPU de 4 nm, que se espera que ofrezcan más rendimiento y eficiencia que la primera generación de chips de 13 nm de Groq.

Groq afirma que tiene previsto desplegar más de 108.000 LPU para finales del primer trimestre de 2025.

Deja un comentario