Nvidia y Groq: operación récord para dominar la inferencia de IA

Última actualización: diciembre 26, 2025
  • Nvidia firma un acuerdo de licencia no exclusiva y compra activos clave de Groq valorados en unos 20.000 millones de dólares.
  • Groq mantiene su actividad como compañía independiente y conserva su negocio de nube GroqCloud.
  • La operación refuerza el liderazgo de Nvidia en chips de inferencia y eleva las dudas regulatorias en EE. UU. y la UE.
  • Europa y España se verán impactadas por nuevas opciones de cómputo de IA de baja latencia y alta eficiencia energética.

Tecnología de IA de Nvidia y Groq

La alianza entre Nvidia y Groq se ha convertido en una de las noticias más sonadas del sector tecnológico, no solo por la cifra que se maneja, sino por lo que implica para el futuro de la inteligencia artificial. El gigante de los chips ha cerrado un acuerdo para licenciar la tecnología de inferencia de Groq y, en paralelo, hacerse con la mayor parte de sus activos estratégicos, en una operación valorada en torno a los 20.000 millones de dólares.

Este movimiento sitúa a Nvidia aún más arriba en la carrera por el hardware de IA, reforzando su posición en un campo en el que ya era hegemónica gracias a sus GPU para centros de datos. A la vez, la operación abre interrogantes sobre la competencia, la regulación y el papel que Europa —y países como España— podrán jugar en el despliegue de esta nueva ola de cómputo acelerado.

Una operación millonaria: licencia, compra de activos y talento

Acuerdo estratégico Nvidia Groq

Groq ha anunciado la firma de un acuerdo de licencia no exclusiva con Nvidia para su tecnología de inferencia, que se complementa con la compra por parte del gigante verde de activos esenciales de la startup, según han publicado medios como CNBC, Reuters y Bloomberg. Las fuentes del sector sitúan el valor de la operación en unos 20.000 millones de dólares, lo que la convertiría en la mayor transacción corporativa en la historia de Nvidia.

Como parte del pacto, Jonathan Ross, fundador de Groq y uno de los cerebros detrás de las primeras TPU de Google, y Sunny Madra, presidente de la compañía, darán el salto a Nvidia junto a otros miembros clave del equipo. Esta integración de talento es uno de los puntos más sensibles de la operación, ya que traslada a Nvidia el conocimiento interno que hizo de Groq un referente en inferencia de IA de baja latencia.

A diferencia de otras adquisiciones tradicionales, en este caso Nvidia se centra en comprar activos tecnológicos, propiedad intelectual y equipo técnico, pero deja fuera una parte del negocio operativo. La estructura elegida encaja con la estrategia reciente en Estados Unidos de articular grandes movimientos corporativos vía compras de activos o participaciones inferiores al 50% para reducir fricción regulatoria.

La cifra llama aún más la atención si se tiene en cuenta que la última gran compra de Nvidia, la de Mellanox en 2019, rondó los 7.000 millones de dólares. Con más de 60.000 millones en caja a cierre del último trimestre, el grupo cuenta con margen financiero suficiente para afrontar este tipo de apuestas sin tensionar su balance.

Groq: de startup emergente a pieza codiciada del hardware de IA

Startup Groq y chips de IA

Fundada en 2016 por un núcleo de exingenieros de Google, entre ellos el propio Jonathan Ross, Groq se ha especializado en aceleradores de inteligencia artificial enfocados en la fase de inferencia, es decir, en la ejecución de modelos ya entrenados en entornos reales. Frente al dominio de las GPU de Nvidia en el entrenamiento, Groq apostó por una arquitectura distinta, muy afinada para cargas de trabajo de procesamiento de lenguaje natural y análisis en tiempo real.

La compañía se hizo un nombre con sus LPU (Language Processing Units), unos chips que, según la propia firma, son capaces de ejecutar grandes modelos de lenguaje a una velocidad hasta diez veces superior y con aproximadamente una décima parte del consumo energético frente a soluciones tradicionales basadas en GPU. Esta combinación de rendimiento y eficiencia convirtió a Groq en un actor especialmente interesante para empresas y centros de datos que buscan optimizar costes sin renunciar a la potencia.

En septiembre, Groq cerró una ronda de financiación de 750 millones de dólares que elevó su valoración post-money hasta los 6.900 millones. La operación fue liderada por el fondo Disruptive, con una participación muy relevante de BlackRock, Neuberger Berman, DTCP y un gran gestor de fondos de la Costa Oeste de Estados Unidos. A ellos se sumaban inversores estratégicos como Samsung Electronics, Cisco Systems, D1, Altimeter, 1789 Capital e Infinitum.

En aquella ronda, la firma presumía ya de servir cómputo rápido y asequible a más de dos millones de desarrolladores y a numerosas empresas del índice Fortune 500. Su presencia global incluía despliegues en centros de datos de Norteamérica, Europa y Oriente Medio, lo que explica el interés del mercado europeo por el desenlace de esta operación.

Que apenas unos meses después se esté hablando de una transacción en el entorno de los 20.000 millones supone prácticamente triplicar la valoración de Groq en un tiempo récord, un ejemplo del apetito del sector por tecnologías capaces de acelerar la IA sin disparar el consumo energético.

Qué se queda Nvidia y qué mantiene Groq: el papel de GroqCloud

GroqCloud y servicios de IA

La arquitectura del acuerdo distingue claramente entre el núcleo tecnológico de Groq y su oferta de servicios en la nube. Según la información disponible, Nvidia se hará con la totalidad de los activos tecnológicos relevantes de Groq —diseños de chips, propiedad intelectual y equipo clave—, pero no integrará el negocio de cloud de la startup.

Ese negocio, articulado en torno a GroqCloud, seguirá operando dentro de Groq como unidad independiente. La compañía mantendrá su personalidad jurídica, con Simon Edwards asumiendo el rol de consejero delegado para pilotar esta nueva etapa. La idea, en la práctica, es que Groq continúe ofreciendo acceso remoto a su potencia de cómputo sin que Nvidia se convierta en un competidor frontal de los grandes proveedores de nube pública.

Esta separación no es casual: Nvidia colabora estrechamente con AWS, Azure y Google Cloud, entre otros, que basan buena parte de su oferta de IA en las GPU del fabricante. Entrar de lleno en el negocio de servicios cloud propios podría tensionar estas relaciones. Por eso, el grupo opta por reforzar su cartera de silicio avanzado sin replicar el modelo de sus principales clientes.

De cara al usuario final europeo, esta configuración implica que las soluciones de GroqCloud seguirán accesibles como hasta ahora, al tiempo que Nvidia incorporará la tecnología de los chips de Groq a su propia hoja de ruta de producto. Es previsible que, con el tiempo, veamos integraciones más profundas entre plataformas de Nvidia y servicios basados en GroqCloud ofrecidos por terceros.

En resumen, la jugada permite a Nvidia absorber el “cerebro” tecnológico y el talento de Groq mientras evita asumir directamente el “cuerpo” del negocio de nube, un equilibrio pensado para acelerar la integración sin desencadenar conflictos comerciales ni un bloqueo regulatorio prolongado.

LPU frente a GPU: cómo cambia la inferencia de IA

Chips LPU e inferencia de IA

Las GPU de Nvidia se han consolidado en los últimos años como el estándar de facto para el entrenamiento de modelos de inteligencia artificial, especialmente en grandes centros de datos y nubes públicas. Sin embargo, el rápido despliegue de modelos generativos y asistentes conversacionales ha puesto el foco en otra fase clave del ciclo: la inferencia.

La inferencia es, en la práctica, el momento en el que los modelos ya entrenados se ponen a trabajar para usuarios y aplicaciones reales: contestar preguntas, traducir textos, generar código, analizar imágenes o alimentar sistemas de recomendación. Es ahí donde entran en juego los chips de Groq, diseñados específicamente para minimizar la latencia y el consumo energético manteniendo un rendimiento muy alto.

La propuesta de Groq con sus LPU se basa en una arquitectura simple y altamente determinista, que facilita la ejecución predecible de grandes modelos de lenguaje. Para bancos, aseguradoras, administraciones públicas o grandes plataformas de internet europeas, una reducción de la latencia de respuesta y del coste por consulta puede marcar la diferencia a la hora de desplegar IA a gran escala.

Al licenciar esta tecnología e integrar los activos de Groq, Nvidia busca completar su oferta desde el entrenamiento hasta la inferencia: por un lado mantiene sus GPU como referencia para entrenar modelos de gran tamaño; por otro, añade a su catálogo arquitecturas más afinadas para servir esos modelos en producción. Esta combinación refuerza el atractivo de su ecosistema frente a alternativas de AMD, Intel o los diseños propios de grandes proveedores de nube.

Para Europa, donde la factura energética y la eficiencia en centros de datos son temas especialmente sensibles, el salto hacia chips de inferencia más eficientes puede encajar de lleno con los objetivos climáticos y de competitividad industrial, siempre que el acceso al hardware no quede excesivamente concentrado.

Impacto en el mercado de chips de IA y escrutinio regulatorio

Mercado global de chips de IA

La combinación de Nvidia y la tecnología de Groq llega en un contexto de máxima presión competitiva en el mercado global de chips de IA. El fabricante ya ostenta una cuota claramente dominante en aceleradores para centros de datos, y su valoración bursátil refleja la expectativa de que seguirá siendo el gran referente de esta década en infraestructura de IA.

Con esta operación, rivales como AMD, Intel y distintos diseñadores asiáticos ven cómo Nvidia amplía aún más la distancia en uno de los segmentos con mayor potencial de crecimiento: la inferencia de modelos de lenguaje y aplicaciones generativas. También se inquietan proveedores de servicios en la nube y empresas que desarrollan sus propios chips, como Google o Amazon, que deberán valorar cómo encajan los avances de Groq en sus hojas de ruta.

En paralelo, la magnitud de la transacción y el papel central de Nvidia en el ecosistema de IA hacen prever revisiones por parte de reguladores en Estados Unidos y la Unión Europea. La discusión no es solo tecnológica, sino también de competencia: la absorción de un actor emergente como Groq podría reavivar el debate sobre el riesgo de concentración excesiva de poder en un único proveedor de hardware.

La elección de estructurar la operación como compra de activos y acuerdo de licencia no exclusiva apunta precisamente a reducir el choque frontal con las autoridades, al tiempo que permite que la tecnología de Groq pueda seguir licenciándose, al menos sobre el papel, a terceros. Falta por ver cómo se materializa esto en la práctica y si realmente se mantendrá un cierto grado de apertura para otros fabricantes y operadores.

En cualquier caso, el mensaje al mercado es claro: en plena carrera global por la IA, los activos más avanzados en silicio especializado se han convertido en piezas estratégicas, tanto desde el punto de vista industrial como geopolítico, y las grandes tecnológicas están dispuestas a pagar primas significativas para asegurárselos.

Repercusiones para Europa y España: centros de datos y ecosistema de IA

Centro de datos e infraestructura de IA

La presencia previa de Groq en centros de datos europeos hace que la operación tenga consecuencias directas para el Viejo Continente. La compañía ya aprovechaba instalaciones en Europa y Oriente Medio para ofrecer cómputo rápido y asequible a empresas y desarrolladores de la región, algo especialmente relevante para sectores regulados y organizaciones que prefieren mantener sus datos dentro de la UE.

Para España, donde se está acelerando la inversión en centros de datos y hubs de IA en ciudades como Madrid, Barcelona o Bilbao, la combinación de tecnología Nvidia-Groq puede traducirse en nuevas opciones de infraestructura de baja latencia para bancos, telcos, grandes grupos industriales y administraciones públicas. La clave estará en las condiciones de acceso y en si se articulan programas específicos o acuerdos con proveedores europeos.

Desde el punto de vista de las políticas comunitarias, encaja también con iniciativas como la Estrategia Europea de Datos y el impulso a la IA de confianza. Contar con hardware capaz de ejecutar modelos potentes de forma eficiente y localizada abre la puerta a proyectos que exigen cumplir con el RGPD, normas de soberanía de datos y requisitos de ciberseguridad.

Sin embargo, el refuerzo del dominio de Nvidia también plantea retos: Europa ha manifestado su intención de reducir dependencias externas en componentes críticos, especialmente en semiconductores. Si la integración de Groq consolida aún más el papel central de un solo proveedor extranjero, será necesario equilibrar esa realidad con inversiones en alternativas europeas y programas de apoyo a nuevos diseñadores de chips.

Para el ecosistema de startups español y europeo especializado en IA —desde compañías de salud digital hasta plataformas de analítica de datos o soluciones industriales—, esta operación supone a la vez una oportunidad para acceder a más potencia y una llamada de atención sobre la importancia de diversificar proveedores y arquitecturas para no quedar atados a un único actor.

La combinación de licencia tecnológica, compra de activos y fichaje de talento convierte la alianza entre Nvidia y Groq en un punto de inflexión para el mercado de chips de inteligencia artificial: refuerza el liderazgo de Nvidia en la inferencia de IA, dispara el valor percibido del silicio especializado y deja a Europa y España ante el reto de aprovechar las nuevas capacidades sin perder de vista la competencia, la soberanía tecnológica y la eficiencia energética de sus futuros despliegues de IA.

comprensión de documentos con aprendizaje profundo
Artículo relacionado:
Comprensión de documentos con aprendizaje profundo e IDP