- Acuerdo de 38.000 millones de dólares entre OpenAI y AWS con una duración inicial de siete años.
- OpenAI accederá a centenas de miles de GPU Nvidia a través de la infraestructura de Amazon Web Services.
- El pacto rompe la exclusividad de Microsoft como proveedor de nube de OpenAI.
- Despliegue progresivo hasta finales de 2026, con posibilidad de ampliaciones posteriores.

OpenAI y Amazon han firmado un pacto estratégico para impulsar el desarrollo y entrenamiento de modelos de inteligencia artificial sobre la nube de AWS. Se trata de una alianza valorada en 38.000 millones de dólares que supone un salto de escala para la compañía creadora de ChatGPT y reordena, de paso, el mapa de proveedores en la carrera por la IA.
El acuerdo, con una vigencia inicial de siete años, permitirá a OpenAI utilizar capacidad de cómputo a gran escala en los centros de datos de Amazon, con acceso a GPU de última generación de Nvidia. Con este movimiento, la empresa de Sam Altman reduce su dependencia de un único proveedor y pone fin a la exclusividad de Microsoft como socio principal de nube.
Qué incluye exactamente la alianza
Según han comunicado ambas compañías, el contrato contempla el uso de la infraestructura de AWS para ejecutar y escalar las cargas de trabajo de IA de OpenAI, desde la inferencia diaria hasta el entrenamiento de nuevos modelos de gran tamaño. Esto se traducirá en la disponibilidad de centenas de miles de GPU Nvidia en clústeres de alto rendimiento diseñados para la IA generativa.
La hoja de ruta prevé una incorporación inmediata de capacidades, con un aumento progresivo hasta completar la transición antes de finales de 2026 y margen para ampliaciones a partir de 2027. En términos de arquitectura, el despliegue combinaría chips como las Nvidia GB200 y GB300 con servidores optimizados y redes de baja latencia para acelerar el cómputo distribuido.
Desde AWS subrayan que su red global de centros de datos ofrece el rendimiento, la escalabilidad y la seguridad que este tipo de cargas exigen. Para OpenAI, el acceso estable a esta capacidad es clave para mantener el ritmo de mejora de modelos fundacionales cada vez más costosos de entrenar.
Reacciones del mercado y mensajes de los directivos
La noticia fue recibida con optimismo por los inversores: en los primeros compases tras el anuncio, las acciones de Amazon repuntaron en torno a un 5%-6%, reflejando el potencial impacto del acuerdo en su negocio de nube. Este paso consolida a AWS como actor central en la infraestructura de IA y diversifica el ecosistema de proveedores que usa OpenAI.
“Para escalar la IA de vanguardia se requiere una capacidad de cómputo masiva y fiable”, señaló Sam Altman, consejero delegado de OpenAI, al destacar que esta alianza reforzará el ecosistema necesario para la siguiente etapa de la tecnología. Por su parte, Matt Garman, CEO de AWS, remarcó que la infraestructura de primer nivel de Amazon servirá como pilar para las ambiciones de OpenAI.
Impacto operativo: desde hoy y a varios años vista
Una parte de la capacidad ya está disponible y OpenAI ha comenzado a ejecutar cargas en AWS, con el objetivo de ampliar el volumen de cómputo a medida que se activen nuevos clústeres. El plan prevé clústeres de hasta 500.000 chips y un tejido de red optimizado para minimizar cuellos de botella en entrenamiento e inferencia.
Más allá del músculo técnico, el acuerdo ofrece a OpenAI una ruta de crecimiento con previsibilidad de recursos, factor crítico en un momento en el que la demanda global de chips y centros de datos es especialmente elevada. Para AWS, la asociación refuerza su posicionamiento frente a los otros grandes proveedores de nube en el segmento de IA generativa.
Qué cambia respecto a Microsoft y el resto de socios
El pacto con Amazon llega tras años en los que Microsoft ha sido el principal soporte de nube para OpenAI. La nueva configuración no rompe la relación con Azure, pero sí introduce un entorno multilateral en el que la empresa de Altman suma a AWS como proveedor clave. El resultado práctico es una menor concentración de riesgo y más flexibilidad para escalar donde haya capacidad disponible.
En paralelo, OpenAI ha cerrado acuerdos de gran calado con otros actores de infraestructura y semiconductores. Entre ellos figuran Oracle (con un contrato de alto valor para centros de datos), Nvidia y AMD para asegurar suministro de chips, y un compromiso global de inversión en capacidad que, según Bloomberg, podría alcanzar 1,4 billones de dólares en los próximos años. También se ha informado de un acuerdo con CoreWeave por 22.400 millones de dólares para servicios de cómputo.
Implicaciones para España y Europa
Para clientes europeos, la disponibilidad de modelos avanzados que se ejecutan sobre regiones de AWS en la UE puede facilitar proyectos con requisitos de soberanía del dato y cumplimiento normativo. Aun sin cambios regulatorios inmediatos, contar con más proveedores respaldando a OpenAI abre opciones de residencia de datos, escalado y redundancia que interesan especialmente a sectores regulados en España y el resto de Europa.
Compañías y administraciones públicas con cargas de trabajo sensibles valoran que el entrenamiento y la inferencia puedan apoyarse en infraestructuras distribuidas y certificadas. Este movimiento, por tanto, puede acelerar pilotos y despliegues productivos de soluciones de sectores como salud, finanzas, industria y servicios públicos en ámbitos como salud, finanzas, industria y servicios públicos.
Contexto corporativo: transformación de OpenAI
La operación se enmarca en la evolución corporativa de OpenAI, que ha pasado de su origen sin ánimo de lucro a una estructura con ánimo de lucro para captar capital y acelerar el desarrollo. En las últimas semanas, la compañía ha protagonizado algunos de los acuerdos más cuantiosos del sector para reforzar centros de datos y garantizar el suministro de chips avanzados.
En paralelo, diferentes informes apuntan a que OpenAI estudia una salida a Bolsa que podría valorar la empresa en cifras históricas, mientras continúan los esfuerzos por asegurar financiación e infraestructura a escala. La magnitud de los compromisos de gasto ha llevado a algunos analistas a advertir sobre el riesgo de sobrecalentamiento del mercado de IA, incluido el mercado laboral.
Claves técnicas y operativas del despliegue
El diseño de los clústeres prioriza la baja latencia y el ancho de banda, esenciales para entrenamiento distribuido con decenas de miles de aceleradores trabajando en paralelo. La combinación de GPU Nvidia de última generación con redes de alta velocidad y almacenamiento optimizado busca equilibrar rendimiento y eficiencia energética.
Para los equipos de ingeniería, disponer de una capacidad elástica y preasignada en AWS disminuye riesgos de interrupciones y agiliza ciclos de desarrollo. Así, la planificación de nuevos lanzamientos de modelos y las pruebas de escalado pueden ejecutarse con mayor certidumbre.
El acuerdo entre OpenAI y Amazon refuerza la tendencia hacia un ecosistema de IA más diversificado en proveedores y más intenso en inversiones de infraestructura. Con 38.000 millones de dólares comprometidos y un calendario que acelera desde ya, la alianza promete más capacidad de cómputo para la próxima generación de modelos, menos dependencia de un único socio y nuevas opciones de despliegue para empresas en España y el resto de Europa.
