OpenAI tiene cerrar un enorme acuerdo de 38.000 millones de dólares en 7 años con Amazon Web Services para asegurar las capacidades de computación en la nube necesarias para impulsar su conjunto de herramientas avanzadas de inteligencia artificial, como ChatGPT y Sora.
El acuerdo que fue anunciado el lunes brinda a OpenAI acceso a cientos de miles de chips Nvidia alojados en los centros de datos globales de Amazon, y se espera que su capacidad total entre en funcionamiento a fines de 2026.
AWS dijo que el acuerdo permitirá que OpenAI escale rápidamente mientras aprovecha el “precio, rendimiento, escala y seguridad” de su red en la nube.
“Escalar la IA de vanguardia requiere una computación masiva y confiable”, dijo Sam Altman, director ejecutivo de OpenAI, en un comunicado.
“Nuestra asociación con AWS fortalece el amplio ecosistema informático que impulsará esta próxima era y llevará la IA avanzada a todos. »
El acuerdo de 38.000 millones de dólares marca la primera vez que el fabricante de ChatGPT recurre a Amazon en busca de infraestructura. rompiendo años de dependencia exclusiva de la nube Azure de Microsoft.
Esto se produce apenas una semana después de que OpenAI reestructurara su propiedad para obtener más financiación y libertad operativa, un cambio que eliminó el derecho de preferencia de Microsoft para proporcionar servicios en la nube.
El director ejecutivo de AWS, Matt Garman, calificó el acuerdo como prueba de que la infraestructura de Amazon puede manejar “las vastas cargas de trabajo de IA” de creadores de modelos pioneros como OpenAI.
Las acciones de Amazon subieron alrededor de un 5% el lunes después del anuncio, alcanzando un récord.
Según estos términos, OpenAI utilizará los clústeres UltraServer de Amazon (bastidores de procesadores Nvidia GB200 y GB300) para entrenar y ejecutar sus modelos, procesar consultas ChatGPT y ampliar sus sistemas llamados “IA agente”, donde el software puede realizar tareas de forma autónoma.
La asociación también permitirá a OpenAI aprovechar millones de procesadores para cargas de trabajo especializadas, lo que le permitirá satisfacer la creciente demanda de los usuarios a medida que la adopción de la IA se generalice.
Amazon dijo que toda la capacidad planificada estará en línea a fines del próximo año y que la expansión continuará hasta 2027 y más allá.
La asociación representa el intento de Amazon de recuperar terreno frente a sus rivales de más rápido crecimiento, Microsoft y Google, cuyas divisiones de nube han experimentado un mayor crecimiento de ingresos gracias a la creciente demanda de IA.
Aunque AWS sigue siendo el proveedor de nube más grande del mundo, los analistas dicen que se ha quedado atrás en la atracción de clientes de IA de alto perfil.
La empresa ya está invirtiendo mucho para cambiar esto. Amazonas la semana pasada se anunció un crecimiento trimestral del 20% en los ingresos de la nube – el más rápido desde 2022 – y abrió un campus de centro de datos de 11.000 millones de dólares en Indiana dedicado a entrenar y ejecutar modelos de Anthropic, su rival OpenAI.
Amazon invirtió 8 mil millones de dólares en Anthropic, que utiliza sus chips patentados Trainium, pero también llegó a un acuerdo importante el mes pasado para aprovechar hasta un millón de chips TPU de Google.
Hasta hace poco, Amazon estaba excluida del ecosistema OpenAI. El acuerdo exclusivo de nube de la startup con Microsoft le prohibía comprar capacidad de otros proveedores.
Ese acuerdo fue reescrito el mes pasado como parte de la amplia reorganización de OpenAI, dando a Altman libertad para cerrar acuerdos en toda la industria.
OpenAI tiene ahora comprometido casi $600 mil millones en nuevos contratos de nube en Amazon, Microsoft, Oracle y Google – un cifra asombrosa para una empresa que genera alrededor de 13 mil millones de dólares en facturación anual.
Los acuerdos tienen como objetivo abordar lo que Altman describió como “escasez grave de TI” que ha limitado la capacitación de modelos y el lanzamiento de productos.



