El 29 de octubre de 2024, OpenAI anunció que está colaborando con Broadcom (AVGO.O) y TSMC (2330. TW) para desarrollar su primer chip de IA patentado, un giro estratégico respecto a sus anteriores ambiciones de construir una extensa red de fábricas de chips. La compañía, ampliamente reconocida por sus avances con ChatGPT, también está ampliando su abastecimiento de chips incorporando los de AMD (AMD.O) junto a los de Nvidia (NVDA.O) para satisfacer las crecientes demandas de su infraestructura, según revelaron fuentes a Reuters.
OpenAI ha abandonado sus planes iniciales de establecer sus propias fundiciones de chips debido a los costes prohibitivos y al tiempo necesario, y ahora se centra en el diseño interno de chips. Este movimiento se alinea con las tácticas empleadas por grandes empresas tecnológicas como Amazon, Meta, Google y Microsoft, que utilizan una combinación de recursos internos y asociaciones externas para garantizar los suministros esenciales y gestionar los crecientes gastos.
En medio de estos acontecimientos, las acciones de Broadcom subieron más de un 4,5% tras el anuncio, y las de AMD también subieron un 3,7%. OpenAI, junto con AMD y TSMC, ha declinado hacer comentarios sobre estos procedimientos. Broadcom aún no ha respondido a las peticiones de comentarios.
La nueva aventura de OpenAI implica meses de colaboración con Broadcom para crear un chip de IA adaptado a los procesos de inferencia, cruciales para aplicaciones en las que la IA necesita hacer predicciones o tomar decisiones basadas en nuevos datos. La empresa prevé que la demanda de este tipo de chips de inferencia pronto superará a los que se utilizan principalmente para entrenar la IA, a medida que la integración de la IA se profundice en diversos sectores.
La colaboración también incluye la puesta a punto de diseños de chips adecuados para la producción en serie, con la ayuda de Broadcom en la optimización de componentes de diseño cruciales para la transmisión eficiente de datos. Esta capacidad es especialmente importante en sistemas que requieren una alta sincronización entre numerosos chips.
Reuters también ha sabido que OpenAI se ha asegurado compromisos de fabricación con TSMC para empezar a producir estos chips personalizados en 2026, aunque este plazo puede estar sujeto a ajustes. En la actualidad, Nvidia domina el mercado con más del 80% de cuota en tecnología de GPU. Sin embargo, la persistente escasez y el aumento de los costes han llevado a actores clave como Microsoft y Meta, y ahora OpenAI, a buscar alternativas de fabricación de chips tanto internas como externas.
Además, OpenAI planea utilizar los últimos chips MI300X de AMD a través de Azure de Microsoft para el entrenamiento de modelos de IA, lo que supone un cambio respecto a su anterior dependencia de las GPU de Nvidia. Esta estrategia no sólo aborda los retos inmediatos de la escasez de chips y los costes de formación, sino que también refleja la iniciativa más amplia de OpenAI de diversificar sus proveedores de tecnología y reducir los gastos operativos.
El impacto financiero de estas inversiones tecnológicas es significativo, ya que OpenAI prevé unas pérdidas de 5.000 millones de dólares este año frente a unos ingresos de 3.700 millones. La mayor parte de estas pérdidas se atribuye a los costes de computación: gastos relacionados con el hardware, la electricidad y los servicios en la nube necesarios para procesar grandes conjuntos de datos y desarrollar modelos de IA.
Al mantener una asociación estratégica con Nvidia, OpenAI ha sido cautelosa a la hora de evitar el robo de talento del fabricante de chips, garantizando una colaboración continua, especialmente para acceder a la nueva generación de chips Blackwell de Nvidia. Nvidia no ha querido hacer comentarios al respecto.
La iniciativa refleja el compromiso de OpenAI con la mejora de sus capacidades de IA al tiempo que gestiona estratégicamente sus dependencias de recursos en un panorama tecnológico en rápida evolución, posicionando a la empresa para una innovación y un crecimiento sostenidos en el sector de la IA.