OpenAI, la compañía de inteligencia artificial detrás de ChatGPT, está trabajando con Broadcom y TSMC en el desarrollo de su primer chip interno para potenciar sus sistemas de IA, de acuerdo con Reuters. Además, ha sumado chips de AMD a los de Nvidia en su infraestructura, una estrategia dirigida a satisfacer la creciente demanda de procesamiento para sus modelos de IA. Según fuentes anónimas, la empresa está evaluando múltiples enfoques para diversificar su suministro y reducir costos, considerando alternativas de producción tanto internas como externas.
Inicialmente, OpenAI valoró la posibilidad de construir una red propia de “fundiciones” para fabricar sus chips, una idea que fue descartada debido a los altos costos y el tiempo que requeriría. La compañía decidió, en cambio, concentrarse en el diseño de sus chips con apoyo de socios estratégicos, como Broadcom, y asegurar la fabricación con TSMC en Taiwán, con miras a lanzar su primer chip personalizado en 2026.
OpenAI quiere garantizar el crecimiento de su dominio
Este enfoque resalta la creciente dependencia de OpenAI en una infraestructura de hardware robusta para entrenar y operar sus modelos de IA, un aspecto crucial en su competitiva posición frente a gigantes como Amazon, Google y Microsoft. Actualmente, las GPU de Nvidia dominan el mercado, con más del 80% de la participación, pero la escasez de estos chips ha llevado a OpenAI a considerar alternativas como los nuevos chips MI300X de AMD a través de Microsoft Azure.
OpenAI está en la fase de construcción de un equipo de expertos, compuesto por alrededor de 20 ingenieros especializados en diseño de chips, muchos de los cuales trabajaron anteriormente en unidades de procesamiento tensor en Google. Entre ellos destacan Thomas Norrie y Richard Ho, conocidos por su experiencia en el desarrollo de hardware de alta capacidad.
A pesar de la incorporación de nuevas opciones, OpenAI ha sido cuidadoso en su relación con Nvidia, dado que aún confía en sus chips para cubrir la creciente demanda de procesamiento de IA y garantizar el acceso a sus futuras generaciones de chips. Los altos costos de cómputo y el gasto en infraestructura siguen siendo un reto financiero considerable para OpenAI, que proyecta pérdidas significativas este año debido al alto costo de operar y entrenar modelos de inteligencia artificial en gran escala.