OpenAI está trabajando con TSMC y Broadcom para construir su propio chip de inferencia de IA.
Según Reuters, OpenAI ha abandonado, al menos por ahora, sus planes de establecer sus propias fundiciones debido a limitaciones de costos y tiempo, y en su lugar está centrando todos sus esfuerzos en el diseño interno de chips.
Citando fuentes con conocimiento de la situación, el informe dice que OpenAI ha asegurado capacidad de fabricación con TSMC y esperaba tener sus primeros chips de IA personalizados fabricados para 2026, aunque ese cronograma está sujeto a cambios.
En julio de 2024 se informó por primera vez que OpenAI había estado en conversaciones con diseñadores de chips para discutir la posibilidad de desarrollar un nuevo chip de servidor de IA, aunque los rumores de que estaba considerando fabricar sus propios chips de IA surgieron por primera vez a fines de 2023.
El director ejecutivo de la empresa, Sam Altman, ha estado presionando durante mucho tiempo para que la empresa desarrolle sus propios chips de inteligencia artificial y había estado buscando inversiones para construir una empresa de chips de inteligencia artificial con el nombre en código del proyecto 'Tigris' antes de ser despedido repentinamente y luego recontratado por OpenAI en noviembre de 2023.
Actualmente, la empresa cuenta con aproximadamente 20 personas trabajando en su equipo de chips. El año pasado, DCD informó en exclusiva que OpenAI había contratado a Richard Ho, exdirector de ingeniería de chips de Lightmatter y director de Google TPU, como director de hardware en la empresa de inteligencia artificial generativa.
Broadcom estuvo muy involucrado en el desarrollo del chip TPU AI de Google.
Reuters también señaló que, además de diseñar sus propios chips de IA, el gigante de la IA generativa también habría comenzado a diversificar su implementación de hardware, y la compañía ahora utiliza chips AMD junto con GPU Nvidia para entrenar sus modelos de IA.
Una de las razones citadas originalmente por las fuentes sobre por qué OpenAI estaba considerando ingresar al espacio de diseño de chips personalizados fue reducir su dependencia de Nvidia, cuyas GPU son costosas y anteriormente han tenido dificultades para satisfacer la demanda.
En mayo de 2024, Microsoft, que ha invertido casi 14 mil millones de dólares en OpenAI, lo que la convierte en el mayor inversor de la empresa, anunció que pondría los aceleradores MI300X de AMD a disposición de los clientes a través del servicio de computación en la nube Azure de la empresa.
Es a través de la plataforma en nube Azure de Microsoft que OpenAI accederá a los chips AMD.
En ese momento, el vicepresidente ejecutivo del grupo Cloud and AI de Microsoft, Scott Guthrie, describió la MI300X como la “GPU más rentable disponible en este momento para Azure OpenAI”.