Dans une démarche stratégique qui semble tout droit sortie d’un film d’Aaron Sorkin, OpenAI a commencé à fabriquer sa propre puce d’intelligence artificielle, une création sur mesure conçue pour répondre aux exigences de performances élevées de ses modèles avancés. La société, connue pour avoir développé ChatGPT, s’est associée à Broadcom et à Taiwan Semiconductor Manufacturing Company (TSMC) pour lancer sa première puce interne en 2026, Reuters rapporte. Alors que de nombreux géants pourraient construire des usines pour conserver toute la fabrication des puces en interne, OpenAI a choisi de ne pas s’engager dans cette entreprise de plusieurs milliards de dollars. Au lieu de cela, elle utilise les muscles de l’industrie d’une manière à la fois pratique et discrètement rebelle.
Pourquoi s’embarrasser des fournisseurs habituels ? OpenAI est déjà un acheteur massif de GPU Nvidia, essentiels pour l’entraînement et l’inférence, la magie qui transforme les données en réponses significatives. Mais voici le coup de théâtre : les prix de Nvidia montent en flèche et OpenAI veut se diversifier. Les nouvelles puces MI300X d’AMD s’ajoutent au mélange, démontrant l’ingéniosité d’OpenAI à naviguer sur un marché des GPU souvent en proie à la pénurie. L’ajout d’AMD à cette gamme peut sembler être une simple « assurance de la chaîne d’approvisionnement », mais c’est plus que cela : cette décision démontre la réticence d’OpenAI à mettre tous ses œufs dans le même panier. C’est un peu comme si Apple développait sa propre Apple Intelligence et s’en remettait à ChatGPT en cas de besoin.
Broadcom aide OpenAI à concevoir la puce, ainsi qu’une capacité de transfert de données qui est essentielle pour les besoins d’OpenAI, où des rangées interminables de puces travaillent en synchronisation. Le fait de confier la production de ces puces à TSMC, le plus grand fabricant contractuel de puces au monde, souligne la capacité d’OpenAI à résoudre les problèmes de manière créative. TSMC est réputé pour sa puissance, ce qui confère à la puce expérimentale d’OpenAI un avantage significatif en termes de production, essentiel pour faire évoluer son infrastructure afin de répondre à des charges de travail d’IA en constante augmentation.
L’incursion d’OpenAI dans les puces personnalisées n’est pas seulement une question de spécifications techniques ou d’économies, c’est aussi un mouvement tactique pour obtenir le contrôle total de sa technologie (quelque chose que nous avons déjà vu avec Apple). En adaptant les puces spécifiquement pour l’inférence – la partie de l’IA qui applique ce qu’elle apprend pour prendre des décisions – OpenAI vise un traitement en temps réel à une vitesse qui est essentielle pour des outils comme ChatGPT. Cette recherche d’optimisation va au-delà de l’efficacité ; c’est le genre de démarche avant-gardiste qui positionne OpenAI comme une entreprise innovante souhaitant tracer sa propre voie dans un secteur où Google et Meta l’ont déjà fait.
Cette stratégie est fascinante parce qu’elle n’oppose pas OpenAI à ses grands fournisseurs. Même dans la recherche de sa puce personnalisée, OpenAI reste proche de Nvidia, préservant l’accès aux GPU Blackwell les plus récents et les plus avancés de Nvidia tout en évitant les frictions potentielles. C’est comme si l’on restait ami avec l’enfant cool tout en construisant sa propre marque. Cette approche collaborative permet d’accéder à du matériel de haut niveau sans brûler les ponts, un équilibre qu’OpenAI gère avec une finesse surprenante.
(images de rendu générées par l’IA)
The post OpenAI construit ses propres puces d’IA pour défier la domination de Nvidia appeared first on Plare.