L'éditeur de Downcodes a appris qu'OpenAI coopère avec Broadcom pour développer des puces d'inférence personnalisées, et que Taiwan Semiconductor Manufacturing Company (TSMC) pourrait servir de fonderie. Cette décision a attiré une large attention dans l’industrie, et les spéculations sur l’orientation future du développement d’OpenAI sont monnaie courante. Cet article approfondira les raisons qui ont motivé le développement de puces spécialisées par OpenAI et son impact potentiel.
Récemment, il a été rapporté qu'OpenAI travaillait avec Broadcom pour développer une puce d'inférence personnalisée. Selon Reuters, les discussions entre les deux sociétés sont très confidentielles et Taiwan Semiconductor Manufacturing Company (TSMC) pourrait servir de fonderie au projet. Cette nouvelle a déclenché de nombreuses spéculations sur l’orientation future du développement d’OpenAI.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Alors, pourquoi OpenAI a-t-il besoin de sa propre puce d'inférence ? Tout d'abord, les coûts de cloud computing d'OpenAI sont très énormes. Bien que des partenaires comme Microsoft prennent en charge une partie des coûts, le contrôle du matériel par vous-même peut sans aucun doute réduire considérablement les coûts d'exploitation. De nombreuses entreprises ont découvert que la construction de leurs propres centres de données est bien plus économique que la location de services cloud.
De plus, développer des puces spéciales adaptées à ses propres services peut également être un objectif stratégique d'OpenAI. Comme nous le savons tous, les applications d'IA consomment d'énormes quantités d'énergie. Ainsi, en optimisant la synergie entre le matériel et les logiciels, les services d'OpenAI deviendront plus efficaces.
OpenAI propose également aux investisseurs de construire des centres de données à grande échelle dédiés à l'exécution de services d'IA qui pourraient également être moins chers à construire ou à exploiter s'ils sont équipés de puces personnalisées. De plus, les considérations liées aux chaînes d'approvisionnement décentralisées ne peuvent être ignorées. En raison de la capacité mondiale limitée de production de semi-conducteurs, le risque de dépendre de fournisseurs externes existe, et développer ses propres puces peut réduire la dépendance à l’égard de produits tiers.
Même si nous ne pouvons pas imaginer qu'OpenAI soit disposé à se lancer dans le secteur difficile de la vente de matériel, qui nécessite beaucoup d'investissements réels et augmenterait les effectifs, il pourrait être déployé à la périphérie du réseau, là où les tâches d'inférence doivent souvent être aussi importantes. aussi proche que possible de l'utilisateur. Pour les équipements associés, comme de nombreux réseaux de diffusion de contenu et Netflix, cette architecture est définitivement une bonne idée.
En parlant de puces d’inférence, elles ne sont en réalité pas étrangères au marché. Des éléments tels que Inferentia d'AWS, Tensor Processing Unit (TPU) de Google et Maia Silicon de Microsoft peuvent gérer les charges de travail d'inférence et de formation.
Il est intéressant de noter que la nouvelle du partenariat entre OpenAI et Broadcom a également fait légèrement grimper le cours de l’action de cette dernière. Le dernier rapport sur les résultats trimestriels de Broadcom a montré que l'entreprise prévoyait de vendre pour 12 milliards de dollars de plaquettes de silicium IA au cours de cet exercice, un chiffre supérieur d'un milliard de dollars aux attentes précédentes, mais les investisseurs ont réagi avec une certaine déception. Ainsi, travailler avec l’un des noms les plus en vogue des logiciels d’IA rendra sans aucun doute Wall Street encore plus enthousiasmé.
La coopération entre OpenAI et Broadcom annonce une intégration plus poussée de la chaîne industrielle de l'IA et apporte à OpenAI des capacités de contrôle des coûts et une autonomie technologique plus fortes. À l’avenir, les puces d’IA personnalisées pourraient devenir l’un des facteurs clés permettant aux grandes entreprises d’IA d’améliorer leur compétitivité. Cela revêt une importance considérable pour le développement de l’ensemble du secteur de l’IA.