La coopération entre OpenAI et Broadcom a attiré une attention généralisée, et les deux parties prévoient de développer des puces d'inférence personnalisées pour optimiser l'efficacité des services d'IA et réduire les coûts de cloud computing. Cette décision démontre non seulement la disposition stratégique d'OpenAI dans le domaine matériel, mais indique également une nouvelle direction pour le développement futur de la technologie de l'IA.
Récemment, il a été rapporté qu'Openai travaille avec Broadcom pour développer une puce d'inférence personnalisée. Selon Reuters, les discussions entre les deux sociétés sont très confidentielles, et Taiwan Semiconductor Manufacturing Corporation (TSMC) peut servir de fonderie pour le projet. Cette nouvelle a suscité des spéculations généralisées du monde extérieur sur la direction du développement futur d'Openai.
Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Alors, pourquoi Openai a besoin de sa propre puce d'inférence? De nombreuses entreprises ont constaté que choisir de construire leurs propres centres de données est beaucoup plus économique que la location de services cloud.
De plus, le développement de puces dédiées adaptées à leurs propres services peut également être un objectif stratégique d'OpenAI. Comme nous le savons tous, les applications d'IA consomment beaucoup d'énergie, donc en optimisant la synergie entre le matériel et les logiciels, les services OpenAI deviendront plus efficaces.
OpenAI montre également aux investisseurs l'idée de construire de grands centres de données spécialement conçus pour exécuter des services d'IA qui peuvent également coûter moins cher pour construire ou fonctionner s'ils sont équipés de puces personnalisées. De plus, la considération des chaînes d'approvisionnement décentralisées ne peut être ignorée. En raison de la capacité de production mondiale limitée des semi-conducteurs, le risque de s'appuyer sur des fournisseurs externes existe et le développement de propres puces peut réduire la dépendance à l'égard des produits tiers.
Bien que nous ne puissions pas imaginer qu'Openai serait disposé à entrer dans l'industrie des tracas des ventes de matériel, car elle nécessite beaucoup d'investissement réel et augmente le nombre d'employés, OpenAI peut être déployé au bord du réseau lorsque les tâches d'inférence ont généralement besoin de Soyez aussi proche des utilisateurs que les appareils connexes possibles, comme de nombreux réseaux de distribution de contenu et Netflix, cette architecture est certainement une bonne idée.
En parlant de puces de raisonnement, il ne les est en fait pas familiers sur le marché. Inferentia of AWS, Google's Tensor Processing Unit (TPU) et Maia Wafers de Microsoft peuvent gérer les charges de travail d'inférence et de formation.
Fait intéressant, la nouvelle du partenariat d'Openai avec Broadcom a également fait augmenter le cours de l'action de ce dernier. Le dernier rapport trimestriel de Broadcom montre qu'il devrait vendre 12 milliards de dollars dans les plaquettes de l'IA cet exercice, un chiffre de 1 milliard de dollars plus élevé que les attentes précédentes, mais les réactions des investisseurs semblent un peu déçus. Par conséquent, travailler avec ce nom le plus chaud dans le domaine du logiciel AI rendra sans aucun doute Wall Street encore plus excité.
Points clés:
OpenAI et Broadcom négocient pour développer des puces d'inférence personnalisées pour réduire les coûts de cloud computing.
La propre puce peut optimiser la collaboration entre le matériel et les logiciels et améliorer l'efficacité du service d'IA.
Broadcom s'attend à vendre 12 milliards de dollars américains en WALFERS de Silicon cet exercice, et la nouvelle de la coopération augmente les cours des actions.
La coopération entre OpenAI et Broadcom n'est pas seulement une percée technologique, mais aussi une étape importante dans le développement futur de l'IA. En personnalisant des puces, OpenAI devrait occuper une position plus avantageuse dans le domaine de l'IA.