Die Zusammenarbeit zwischen OpenAI und Broadcom hat weit verbreitete Aufmerksamkeit erregt, und beide Parteien planen, maßgeschneiderte Inferenzchips zu entwickeln, um die Effizienz von KI -Diensten zu optimieren und die Kosten für Cloud -Computer zu senken. Dieser Schritt zeigt nicht nur das strategische Layout von Openai im Hardware -Bereich, sondern zeigt auch eine neue Richtung für die zukünftige Entwicklung der KI -Technologie an.
Vor kurzem wurde berichtet, dass OpenAI mit Broadcom zusammenarbeitet, um einen maßgeschneiderten Inferenzchip zu entwickeln. Laut Reuters sind die Diskussionen zwischen den beiden Unternehmen sehr vertraulich, und die Taiwan Semiconductor Manufacturing Corporation (TSMC) kann als Gießerei für das Projekt dienen. Diese Nachricht hat weit verbreitete Spekulationen von der Außenwelt über die zukünftige Entwicklungsrichtung von OpenAI ausgelöst.
Bildquelle Notizen: Das Bild wird von KI erzeugt, und der im Bild autorisierte Dienstanbieter Midjourney
Warum benötigt Openai zunächst einen eigenen Inferenzchip? Viele Unternehmen haben festgestellt, dass es viel wirtschaftlicher ist, ihre eigenen Rechenzentren zu entscheiden, als Cloud -Dienste zu mieten.
Darüber hinaus können die Entwicklung dedizierter Chips, die an ihre eigenen Dienstleistungen angepasst sind, auch ein strategisches Ziel von OpenAI sein. Wie wir alle wissen, verbrauchen KI -Anwendungen viel Energie. Durch die Optimierung der Synergie zwischen Hardware und Software wird OpenAI -Dienste effizienter.
OpenAI zeigt den Anlegern auch die Idee, große Rechenzentren zu bauen, die speziell für die Ausführung von KI -Diensten entwickelt wurden, die möglicherweise auch weniger kosten, wenn sie mit benutzerdefinierten Chips ausgestattet sind. Darüber hinaus kann die Berücksichtigung dezentraler Versorgungsketten nicht ignoriert werden. Aufgrund der begrenzten globalen Halbleiterproduktionskapazität besteht das Risiko, sich auf externe Lieferanten zu stützen, und die Entwicklung eigener Chips kann die Abhängigkeit von Produkten von Drittanbietern verringern.
Obwohl wir uns nicht vorstellen können, dass OpenAI bereit wäre, in die problematische Branche der Hardwareverkäufe einzusteigen, da es viele tatsächliche Investitionen erfordert und die Anzahl der Mitarbeiter erhöht, wird OpenAI möglicherweise am Rande des Netzwerks eingesetzt, wenn Inferenzaufgaben normalerweise erforderlich sind Seien Sie so nah wie möglich an Benutzern wie möglich, wie viele Inhaltsverteilungsnetzwerke und Netflix, diese Architektur ist definitiv eine gute Idee.
Apropos Argumentation Chips, es ist tatsächlich nicht unbekannt mit ihnen auf dem Markt. Inferentia von AWS, Google's Tensor Processing Unit (TPU) und Maia Wafers von Microsoft können Inferenz- und Schulungs -Workloads bewältigen.
Interessanterweise führte die Nachrichten über die Partnerschaft von OpenAI mit Broadcom auch zu dem Aktienkurs des letzteren, um leicht zu steigen. Der jüngste vierteljährliche Ertragsbericht von Broadcom zeigt, dass in diesem Geschäftsjahr AI Wafers 12 Milliarden US -Dollar an AI Wafers verkaufen wird, eine Zahl von 1 Milliarde US -Dollar höher als frühere Erwartungen, aber die Reaktionen der Anleger scheinen etwas enttäuscht zu sein. Daher wird die Arbeit mit diesem heißesten Namen im Bereich der AI -Software zweifellos die Wall Street noch mehr aufgeregt.
Schlüsselpunkte:
OpenAI und Broadcom verhandeln über die Entwicklung maßgeschneiderter Inferenzchips, um die Kosten für Cloud -Computer zu senken.
Der eigene Chip kann die Zusammenarbeit zwischen Hardware und Software optimieren und die Effizienz des KI -Dienstes verbessern.
Broadcom erwartet in diesem Geschäftsjahr 12 Milliarden US -Dollar an AI Silicon Wafers, und die Nachricht von Kooperation steigert die Aktienkurse.
Die Zusammenarbeit zwischen OpenAI und Broadcom ist nicht nur ein technologischer Durchbruch, sondern auch ein wichtiger Schritt in der zukünftigen Entwicklung der KI. Durch das Anpassen von Chips wird OpenAI voraussichtlich eine vorteilhaftere Position im Bereich der KI einnehmen.