Der Herausgeber von Downcodes erfuhr, dass OpenAI mit Broadcom zusammenarbeitet, um maßgeschneiderte Inferenzchips zu entwickeln, und dass die Taiwan Semiconductor Manufacturing Company (TSMC) möglicherweise als Hersteller fungiert. Dieser Schritt hat in der Branche große Aufmerksamkeit erregt und Spekulationen über die zukünftige Entwicklungsrichtung von OpenAI sind weit verbreitet. In diesem Artikel werden die Gründe für die Entwicklung spezialisierter Chips durch OpenAI und ihre möglichen Auswirkungen untersucht.
Kürzlich wurde berichtet, dass OpenAI mit Broadcom an der Entwicklung eines maßgeschneiderten Inferenzchips arbeitet. Laut Reuters sind die Gespräche zwischen den beiden Unternehmen sehr vertraulich und die Taiwan Semiconductor Manufacturing Company (TSMC) könnte als Gründer des Projekts fungieren. Diese Nachricht löste weit verbreitete Spekulationen über die zukünftige Entwicklungsrichtung von OpenAI aus.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Warum benötigt OpenAI also einen eigenen Inferenzchip? Erstens sind die Kosten für das Cloud-Computing sehr hoch. Obwohl Partner wie Microsoft einen Teil der Kosten übernehmen, kann die Steuerung der Hardware zweifellos die Betriebskosten erheblich senken. Viele Unternehmen haben erkannt, dass der Bau eigener Rechenzentren wesentlich wirtschaftlicher ist als die Anmietung von Cloud-Diensten.
Darüber hinaus könnte die Entwicklung spezieller Chips, die an die eigenen Dienste angepasst sind, auch ein strategisches Ziel von OpenAI sein. Wie wir alle wissen, verbrauchen KI-Anwendungen große Mengen an Energie. Durch die Optimierung der Synergie zwischen Hardware und Software werden die Dienste von OpenAI effizienter.
OpenAI schlägt Investoren außerdem die Idee vor, große Rechenzentren für die Ausführung von KI-Diensten zu bauen, deren Bau oder Betrieb auch kostengünstiger sein könnte, wenn sie mit maßgeschneiderten Chips ausgestattet wären. Darüber hinaus dürfen die Überlegungen zu dezentralen Lieferketten nicht außer Acht gelassen werden. Aufgrund der begrenzten globalen Halbleiterproduktionskapazität besteht das Risiko, auf externe Lieferanten angewiesen zu sein, und die Entwicklung eigener Chips kann die Abhängigkeit von Produkten Dritter verringern.
Wir können uns zwar nicht vorstellen, dass OpenAI bereit wäre, sich auf das mühsame Geschäft des Hardware-Verkaufs einzulassen, der eine Menge realer Investitionen erfordert und die Mitarbeiterzahl erhöhen würde, aber es könnte am Rande des Netzwerks eingesetzt werden, wo häufig Inferenzaufgaben durchgeführt werden müssen Bei verwandten Geräten, wie bei vielen Content-Delivery-Netzwerken und Netflix, ist diese Architektur auf jeden Fall eine gute Idee.
Apropos Inferenzchips: Sie sind auf dem Markt eigentlich kein Unbekannter. Dinge wie Inferentia von AWS, Tensor Processing Unit (TPU) von Google und Maia-Silizium von Microsoft können Inferenz- und Trainingsarbeitslasten bewältigen.
Interessanterweise trieb die Nachricht über die Partnerschaft von OpenAI mit Broadcom auch dessen Aktienkurs leicht in die Höhe. Aus dem jüngsten vierteljährlichen Gewinnbericht von Broadcom ging hervor, dass das Unternehmen in diesem Geschäftsjahr mit dem Verkauf von AI-Siliziumwafern im Wert von 12 Milliarden US-Dollar rechnet. Das ist eine Zahl, die eine Milliarde US-Dollar über den bisherigen Erwartungen liegt. Die Anleger reagierten jedoch mit einer gewissen Enttäuschung. Die Zusammenarbeit mit einem der angesagtesten Namen im Bereich KI-Software wird die Wall Street also zweifellos noch mehr begeistern.
Die Zusammenarbeit zwischen OpenAI und Broadcom läutet die weitere Integration der KI-Industriekette ein und bringt OpenAI stärkere Kostenkontrollfähigkeiten und technologische Autonomie. In Zukunft könnten maßgeschneiderte KI-Chips für große KI-Unternehmen zu einem Schlüsselfaktor für die Verbesserung ihrer Wettbewerbsfähigkeit werden. Dies hat weitreichende Bedeutung für die Entwicklung der gesamten KI-Branche.