In jüngster Zeit haben Epoch AI Research den Energieverbrauch von ChatGPT neu bewertet, und die Ergebnisse zeigten, dass sein Energieverbrauch viel niedriger war als frühere Erwartungen. Diese Studie korrigiert nicht nur öffentliche Missverständnisse über Chatgpt -Energieverbrauch, sondern bietet auch eine neue Perspektive für die zukünftige Entwicklung der KI -Branche. Die Untersuchung weist darauf hin, dass der aktuelle durchschnittliche Energieverbrauch von ChatGPT viel niedriger ist als bei früheren Schätzungen, was dazu beiträgt, öffentliche Bedenken hinsichtlich des hohen Energieverbrauchs von KI zu beseitigen und eine breitere Anwendung der AI -Technologie zu fördern.
Kürzlich ergab eine Studie, die von der gemeinnützigen Organisation Epoch AI durchgeführt wurde, den Energieverbrauch von ChatGPT, OpenAIs Chatbot -Plattform, und die Ergebnisse zeigten, dass der Energieverbrauch von ChatGPT viel niedriger war als bei früheren Schätzungen. Laut einigen Berichten benötigt ChatGPT etwa 3 Wattstunden Strom, um eine Frage zu beantworten, und Epoch AI Research ist der Ansicht, dass die Daten überschätzt werden. Untersuchungen zeigen, dass GPT-4O bei der Verwendung von OpenAIs neuestem Standardmodell nur etwa 0,3 Wattstunden Strom verbrauchen, eine Zahl, die sogar noch niedriger ist als der Energieverbrauch vieler Haushaltsgeräte.
Joshua Sie, ein Datenanalyst bei Epoch AI, sagte, dass die Bedenken hinsichtlich des KI -Energieverbrauchs traditionell nicht genau die aktuelle Situation widerspiegeln. Die frühe Schätzung der 3-Watt-Stunden basierte hauptsächlich auf einigen veralteten Forschungen und Annahmen, als angenommen wurde, dass OpenAI weniger effiziente Chips verwendete. Sie wiesen auch darauf hin, dass die Öffentlichkeit zwar angemessene Bedenken hinsichtlich des zukünftigen Energieverbrauchs von KI hat, es jedoch kein klares Verständnis für die aktuelle Situation gibt.
Sie geben jedoch auch zu, dass die 0,3-Watt-Stunde von der Epoche immer noch eine Annäherung ist, da OpenAI keine detaillierten Datenverbrauchsberechnungspunkte offenbart. Darüber hinaus berücksichtigt diese Analyse den durch einige zusätzlichen Funktionen verursachten Energieverbrauch nicht wie Bildgenerierung oder Eingabebereich. Für längere Eingabebrüstung, wie z. B. solche mit großen Mengen an Dateien, geben Sie an, dass solche Abfragen möglicherweise mehr Energie verbrauchen.
Trotz der geringen aktuellen Energieverbrauchsdaten erwarten Sie, dass der Energieverbrauch in Zukunft steigt. Er erwähnte, dass mit Fortschritten in der KI -Technologie das Energiebedarf für die Ausbildung dieser Modelle zunehmen kann und die zukünftige KI auch komplexere Aufgaben erledigen und so mehr Strom verbraucht.
In der Zwischenzeit wächst die AI -Infrastruktur rasch aus, was zu einem enormen Strombedarf führen wird. Laut dem Bericht eines Rand -Unternehmens wird beispielsweise erwartet, dass die AI -Rechenzentren in den nächsten zwei Jahren möglicherweise fast die gesamte Stromversorgung von Kalifornien 2022 benötigen. Bis 2030 wird der Energieverbrauch des Trainings Ein modernes Modell die Leistung von acht Kernreaktoren erreichen.
OpenAI und seine Investitionspartner planen, in den kommenden Jahren Milliarden in neue Projekte des AI -Rechenzentrums zu investieren. Mit der Entwicklung der KI -Technologie hat sich die Aufmerksamkeit der Branche auch auf Inferenzmodelle verlagern, die bei der Umführung von Aufgaben besser sind, aber auch mehr Rechenleistung und Leistungsunterstützung erfordern.
Für diejenigen, die sich um ihren KI -Energieverbrauch kümmern, schlagen Sie vor, die Verwendung der Verwendung zu verringern oder ein Modell mit niedrigeren Rechenanforderungen zu wählen.
Schlüsselpunkte:
Der durchschnittliche Energieverbrauch von ChatGPT beträgt 0,3 Wattstunden, was viel niedriger ist als die frühere Schätzung von 3 Wattstunden.
Der Anstieg des KI -Energieverbrauchs hängt hauptsächlich mit zukünftigen technologischen Fortschritten und dem Umgang mit komplexeren Aufgaben zusammen.
OpenAI plant, in den kommenden Jahren stark in die Zentren der KI -Rechenzentren zu investieren, um den wachsenden Strombedarf zu decken.
Kurz gesagt, Epoch AI Research bietet uns ein klareres Verständnis des aktuellen Energieverbrauchsstatus von ChatGPT und erinnert uns auch daran, auf das potenzielle Wachstum des KI -Energieverbrauchs in der Zukunft zu achten. Während wir die Weiterentwicklung der KI-Technologie genießen, müssen wir auch aktiv energieeffizientere KI-Technologien und Infrastrukturen untersuchen, um eine nachhaltige Entwicklung zu erreichen.