OpenAI hat kürzlich eine interne Skala angekündigt, um den Fortschritt seiner großen Sprachmodelle im Bereich der allgemeinen künstlichen Intelligenz (AGI) zu verfolgen. Dieser Schritt zeigt nicht nur die Ambitionen von OpenAI im AGI-Bereich, sondern bietet der Branche auch einen neuen Standard für die Messung der KI-Entwicklung. Diese Skala unterteilt die Implementierung von AGI in fünf Ebenen, von den heutigen Chatbots bis hin zu KI, die die Arbeit der gesamten Organisation übernehmen kann. Jede Ebene stellt eine erhebliche Verbesserung der KI-Fähigkeiten dar. Der Herausgeber von Downcodes wird dies ausführlich erläutern und seine Bedeutung und mögliche Auswirkungen analysieren.
Laut Bloomberg hat OpenAI eine interne Skala erstellt, um den Fortschritt seiner großen Sprachmodelle in der allgemeinen künstlichen Intelligenz (AGI) zu verfolgen. Dieser Schritt verdeutlicht nicht nur die Ambitionen von OpenAI im Bereich AGI, sondern bietet der Branche auch einen neuen Standard zur Messung der KI-Entwicklung.
Die Skala ist in fünf Stufen unterteilt: 1. Stufe 1: Aktuelle Chatbots, wie z. B. ChatGPT, gehören zu dieser Stufe. 2. Ebene 2: Systeme, die in der Lage sind, grundlegende Probleme auf PhD-Ebene zu lösen. OpenAI behauptet, nahe an diesem Niveau zu sein. 3. Ebene 3: KI-Agenten, die im Namen der Benutzer Maßnahmen ergreifen können. 4. Stufe 4: KI, die in der Lage ist, neue Innovationen zu schaffen. 5. Stufe 5: KI, die die Arbeit der gesamten Organisation übernehmen kann und als letzter Schritt zur Erreichung von AGI gilt.
Allerdings sind sich Experten über den Zeitplan für die AGI-Implementierung uneinig. Sam Altman, CEO von OpenAI, sagte im Oktober 2023, dass AGI noch fünf Jahre entfernt sei. Aber selbst wenn AGI realisiert werden kann, ist eine Investition von Milliarden Dollar in Rechenressourcen erforderlich.
Es ist erwähnenswert, dass die Ankündigung dieses Bewertungsstandards mit der Ankündigung von OpenAI zusammenfällt, mit dem Los Alamos National Laboratory zusammenzuarbeiten, um zu untersuchen, wie fortschrittliche KI-Modelle (wie GPT-4) sicher zur Unterstützung der biologischen Forschung eingesetzt werden können. Ziel der Zusammenarbeit ist es, eine Reihe von Sicherheits- und anderen Bewertungsfaktoren für die US-Regierung zu etablieren, die künftig zum Testen verschiedener KI-Modelle verwendet werden können.
Obwohl OpenAI es ablehnte, Einzelheiten darüber zu nennen, wie Modelle diesen internen Ebenen zugeordnet werden, berichtete Bloomberg, dass die Unternehmensleitung kürzlich ein Forschungsprojekt unter Verwendung des GPT-4-KI-Modells vorführte und argumentierte, dass das Projekt einige neue Fähigkeiten demonstrierte, die den menschlichen Denkfähigkeiten ähneln.
Diese Methode zur Quantifizierung des AGI-Fortschritts trägt dazu bei, die KI-Entwicklung genauer zu definieren und subjektive Interpretationen zu vermeiden. Es wirft jedoch auch einige Bedenken hinsichtlich der Sicherheit und Ethik der KI auf. Im Mai löste OpenAI sein Sicherheitsteam auf, wobei einige ehemalige Mitarbeiter sagten, die Sicherheitskultur des Unternehmens sei gegenüber der Produktentwicklung in den Hintergrund getreten, obwohl OpenAI dies bestritt.
Der Schritt von OpenAI bietet neue Richtungen und Standards für die AGI-Forschung, wirft aber auch Bedenken hinsichtlich Sicherheit und Ethik auf. Die endgültige Umsetzung von AGI ist noch ungewiss und erfordert anhaltende Aufmerksamkeit und Vorsicht. Die zukünftige Entwicklungsrichtung der KI wird von diesem Ausmaß und der damit verbundenen Forschung beeinflusst und verdient fortlaufende Aufmerksamkeit.