IT House berichtete am 18. November, dass es aktuelle Gerüchte gibt, dass führende KI-Labore wie OpenAI, Google und Anthropic auf Schwierigkeiten bei der Entwicklung fortschrittlicher KI-Modelle stoßen. Diese Berichte führen die Ursache auf einen Mangel an qualitativ hochwertigen Trainingsdaten zurück, der zu sinkenden Erträgen führt und weitere Investitionen erschwert.
Diesbezüglich äußerten OpenAI-CEO Sam Altman und Anthropic-CEO Dario Amodei unterschiedliche Meinungen. Altman schien auf die negative Presse zu reagieren, indem er in den sozialen Medien eine kryptische Nachricht veröffentlichte, in der er suggerierte: „Es gibt keine Grenzen.“ Amodei vertritt eine ähnliche Ansicht und räumt zwar ein, dass viele Faktoren die Entwicklung von KI behindern könnten, ist jedoch optimistisch, dass es Möglichkeiten gibt, diese Hindernisse zu überwinden, einschließlich der Verwendung synthetischer Daten.
IT House stellte fest, dass auch der frühere Google-CEO Eric Schmidt seine Ansichten zu diesen Berichten geäußert hatte. Er geht davon aus, dass große Sprachmodelle in den nächsten fünf Jahren zwei bis drei Iterationen durchlaufen werden . Die Leistung dieser Modelle nimmt in einem beispiellosen Tempo zu, und es gibt derzeit keine Anzeichen dafür, dass dieser Wachstumstrend bald aufhört . Obwohl wir irgendwann auf einen Engpass stoßen werden, sind wir noch nicht am Ziel.
Schmidt prognostiziert, dass in Zukunft vor allem in den Bereichen Physik und Mathematik fortschrittlichere und leistungsfähigere KI-Modelle entstehen werden. Als Beispiel erläuterte er das kürzlich von OpenAI veröffentlichte Erdbeer-KI-Modell OpenAI-o1. Allerdings warnte Schmidt auch, dass die potenziellen Gefahren mit zunehmender Weiterentwicklung der Modelle zunehmen. Er stellte fest, dass diese primitiven Modelle möglicherweise besser in der Lage sind, „Zero-Day-Angriffe“ zu starten als Menschen . Darüber hinaus können biologische Viren und neue Arten der Kriegsführung auch zu potenziellen Bedrohungen durch die Entwicklung der KI werden.