In letzter Zeit hat die Verbesserungsarbeit am Gemini-KI-Modell von Google für Kontroversen gesorgt. Laut TechCrunch verglichen Google-Auftragnehmer die Antworten von Gemini mit den Ergebnissen des Anthropic-Konkurrenten Claude, um die Leistung von Gemini zu bewerten. Der Schritt wirft die Frage auf, ob Google die Daten von Claude ohne Genehmigung verwendet hat und ob dadurch gegen die Geschäftsbedingungen von Anthropic verstoßen wurde, da Anthropic einer der größten Investoren von Google ist. Der Vorfall verdeutlicht die Intensität des Wettbewerbs im KI-Bereich und die Bedeutung von Datennutzungs- und Compliance-Fragen.
Der Wettbewerb zwischen Technologiegiganten im Bereich KI wird immer härter und eine aktuelle Nachricht hat die Unterströmung des Branchenwettbewerbs erneut in den Vordergrund gerückt. Laut internen Mitteilungen von TechCrunch verglich der Auftragnehmer, der für die Verbesserung des künstlichen Intelligenzmodells Gemini von Google verantwortlich ist, seine Antworten mit den Ergebnissen des Konkurrenzmodells Claude von Anthropic. Der Schritt warf Fragen zur Einhaltung der Genehmigung von Anthropic, Claude für Tests zu verwenden, durch Google auf.
Da Technologieunternehmen um die Entwicklung besserer KI-Modelle konkurrieren, wird die Modellleistung in der Regel anhand von Branchen-Benchmarks bewertet, anstatt dass Auftragnehmer viel Energie in die Bewertung der KI-Antworten der Wettbewerber investieren. Berichten zufolge müssen Gemini-Auftragnehmer jedoch jede Antwort, die sie sehen, anhand mehrerer Kriterien bewerten, darunter Authentizität und Ausführlichkeit. Der Auftragnehmer hat bis zu 30 Minuten Zeit, um zu entscheiden, ob die Antwort von Gemini oder Claude besser ist.
Die Auftragnehmer stellten fest, dass Claudes Antworten offenbar mehr Wert auf Sicherheit legten als die von Gemini, wie aus internen Chat-Aufzeichnungen hervorgeht. Ein Auftragnehmer sagte: „Claude verfügt über die strengsten Sicherheitseinstellungen aller KI-Modelle.“ In einigen Fällen reagiert Claude nicht auf Eingabeaufforderungen, die er als unsicher erachtet, wie zum Beispiel das Spielen eines anderen KI-Assistenten. In einem anderen Test vermied Claude die Antwort auf ein bestimmtes Aufforderungswort, und Geminis Antwort wurde als „schwerer Sicherheitsverstoß“ eingestuft, weil sie „Nacktheit und Zurückhaltung“ beinhaltete.
Die Geschäftsbedingungen von Anthropic verbieten es Kunden ausdrücklich, ohne Genehmigung auf Claude zuzugreifen, „um konkurrierende Produkte oder Dienstleistungen zu entwickeln“ oder „konkurrierende KI-Modelle zu trainieren“. Es ist erwähnenswert, dass Google der Hauptinvestor von Anthropic ist. Dieser Hintergrund hat in der Außenwelt die Zweifel an der Verhaltenskonformität von Google verstärkt.
Als Reaktion darauf sagte McNamara, ein Sprecher von Google DeepMind (verantwortlich für Gemini), dass DeepMind zwar „Modellausgaben vergleicht“, um sie zu bewerten, Gemini jedoch nicht auf dem Anthropic-Modell trainiert. „Natürlich vergleichen wir, wie es in der Industrie üblich ist, in einigen Fällen die Ergebnisse der Modelle im Rahmen des Bewertungsprozesses“, sagte McNamara. „Jeder Vorschlag, dass wir das Anthropic-Modell zum Trainieren von Gemini verwendet haben, ist jedoch ungenau.“
Obwohl Google bestreitet, Claude zum Trainieren von Gemini zu verwenden, ist seine Rhetorik vom „Vergleichen der Modellausgabe“ immer noch zweideutig und kann externe Zweifel nicht vollständig ausräumen. Der Vorfall hat erneut Bedenken hinsichtlich der Datennutzung und Compliance bei der Entwicklung von KI-Modellen geweckt. Im hart umkämpften KI-Bereich wird die Aufrechterhaltung eines fairen Wettbewerbs und die Achtung der Rechte an geistigem Eigentum zu einem wichtigen Thema, das während der Entwicklung der Branche kontinuierliche Aufmerksamkeit und Diskussion erfordert.
Googles Erklärung des Vorfalls hat die öffentlichen Zweifel nicht vollständig ausgeräumt, was den harten Wettbewerb im KI-Bereich und die Ernsthaftigkeit der Herausforderungen bei der Datenkonformität widerspiegelt. In Zukunft muss die Branche klarere Regeln und Standards festlegen, um einen fairen Wettbewerb und den Schutz des geistigen Eigentums zu gewährleisten.