Googles KI-Projekt Gemini hat aufgrund neuer interner Regelungen zuletzt für Kontroversen gesorgt. Berichten zufolge wurden ausgelagerte Mitarbeiter, die für die Bewertung der von Gemini generierten Inhalte zuständig sind, gebeten, Bereiche zu bewerten, in denen sie nicht über Fachwissen verfügen, insbesondere in sensiblen Bereichen wie dem Gesundheitswesen, was Bedenken hinsichtlich der Genauigkeit der Informationen von Gemini aufkommen lässt. Diese Richtlinienanpassung wirkt sich direkt auf die Arbeit des ausgelagerten Personals und indirekt auf die Qualität der Beurteilung von Gemini aus.
Kürzlich hat Googles KI-Projekt Gemini aufgrund seiner neuen internen Vorschriften Bedenken hinsichtlich der Richtigkeit der Informationen geäußert. Berichten zufolge werden ausgelagerte Mitarbeiter, die mit der Bewertung von KI-generierten Inhalten beauftragt sind, gebeten, Bereiche zu bewerten, in denen sie keine Fachkenntnisse haben, insbesondere bei sensiblen Themen wie dem Gesundheitswesen.
Diese ausgelagerten Mitarbeiter stammen von GlobalLogic, einem globalen Technologiedienstleistungsunternehmen. Google verlangt von ihnen, dass sie die durch KI generierten Antworten bewerten und dabei vor allem Faktoren wie „Authentizität“ berücksichtigen. Bisher hatten Outsourcer die Möglichkeit, Fragen zu überspringen, für die sie nicht über relevante Fachkenntnisse verfügten. Beispielsweise konnten sie sich dafür entscheiden, eine Fachfrage zur Kardiologie nicht zu bewerten. Dies geschieht, um die Genauigkeit der Bewertung sicherzustellen und sicherzustellen, dass nur Personen mit dem entsprechenden Hintergrund effektive Bewertungen durchführen können.
Allerdings kündigte GlobalLogic letzte Woche die neueste Anforderung von Google an, wonach Outsourcer Fragen in solchen Fachgebieten nun nicht mehr überspringen dürfen, sondern stattdessen die Teile bewerten müssen, die sie verstehen, und ihre mangelnden Kenntnisse in dem relevanten Bereich erklären müssen. Die Änderung löste bei Outsourcern weit verbreitete Bedenken aus, dass die Praxis die Genauigkeit von Gemini bei einigen komplexen Themen beeinträchtigen könnte.
Beispielsweise erwähnten einige Outsourcer in internen Mitteilungen, dass die bisherige Option zum Überspringen dazu diente, die Genauigkeit der Bewertung zu verbessern. Die Umsetzung der neuen Regeln zwang sie jedoch dazu, einige Probleme zu bewerten, mit denen sie keine Erfahrung hatten, beispielsweise seltene Krankheiten. Aus internen E-Mails geht hervor, dass die ursprüngliche Regel lautete: „Wenn Sie nicht über das erforderliche Fachwissen für diese Aufgabe verfügen, überspringen Sie diese bitte.“ Die neue Regel lautet: „Aufforderungen, die Fachwissen erfordern, sollten nicht übersprungen werden.“ unbequem.
Nach den neuen Vorschriften können Outsourcer Bewertungsaufgaben nur in zwei Situationen überspringen: Zum einen, wenn Informationen vollständig fehlen, z. B. eine vollständige Aufforderung oder Antwort, und zum anderen, wenn der Inhalt möglicherweise schädlich ist und eine besondere Zustimmung zur Durchführung der Bewertung erforderlich ist. Obwohl diese neuen Regeln darauf abzielen, die Leistung von Gemini zu verbessern, können sie sich auf sein Verständnis und Feedback zu komplexen Themen im tatsächlichen Betrieb auswirken.
Google hat auf diese Angelegenheit nicht reagiert und auch die Bedenken der Outsourcer nehmen allmählich zu.
Highlight:
Ausgelagerte Mitarbeiter werden gebeten, KI-generierte Antworten auszuwerten, für die sie keine Fachkenntnisse haben, insbesondere in sensiblen Bereichen wie dem Gesundheitswesen.
Die neuen Vorschriften eliminieren die „Überspringen“-Option und verlangen von Outsourcern, auch dann zu punkten, wenn es ihnen an Fachwissen mangelt.
Diese Richtlinie kann die Genauigkeit von Gemini bei komplexen Themen beeinträchtigen und bei ausgelagerten Mitarbeitern Unbehagen und Besorgnis hervorrufen.
Die Reaktion von Google auf die neuen Vorschriften von Gemini hat sich verzögert, und die Bedenken unter Outsourcing-Mitarbeitern nehmen weiter zu, was die zukünftige Entwicklung von Gemini vor neue Herausforderungen stellt. Die Methode zur Genauigkeitsbewertung von KI-Modellen muss weiter verbessert werden, um die Zuverlässigkeit und Sicherheit der KI-Technologie zu gewährleisten.