Google hat kürzlich seine Nutzungsbedingungen für generative KI aktualisiert, um KI-Anwendungen in „Hochrisiko“-Bereichen wie dem Gesundheitswesen klar zu definieren. Die neuen Bedingungen ermöglichen es Kunden, die generative KI von Google für die automatisierte Entscheidungsfindung in diesen Bereichen zu nutzen, allerdings nur unter menschlicher Aufsicht. Der Schritt hat im KI-Bereich Bedenken geweckt, da er sich auf die Anwendung von KI bei Entscheidungen mit hohem Risiko sowie auf Überlegungen zu möglichen Voreingenommenheiten und ethischen Fragen bezieht. Der Schritt von Google reagiert in gewissem Maße auf die Bedenken der Gesellschaft hinsichtlich KI-Anwendungen und spiegelt seine Bemühungen wider, KI-Technologieanwendungen und Risikomanagement in Einklang zu bringen.
Google hat kürzlich seine Nutzungsbedingungen für generative KI aktualisiert und klargestellt, dass Kunden seine generativen KI-Tools für „automatisierte Entscheidungsfindung“ in „Hochrisikobereichen“ wie dem Gesundheitswesen einsetzen können, jedoch nur unter menschlicher Aufsicht. Laut der am Dienstag veröffentlichten neuesten Version der „Generative AI Prohibited Use Policy“ von Google können Kunden die generative KI von Google nutzen, um „automatisierte Entscheidungen“ zu treffen, die „erhebliche nachteilige Auswirkungen“ auf die Rechte des Einzelnen haben können. Kunden können die generative KI von Google nutzen, um Entscheidungen über Beschäftigung, Wohnen, Versicherungen, Sozialfürsorge und andere „Hochrisiko“-Bereiche zu treffen, solange es irgendeine Form menschlicher Aufsicht gibt. Im Bereich der KI bezieht sich die automatisierte Entscheidungsfindung auf Entscheidungen, die von KI-Systemen auf der Grundlage von Sachdaten und abgeleiteten Daten getroffen werden. Beispielsweise könnte ein System automatisch entscheiden, ob ein Kreditantrag genehmigt wird, oder Bewerber überprüfen. Zuvor deuteten Googles Vertragsentwürfe auf ein generelles Verbot des Einsatzes der generativen KI des Unternehmens bei der automatisierten Entscheidungsfindung mit hohem Risiko hin. Aber Google sagte gegenüber TechCrunch, dass Kunden seine generative KI jederzeit nutzen können, um Entscheidungen zu automatisieren, selbst bei Hochrisikoanwendungen, solange es eine menschliche Aufsicht gibt. „Wie bei allen Hochrisikobereichen sind unsere Anforderungen an die menschliche Aufsicht immer in unseren Richtlinien enthalten“, sagte ein Google-Sprecher, als er per E-Mail kontaktiert wurde. „Wir klassifizieren einige Punkte [in den Bedingungen] neu und führen sie klarer auf.“ um den Kunden ein klareres Bild zu vermitteln. „Die wichtigsten KI-Konkurrenten von Google, OpenAI und Anthropic, haben strengere Vorschriften für den Einsatz von KI bei hochriskanten automatisierten Entscheidungen.“ OpenAI verbietet beispielsweise die Nutzung seiner Dienste für automatisierte Entscheidungen in Bezug auf Kredit, Beschäftigung, Wohnen, Bildung, Sozialbewertung und Versicherung. Anthropic erlaubt den Einsatz seiner KI zur Automatisierung der Entscheidungsfindung in Rechts-, Versicherungs-, Gesundheits- und anderen Hochrisikobereichen, allerdings nur unter der Aufsicht einer „qualifizierten Fachkraft“ und von Kunden, die offenlegen müssen, dass sie die KI nutzen zu diesem Zweck. KI, die Entscheidungen automatisiert, die Einzelpersonen betreffen, ist von Aufsichtsbehörden unter die Lupe genommen worden, die Bedenken hinsichtlich der voreingenommenen Ergebnisse geäußert haben, die die Technologie hervorrufen könnte. Untersuchungen deuten darauf hin, dass KI, die beispielsweise zur Genehmigung von Kredit- und Hypothekenanträgen eingesetzt wird, die historische Diskriminierung aufrechterhalten könnte. Human Rights Watch, eine gemeinnützige Organisation, hat ein Verbot von „Social-Scoring“-Systemen gefordert, die ihrer Meinung nach den Zugang der Menschen zu Sozialversicherungsleistungen beeinträchtigen, ihre Privatsphäre gefährden und ein voreingenommenes Profil von ihnen erzeugen könnten. Hochriskante KI-Systeme, darunter solche, die persönliche Kredit- und Beschäftigungsentscheidungen treffen, unterliegen der strengsten Regulierung im Rahmen des EU-Gesetzes zur künstlichen Intelligenz. Anbieter dieser Systeme müssen sich unter anderem in der Datenbank registrieren, ein Qualitäts- und Risikomanagement durchführen, menschliche Vorgesetzte beschäftigen und Vorfälle den zuständigen Behörden melden. In den Vereinigten Staaten hat Colorado kürzlich ein Gesetz verabschiedet, das KI-Entwickler dazu verpflichtet, Informationen über „Hochrisiko“-KI-Systeme offenzulegen und eine Erklärung abzugeben, in der die Fähigkeiten und Einschränkungen des Systems zusammengefasst werden. Unterdessen verbietet die Stadt New York Arbeitgebern, automatisierte Tools zur Überprüfung von Kandidaten für Einstellungsentscheidungen zu verwenden, es sei denn, das Tool wurde im vergangenen Jahr auf Voreingenommenheit geprüft. Diesmal hat Google die Nutzungsbedingungen für KI klargestellt und damit die Haltung des Unternehmens zur Überwachung von KI-Anwendungen deutlich gemacht. Das Ermöglichen automatisierter Entscheidungsfindung in Hochrisikobereichen, aber die Betonung der Bedeutung manueller Überwachung spiegelt nicht nur das Potenzial von KI-Technologieanwendungen wider, sondern spiegelt auch die Wachsamkeit gegenüber potenziellen Risiken wider.
Googles Aktualisierung der Nutzungsbedingungen für KI betont zwar die manuelle Überwachung, spiegelt aber auch die Herausforderungen und Erkundungen wider, denen sich Technologieunternehmen bei der KI-Governance gegenübersehen. Wie Innovation und Risiko im Kontext der rasanten Entwicklung der KI-Technologie in Einklang gebracht werden können, wird ein wichtiges Thema sein, das in Zukunft weiterhin Aufmerksamkeit erfordert.