Wie sehen Systeme der künstlichen Intelligenz Teenager? Ein Forschungsteam der University of Washington führte eine eingehende Untersuchung durch und stellte fest, dass das KI-System erhebliche Vorurteile bei der Darstellung von Teenagern aufwies, insbesondere bei der Berichterstattung über negative Nachrichten. Das KI-System zeigte eine besorgniserregende Tendenz. Die Forscher verwendeten verschiedene KI-Modelle und verschiedene Sprachen, um Experimente durchzuführen, und kommunizierten mit Jugendgruppen in den USA und Nepal, um in Jugendporträts die Probleme des KI-Systems aufzudecken und nach Verbesserungslösungen zu suchen.
Die Technologie der künstlichen Intelligenz entwickelt sich weiter und immer mehr Menschen achten auf die Darstellung von Teenagern durch KI-Systeme. In einem Experiment bat Robert Wolf, ein Doktorand an der University of Washington, ein KI-System, den Satz „Dieser Teenager _____ in der Schule“ zu vervollständigen. Ursprünglich erwartete er, dass die Antwort „lernen“ oder „spielen“ wäre, erhielt aber unerwartet die schockierende Antwort „sterben“. Diese Entdeckung veranlasste Wolfe und sein Team, sich eingehender mit der Darstellung von Teenagern durch KI zu befassen.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Das Forschungsteam analysierte zwei gängige englische Open-Source-KI-Systeme und ein nepalesisches Sprachsystem, um die Leistung von KI-Modellen in verschiedenen kulturellen Hintergründen zu vergleichen. Es wurde festgestellt, dass sich im englischen System etwa 30 % der Antworten auf soziale Themen wie Gewalt, Drogenmissbrauch und psychische Erkrankungen bezogen, während im nepalesischen System nur etwa 10 % der Antworten negativ waren. Die Ergebnisse lösten bei dem Team Besorgnis aus, das in Workshops mit Teenagern in den USA und Nepal herausfand, dass beide Gruppen der Meinung waren, dass auf Mediendaten trainierte KI-Systeme ihre Kulturen nicht genau widerspiegelten.
Die Forschung umfasst auch Modelle wie GPT-2 von OpenAI und LLaMA-2 von Meta. Die Forscher stellen dem System Satzaufforderungen zur Verfügung und lassen es den nachfolgenden Inhalt vervollständigen. Die Ergebnisse zeigen, dass zwischen dem Output des KI-Systems und den Lebenserfahrungen der Teenager selbst eine große Lücke besteht. Amerikanische Teenager möchten, dass KI vielfältigere Identitäten widerspiegelt, während nepalesische Teenager möchten, dass KI ihr Leben positiver darstellt.
Obwohl es sich bei dem in der Studie verwendeten Modell nicht um die neueste Version handelt, deckt die Studie grundlegende Verzerrungen in der Darstellung von Teenagern durch KI-Systeme auf. Wolff sagte, dass die Trainingsdaten für KI-Modelle oft dazu neigen, negative Nachrichten zu melden und die gewöhnlichen Aspekte des täglichen Lebens von Teenagern zu ignorieren. Er betonte, dass grundlegende Änderungen erforderlich seien, um sicherzustellen, dass KI-Systeme das wirkliche Leben von Teenagern aus einer breiteren Perspektive widerspiegeln.
Das Forschungsteam fordert, dass beim Training von KI-Modellen die Stimmen der Community stärker berücksichtigt werden, damit die Ansichten und Erfahrungen von Teenagern zur ersten Quelle des Trainings werden können, anstatt sich ausschließlich auf negative Berichte zu verlassen, die Aufmerksamkeit erregen.
Highlight:
Untersuchungen haben ergeben, dass KI-Systeme dazu neigen, Teenager in einem negativen Licht darzustellen, wobei die negative Assoziationsrate des englischen Modells bei bis zu 30 % liegt.
Bei Workshops mit Teenagern in den USA und Nepal wurde festgestellt, dass sie der Meinung waren, dass KI ihre Kultur und ihr Leben nicht genau darstellen könne.
Das Forschungsteam betonte die Notwendigkeit, die Trainingsmethoden von KI-Modellen erneut zu untersuchen, um die realen Erfahrungen von Teenagern besser widerzuspiegeln.
Diese Forschung stellt eine wichtige Referenz für das Training von KI-Modellen dar und betont die Diversifizierung der Datenquellen und die Berücksichtigung gefährdeter Gruppen. Zukünftig sind weitere ähnliche Forschungsarbeiten erforderlich, um sicherzustellen, dass KI-Systeme das wirkliche Leben von Teenagern objektiver und umfassender widerspiegeln und die negativen Auswirkungen negativer Darstellungen vermeiden können.