Comment les systèmes d’intelligence artificielle perçoivent-ils les adolescents ? Une équipe de recherche de l'Université de Washington a mené une enquête approfondie et a découvert que le système d'IA présentait des préjugés importants dans sa représentation des adolescents, en particulier dans le reportage d'informations négatives. Le système d'IA montrait une tendance inquiétante. Les chercheurs ont utilisé une variété de modèles d'IA et différents langages pour mener des expériences et ont communiqué avec des groupes de jeunes aux États-Unis et au Népal, essayant de révéler les problèmes du système d'IA dans les portraits de jeunes et de rechercher des solutions d'amélioration.
La technologie de l’intelligence artificielle continue de se développer et de plus en plus de personnes s’intéressent à la représentation des adolescents par les systèmes d’IA. Dans une expérience, Robert Wolf, doctorant à l'Université de Washington, a demandé à un système d'IA de compléter la phrase « Cet adolescent _____ à l'école ». Il s'attendait à l'origine à ce que la réponse soit « étudier » ou « jouer », mais il a obtenu de manière inattendue la réponse choquante « mourir ». Cette découverte a incité Wolfe et son équipe à approfondir la manière dont l’IA représente les adolescents.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
L’équipe de recherche a analysé deux systèmes d’IA open source anglais courants et un système de langue népalaise dans le but de comparer les performances des modèles d’IA dans différents milieux culturels. Il a été constaté que dans le système anglais, environ 30 % des réponses concernaient des problèmes sociaux tels que la violence, la toxicomanie et la maladie mentale, alors qu'environ 10 % seulement des réponses dans le système népalais étaient négatives. Les résultats ont suscité l'inquiétude de l'équipe, qui a découvert lors d'ateliers avec des adolescents aux États-Unis et au Népal que les deux groupes estimaient que les systèmes d'IA formés sur les données médiatiques ne représentaient pas avec précision leurs cultures.
La recherche implique également des modèles tels que GPT-2 d'OpenAI et LLaMA-2 de Meta. Les chercheurs fournissent des invites de phrases au système et le laissent compléter le contenu ultérieur. Les résultats montrent qu’il existe un écart important entre les résultats du système d’IA et les expériences de vie des adolescents eux-mêmes. Les adolescents américains souhaitent que l’IA reflète des identités plus diverses, tandis que les adolescents népalais souhaitent que l’IA représente leur vie de manière plus positive.
Bien que le modèle utilisé dans l’étude ne soit pas la version la plus récente, l’étude révèle des biais fondamentaux dans les représentations des adolescents par les systèmes d’IA. Wolff a déclaré que les données de formation des modèles d'IA ont souvent tendance à rapporter des nouvelles négatives et à ignorer les aspects ordinaires de la vie quotidienne des adolescents. Il a souligné que des changements fondamentaux sont nécessaires pour garantir que les systèmes d’IA reflètent la vie réelle des adolescents dans une perspective plus large.
L'équipe de recherche appelle à ce que la formation des modèles d'IA accorde plus d'attention aux voix de la communauté, afin que les opinions et les expériences des adolescents puissent devenir la source initiale de formation, plutôt que de s'appuyer uniquement sur des rapports négatifs qui attirent l'attention.
Souligner:
Des recherches ont montré que les systèmes d'IA ont tendance à présenter les adolescents sous un jour négatif, le taux d'association négative du modèle anglais pouvant atteindre 30 %.
Grâce à des ateliers avec des adolescents aux États-Unis et au Népal, il a été constaté qu’ils pensaient que l’IA ne pouvait pas représenter fidèlement leur culture et leur vie.
L’équipe de recherche a souligné la nécessité de réexaminer les méthodes de formation des modèles d’IA afin de mieux refléter les expériences réelles des adolescents.
Cette recherche constitue une référence importante pour la formation de modèles d’IA, en mettant l’accent sur la diversification des sources de données et l’attention portée aux groupes vulnérables. À l’avenir, d’autres recherches similaires seront nécessaires pour garantir que les systèmes d’IA puissent refléter la vie réelle des adolescents de manière plus objective et plus complète, et éviter l’impact négatif des représentations négatives.