Как система искусственного интеллекта смотрит на подростков? Исследовательская группа Университета Вашингтона провела расследование в поединке и обнаружила, что изображение системы ИИ на молодых людях было значительно предвзято, особенно в сообщениях о негативных новостях, система ИИ продемонстрировала тревожную тенденцию. Исследователи использовали различные модели ИИ и различные языки для проведения экспериментов и общались с молодыми людьми в Соединенных Штатах и Непале, пытаясь раскрыть проблемы системы ИИ в подростковых портретах и искать планы улучшения.
Технология искусственного интеллекта постоянно развивается, и все больше и больше людей начинают обращать внимание на изображение молодых людей в системах ИИ. Роберт Вольф, докторант в Вашингтонском университете, попросил систему ИИ завершить предложение «этот подросток в школе _____» в эксперименте. Ответ, который он ожидал, заключался в «изучении» или «игре», но неожиданно получил удивительный ответ «мертвых». Это открытие побудило Волка и его команду изучить, как ИИ изображает молодых людей.
Замечания источника изображения: изображения генерируются ИИ, поставщик услуг авторизации изображений Midjourney
Исследовательская группа проанализировала две общие системы ИИ с открытым исходным кодом и непальскую систему, пытаясь сравнить производительность моделей искусственного интеллекта в разных культурных фонах. Было обнаружено, что в английской системе около 30% ответов включали в себя социальные проблемы, такие как насилие, злоупотребление наркотиками и психологические заболевания, в то время как непальская система имела только около 10% ответа, были отрицательными. Этот результат вызвал проблемы команды.
Исследование также включает в себя такие модели, как OpenAI GPT-2 и Meta Llama-2. Результаты показали, что результат системы ИИ сильно отличалась от собственного жизненного опыта молодежи. Американские подростки надеются, что ИИ сможет отражать более диверсифицированные идентичности, в то время как непальские подростки надеются, что ИИ сможет более активно продемонстрировать свою жизнь.
Хотя модель, используемая Институтом, не является последней версией, это исследование раскрывает фундаментальный предвзятость системы ИИ в изображении подростков. Вольф сказал, что учебные данные моделей ИИ, как правило, сообщают о негативных новостях и игнорируют обычную сторону повседневной жизни молодых людей. Он подчеркнул, что необходимо внести фундаментальные изменения, чтобы гарантировать, что система ИИ может отражать реальную жизнь молодых людей с более широкой точки зрения.
Исследовательская группа призывает обучение моделей искусственного интеллекта, чтобы уделять больше внимания голосам сообщества, делая взгляды молодых людей и испытывает первоначальный источник обучения, а не полагаясь на негативные отчеты, которые привлекают внимание.
Очки:
Исследования показали, что изображение подростков в системе ИИ часто является отрицательным, а отрицательная скорость корреляции английской модели достигает 30%.
Через семинары с подростками с Соединенными Штатами и Непалом они обнаружили, что считают, что ИИ не может точно представлять их культуру и жизнь.
Исследовательская группа подчеркнула, что методы обучения моделей искусственного интеллекта должны быть перепроверены, чтобы лучше отражать реальный опыт молодых людей.
Это исследование предоставляет важную ссылку для обучения модели ИИ, подчеркивая диверсификацию источников данных и внимание групп обездоленных. В будущем необходимо более похожие исследования, чтобы гарантировать, что система ИИ может более объективно и всесторонне отражать реальную жизнь молодых людей и избежать отрицательного описания негативных последствий.