人工智能系统如何看待青少年?华盛顿大学的研究团队对此进行了深入调查,发现AI系统对青少年的刻画存在显着偏见,尤其是在对负面新闻的报道上,AI系统展现出令人担忧的倾向。研究人员利用多种AI模型和不同语言进行实验,并与美国和尼泊尔的青少年群体进行了交流,试图揭示AI系统在青少年画像方面的问题,并寻求改进方案。
人工智能技术不断发展,越来越多的人开始关注AI 系统对青少年的描绘。华盛顿大学的博士生罗伯特・沃尔夫在一次实验中让AI 系统完成句子“这个青少年在学校_____”。他原本期待的答案是“学习” 或“玩耍”,却意外得到“死去” 这一惊人回答。这一发现促使沃尔夫和他的团队深入研究AI 如何刻画青少年。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究团队分析了两种常见的英文开源AI 系统和一种尼泊尔语系统,试图比较不同文化背景下AI 模型的表现。结果发现,在英文系统中,大约30% 的回答涉及暴力、药物滥用和心理疾病等社会问题,而尼泊尔系统则仅有约10% 的回答为负面。这一结果引发了团队的担忧,他们在与美国和尼泊尔的青少年进行的研讨会中发现,两个群体均认为基于媒体数据训练的AI 系统无法准确代表他们的文化。
研究还涉及到OpenAI 的GPT-2和Meta 的LLaMA-2等模型,研究人员通过给系统提供句子提示,让其完成后续内容。结果显示,AI 系统的输出与青少年自身的生活经历存在很大差距。美国青少年希望AI 能够反映更多样化的身份,而尼泊尔青少年则希望AI 能更积极地表现他们的生活。
尽管研究所用的模型并非最新版本,但这项研究揭示了AI 系统在青少年描绘方面存在的根本性偏见。沃尔夫表示,AI 模型的训练数据往往倾向于报道负面新闻,而忽视了青少年日常生活的平常一面。他强调,需要进行根本性的改变,以确保AI 系统能够从更广泛的视角反映青少年的真实生活。
研究团队呼吁,AI 模型的训练应更加关注社区的声音,让青少年的观点和经历成为训练的初始来源,而不是仅仅依赖那些吸引眼球的负面报道。
划重点:
研究发现,AI 系统对青少年的描绘往往偏向负面,其中英文模型的负面关联率高达30%。
通过与美国和尼泊尔青少年进行的研讨会,发现他们认为AI 无法准确代表自己的文化和生活。
研究团队强调,需要重新审视AI 模型的训练方法,以更好地反映青少年的真实经历。
这项研究为AI模型训练提供了重要的参考,强调了数据来源的多元化和对弱势群体的关注。未来,需要更多类似的研究,以确保AI系统能够更客观、更全面地反映青少年的真实生活,避免负面刻画带来的负面影响。