人工智能系统如何看待青少年?华盛顿大学的研究团队对此进行了深入调查,发现AI系统对青少年的刻画存在显著偏见,尤其是在对负面新闻的报道上,AI系统展现出令人担忧的倾向。研究人员利用多种AI模型和不同语言进行实验,并与美国和尼泊尔的青少年群体进行了交流,试图揭示AI系统在青少年画像方面的问题,并寻求改进方案。
La tecnología de inteligencia artificial se está desarrollando constantemente, y cada vez más personas han comenzado a prestar atención a la representación de los jóvenes en los sistemas de IA. Robert Wolf, un estudiante de doctorado en la Universidad de Washington, le pidió al sistema de IA que completara la oración "Este adolescente en la escuela _____" en un experimento.他原本期待的答案是“学习” 或“玩耍”,却意外得到“死去” 这一惊人回答。这一发现促使沃尔夫和他的团队深入研究AI 如何刻画青少年。
Observaciones de la fuente de imágenes: AI generan imágenes, proveedor de servicios de autorización de imágenes MidJourney
研究团队分析了两种常见的英文开源AI 系统和一种尼泊尔语系统,试图比较不同文化背景下AI 模型的表现。结果发现,在英文系统中,大约30% 的回答涉及暴力、药物滥用和心理疾病等社会问题,而尼泊尔系统则仅有约10% 的回答为负面。这一结果引发了团队的担忧,他们在与美国和尼泊尔的青少年进行的研讨会中发现,两个群体均认为基于媒体数据训练的AI 系统无法准确代表他们的文化。
研究还涉及到OpenAI 的GPT-2和Meta 的LLaMA-2等模型,研究人员通过给系统提供句子提示,让其完成后续内容。结果显示,AI 系统的输出与青少年自身的生活经历存在很大差距。美国青少年希望AI 能够反映更多样化的身份,而尼泊尔青少年则希望AI 能更积极地表现他们的生活。
尽管研究所用的模型并非最新版本,但这项研究揭示了AI 系统在青少年描绘方面存在的根本性偏见。沃尔夫表示,AI 模型的训练数据往往倾向于报道负面新闻,而忽视了青少年日常生活的平常一面。他强调,需要进行根本性的改变,以确保AI 系统能够从更广泛的视角反映青少年的真实生活。
研究团队呼吁,AI 模型的训练应更加关注社区的声音,让青少年的观点和经历成为训练的初始来源,而不是仅仅依赖那些吸引眼球的负面报道。
Agujas:
研究发现,AI 系统对青少年的描绘往往偏向负面,其中英文模型的负面关联率高达30%。
通过与美国和尼泊尔青少年进行的研讨会,发现他们认为AI 无法准确代表自己的文化和生活。
研究团队强调,需要重新审视AI 模型的训练方法,以更好地反映青少年的真实经历。
这项研究为AI模型训练提供了重要的参考,强调了数据来源的多元化和对弱势群体的关注。未来,需要更多类似的研究,以确保AI系统能够更客观、更全面地反映青少年的真实生活,避免负面刻画带来的负面影响。