布里格姆和妇女医院的一项最新研究揭示了大型语言模型GPT-4在医疗应用中存在的种族和性别偏见问题。该研究团队对GPT-4在临床决策中的表现进行了深入评估,包括生成患者案例、制定诊断和治疗方案以及评估患者特征等方面。研究结果显示,GPT-4在这些环节中均存在明显的偏见,这引发了对大型语言模型在医疗领域应用的担忧,并强调了对AI模型进行偏见评估的重要性,以避免加剧社会不平等。
布里格姆和妇女医院的研究人员评估了 GPT-4 在临床决策中是否存在种族和性别偏见。他们发现,GPT-4 在生成患者案例、制定诊断和治疗计划,以及评估患者特征时存在明显的偏见。研究呼吁对大型语言模型进行偏见评估,以确保其在医学领域的应用不会加剧社会偏见。研究结果已发表在《柳叶刀数字健康》杂志上。
这项研究结果警示我们,在将人工智能应用于医疗等关键领域时,必须充分考虑并解决潜在的偏见问题。未来,我们需要开发更公平、更公正的AI模型,以确保其造福全人类,而不是加剧社会不公。 该研究的发表也为大型语言模型的开发和应用提供了重要的参考,促使开发者更加关注AI伦理和社会责任。