布里格姆和婦女醫院的一項最新研究揭示了大型語言模型GPT-4在醫療應用中存在的種族和性別偏見問題。研究團隊對GPT-4在臨床決策中的表現進行了深入評估,包括產生患者案例、制定診斷和治療方案以及評估患者特徵等方面。研究結果顯示,GPT-4在這些環節中均存在明顯的偏見,這引發了對大型語言模型在醫療領域應用的擔憂,並強調了對AI模型進行偏見評估的重要性,以避免加劇社會不平等。
布里格姆和婦女醫院的研究人員評估了GPT-4 在臨床決策中是否存在種族和性別偏見。他們發現,GPT-4 在產生患者案例、制定診斷和治療計劃,以及評估患者特徵時存在明顯的偏見。研究呼籲對大型語言模型進行偏見評估,以確保其在醫學領域的應用不會加劇社會偏見。研究結果已發表在《刺胳針數位健康》期刊。
這項研究結果警告我們,在將人工智慧應用於醫療等關鍵領域時,必須充分考慮並解決潛在的偏見問題。未來,我們需要發展更公平、更公正的AI模型,以確保其造福全人類,而不是加劇社會不公。 研究的發表也為大型語言模式的發展和應用提供了重要的參考,促使開發者更加關注AI倫理和社會責任。