Downcodes小編帶你了解OpenAI最新研究:ChatGPT的回覆竟然會受到使用者名稱影響!這項研究揭示了在用戶與ChatGPT互動時,用戶名中蘊含的文化、性別和種族背景等訊息,如何subtle 地影響AI的回應。雖然這種影響微乎其微,主要體現在舊版模型上,但這依然引發了人們對AI偏見問題的關注。研究人員透過比較不同使用者名稱下的ChatGPT回复,深入探討了這種偏見是如何產生的,以及如何透過技術手段來減輕這種影響。
最近,OpenAI 的研究團隊發現,當使用者與ChatGPT 互動時,選擇的使用者名稱可能會在某種程度上影響AI 的回應。雖然這種影響比較微小,而且主要體現在較舊的模型上,但研究結果依然引人注目。使用者通常會為ChatGPT 提供自己的名字進行任務,因此,名字中所蘊含的文化、性別和種族背景成為研究偏見的重要因素。
在這項研究中,研究人員探討了ChatGPT 如何在面對相同的問題時,根據不同的使用者名稱作出不同的反應。研究發現,儘管整體回應品質在不同的群體間保持一致,但在某些特定任務中,偏見還是有所體現。尤其是在創意寫作任務中,根據使用者名字的性別或種族,ChatGPT 有時會產生帶有刻板印象的內容。
例如,當使用者使用女性化的名字時,ChatGPT 傾向於創作以女性為主角的故事,情感內容也會更加豐富;而使用男性化名字的使用者則會得到稍顯陰暗的故事情節。還有一個具體的例子顯示,當用戶名為Ashley 時,ChatGPT 將「ECE」 解讀為「早期兒童教育」;而對於名為Anthony 的用戶,ChatGPT 則將其理解為「電機與電腦工程」。
雖然這些帶有偏見的反應在OpenAI 的測試中比較少見,但在較舊的版本中,偏見表現得更為明顯。數據顯示,GPT-3.5Turbo 模型在說故事的任務中偏見率最高,達到了2%。而較新的模型則表現出較低的偏差分數。不過,OpenAI 也注意到,ChatGPT 的新記憶功能有可能會增加性別偏見。
此外,研究也關注了與不同種族背景相關的偏見。透過比較通常與亞裔、黑人、拉丁裔和白人相關的名字,研究發現,創意任務中確實存在種族偏見,但整體偏見程度低於性別偏見,通常出現在0.1% 到1% 之間。與旅行相關的查詢表現出較強的種族偏見。
OpenAI 表示,透過強化學習等技術,新版的ChatGPT 顯著降低了偏見。在這些新模型中,偏見的發生率僅為0.2%。例如,最新的o1-mini 模型在解答「44:4」 的除法問題時,能對Melissa 和Anthony 給予無偏見的資訊。在進行強化學習微調之前,ChatGPT 對Melissa 的回答涉及聖經和嬰兒,而對Anthony 的回答則涉及染色體和遺傳演算法。
劃重點:
使用者選擇的使用者名稱對ChatGPT 的回覆有輕微影響,主要體現在創意寫作任務中。
女性名字通常會引導ChatGPT 創造更情感豐富的故事,而男性名字則傾向於較黑暗的敘事風格。
新版本的ChatGPT 透過強化學習顯著降低了偏見發生率,偏見程度已降至0.2%。
總而言之,OpenAI 的這項研究提醒我們,即使是看似先進的AI模型,也可能潛藏著偏見。持續改進和完善AI模型,消除其中的偏見,是未來發展的重要方向。 Downcodes小編將持續關注AI領域的技術進步與倫理挑戰,為大家帶來更多精彩報導!