ブリガム アンド ウィメンズ病院の新しい研究では、大規模言語モデル GPT-4 の医療応用における人種および性別の偏見の問題が明らかになりました。研究チームは、患者症例の生成、診断および治療計画の策定、患者特性の評価などの臨床意思決定における GPT-4 のパフォーマンスの詳細な評価を実施しました。この調査結果は、GPT-4 にはこれらの関連性のそれぞれに明らかなバイアスがあることが示されており、医療分野での大規模な言語モデルの使用に対する懸念が生じており、社会的不平等の悪化を避けるために AI モデルのバイアス評価の重要性が強調されています。
ブリガム アンド ウィメンズ病院の研究者は、臨床上の意思決定における人種および性別の偏見について GPT-4 を評価しました。彼らは、GPT-4 が患者症例の生成、診断と治療計画の策定、患者の特徴の評価において重大な偏りがあることを発見しました。研究では、医療における使用が社会的偏見を悪化させないようにするため、大規模な言語モデルのバイアス評価が求められています。この研究結果は、雑誌「The Lancet Digital Health」に掲載されました。
この調査結果は、医療などの重要な分野に人工知能を適用する際には、潜在的な偏見の問題を十分に考慮し、対処する必要があるという警告となっています。将来的には、社会的不公平を悪化させるのではなく、全人類に利益をもたらす、より公平で公正な AI モデルを開発する必要があります。 この研究の発表は、大規模な言語モデルの開発と応用に対する重要な参考資料ともなり、開発者が AI の倫理と社会的責任にもっと注意を払うよう促します。