การศึกษาใหม่จากโรงพยาบาลบริกแฮมและโรงพยาบาลสตรีเผยให้เห็นปัญหาอคติทางเชื้อชาติและเพศในการใช้งานทางการแพทย์ของโมเดลภาษาขนาดใหญ่ GPT-4 ทีมวิจัยได้ทำการประเมินเชิงลึกเกี่ยวกับประสิทธิภาพของ GPT-4 ในการตัดสินใจทางคลินิก ซึ่งรวมถึงการสร้างกรณีผู้ป่วย จัดทำแผนการวินิจฉัยและการรักษา และประเมินลักษณะเฉพาะของผู้ป่วย ผลการวิจัยแสดงให้เห็นว่า GPT-4 มีอคติที่ชัดเจนในแต่ละลิงก์ ทำให้เกิดความกังวลเกี่ยวกับการใช้แบบจำลองภาษาขนาดใหญ่ในสาขาการแพทย์ และเน้นย้ำถึงความสำคัญของการประเมินอคติของแบบจำลอง AI เพื่อหลีกเลี่ยงการทำให้ความไม่เท่าเทียมกันทางสังคมรุนแรงขึ้น
นักวิจัยที่ Brigham and Women's Hospital ประเมิน GPT-4 สำหรับอคติทางเชื้อชาติและเพศในการตัดสินใจทางคลินิก พวกเขาพบว่า GPT-4 มีอคติที่สำคัญในการสร้างกรณีผู้ป่วย การพัฒนาแผนการวินิจฉัยและการรักษา และการประเมินลักษณะเฉพาะของผู้ป่วย การวิจัยเรียกร้องให้มีการประเมินอคติของแบบจำลองภาษาขนาดใหญ่เพื่อให้แน่ใจว่าการใช้แบบจำลองเหล่านี้ในทางการแพทย์ไม่ทำให้อคติทางสังคมรุนแรงขึ้น ผลการวิจัยได้รับการตีพิมพ์ในวารสาร The Lancet Digital Health
การค้นพบนี้เป็นคำเตือนว่าปัญหาอคติที่อาจเกิดขึ้นจะต้องได้รับการพิจารณาและแก้ไขอย่างเต็มที่เมื่อใช้ปัญญาประดิษฐ์กับด้านที่สำคัญ เช่น การดูแลสุขภาพ ในอนาคต เราจำเป็นต้องพัฒนาโมเดล AI ที่ยุติธรรมและยุติธรรมมากขึ้น เพื่อให้แน่ใจว่าโมเดลเหล่านี้จะเป็นประโยชน์ต่อมวลมนุษยชาติ แทนที่จะทำให้ความอยุติธรรมทางสังคมรุนแรงขึ้น การตีพิมพ์งานวิจัยนี้ยังให้ข้อมูลอ้างอิงที่สำคัญสำหรับการพัฒนาและการประยุกต์ใช้โมเดลภาษาขนาดใหญ่ กระตุ้นให้นักพัฒนาให้ความสำคัญกับจริยธรรมของ AI และความรับผิดชอบต่อสังคมมากขึ้น