การศึกษาใหม่จากมหาวิทยาลัยนิวยอร์กเผยให้เห็นช่องโหว่ที่น่าตกใจของแบบจำลองภาษาขนาดใหญ่ (LLM) ในการฝึกอบรมข้อมูล การวิจัยแสดงให้เห็นว่าข้อมูลเท็จจำนวนน้อยมาก แม้จะคิดเป็นเพียง 0.001% ของข้อมูลการฝึกอบรม ก็อาจส่งผลกระทบร้ายแรงต่อความถูกต้องและความน่าเชื่อถือของ LLM ทำให้เกิดข้อผิดพลาดร้ายแรง การค้นพบนี้มีความสำคัญอย่างยิ่งในวงการแพทย์ ซึ่งข้อมูลทางการแพทย์ที่ผิดพลาดอาจส่งผลเสียต่อความปลอดภัยของผู้ป่วยได้โดยตรง งานวิจัยนี้ได้รับการตีพิมพ์ในวารสาร Nature Medicine ซึ่งทำให้เกิดความกังวลอย่างกว้างขวางเกี่ยวกับความปลอดภัยและความน่าเชื่อถือของ AI ในการใช้งานทางการแพทย์
เมื่อเร็วๆ นี้ ทีมวิจัยจากมหาวิทยาลัยนิวยอร์กได้ตีพิมพ์ผลการศึกษาที่เปิดเผยถึงช่องโหว่ของโมเดลภาษาขนาดใหญ่ (LLM) ในการฝึกอบรมข้อมูล พวกเขาพบว่าแม้แต่ข้อมูลเท็จจำนวนเล็กน้อย ซึ่งคิดเป็นเพียง 0.001% ของข้อมูลการฝึกอบรม ก็อาจทำให้เกิดข้อผิดพลาดที่สำคัญในแบบจำลองทั้งหมดได้ การค้นพบนี้เป็นเรื่องที่น่ากังวลเป็นพิเศษสำหรับวงการแพทย์ ซึ่งข้อมูลที่ผิดอาจส่งผลโดยตรงต่อความปลอดภัยของผู้ป่วย
นักวิจัยชี้ให้เห็นในบทความที่ตีพิมพ์ในวารสาร "Nature Medicine" ว่า แม้ว่า LLM จะทำงานได้ดี หากมีการใส่ข้อมูลเท็จลงในข้อมูลการฝึกอบรม โมเดลเหล่านี้อาจยังทำงานได้แย่กว่าโมเดลที่ไม่ได้รับการฝึกอบรมในเกณฑ์มาตรฐานการประเมินโอเพ่นซอร์สบางตัว ก็ดีเหมือนกัน ซึ่งหมายความว่าภายใต้การทดสอบตามปกติ เราอาจไม่สามารถตรวจพบความเสี่ยงที่อาจเกิดขึ้นในโมเดลเหล่านี้ได้
เพื่อทดสอบสิ่งนี้ ทีมวิจัยได้ทำการทดลองกับชุดข้อมูลการฝึกอบรมที่เรียกว่า "The Pile" ซึ่งพวกเขาจงใจเพิ่มบทความปลอมทางการแพทย์ที่สร้างโดย AI จำนวน 150,000 ชิ้น พวกเขาสร้างเนื้อหาในเวลาเพียง 24 ชั่วโมง และการศึกษาพบว่าการแทนที่ 0.001% ของเนื้อหาในชุดข้อมูล แม้แต่เครื่องหมายการฝึกอบรมเล็กๆ น้อยๆ 1 ล้านตัว ก็ส่งผลให้มีเนื้อหาที่เป็นอันตรายเพิ่มขึ้น 4.8% กระบวนการนี้มีราคาไม่แพงมาก โดยมีราคาเพียง 5 ดอลลาร์เท่านั้น
การโจมตีที่เป็นพิษต่อข้อมูลนี้ไม่จำเป็นต้องสัมผัสโดยตรงกับน้ำหนักของโมเดล แต่ผู้โจมตีสามารถลดประสิทธิภาพของ LLM ได้ง่ายๆ โดยการเผยแพร่ข้อมูลที่เป็นอันตรายบนเครือข่าย ทีมวิจัยเน้นย้ำว่าการค้นพบนี้เน้นย้ำถึงความเสี่ยงที่สำคัญเมื่อใช้เครื่องมือ AI ในสาขาการแพทย์ ในเวลาเดียวกัน พวกเขายังกล่าวด้วยว่ามีกรณีที่เกี่ยวข้องซึ่งแสดงให้เห็นว่าแพลตฟอร์มทางการแพทย์ AI บางอย่าง เช่น MyChart มักจะสร้างข้อมูลที่ไม่ถูกต้องเมื่อตอบคำถามของผู้ป่วยโดยอัตโนมัติ ซึ่งก่อให้เกิดปัญหากับผู้ป่วย
ดังนั้น นักวิจัยจึงเรียกร้องให้นักพัฒนา AI และผู้ให้บริการทางการแพทย์ตระหนักถึงช่องโหว่นี้อย่างชัดเจนเมื่อพัฒนา LLM ทางการแพทย์ พวกเขาแนะนำว่าไม่ควรใช้ LLM สำหรับงานสำคัญๆ เช่น การวินิจฉัยหรือการรักษา จนกว่าจะมั่นใจในความปลอดภัยได้ในอนาคต
ไฮไลท์:
การวิจัยแสดงให้เห็นว่าข้อมูลเท็จเพียง 0.001% เท่านั้นที่สามารถทำให้โมเดลภาษาขนาดใหญ่ (LLM) ไม่มีประสิทธิภาพ
ในวงการแพทย์ การแพร่กระจายของข้อมูลเท็จอาจส่งผลกระทบร้ายแรงต่อความปลอดภัยของผู้ป่วย
นักวิจัยขอแนะนำว่าไม่ควรใช้ LLM สำหรับงานทางการแพทย์ที่สำคัญ เช่น การวินิจฉัยหรือการรักษา จนกว่าจะมั่นใจในความปลอดภัย
ผลการศึกษาครั้งนี้เตือนเราว่าก่อนที่จะนำแบบจำลองทางภาษาขนาดใหญ่ไปใช้กับสาขาที่สำคัญ เช่น การดูแลทางการแพทย์ เราต้องเสริมสร้างการวิจัยเกี่ยวกับความปลอดภัยของข้อมูลและความน่าเชื่อถือของแบบจำลอง เพื่อให้มั่นใจในความปลอดภัยและประสิทธิผล และหลีกเลี่ยงความเสี่ยงที่อาจเกิดขึ้น