เมื่อเร็วๆ นี้ การศึกษาที่ตีพิมพ์ในวารสาร "JAMA Network Open" ได้รับความสนใจอย่างกว้างขวาง โดย ChatGPT-4 ของ OpenAI มีประสิทธิภาพดีเยี่ยมในการทดสอบความแม่นยำในการวินิจฉัยทางการแพทย์ โดยมีอัตราความแม่นยำในการวินิจฉัยสูงถึง 90% เกินกว่าการใช้เครื่องมือนี้เพื่อการช่วยเหลือด้วยซ้ำ การวินิจฉัยของแพทย์ (76%) การศึกษานี้ทดสอบแพทย์ 50 คน และใช้กรณีที่ซับซ้อนและเกิดขึ้นจริง ซึ่งไม่ได้เผยแพร่ เพื่อหลีกเลี่ยงอิทธิพลของความรู้เดิมอย่างมีประสิทธิภาพ การค้นพบนี้ไม่เพียงแต่เน้นถึงศักยภาพมหาศาลของปัญญาประดิษฐ์ในสาขาการแพทย์ แต่ยังเผยให้เห็นถึงความท้าทายที่แพทย์อาจเผชิญเมื่อใช้เครื่องมือ AI เช่น ความมั่นใจมากเกินไปในการวินิจฉัยของตนเอง และการประเมินความสามารถของเครื่องมือ AI ต่ำเกินไป
ในช่วงไม่กี่ปีที่ผ่านมา การประยุกต์ใช้ปัญญาประดิษฐ์ในวงการแพทย์ได้ขยายตัวอย่างต่อเนื่อง ผลการศึกษาเมื่อเร็วๆ นี้แสดงให้เห็นว่า ChatGPT-4 ซึ่งเป็นแชทบอตที่พัฒนาโดย OpenAI มีความแม่นยำในการวินิจฉัยเหนือกว่าแพทย์ ทำให้เกิดข้อถกเถียงและข้อกังวลอย่างกว้างขวาง
การศึกษานี้ตีพิมพ์ในวารสาร JAMA Network Open โดยทดสอบการปฏิบัติงานของแพทย์ 50 คน ในกรณีที่ซับซ้อน 6 กรณี ผลการวิจัยพบว่าแพทย์ที่ใช้บริการ ChatGPT ได้คะแนนเฉลี่ย 76% ในขณะที่แพทย์ที่ไม่ได้ใช้เครื่องมือได้คะแนนเพียง 74% น่าตกใจที่ ChatGPT ได้รับความแม่นยำในการวินิจฉัยถึง 90% เมื่อใช้เพียงอย่างเดียว
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
เพื่อหลีกเลี่ยงความรู้เดิมของผู้เข้าร่วมหรือโมเดล AI นักวิจัยจึงใช้ประวัติเคสจริงที่ไม่ได้เผยแพร่ กรณีดังกล่าวรวมถึงสภาวะทางการแพทย์ที่ซับซ้อน เช่น โรคหลอดเลือดอุดตัน ซึ่งเป็นโรคที่พบได้ยากที่มักถูกมองข้าม แพทย์จะให้การวินิจฉัยที่เป็นไปได้ ขจัดทางเลือกอื่น และแนะนำขั้นตอนการวินิจฉัยถัดไปโดยใช้การให้คะแนนจากผู้เชี่ยวชาญทางการแพทย์อิสระ แม้ว่าแพทย์จำนวนมากจะขับเคลื่อนโดย ChatGPT แต่พวกเขาก็ยังคงดิ้นรนเพื่อให้เข้ากับประสิทธิภาพของ AI
การวิจัยเผยให้เห็นปัญหาหลัก 2 ประการ ประการแรก แพทย์มักจะยึดติดกับการวินิจฉัยเบื้องต้น โดยเฉพาะอย่างยิ่งเมื่อคำแนะนำของ ChatGPT ขัดแย้งกับความเชื่อของพวกเขา ประการที่สอง แพทย์จำนวนมากไม่ได้ใช้ประโยชน์จากความสามารถของเครื่องมือ AI อย่างเต็มที่ โดยมักจะถามคำถามแคบๆ โดยไม่ได้วิเคราะห์ประวัติเคสอย่างครบถ้วน
ผู้เชี่ยวชาญเชื่อว่าเครื่องมือ AI สมัยใหม่ได้แสดงศักยภาพที่ยอดเยี่ยมโดยใช้แบบจำลองภาษาเพื่อทำการวิเคราะห์โดยละเอียดเกี่ยวกับกรณีที่ซับซ้อน ต่างจากการวินิจฉัยโดยใช้คอมพิวเตอร์ช่วยตั้งแต่เนิ่นๆ เครื่องมือ AI สมัยใหม่ไม่ได้พยายามจำลองการใช้เหตุผลของมนุษย์ แต่เก่งกว่าด้วยการประมวลผลและทำนายรูปแบบภาษา
อย่างไรก็ตาม ผู้เชี่ยวชาญเตือนว่าการบูรณาการ AI เข้ากับขั้นตอนการทำงานทางการแพทย์จะไม่ราบรื่น ความท้าทายที่พบบ่อย ได้แก่ การขาดการฝึกอบรม AI การต่อต้านของแพทย์ต่อ AI และข้อกังวลด้านจริยธรรมและกฎหมาย ปัจจัยเหล่านี้อาจขัดขวางศักยภาพของ AI ในฐานะ "เครื่องมือส่งเสริมแพทย์" และส่งผลต่อบทบาทในการปรับปรุงความแม่นยำในการวินิจฉัย
เมื่อนักวิจัยวิเคราะห์บันทึกการแชท พบว่าแพทย์จำนวนมากเพิกเฉยต่อคำแนะนำของ ChatGPT การต่อต้านนี้ส่วนหนึ่งมาจากความมั่นใจในความเชี่ยวชาญของตนเองมากเกินไป แต่ยังมาจากการขาดความเข้าใจในความสามารถในการวินิจฉัยของ AI
ผลการศึกษาครั้งนี้เน้นย้ำถึงความสำคัญของการทำงานร่วมกันระหว่างนักพัฒนา AI และผู้เชี่ยวชาญทางการแพทย์เพื่อเพิ่มความไว้วางใจและการใช้งาน ในอนาคต บทบาทของ AI ในด้านการแพทย์อาจขยายไปไกลกว่าการวินิจฉัยไปยังด้านต่างๆ เช่น การวางแผนการรักษาเฉพาะบุคคล และการจัดการผู้ป่วย แม้ว่า AI จะเป็นเครื่องมือที่โดดเด่น แต่วิธีการบูรณาการเข้ากับการปฏิบัติทางการแพทย์อย่างมีประสิทธิผลยังคงต้องใช้ความพยายามอย่างมาก
ไฮไลท์:
ChatGPT-4 แสดงความแม่นยำ 90% ในการศึกษาการวินิจฉัยทางการแพทย์ แซงหน้าแพทย์ที่ใช้ ChatGPT ในการช่วยเหลือ 76%
แพทย์มักมั่นใจมากเกินไปในการวินิจฉัยเบื้องต้นและเพิกเฉยต่อคำแนะนำของ AI
ศักยภาพของเครื่องมือ AI ในการดูแลสุขภาพนั้นมีมาก แต่การขาดการฝึกอบรมและความไว้วางใจถือเป็นความท้าทายที่สำคัญในปัจจุบัน
โดยรวมแล้ว งานวิจัยนี้ได้ให้มุมมองใหม่เกี่ยวกับการประยุกต์ใช้ปัญญาประดิษฐ์ในวงการแพทย์ และยังทำให้เกิดประเด็นต่างๆ มากมายที่จำเป็นต้องได้รับการสำรวจเพิ่มเติม ในอนาคต การทำงานร่วมกันอย่างมีประสิทธิภาพระหว่าง AI และแพทย์จะเป็นกุญแจสำคัญในการปรับปรุงความแม่นยำและประสิทธิภาพของการวินิจฉัยทางการแพทย์ จำเป็นต้องมีการวิจัยเพิ่มเติมเพื่อแก้ไขปัญหาการยอมรับด้านจริยธรรม กฎหมาย และการยอมรับของแพทย์ เพื่อให้ตระหนักถึงศักยภาพของ AI ในสาขาการแพทย์ได้ดียิ่งขึ้น