ในช่วงไม่กี่ปีที่ผ่านมา การประยุกต์ใช้ปัญญาประดิษฐ์ในวงการแพทย์ได้รับความสนใจอย่างมาก โดยเฉพาะแชทบอทที่นำเสนอโดย ChatGPT ซึ่งมีความหวังสูง อย่างไรก็ตาม การศึกษาใหม่เผยให้เห็นข้อจำกัดของ AI ในการวินิจฉัยทางการแพทย์ บรรณาธิการของ Downcodes จะตีความงานวิจัยนี้ที่ตีพิมพ์ในวารสาร "JAMA Network Open" และวิเคราะห์สถานะปัจจุบันและทิศทางการพัฒนาในอนาคตของการวินิจฉัยทางการแพทย์โดยใช้ AI
ข้อความ: ในช่วงไม่กี่ปีที่ผ่านมา การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) ในวงการแพทย์ได้รับความสนใจเพิ่มมากขึ้น โดยเฉพาะอย่างยิ่ง แชทบอท เช่น ChatGPT ได้รับการคาดหวังจากโรงพยาบาลหลายแห่งเพื่อใช้เป็นเครื่องมือเสริมในการปรับปรุงประสิทธิภาพการวินิจฉัยของแพทย์ อย่างไรก็ตาม ผลการศึกษาที่เพิ่งเปิดตัวใหม่แสดงให้เห็นว่าการใช้ ChatGPT ไม่ได้ช่วยปรับปรุงความสามารถในการวินิจฉัยของแพทย์ได้อย่างมีนัยสำคัญ การศึกษาซึ่งตีพิมพ์ในวารสาร JAMA Network Open เผยให้เห็นถึงศักยภาพและข้อจำกัดของ AI ในการวินิจฉัยทางการแพทย์
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
ในการศึกษา ผู้เข้าร่วมคือแพทย์ 50 คน ซึ่งรวมถึงแพทย์ที่เข้ารับการรักษา 26 คน และแพทย์ประจำบ้าน 24 คน พวกเขาถูกขอให้ทำการวินิจฉัยจากผู้ป่วยจริง 6 รายภายในหนึ่งชั่วโมง เพื่อประเมินผลเสริมของ ChatGPT นักวิจัยได้แบ่งแพทย์ออกเป็นสองกลุ่ม กลุ่มหนึ่งสามารถใช้ ChatGPT และทรัพยากรทางการแพทย์แบบดั้งเดิมได้ และอีกกลุ่มหนึ่งสามารถใช้เพียงทรัพยากรแบบดั้งเดิมเท่านั้น เช่น แพลตฟอร์มข้อมูลทางคลินิก UpToDate
ผลการวิจัยพบว่าแพทย์ที่ใช้ ChatGPT ได้คะแนน 76% ในการวินิจฉัย ในขณะที่แพทย์ที่ใช้ทรัพยากรแบบเดิมเพียงอย่างเดียวได้คะแนน 74% เมื่อเปรียบเทียบกันแล้ว ChatGPT ได้รับคะแนนการวินิจฉัยถึง 90% ด้วยตัวมันเอง แม้ว่า ChatGPT จะทำงานได้ดีเมื่อทำงานโดยอิสระ แต่การใช้งานร่วมกับแพทย์ไม่ได้นำไปสู่การปรับปรุงที่สำคัญ ซึ่งทำให้ทีมวิจัยประหลาดใจ
อีธาน โกห์ ผู้ร่วมเขียนงานวิจัยชิ้นแรกและนักวิจัยหลังปริญญาเอกที่ Stanford Center for Clinical Excellence กล่าวว่าการศึกษานี้ไม่ได้ออกแบบมาให้ดำเนินการในสถานพยาบาลจริง แต่อาศัยข้อมูลจำลอง ดังนั้นผลลัพธ์จึงไม่เกี่ยวข้องกับเพศ ถูกจำกัด เขาชี้ให้เห็นว่าความซับซ้อนที่แพทย์ต้องเผชิญเมื่อต้องรับมือกับผู้ป่วยจริงไม่สามารถสะท้อนให้เห็นได้อย่างเต็มที่ในการทดลอง
แม้ว่าการวิจัยจะแสดงให้เห็นว่า ChatGPT ทำงานได้ดีกว่าแพทย์บางคนในการวินิจฉัย แต่ก็ไม่ได้หมายความว่า AI จะมาแทนที่การตัดสินใจของแพทย์ได้ Goh เน้นย้ำว่าแพทย์ยังคงต้องรักษาการกำกับดูแลและวิจารณญาณเมื่อใช้เครื่องมือ AI นอกจากนี้ แพทย์อาจดื้อรั้นเมื่อทำการวินิจฉัย และการวินิจฉัยเบื้องต้นอาจส่งผลต่อการยอมรับคำแนะนำของ AI นี่เป็นทิศทางที่การวิจัยในอนาคตต้องให้ความสำคัญ
หลังจากกระบวนการวินิจฉัยทางการแพทย์สิ้นสุดลง แพทย์ยังต้องตอบคำถามใหม่ๆ เช่น "จะดำเนินขั้นตอนการรักษาที่ถูกต้องได้อย่างไร" และ "จำเป็นต้องมีการทดสอบอะไรบ้างเพื่อเป็นแนวทางในขั้นตอนต่อไปของผู้ป่วย" การประยุกต์ใช้ AI ในวงการแพทย์ยังคงมีแนวโน้มในวงกว้าง แต่ประสิทธิภาพและการนำไปประยุกต์ใช้ในทางปฏิบัติทางคลินิกยังคงต้องมีการสำรวจในเชิงลึก
โดยรวมแล้ว การศึกษาครั้งนี้เตือนเราว่าการประยุกต์ใช้ AI ในวงการแพทย์ไม่ได้เกิดขึ้นเพียงชั่วข้ามคืน และต้องมีการประเมินข้อจำกัดอย่างรอบคอบ และความเอาใจใส่ต่อสถานการณ์จริงของแพทย์เมื่อใช้เครื่องมือ AI ในอนาคต วิธีการบูรณาการเทคโนโลยี AI ที่ดีขึ้นในการปฏิบัติงานทางคลินิกจะเป็นทิศทางสำคัญสำหรับการสำรวจอย่างต่อเนื่องในสาขาการแพทย์