ในช่วงไม่กี่ปีที่ผ่านมา การประยุกต์ใช้ปัญญาประดิษฐ์ในวงการแพทย์ได้รับความสนใจอย่างมาก โดยเฉพาะแชทบอทที่นำเสนอโดย ChatGPT ซึ่งมีความหวังสูงที่จะปรับปรุงประสิทธิภาพการวินิจฉัยของแพทย์ อย่างไรก็ตาม งานวิจัยล่าสุดที่ตีพิมพ์ในวารสาร "JAMA Network Open" แสดงให้เห็นว่า ChatGPT ไม่ได้ปรับปรุงความสามารถในการวินิจฉัยของแพทย์อย่างมีนัยสำคัญ ซึ่งกระตุ้นให้เกิดการคิดใหม่เกี่ยวกับศักยภาพและข้อจำกัดของ AI ในแอปพลิเคชันการวินิจฉัยทางการแพทย์ การศึกษานี้ทำการทดลองกับแพทย์ 50 คน และพบว่าความแม่นยำในการวินิจฉัยระหว่างแพทย์ที่ใช้ ChatGPT กับแพทย์ที่ใช้ทรัพยากรแบบเดิมมีความแตกต่างกันเล็กน้อย ซึ่งตรงกันข้ามกับความแม่นยำสูงของการวินิจฉัยโดยอิสระของ ChatGPT การวิจัยยังชี้ให้เห็นว่าความซับซ้อนของสภาพแวดล้อมทางคลินิกที่เกิดขึ้นจริงและอคติด้านการรับรู้ที่เป็นไปได้ของแพทย์เอง มีผลกระทบต่อประสิทธิผลของการวินิจฉัยโดยใช้ AI
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
ในการศึกษา ผู้เข้าร่วมคือแพทย์ 50 คน ซึ่งรวมถึงแพทย์ที่เข้ารับการรักษา 26 คน และแพทย์ประจำบ้าน 24 คน พวกเขาถูกขอให้ทำการวินิจฉัยโดยอิงจากผู้ป่วยจริง 6 รายภายในหนึ่งชั่วโมง เพื่อประเมินผลเสริมของ ChatGPT นักวิจัยได้แบ่งแพทย์ออกเป็นสองกลุ่ม กลุ่มหนึ่งสามารถใช้ ChatGPT และทรัพยากรทางการแพทย์แบบดั้งเดิมได้ และอีกกลุ่มหนึ่งสามารถใช้เพียงทรัพยากรแบบดั้งเดิมเท่านั้น เช่น แพลตฟอร์มข้อมูลทางคลินิก UpToDate
ผลการวิจัยพบว่าแพทย์ที่ใช้ ChatGPT ได้คะแนน 76% ในการวินิจฉัย ในขณะที่แพทย์ที่ใช้ทรัพยากรแบบเดิมเพียงอย่างเดียวได้คะแนน 74% เมื่อเปรียบเทียบกันแล้ว ChatGPT ได้รับคะแนนการวินิจฉัยถึง 90% ด้วยตัวมันเอง แม้ว่า ChatGPT จะทำงานได้ดีเมื่อทำงานโดยอิสระ แต่การใช้งานร่วมกับแพทย์ไม่ได้นำไปสู่การปรับปรุงที่สำคัญ ซึ่งทำให้ทีมวิจัยประหลาดใจ
อีธาน โกห์ ผู้ร่วมเขียนงานวิจัยชิ้นแรกและนักวิจัยหลังปริญญาเอกที่ Stanford Center for Clinical Excellence กล่าวว่าการศึกษานี้ไม่ได้ออกแบบมาให้ดำเนินการในสถานพยาบาลจริง แต่อาศัยข้อมูลจำลอง ดังนั้นผลลัพธ์จึงไม่เกี่ยวข้องกับเพศ ถูกจำกัด เขาชี้ให้เห็นว่าความซับซ้อนที่แพทย์เผชิญเมื่อต้องรับมือกับผู้ป่วยจริงไม่สามารถสะท้อนให้เห็นได้อย่างเต็มที่ในการทดลอง
แม้ว่าการวิจัยจะแสดงให้เห็นว่า ChatGPT ทำงานได้ดีกว่าแพทย์บางคนในการวินิจฉัย แต่ก็ไม่ได้หมายความว่า AI จะมาแทนที่การตัดสินใจของแพทย์ได้ Goh เน้นย้ำว่าแพทย์ยังคงต้องรักษาการกำกับดูแลและวิจารณญาณเมื่อใช้เครื่องมือ AI นอกจากนี้ แพทย์อาจดื้อรั้นเมื่อทำการวินิจฉัย และการวินิจฉัยเบื้องต้นอาจส่งผลต่อการยอมรับคำแนะนำของ AI นี่เป็นทิศทางที่การวิจัยในอนาคตต้องให้ความสำคัญ
หลังจากกระบวนการวินิจฉัยทางการแพทย์สิ้นสุดลง แพทย์ยังต้องตอบคำถามใหม่ๆ เช่น "จะดำเนินขั้นตอนการรักษาที่ถูกต้องได้อย่างไร" และ "จำเป็นต้องมีการทดสอบอะไรบ้างเพื่อเป็นแนวทางในขั้นตอนต่อไปของผู้ป่วย" การประยุกต์ใช้ AI ในวงการแพทย์ยังคงมีแนวโน้มในวงกว้าง แต่ประสิทธิภาพและการนำไปประยุกต์ใช้ในทางปฏิบัติทางคลินิกยังคงต้องมีการสำรวจในเชิงลึก
ไฮไลท์:
การวิจัยแสดงให้เห็นว่าแพทย์ที่ใช้ ChatGPT วินิจฉัยได้ดีกว่าแพทย์ที่ใช้วิธีการแบบเดิมเพียงเล็กน้อยเท่านั้น โดยไม่มีการปรับปรุงที่สำคัญ
คะแนนการวินิจฉัยโดยอิสระของ ChatGPT อยู่ที่ 90% ซึ่งถือว่าดีเยี่ยม แต่ก็ยังต้องได้รับการดูแลและวิจารณญาณจากแพทย์
จำเป็นต้องมีการวิจัยเพิ่มเติมในอนาคตเพื่อสำรวจวิธีเพิ่มประสิทธิภาพการประยุกต์ใช้ AI ในการวินิจฉัยทางการแพทย์เพื่อปรับปรุงประสิทธิผล
โดยรวมแล้ว งานวิจัยนี้มอบประสบการณ์ที่มีคุณค่าในการประยุกต์ AI ในการวินิจฉัยทางการแพทย์ และยังชี้ให้เห็นทิศทางของการวิจัยในอนาคตอีกด้วย แม้ว่าเครื่องมือ AI เช่น ChatGPT จะแสดงศักยภาพบางอย่างแล้ว แต่ยังต้องได้รับการปรับปรุงและเพิ่มประสิทธิภาพเพิ่มเติมในการใช้งานทางคลินิกจริง และแพทย์จำเป็นต้องใช้ด้วยความระมัดระวังและตัดสินตามประสบการณ์ทางคลินิกของตนเอง เพื่อที่จะให้บริการผู้ป่วยได้ดียิ่งขึ้น