في الآونة الأخيرة، جذبت دراسة نشرت في مجلة "JAMA Network Open" اهتمامًا واسع النطاق: كان أداء ChatGPT-4 الخاص بـ OpenAI ممتازًا في اختبارات دقة التشخيص الطبي، مع معدل دقة تشخيص يصل إلى 90%، حتى أنه تجاوز استخدام هذه الأداة للمساعدة تشخيص الأطباء (76٪). اختبرت الدراسة 50 طبيبًا واستخدمت حالات حقيقية وغير منشورة ومعقدة لتجنب تأثير المعرفة السابقة بشكل فعال. ولا تسلط النتائج الضوء على الإمكانات الهائلة للذكاء الاصطناعي في المجال الطبي فحسب، بل تكشف أيضًا عن التحديات التي قد يواجهها الأطباء عند استخدام أدوات الذكاء الاصطناعي، مثل الثقة المفرطة في تشخيصهم والتقليل من تقدير قدرات أدوات الذكاء الاصطناعي.
في السنوات الأخيرة، استمر تطبيق الذكاء الاصطناعي في المجال الطبي في التوسع. في الآونة الأخيرة، أظهرت دراسة أن ChatGPT-4، وهو برنامج دردشة آلي طورته شركة OpenAI، تفوق على الأطباء في دقة التشخيص، مما أثار مناقشات ومخاوف واسعة النطاق.
واختبرت الدراسة، التي نشرت في مجلة JAMA Network Open، أداء 50 طبيبا في ست حالات معقدة. وأظهرت النتائج أن الأطباء الذين استخدموا مساعدة ChatGPT سجلوا متوسط درجات 76%، بينما سجل أولئك الذين لم يستخدموا الأداة 74% فقط. ومن المثير للصدمة أن ChatGPT حقق دقة تشخيصية تصل إلى 90% عند استخدامه بمفرده.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي وموفر خدمة ترخيص الصورة Midjourney
ولتجنب المعرفة المسبقة بالمشاركين أو نموذج الذكاء الاصطناعي، استخدم الباحثون سجلات حالات حقيقية غير منشورة. وتشمل الحالات حالات طبية معقدة مثل انسداد الكولسترول، وهو مرض نادر غالبا ما يتم تجاهله. باستخدام تقييمات خبراء طبيين مستقلين، يقدم الأطباء التشخيصات المحتملة، ويستبعدون البدائل، ويوصون بالخطوات التشخيصية التالية. على الرغم من أن العديد من الأطباء مدعومون من ChatGPT، إلا أنهم ما زالوا يكافحون من أجل مجاراة أداء الذكاء الاصطناعي.
كشف البحث عن مشكلتين رئيسيتين: أولا، يميل الأطباء إلى الالتزام بتشخيصاتهم الأولية، خاصة عندما تتعارض توصيات ChatGPT مع معتقداتهم. ثانيًا، لا يستفيد العديد من الأطباء بشكل كامل من قدرات أدوات الذكاء الاصطناعي، وغالبًا ما يطرحون أسئلة محدودة فقط دون تحليل تاريخ الحالة بشكل كامل.
ويعتقد الخبراء أن أدوات الذكاء الاصطناعي الحديثة أظهرت إمكانات كبيرة من خلال استخدام النماذج اللغوية لإجراء تحليل مفصل للحالات المعقدة. وعلى عكس التشخيص المبكر بمساعدة الكمبيوتر، فإن أدوات الذكاء الاصطناعي الحديثة لا تحاول محاكاة المنطق البشري ولكنها تتفوق من خلال معالجة أنماط اللغة والتنبؤ بها.
ومع ذلك، يحذر الخبراء من أن دمج الذكاء الاصطناعي في سير العمل الطبي لن يكون سلسًا. تشمل التحديات الشائعة نقص التدريب على الذكاء الاصطناعي، ومقاومة الأطباء للذكاء الاصطناعي، والمخاوف الأخلاقية والقانونية. قد تعيق هذه العوامل إمكانات الذكاء الاصطناعي باعتباره "أداة إرشادية للطبيب" وتؤثر على دوره في تحسين دقة التشخيص.
عندما قام الباحثون بتحليل سجلات الدردشة، وجدوا أن العديد من الأطباء تجاهلوا توصيات ChatGPT. وتنبع هذه المقاومة جزئيا من الثقة المفرطة في خبراتهم الخاصة، ولكن أيضا من الافتقار إلى فهم القدرات التشخيصية للذكاء الاصطناعي.
تسلط نتائج هذه الدراسة الضوء على أهمية التعاون بين مطوري الذكاء الاصطناعي والمهنيين الطبيين لتعزيز الثقة وسهولة الاستخدام. في المستقبل، قد يمتد دور الذكاء الاصطناعي في الطب إلى ما هو أبعد من التشخيص ليشمل مجالات مثل تخطيط العلاج الشخصي وإدارة المرضى. على الرغم من أن الذكاء الاصطناعي أداة رائعة، إلا أن كيفية دمجه بشكل فعال في الممارسة الطبية لا تزال تتطلب الكثير من الجهد.
تسليط الضوء على:
أظهر ChatGPT-4 دقة قدرها 90% في دراسات التشخيص الطبي، متجاوزًا الأطباء الذين يستخدمون ChatGPT للمساعدة بنسبة 76%.
غالبًا ما يكون الأطباء مفرطين في الثقة في تشخيصاتهم الأولية ويتجاهلون توصيات الذكاء الاصطناعي.
إن إمكانات أدوات الذكاء الاصطناعي في مجال الرعاية الصحية هائلة، لكن نقص التدريب والثقة يمثلان تحديات كبيرة حاليًا.
وبشكل عام، يقدم هذا البحث منظورًا جديدًا لتطبيق الذكاء الاصطناعي في المجال الطبي ويثير أيضًا العديد من القضايا التي تحتاج إلى مزيد من الاستكشاف. في المستقبل، سيكون التعاون الفعال بين الذكاء الاصطناعي والأطباء هو المفتاح لتحسين دقة وكفاءة التشخيص الطبي. هناك حاجة إلى مزيد من البحث لمعالجة القضايا الأخلاقية والقانونية والمتعلقة بقبول الأطباء لتحقيق إمكانات الذكاء الاصطناعي في المجال الطبي بشكل أفضل.