In den letzten Jahren hat die Anwendung künstlicher Intelligenz im medizinischen Bereich große Aufmerksamkeit erregt, insbesondere die Chatbots, die von ChatGPT vertreten werden, in die große Hoffnungen gesetzt werden. Eine neue Studie zeigt jedoch die Grenzen der KI in der medizinischen Diagnose auf. Der Herausgeber von Downcodes wird diese in der Zeitschrift „JAMA Network Open“ veröffentlichte Forschungsarbeit interpretieren und den aktuellen Stand und die zukünftige Entwicklungsrichtung der KI-gestützten medizinischen Diagnose analysieren.
Text: In den letzten Jahren hat der Einsatz künstlicher Intelligenz (KI) im medizinischen Bereich zunehmend Beachtung gefunden. Insbesondere Chatbots wie ChatGPT werden von vielen Krankenhäusern als Hilfsmittel zur Verbesserung der Diagnoseeffizienz von Ärzten eingesetzt. Eine neu veröffentlichte Studie zeigt jedoch, dass die Verwendung von ChatGPT die diagnostischen Fähigkeiten von Ärzten nicht wesentlich verbesserte. Die in der Fachzeitschrift JAMA Network Open veröffentlichte Studie zeigt das Potenzial und die Grenzen von KI in der medizinischen Diagnose auf.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
An der Studie nahmen 50 Ärzte teil, darunter 26 Belegärzte und 24 niedergelassene Ärzte. Sie wurden gebeten, innerhalb einer Stunde eine Diagnose anhand von sechs realen Fällen zu stellen. Um den Zusatzeffekt von ChatGPT zu bewerten, teilten die Forscher Ärzte in zwei Gruppen ein: Eine Gruppe konnte ChatGPT und traditionelle medizinische Ressourcen nutzen und die andere Gruppe konnte sich nur auf traditionelle Ressourcen wie die klinische Informationsplattform UpToDate verlassen.
Die Ergebnisse zeigten, dass Ärzte, die ChatGPT nutzten, bei der Diagnose 76 % erreichten, während Ärzte, die sich ausschließlich auf traditionelle Ressourcen verließen, 74 % erreichten. Im Vergleich dazu erreichte ChatGPT allein einen Diagnosewert von 90 %. Obwohl ChatGPT bei unabhängiger Arbeit gut abschnitt, führte die Kombination mit Ärzten nicht zu signifikanten Verbesserungen, was das Forschungsteam überraschte.
Ethan Goh, Co-Erstautor der Studie und Postdoktorand am Stanford Center for Clinical Excellence, sagte, die Studie sei nicht für die Durchführung in einer realen klinischen Umgebung konzipiert, sondern basiere auf simulierten Daten, sodass die Ergebnisse nicht auf Geschlecht anwendbar seien ist eingeschränkt. Er weist darauf hin, dass die Komplexität, mit der Ärzte im Umgang mit echten Patienten konfrontiert sind, in Experimenten nicht vollständig abgebildet werden kann.
Obwohl Untersuchungen zeigen, dass ChatGPT bei der Diagnose besser abschneidet als einige Ärzte, bedeutet dies nicht, dass KI die Entscheidungsfindung von Ärzten ersetzen kann. Stattdessen betonte Goh, dass Ärzte beim Einsatz von KI-Tools weiterhin die Kontrolle und das Urteilsvermögen behalten müssen. Darüber hinaus können Ärzte hartnäckig sein, wenn sie Diagnosen stellen, und die vorläufige Diagnose, die sie erstellt haben, kann sich auf ihre Akzeptanz von KI-Empfehlungen auswirken. Dies ist auch eine Richtung, auf die sich zukünftige Forschung konzentrieren muss.
Nach Abschluss der medizinischen Diagnose müssen Ärzte auch eine Reihe neuer Fragen beantworten, z. B. „Wie gehen Sie mit den richtigen Behandlungsschritten vor?“ und „Welche Tests sind erforderlich, um die nächsten Schritte des Patienten zu steuern?“ Die Anwendung von KI im medizinischen Bereich hat noch große Aussichten, ihre Wirksamkeit und Anwendbarkeit in der tatsächlichen klinischen Praxis muss jedoch noch eingehend untersucht werden.
Alles in allem erinnert uns diese Studie daran, dass die Anwendung von KI im medizinischen Bereich nicht über Nacht erfolgt und eine sorgfältige Bewertung ihrer Grenzen und Berücksichtigung der tatsächlichen Situation von Ärzten beim Einsatz von KI-Tools erfordert. In Zukunft wird die Frage, wie KI-Technologie besser in die klinische Praxis integriert werden kann, eine wichtige Richtung für die weitere Erforschung im medizinischen Bereich sein.