Kürzlich erregte eine in der Fachzeitschrift „JAMA Network Open“ veröffentlichte Studie großes Aufsehen: ChatGPT-4 von OpenAI schnitt bei medizinischen Diagnosegenauigkeitstests mit einer diagnostischen Genauigkeitsrate von bis zu 90 % hervorragend ab und übertraf damit sogar den Einsatz dieses Tools bei assistierten Tests Diagnose der Ärzte (76 %). Die Studie testete 50 Ärzte und nutzte reale, unveröffentlichte, komplexe Fälle, um den Einfluss von Vorwissen wirksam zu vermeiden. Die Ergebnisse verdeutlichen nicht nur das enorme Potenzial künstlicher Intelligenz im medizinischen Bereich, sondern zeigen auch die Herausforderungen auf, mit denen Ärzte beim Einsatz von KI-Tools konfrontiert sein können, wie etwa übermäßiges Vertrauen in die eigene Diagnose und Unterschätzung der Fähigkeiten von KI-Tools.
In den letzten Jahren hat der Einsatz künstlicher Intelligenz im medizinischen Bereich immer weiter zugenommen. Kürzlich zeigte eine Studie, dass ChatGPT-4, ein von OpenAI entwickelter Chatbot, Ärzte in der diagnostischen Genauigkeit übertraf, was breite Diskussionen und Besorgnis auslöste.
Die in der Fachzeitschrift JAMA Network Open veröffentlichte Studie testete die Leistung von 50 Ärzten an sechs komplexen Fällen. Die Ergebnisse zeigten, dass Ärzte, die die Unterstützung von ChatGPT nutzten, eine durchschnittliche Punktzahl von 76 % erreichten, während diejenigen, die das Tool nicht nutzten, nur 74 % erreichten. Erstaunlicherweise erreichte ChatGPT bei alleiniger Verwendung eine Diagnosegenauigkeit von 90 %.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Um Vorkenntnisse über die Teilnehmer oder das KI-Modell zu vermeiden, verwendeten die Forscher reale, unveröffentlichte Fallgeschichten. Zu den Fällen gehören komplexe medizinische Erkrankungen wie die Cholesterinembolie, eine seltene Krankheit, die oft übersehen wird. Anhand der Bewertungen unabhängiger medizinischer Experten stellen Ärzte mögliche Diagnosen, schließen Alternativen aus und empfehlen die nächsten diagnostischen Schritte. Obwohl viele Ärzte ChatGPT nutzen, haben sie immer noch Schwierigkeiten, mit der Leistung von KI mitzuhalten.
Die Untersuchung ergab zwei Hauptprobleme: Erstens neigen Ärzte dazu, an ihren ursprünglichen Diagnosen festzuhalten, insbesondere wenn die Empfehlungen von ChatGPT ihren Überzeugungen widersprechen. Zweitens nutzen viele Ärzte die Möglichkeiten der KI-Tools nicht voll aus und stellen oft nur begrenzte Fragen, ohne die Krankengeschichte vollständig zu analysieren.
Experten gehen davon aus, dass moderne KI-Tools großes Potenzial gezeigt haben, indem sie Sprachmodelle zur detaillierten Analyse komplexer Fälle nutzen. Im Gegensatz zur frühen computergestützten Diagnose versuchen moderne KI-Tools nicht, menschliches Denken zu simulieren, sondern zeichnen sich durch die Verarbeitung und Vorhersage von Sprachmustern aus.
Dennoch warnen Experten, dass die Integration von KI in medizinische Arbeitsabläufe kein reibungsloser Ablauf sein wird. Zu den häufigsten Herausforderungen gehören mangelnde KI-Schulung, Widerstand der Ärzte gegen KI sowie ethische und rechtliche Bedenken. Diese Faktoren können das Potenzial der KI als „Arztberatungstool“ beeinträchtigen und ihre Rolle bei der Verbesserung der Diagnosegenauigkeit beeinträchtigen.
Als Forscher Chat-Protokolle analysierten, stellten sie fest, dass viele Ärzte die Empfehlungen von ChatGPT ignorierten. Dieser Widerstand resultiert zum Teil aus übermäßigem Vertrauen in das eigene Fachwissen, aber auch aus mangelndem Verständnis für die Diagnosefähigkeiten der KI.
Die Ergebnisse dieser Studie unterstreichen die Bedeutung der Zusammenarbeit zwischen KI-Entwicklern und Medizinern, um Vertrauen und Benutzerfreundlichkeit zu verbessern. In Zukunft könnte die Rolle der KI in der Medizin über die Diagnose hinaus auch Bereiche wie die personalisierte Behandlungsplanung und das Patientenmanagement umfassen. Obwohl KI ein bemerkenswertes Werkzeug ist, erfordert es noch viel Aufwand, sie effektiv in die medizinische Praxis zu integrieren.
Highlight:
ChatGPT-4 zeigte in medizinischen Diagnosestudien eine Genauigkeit von 90 % und übertraf damit Ärzte, die ChatGPT zur Unterstützung verwendeten, mit 76 %.
Ärzte sind bei ihren Erstdiagnosen oft zu selbstsicher und ignorieren KI-Empfehlungen.
Das Potenzial von KI-Tools im Gesundheitswesen ist riesig, doch mangelnde Ausbildung und Vertrauen stellen derzeit große Herausforderungen dar.
Alles in allem bietet diese Forschung eine neue Perspektive auf die Anwendung künstlicher Intelligenz im medizinischen Bereich und wirft auch viele Fragen auf, die einer weiteren Untersuchung bedürfen. In Zukunft wird eine effektive Zusammenarbeit zwischen KI und Ärzten der Schlüssel zur Verbesserung der Genauigkeit und Effizienz medizinischer Diagnosen sein. Weitere Forschung ist erforderlich, um ethische, rechtliche und ärztliche Akzeptanzprobleme anzugehen und das Potenzial von KI im medizinischen Bereich besser auszuschöpfen.