Eine neue Studie des Brigham and Women's Hospital deckt rassistische und geschlechtsspezifische Vorurteile bei medizinischen Anwendungen des großen Sprachmodells GPT-4 auf. Das Forschungsteam führte eine eingehende Bewertung der Leistung von GPT-4 bei der klinischen Entscheidungsfindung durch, einschließlich der Erstellung von Patientenfällen, der Formulierung von Diagnose- und Behandlungsplänen und der Bewertung von Patientenmerkmalen. Die Ergebnisse zeigen, dass GPT-4 in jedem dieser Zusammenhänge eindeutige Vorurteile aufweist, was Bedenken hinsichtlich der Verwendung großer Sprachmodelle im medizinischen Bereich aufkommen lässt und die Bedeutung der Voreingenommenheitsbewertung von KI-Modellen hervorhebt, um eine Verschärfung der sozialen Ungleichheit zu vermeiden.
Forscher am Brigham and Women's Hospital untersuchten GPT-4 auf rassistische und geschlechtsspezifische Vorurteile bei der klinischen Entscheidungsfindung. Sie fanden heraus, dass GPT-4 erhebliche Verzerrungen bei der Generierung von Patientenfällen, der Entwicklung von Diagnose- und Behandlungsplänen und der Beurteilung von Patientenmerkmalen aufwies. Die Forschung fordert eine Voreingenommenheitsbewertung großer Sprachmodelle, um sicherzustellen, dass ihre Verwendung in der Medizin soziale Vorurteile nicht verschärft. Die Ergebnisse wurden in der Fachzeitschrift The Lancet Digital Health veröffentlicht.
Die Ergebnisse sind eine Warnung, dass potenzielle Verzerrungsprobleme umfassend berücksichtigt und angegangen werden müssen, wenn künstliche Intelligenz in kritischen Bereichen wie dem Gesundheitswesen eingesetzt wird. In Zukunft müssen wir fairere und gerechtere KI-Modelle entwickeln, um sicherzustellen, dass sie der gesamten Menschheit zugute kommen und nicht die soziale Ungerechtigkeit verschärfen. Die Veröffentlichung dieser Forschung stellt auch eine wichtige Referenz für die Entwicklung und Anwendung großer Sprachmodelle dar und veranlasst Entwickler, der KI-Ethik und der sozialen Verantwortung mehr Aufmerksamkeit zu schenken.