Новое исследование Бригама и женской больницы выявляет проблемы расовой и гендерной предвзятости в медицинском применении большой языковой модели GPT-4. Исследовательская группа провела углубленную оценку эффективности GPT-4 в принятии клинических решений, включая составление клинических случаев, составление планов диагностики и лечения и оценку характеристик пациентов. Результаты показывают, что GPT-4 имеет явные предвзятости в каждой из этих связей, что вызывает обеспокоенность по поводу использования больших языковых моделей в медицинской сфере и подчеркивает важность предвзятости в оценке моделей ИИ, чтобы избежать усугубления социального неравенства.
Исследователи из Brigham and Women's Hospital оценили GPT-4 на предмет расовой и гендерной предвзятости при принятии клинических решений. Они обнаружили, что GPT-4 имеет значительные искажения при составлении случаев пациентов, разработке планов диагностики и лечения, а также оценке характеристик пациентов. Исследования требуют оценки предвзятости больших языковых моделей, чтобы гарантировать, что их использование в медицине не усугубляет социальные предубеждения. Результаты были опубликованы в журнале The Lancet Digital Health.
Полученные результаты являются предупреждением о том, что потенциальные проблемы предвзятости необходимо полностью учитывать и решать при применении искусственного интеллекта в таких важных областях, как здравоохранение. В будущем нам необходимо разработать более справедливые и справедливые модели ИИ, чтобы они приносили пользу всему человечеству, а не усугубляли социальную несправедливость. Публикация этого исследования также предоставляет важную информацию для разработки и применения больших языковых моделей, побуждая разработчиков уделять больше внимания этике ИИ и социальной ответственности.