В последние годы применение искусственного интеллекта в медицинской сфере привлекло большое внимание, особенно чат-ботов в лице ChatGPT, на которых возлагаются большие надежды. Однако новое исследование показывает ограничения ИИ в медицинской диагностике. Редактор Downcodes интерпретирует это исследование, опубликованное в журнале «JAMA Network Open», и проанализирует текущий статус и будущее направление развития медицинской диагностики с помощью искусственного интеллекта.
Текст: В последние годы применению искусственного интеллекта (ИИ) в медицинской сфере уделяется все больше внимания. В частности, многие больницы ожидают, что чат-боты, такие как ChatGPT, будут использоваться в качестве вспомогательных инструментов для повышения эффективности диагностики врачей. Однако недавно опубликованное исследование показывает, что использование ChatGPT существенно не улучшило диагностические возможности врачей. Исследование, опубликованное в журнале JAMA Network Open, раскрывает потенциал и ограничения ИИ в медицинской диагностике.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
В исследовании приняли участие 50 врачей, в том числе 26 лечащих врачей и 24 ординатора. Их попросили поставить диагноз на основе шести реальных случаев в течение одного часа. Чтобы оценить вспомогательный эффект ChatGPT, исследователи разделили врачей на две группы: одна группа могла использовать ChatGPT и традиционные медицинские ресурсы, а другая группа могла полагаться только на традиционные ресурсы, такие как клиническая информационная платформа UpToDate.
Результаты показали, что врачи, использующие ChatGPT, поставили диагноз 76%, а врачи, которые полагались исключительно на традиционные ресурсы, набрали 74%. Для сравнения, ChatGPT сам по себе достиг 90% диагностического показателя. Хотя ChatGPT показал себя хорошо при самостоятельной работе, его сочетание с врачами не привело к значительным улучшениям, что удивило исследовательскую группу.
Итан Го, соавтор исследования и научный сотрудник Стэнфордского центра клинического мастерства, заявил, что исследование не было предназначено для проведения в реальных клинических условиях, а было основано на смоделированных данных, поэтому результаты неприменимы. ограничено. Он отмечает, что сложности, с которыми сталкиваются врачи при работе с реальными пациентами, не могут быть полностью отражены в экспериментах.
Хотя исследования показывают, что ChatGPT работает лучше, чем некоторые врачи при постановке диагноза, это не означает, что ИИ может заменить принятие решений врачами. Вместо этого Го подчеркнул, что врачам по-прежнему необходимо осуществлять надзор и суждение при использовании инструментов ИИ. Кроме того, врачи могут быть упрямыми при постановке диагнозов, и поставленный ими предварительный диагноз может повлиять на принятие ими рекомендаций ИИ. Это также направление, на котором необходимо сосредоточить внимание в будущих исследованиях.
После завершения процесса медицинской диагностики врачам также необходимо ответить на ряд новых вопросов, таких как «Как приступить к правильным этапам лечения» и «Какие анализы необходимы, чтобы определить дальнейшие действия пациента?» Применение ИИ в медицинской сфере по-прежнему имеет широкие перспективы, но его эффективность и применимость в реальной клинической практике еще требуют глубокого изучения.
В целом, это исследование напоминает нам, что применение ИИ в медицинской сфере не происходит в одночасье и требует тщательной оценки его ограничений и внимания к реальной ситуации врачей при использовании инструментов ИИ. В будущем вопрос о том, как лучше интегрировать технологию искусственного интеллекта в клиническую практику, станет важным направлением дальнейших исследований в области медицины.