Downcodes의 편집자는 최근 연구에서 의료 분야의 AI 적용에 대한 경종을 울렸다는 사실을 알게 되었습니다. 연구원들은 Microsoft의 Bing Copilot을 테스트한 결과 의학적 질문에 답변하는 능력에 심각한 문제가 있음을 발견했습니다. 이번 테스트는 미국에서 가장 흔한 의학적 질문 10가지와 인기 약물 50가지에 대한 코파일럿의 답변을 평가했는데, 그 결과는 우려스러웠다.
최근 연구는 AI가 제공하는 의학적 조언에 대해 우리가 안주해서는 안 된다는 점을 상기시켜주는 경보처럼 들립니다. 독일과 벨기에의 연구원들은 미국에서 가장 일반적인 의학적 질문 10가지와 인기 있는 약물 관련 질문 50가지에 답할 수 있다고 주장하는 엔진인 Microsoft의 Bing C0pilot에 대한 포괄적인 테스트를 수행했습니다. 그러나 생성된 500개의 답변 중 24%는 기존 의학 지식과 전혀 일치하지 않으며, 3%는 더욱 터무니없는 답변이었습니다.
사진 출처 참고: 사진은 AI에 의해 생성되었으며 사진은 서비스 제공업체 Midjourney의 승인을 받았습니다.
문제는 단지 오류에 관한 것이 아닙니다. 답변의 놀랍게도 42%는 환자에게 보통 정도 또는 경미한 해를 입힐 가능성이 높았으며 전체 22%는 사망 또는 심각한 부상을 초래할 가능성도 있었습니다. 그 제안은 '위험도가 높은' 요리인 것 같습니다. 누가 감히 도전할 수 있겠습니까?
더 나쁜 것은 이러한 AI 답변의 평균 완성도 점수가 77%에 불과하다는 것입니다. 정확도 측면에서 보면 답변의 26%가 참조 데이터와 일치하지 않으며, 3% 이상이 완성도입니다. 답변은 사실과 직접적으로 반대됩니다. 답변의 54%만이 과학적 합의와 일치했고, 답변의 39%는 과학적 의견에 반대되었습니다.
이번 연구 결과는 학술지 'BMJ Quality & Safety'에 게재됐다. 연구진은 AI 기술의 발전에도 불구하고 의료 현장에서 정확하고 안전한 의약품을 얻기 위해서는 여전히 전문 의료진에 의존해야 한다는 점을 거듭 강조해 왔다. 정보. 결국 “AI에 속는” 사람이 되고 싶은 사람은 아무도 없겠죠?
연구 결과는 의료 상담에 있어 AI 기술이 여전히 더 발전해야 하며, 자가 진단이나 치료에 AI에 의존해서는 안 된다는 점을 분명히 보여줍니다. 의학적 조언을 구할 때에는 항상 전문의의 도움을 받아 귀하의 건강과 안전을 확보하십시오. Downcodes 편집자는 건강이 결코 작은 문제가 아니라는 점을 상기시켜 드립니다!