Downcodes小編獲悉,近期一項研究對AI在醫療領域的應用敲響了警鐘。研究人員對微軟Bing Copilot進行測試,發現在回答醫療問題時有嚴重問題。這項測試評估了Copilot對美國最常見10個醫療問題和50種熱門藥物的回答,結果令人擔憂。
最近的一項研究像警報一樣響起,提醒我們在面對AI 給予的醫療建議時可不能掉以輕心。德國和比利時的研究人員對微軟的Bing C0pilot 進行了全面測試,這款引擎號稱能夠回答美國最常見的10個醫療問題和50種熱門藥物相關問題。然而,生成的500個答案中,竟然有24% 的內容與現有醫學知識完全不符,3% 的回答更是錯誤得離譜。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
問題不僅僅在於錯誤,令人驚訝的是,42% 的回答可能會對患者造成中度或輕度傷害,而足足22% 的回答甚至可能導致死亡或嚴重傷害!從這些數據來看,AI的建議彷彿是一道「高風險」 的菜餚,誰敢輕易嘗試呢?
更糟的是,這些AI 答案的平均完整性評分僅有77%,最差的答案竟然只有23% 完整,準確性方面有26% 的答案和參考資料相左,超過3% 的回答直接與事實背道而馳。而與科學共識一致的答案也只有54%,39% 的答案則是和科學觀點背道而馳。
這項研究的結果已在《BMJ Quality & Safety》期刊上發布,研究人員再三強調,儘管AI 技術如日中天,但在醫療領域,我們還是應該依賴專業的醫療人員來獲取準確和安全的藥物資訊。畢竟,誰也不想成為那個「被AI 耍了」 的人,對吧?
研究結果清晰地表明,在醫療諮詢方面,AI技術仍需進一步完善,切勿依賴AI進行自我診斷或治療。 在獲得醫療建議時,請務必尋求專業醫生的協助,確保您的健康安全。 Downcodes小編提醒您:健康無小事!