Downcodes の編集者は、最近の研究が医療分野での AI の応用に警鐘を鳴らしていることを知りました。研究者らは Microsoft の Bing Copilot をテストしたところ、医学的な質問に答える機能に重大な問題があることが判明しました。このテストでは、米国で最も一般的な 10 の医療質問と 50 の人気のある医薬品に対する Copilot の回答が評価されましたが、その結果は憂慮すべきものでした。
最近の研究は、AI による医学的アドバイスに満足すべきではないことを私たちに思い出させる警鐘のように聞こえます。ドイツとベルギーの研究者らは、MicrosoftのBing C0pilotの包括的なテストを実施した。このエンジンは、米国で最も一般的な10の医学的質問と50のよくある薬物関連の質問に答えることができると主張している。しかし、生成された 500 件の回答のうち 24% は既存の医学知識と完全に矛盾しており、回答の 3% はさらにとんでもないものでした。
画像出典注:画像はAIによって生成され、画像はサービスプロバイダーMidjourneyによって許可されています
問題はエラーだけではありません。驚くべきことに、回答の 42% が患者に中等度または軽度の危害を引き起こす可能性があり、さらに 22% が死亡または重傷を引き起こす可能性があると回答しました。このデータを見ると、AI です。この提案は「ハイリスク」な料理に思えますが、誰が簡単に試そうとするでしょうか。
さらに悪いことに、これらの AI 回答の平均完全性スコアはわずか 77% であり、精度の点では、回答の 26% が参照データと一致していません。答えは事実に真っ向から反しています。科学的合意と一致する回答はわずか 54% であり、回答の 39% は科学的見解に反するものでした。
この研究結果はジャーナル「BMJ Quality & Safety」に掲載されており、研究者らはAI技術の台頭にもかかわらず、医療分野では依然として正確で安全な医薬品を入手するために専門の医療従事者に頼るべきであると繰り返し強調してきた。情報。結局のところ、誰しも「AI に騙される」人間にはなりたくありませんよね。
研究結果は、医療相談に関してはAI技術がまださらに改善される必要があり、自己診断や治療にAIを依存すべきではないことを明確に示している。 医師のアドバイスを受ける場合は、健康と安全を確保するために必ず専門の医師の助けを求めてください。 Downcodes の編集者は、健康は決して小さな問題ではないことを思い出させます。