近年、人工知能の医療分野への応用が注目を集めており、特にChatGPTに代表されるチャットボットは医師の診断効率の向上に期待されています。しかし、ジャーナル「JAMA Network Open」に掲載された最新の研究では、ChatGPT が医師の診断能力を大幅に向上させるわけではないことが示されており、医療診断アプリケーションにおける AI の可能性と限界について再考するきっかけとなっています。この研究では50人の医師を対象に実験が行われ、ChatGPTを使用した医師と従来のリソースのみを使用した医師の間で診断精度にほとんど差がないことが示され、これはChatGPTの独自診断の高精度とは対照的でした。研究では、実際の臨床環境の複雑さと医師自身の認知バイアスの可能性が、AI 支援診断の有効性に影響を与えることも指摘しています。
画像出典注:画像はAIにより生成され、画像認証サービスプロバイダMidjourney
この研究には、主治医26名と研修医24名を含む医師50名が参加した。彼らは、1 時間以内に 6 件の実際の症例に基づいて診断を行うように求められました。 ChatGPTの補助効果を評価するために、研究者らは医師を2つのグループに分け、1つのグループはChatGPTと従来の医療リソースを使用でき、もう1つのグループは臨床情報プラットフォームUpToDateなどの従来のリソースのみに依存できました。
その結果、ChatGPT を使用している医師の診断スコアは 76% であったのに対し、従来のリソースのみに頼っていた医師のスコアは 74% でした。比較すると、ChatGPT は単独で 90% の診断スコアを達成しました。 ChatGPT は単独で作業した場合には良好なパフォーマンスを示しましたが、医師と組み合わせた場合には大幅な改善には至らず、これに研究チームは驚きました。
この研究の共同筆頭著者でスタンフォード臨床卓越センターの博士研究員であるイーサン・ゴー氏は、この研究は実際の臨床現場で実施されるように設計されたものではなく、シミュレーションされたデータに基づいているため、結果は適用できないと述べた。制限されています。同氏は、医師が実際の患者を扱う際に直面する複雑さは実験では完全には反映できないと指摘した。
ChatGPT は診断時に一部の医師よりも優れたパフォーマンスを発揮することが研究で示されていますが、これは AI が医師の意思決定を置き換えることができるという意味ではありません。代わりに、ゴー氏は、医師がAIツールを使用する際には依然として監視と判断を維持する必要があると強調した。さらに、医師は診断を下す際に頑固である可能性があり、医師が作成した予備診断が AI の推奨事項の受け入れに影響を与える可能性があります。これは、今後の研究が焦点を当てる必要がある方向でもあります。
医学的診断のプロセスが終了した後、医師は「どのように正しい治療手順を進めるか?」や「患者の次のステップを導くためにどのような検査が必要か?」などの一連の新たな質問に答える必要もあります。医療分野における AI の応用にはまだ大きな可能性がありますが、その有効性と実際の臨床現場での適用性についてはまだ深く調査する必要があります。
ハイライト:
調査によると、ChatGPT を使用する医師は、従来の方法を使用する医師よりもわずかに診断が優れているだけで、大幅な改善は見られません。
ChatGPT の独立診断スコアは 90% と優れていますが、それでも医師の監督と判断が必要です。
医療診断における AI の適用を最適化し、その有効性を向上させる方法を探るためには、今後さらなる研究が必要です。
全体として、この研究は医療診断における AI の応用に貴重な経験を提供し、将来の研究の方向性も示しています。 ChatGPT などの AI ツールは一定の可能性を示していますが、実際の臨床応用ではさらに改善および最適化する必要があり、医師は患者により良いサービスを提供するために、慎重に使用し、自身の臨床経験に基づいて判断する必要があります。