近年、人工知能技術は急速に発展し、その応用は学術研究のあらゆる側面に浸透しています。最近の研究では、査読における AI の影響が明らかになり、AI 支援による執筆と科学的品質管理に対する学術的な注目が広く集まるようになりました。調査によると、トップの AI カンファレンスでは、ChatGPT などのモデルによって生成されたコンテンツが 17% もの割合を占めており、これは学術的誠実性の問題を引き起こすだけでなく、従来の査読メカニズムにも課題をもたらします。 以下に研究結果を詳しく説明します。
最近の調査によると、2023 年から 2024 年の主要な AI カンファレンスでは、ChatGPT などのモデルによって生成されたコンテンツがピアレビューの 17% も占めていたことがわかりました。レビューの内容はほとんどが締め切り近くに掲載され、学術的な引用や査読者の参加が不足しています。この研究では、原稿のレビューを支援するAIを公開するかどうかなどの疑問が生じている。人工知能の成長は科学的な品質管理に影響を与えており、ハイブリッド知識労働のメリットを再考する必要があります。
この研究結果は、学術研究における人工知能の役割を再検討し、学術研究の質と完全性を確保するために対応する規範や基準を開発する必要があることを警告しています。 将来的には、学術コミュニティは AI テクノロジーの発展に積極的に適応し、潜在的な悪影響を回避しながら AI ツールをより効果的に活用する方法を模索し、最終的には学術研究の健全な発展を促進する必要があります。 そのためには、学者、技術開発者、政策立案者が協力して、より公平で透明性の高い学術エコシステムを構築する必要があります。