最近、人工知能分野の巨人である Google は、最新の大規模言語モデル Gemini 1.5 をリリースしました。このモデルは、100 万トークンという驚異的なコンテキスト ウィンドウを備え、完全な本または映画の長さに相当するコンテンツを処理できます。この画期的な開発は間違いなく業界で広く注目を集めており、大規模言語モデルの情報処理能力が新たなレベルに到達したことを示しています。ただし、大容量だからといって精度が高いわけではなく、実際のテストでの Gemini 1.5 のパフォーマンスが議論を引き起こしました。
Google は最近、書籍全体や映画さえも処理できる 100 万トークンのコンテキスト ウィンドウを備えたモデルである Gemini 1.5 をリリースしました。しかし、テストでは、Gemini 1.5 の精度は高くなく、特に「干し草の山の中の針」テストでは平均精度が 60% ~ 70% にすぎませんでした。さらに、GoogleはOpenAI Soraが生成したビデオが偽物であるとして、その信憑性にも疑問を呈した。
Gemini 1.5 のリリースと、Sora のビデオの信頼性に対する Google の疑念は、大規模な言語モデルの開発で直面する課題、つまり、モデルの容量を確保しながら精度と信頼性をどのように向上させるかという課題を浮き彫りにしています。これは Google だけが直面している問題ではなく、AI 業界全体が協力する必要がある方向性でもあります。将来の開発では、人工知能技術が真に人類に利益をもたらすことができるように、モデルの信頼性と安全性にさらに注意を払う必要があります。