最近、テクノロジーメディア TechCrunch は、Google が独自の Gemini AI モデルのパフォーマンスを評価するために Anthropic の Claude AI モデルを使用しているというニュースを報じました。この動きは、業界内で同社のコンプライアンスに対する疑念を広げるきっかけとなりました。事件の核心は、GoogleがAnthropicの利用規約に違反した可能性であり、その利用規約では、Claudeを不正に使用して競合製品を構築したり、競合するAIモデルをトレーニングしたりすることを明示的に禁止している。同時に、この事件は、さまざまな AI モデル間のセキュリティの違いも浮き彫りにしました。セキュリティの点では、クロードがジェミニよりも優れているようです。
Google の請負業者は、Gemini と Claude からの回答を比較して、Gemini の精度と品質を評価したと伝えられています。クロードは、危険の警告に答えることを拒否したり、より慎重な対応をしたりするなど、状況によってはより高い安全性を示しましたが、ジェミニは重大な安全性違反を犯しました。 Google DeepMind は、Gemini のトレーニングに Claude を使用したことを否定しましたが、評価のためにさまざまなモデルの出力を比較することは認めました。 Google が Anthropic の主要投資家の 1 つであることは注目に値し、それがこの事件をさらに複雑にしています。
ハイライト:
Google が Gemini を評価するために Anthropic の Claude AI を使用することは、利用規約に違反する可能性があります。
クロードはセキュリティに関してはジェミニよりも厳しいようです。
Google DeepMind は、Gemini のトレーニングに Anthropic モデルを使用することを否定しましたが、モデルの出力を評価する慣行は認めました。
Googleの動きは、大手ハイテク企業間の競争や提携のほか、AIモデルの評価における基準や倫理問題についての議論を引き起こした。 将来、同様の事件が発生すると、業界は公正な競争を確保し、AI の安全性を維持するために、AI モデルの評価方法とデータ使用のさらなる標準化を進める可能性があります。 この事件はまた、AI テクノロジーの急速な発展には、より完全な規制および倫理の枠組みを適合させる必要があることを思い出させます。