最近、TechCrunchはGoogleの内部文書を暴露し、GoogleがGemini AIとAnthropicのClaude AIの比較とテストに請負業者を利用していることを明らかにし、コンプライアンスに関する論争を引き起こした。この文書は、請負業者が 2 つの AI の回答の品質を複数の基準で評価する必要があることを示しており、クロードの安全性を高く評価しています。 Google は Anthropic の主要な投資家であり、その規約では競合製品の開発や競合 AI モデルのトレーニングに Claude を不正に使用することを禁止しているため、この動きは Anthropic の利用規約に違反する可能性があります。
TechCrunchが入手した内部通信によると、Googleは請負業者に自社のGemini AIをAnthropicのClaudeと比較して評価させているが、この動きにはコンプライアンスに関する疑問が生じている。
この文書には、Gemini の改善を担当する請負業者が、信頼性や徹底性などの複数の基準に基づいて Gemini とクロードの回答の品質を 30 分以内に比較および評価する必要があることが示されています。請負業者は最近、Google の内部レビュー プラットフォームで「私は Anthropic が作成したクロードです」という言葉を含むクロードへの明示的な言及を発見しました。
内部の議論により、請負業者がクロードのより厳格な安全慣行に気づいていたことが明らかになりました。契約者は「クロードのセキュリティ設定はAIモデルの中で最も厳しい」と話している。場合によっては、ジェミニの回答に「ヌードと拘束」が含まれていたため「重大な安全違反」としてフラグが立てられたとき、クロードは関連するプロンプトに応答することを単に拒否した。
Anthropic の主要投資家として、Google のアプローチは Anthropic の利用規約に違反する可能性があることは注目に値します。この規約は、「競合製品の構築」または「競合 AI モデルのトレーニング」を目的としたクロードへの未承認のアクセスを明示的に禁止しています。 Anthropic の許可を得たかどうか尋ねられたところ、Google DeepMind の広報担当者、Shira McNamara 氏は直接の回答を拒否した。
マクナマラ氏は、DeepMindは評価のために「モデルの出力を比較」しているが、ジェミニのトレーニングに人間モデルを使用することは否定したと述べた。 「これは業界標準の慣行に沿ったものですが、ジェミニの訓練に人体モデルを使用したという主張は不正確です。」と彼女は述べた。
以前、GoogleはAI製品請負業者に対し、専門分野以外でGeminiの回答を評価するよう求めており、AIがヘルスケアなどの機密分野で不正確な情報を生成する可能性があると請負業者の間で懸念が生じていた。
本稿執筆時点では、Anthropicの広報担当者はこの件についてコメントしていない。
GoogleによるGeminiとClaudeの比較テストは広く注目を集めており、そのコンプライアンス問題とAI業界への影響についてはさらなる観察が必要だ。 Googleの対応では懸念が完全に払拭されたわけではなく、Anthropicの正式な対応はまだ発表されておらず、事件はまだ解明されていない。