最近、Google の Gemini AI モデルの改良作業が議論を引き起こしました。 TechCrunch によると、Google の請負業者は Gemini のパフォーマンスを評価するために、Gemini の回答と Anthropic の競合他社である Claude の出力を比較したとのことです。 Anthropic は Google の主要投資家の 1 つであるため、この動きは、Google がクロードのデータを許可なく使用したのかどうか、また Anthropic のビジネス サービス規約に違反したのではないかという疑問を引き起こしています。この事件は、AI分野における競争の激しさと、データ利用とコンプライアンス問題の重要性を浮き彫りにした。
AI 分野におけるテクノロジー大手間の競争はますます激化しており、最近のニュースで業界競争の底流が再び最前線に浮き彫りになりました。 TechCrunchが入手した内部通信によると、GoogleのGemini人工知能モデルの改善を担当する請負業者は、その答えをAnthropicの競合モデルClaudeの出力と比較していたという。この動きにより、テストにクロードを使用するというAnthropicの認可をGoogleが遵守しているかどうかについて疑問が生じた。
テクノロジー企業がより優れた AI モデルの開発を競う中、モデルのパフォーマンスは通常、請負業者が競合他社の AI 応答を評価するために多くのエネルギーを費やすのではなく、業界のベンチマークを通じて評価されます。しかし、レポートによると、ジェミニの請負業者は、信頼性や冗長性などの複数の基準に基づいて、表示されたすべての応答を採点する必要があります。請負業者は、ジェミニとクロードのどちらの答えがより良いかを決定するために最大 30 分の時間が与えられます。
契約業者らは、内部チャット記録によると、クロード氏の返答はジェミニ氏よりもセキュリティを重視しているようだと指摘した。ある請負業者は、「クロードはすべてのAIモデルの中で最も厳しいセキュリティ設定を持っている。場合によっては、別のAIアシスタントを演じるなど、安全ではないと判断したプロンプトの言葉にクロードは反応しないことがある」と語った。別のテストでは、クロードさんは特定の即答単語への回答を避け、ジェミニさんの回答には「ヌードと拘束」が含まれていたとして「重大なセキュリティ違反」としてフラグが立てられた。
Anthropic のビジネス サービス規約では、顧客が承認なしに「競合する製品やサービスを構築する」、または「競合する AI モデルをトレーニングする」ために Claude にアクセスすることを具体的に禁止しています。 Google が Anthropic の主要投資家であることは注目に値します。このような背景により、Google の行動コンプライアンスに対する外部の疑念が高まっています。
これに対し、Google DeepMind (Gemini を担当) の広報担当である McNamara 氏は、DeepMind は評価のために「モデルの出力を比較」するが、Gemini を Anthropic モデルでトレーニングすることはないと述べた。 「もちろん、業界の慣例として、評価プロセスの一環としてモデルの出力を比較する場合もあります。しかし、ジェミニのトレーニングに人間モデルを使用したという提案は不正確です。」とマクナマラ氏は述べました。
Googleはジェミニのトレーニングにクロードを使用したことを否定しているが、「モデルの出力を比較する」というレトリックは依然として曖昧であり、外部からの疑念を完全に払拭することはできない。この事件により、AIモデル開発におけるデータ利用とコンプライアンスに対する懸念が再び高まった。競争の激しいAI分野において、いかに公正な競争を維持し、知的財産権を尊重していくかは、業界の発展において継続的な注目と議論が求められる重要な課題となる。
この事件に関するGoogleの説明は国民の疑問を完全に払拭するものではなく、AI分野における熾烈な競争とデータコンプライアンスの課題の深刻さを反映している。将来的には、業界は公正な競争と知的財産の保護を確保するために、より明確なルールと基準を確立する必要があります。