最近、Google がジェミニ人工知能プロジェクトを改善するために Anthropic のクロード モデルを使用しているとの報告がありました。内部文書によると、Google の請負業者は Gemini と Claude の成果を体系的に比較して、Gemini のパフォーマンスを評価および改善していることが示されています。このアプローチは業界の注目を集めており、AI モデルの評価に関する業界標準や、異なる企業間の技術協力における倫理問題も伴います。この記事では、この事件の詳細を掘り下げ、その潜在的な影響を分析します。
最近、Google の Gemini 人工知能プロジェクトは、その出力結果を Anthropic のクロード モデルと比較することでパフォーマンスを向上させています。 TechCrunchが入手した内部通信によると、Geminiの改善を担当する請負業者は2つのAIモデルの答えを系統的に評価しているという。
AI 業界では、モデルのパフォーマンス評価は通常、請負業者にさまざまなモデルの答えを 1 つずつ比較させるのではなく、業界のベンチマークを通じて行われます。 Gemini を担当する請負業者は、信頼性や詳細レベルなどのいくつかの基準に基づいてモデルの出力をスコアリングする必要があります。彼らは、ジェミニとクロードのどちらの答えがより優れているかを決定するために毎回最大 30 分を与えられました。
最近、これらの請負業者は、使用している内部プラットフォームにクロードへの言及が頻繁に表示されることに気づきました。請負業者に示された内容の一部には、「私は Anthropic によって作成されたクロードです。」と明確に記載されており、請負業者はまた、クロードの回答がセキュリティに重点を置いていることに気づきました。一部の請負業者は、Claude のセキュリティ設定がすべての AI モデルの中で最も厳しいと指摘しました。場合によっては、クロードは、他の AI アシスタントのロールプレイングなど、安全でないと判断したプロンプトには応答しないことを選択します。別のケースでは、クロードさんが質問を避け、ジェミニさんの回答が「ヌードと束縛」を含んだとして「重大な安全違反」としてフラグが立てられた。
Anthropic の商用サービス規約では、顧客が許可なく Claude を使用して「競合する製品やサービスを構築」したり、「競合する AI モデルをトレーニングしたり」することを禁止していることに注意してください。 Google は Anthropic の主要投資家の 1 つです。
TechCrunchとのインタビューで、Google DeepMindの広報担当者シラ・マクナマラ氏は、Googleがクロードの使用についてAnthropic社から承認を得たかどうかは明らかにしなかった。 McNamara 氏は、DeepMind は評価のためにモデルの出力を比較しますが、Gemini をクロード モデルでトレーニングすることはないと述べました。 「もちろん、業界の標準的な慣行と同様に、場合によってはモデルの出力を比較します。しかし、ジェミニのトレーニングに人間モデルを使用したという提案は不正確です。」と彼女は言いました。
TechCrunchは先週、Googleの請負業者が専門分野以外の分野でGeminiのAI対応を評価するよう求められたことも独占的に報じた。一部の請負業者は、Gemini がヘルスケアなどの機密性の高いトピックに関して不正確な情報を生成する可能性があると内部コミュニケーションで懸念を表明しています。
ハイライト:
ジェミニは、独自の AI モデルの性能を向上させるために、クロードとの比較テストを行っています。
請負業者がスコアリングを担当し、2 人の回答は信頼性や安全性などの複数の基準にわたって比較されます。
Anthropic は、競技モデルのトレーニングにクロードを不正に使用することを禁止しています。
Google が Gemini の動作を改善するためにクロード モデルを使用したことは、AI モデルの評価方法、データ使用倫理、競争関係に関する議論を引き起こしました。 将来的には、同様の企業間 AI モデルの比較が業界で標準となるかどうか、またそのような行為をどのように規制するかは、さらなる注目に値します。 これはAI業界の発展と規制に大きな影響を与えるでしょう。