최근 테크크런치(TechCrunch)는 구글이 제미니(Gemini) AI와 앤트로픽(Anthropic)의 클로드 AI(Claude AI)를 비교, 테스트하기 위해 계약자를 고용하고 있음을 보여주는 구글 내부 문서를 공개해 규정 준수 논란을 촉발했다. 문서에는 계약자가 여러 기준에 따라 두 AI의 답변 품질을 평가해야 함을 보여주며 클로드의 안전을 높이 평가합니다. Google은 Anthropic의 주요 투자자이며, 경쟁 제품을 개발하거나 경쟁 AI 모델을 교육하기 위해 Claude를 무단으로 사용하는 것을 금지하고 있으므로 이러한 움직임은 Anthropic의 서비스 약관을 위반할 수 있습니다.
TechCrunch가 입수한 내부 통신에 따르면 Google은 계약업체가 Anthropic의 Claude와 비교하여 Gemini AI를 평가하도록 하여 규정 준수에 대한 질문을 제기하고 있습니다.
문서에는 Gemini 개선을 담당하는 계약자가 30분 이내에 진정성, 완전성 등 다양한 기준을 바탕으로 Gemini와 Claude의 답변 품질을 비교 평가해야 함을 보여줍니다. 계약자들은 최근 Google의 내부 리뷰 플랫폼에서 "나는 Claude, made by Anthropic"이라는 문구를 포함하여 Claude에 대한 명시적인 언급을 발견했습니다.
내부 토론에 따르면 계약업체는 Claude의 더욱 엄격한 안전 관행을 인지했습니다. 한 계약자는 "클로드의 보안 설정은 모든 AI 모델 중에서 가장 엄격하다"고 말했다. 어떤 경우에는 Gemini의 답변이 "나체 노출 및 구속"과 관련되어 있기 때문에 "심각한 안전 위반"으로 표시되었을 때 Claude는 단순히 관련 프롬프트에 응답하기를 거부했습니다.
Anthropic의 주요 투자자로서 Google의 접근 방식이 Anthropic의 서비스 약관을 위반할 수 있다는 점은 주목할 가치가 있습니다. 이 약관은 "경쟁 제품 구축" 또는 "경쟁 AI 모델 교육"을 위해 Claude에 대한 승인되지 않은 액세스를 명시적으로 금지합니다. Anthropic의 승인 여부에 대한 질문에 Google DeepMind 대변인 Shira McNamara는 직접적인 응답을 거부했습니다.
McNamara는 DeepMind가 평가를 위해 "모델 출력 비교"를 수행하지만 Gemini를 교육하기 위해 Anthropic 모델을 사용하는 것을 거부했다고 말했습니다. "이것은 업계 표준 관행에 따른 것입니다. 그러나 우리가 Gemini를 훈련시키기 위해 인류학 모델을 사용했다는 주장은 부정확합니다."라고 그녀는 말했습니다.
이전에 Google은 AI 제품 계약자에게 전문 분야 이외의 Gemini의 답변을 평가하도록 요구하여 AI가 의료와 같은 민감한 분야에서 부정확한 정보를 생성할 수 있다는 계약자 사이의 우려를 제기했습니다.
보도 당시 Anthropic 대변인은 이 문제에 대해 논평하지 않았습니다.
Gemini와 Claude에 대한 Google의 비교 테스트는 광범위한 관심을 끌었으며 규정 준수 문제와 AI 산업에 미치는 영향은 여전히 추가 관찰이 필요합니다. 구글의 대응도 우려가 완전히 해소되지는 않았고, 앤트로픽의 공식 대응도 아직 공개되지 않았으며, 사건은 여전히 계속되고 있다.