최근 구글의 제미니(Gemini) AI 모델 개선 작업이 논란을 불러일으켰다. TechCrunch에 따르면 Google 계약업체는 Gemini의 답변을 Anthropic의 경쟁사인 Claude의 결과와 비교하여 Gemini의 성과를 평가했습니다. 이러한 움직임은 Google이 Claude의 데이터를 허가 없이 사용했는지, Anthropic이 Google의 주요 투자자 중 하나이기 때문에 Anthropic의 비즈니스 서비스 약관을 위반했는지 여부에 대한 의문을 제기합니다. 이번 사건은 AI 분야의 경쟁 강도와 데이터 사용 및 규정 준수 문제의 중요성을 부각시켰습니다.
AI 분야에서 거대 기술 기업 간의 경쟁이 점점 치열해지고 있으며, 최근 뉴스를 통해 업계 경쟁의 저류가 다시 한 번 전면에 부각되었습니다. TechCrunch가 입수한 내부 통신에 따르면 Google의 Gemini 인공 지능 모델 개선을 담당하는 계약자는 자신의 답변을 Anthropic의 경쟁 모델 Claude의 출력과 비교하고 있었습니다. 이러한 움직임은 Google이 Claude를 테스트에 사용할 수 있는 Anthropic의 승인을 준수하는지에 대한 의문을 제기했습니다.
기술 회사가 더 나은 AI 모델을 개발하기 위해 경쟁함에 따라 계약자가 경쟁사의 AI 대응을 평가하는 데 많은 에너지를 소비하는 대신 모델 성능은 일반적으로 업계 벤치마크를 통해 평가됩니다. 그러나 보고서에 따르면 Gemini 계약자는 진정성과 자세한 내용을 포함한 다양한 기준을 기반으로 모든 응답에 점수를 매겨야 합니다. 계약자는 Gemini 또는 Claude의 답변 중 어느 것이 더 나은지 결정하는 데 최대 30분의 시간을 갖습니다.
계약자들은 내부 채팅 기록에 따르면 Claude의 반응이 Gemini의 반응보다 보안을 더 강조하는 것 같다고 지적했습니다. 한 계약자는 "클로드는 모든 AI 모델 중 가장 엄격한 보안 설정을 갖고 있다"며 "다른 AI 비서를 연기하는 등 안전하지 않다고 판단되는 프롬프트에는 클로드가 반응하지 않는 경우도 있다"고 말했다. 또 다른 테스트에서 Claude는 특정 프롬프트 단어에 응답하지 않았으며 Gemini의 응답은 "나체 노출 및 구속"을 포함하여 "심각한 보안 위반"으로 표시되었습니다.
Anthropic의 비즈니스 서비스 약관은 고객이 승인 없이 "경쟁 제품이나 서비스를 구축"하거나 "경쟁 AI 모델을 교육"하기 위해 Claude에 액세스하는 것을 구체적으로 금지합니다. Google이 Anthropic의 주요 투자자라는 점은 주목할 가치가 있습니다. 이러한 배경으로 인해 Google의 행동 준수에 대한 외부 세계의 의구심이 커졌습니다.
이에 대해 Google DeepMind(Gemini 담당) 대변인 McNamara는 DeepMind가 평가를 위해 "모델 출력 비교"를 수행하지만 Anthropic 모델에서 Gemini를 훈련시키지는 않는다고 말했습니다. McNamara는 "물론 업계 관행과 마찬가지로 어떤 경우에는 평가 프로세스의 일부로 모델 출력을 비교합니다. 그러나 Gemini를 훈련하기 위해 Anthropic 모델을 사용했다는 제안은 정확하지 않습니다."라고 말했습니다.
Google은 Claude를 사용하여 Gemini를 교육하는 것을 거부하지만 "모델 출력 비교"라는 수사는 여전히 모호하며 외부 의심을 완전히 제거할 수는 없습니다. 이번 사건은 AI 모델 개발 시 데이터 사용과 규정 준수에 대한 우려를 다시 한번 불러일으켰습니다. 경쟁이 치열한 AI 분야에서 어떻게 공정한 경쟁을 유지하고 지적재산권을 존중할 것인지는 산업 발전 과정에서 지속적인 관심과 논의가 필요한 중요한 문제가 될 것이다.
이번 사건에 대한 구글의 설명은 대중의 의혹을 완전히 해소하지는 못했는데, 이는 AI 분야의 치열한 경쟁과 데이터 규정 준수 문제의 심각성을 반영한다. 앞으로 업계는 공정한 경쟁과 지적재산권 보호를 위해 보다 명확한 규칙과 기준을 마련해야 합니다.