최근 기술 매체인 TechCrunch는 Google이 자체 Gemini AI 모델의 성능을 평가하기 위해 Anthropic의 Claude AI 모델을 사용하고 있다는 소식을 전하면서 업계 내 규정 준수에 대한 광범위한 의구심을 불러일으켰습니다. 사건의 핵심은 Google이 경쟁 제품을 구축하거나 경쟁 AI 모델을 교육하기 위해 Claude를 무단으로 사용하는 것을 명시적으로 금지하는 Anthropic의 서비스 약관을 위반할 가능성이 있다는 것입니다. 동시에 이 사건은 다양한 AI 모델 간의 보안 차이도 부각시켰습니다. Claude는 보안 측면에서 Gemini보다 더 나은 성능을 보이는 것으로 보입니다.
Google 계약업체는 Gemini와 Claude의 응답을 비교하여 Gemini의 정확성과 품질을 평가한 것으로 알려졌습니다. Claude는 위험 메시지에 응답하기를 거부하거나 보다 신중하게 대응하는 등 일부 상황에서 더 큰 보안을 보여준 반면, Gemini는 심각한 보안 위반을 겪었습니다. Google DeepMind는 Claude를 사용하여 Gemini를 교육하는 것을 거부했지만 평가를 위해 다양한 모델의 출력을 비교할 것이라고 인정했습니다. Google이 Anthropic의 주요 투자자 중 하나라는 점은 주목할 가치가 있으며, 이는 이 사건을 더욱 복잡하게 만듭니다.
하이라이트:
Google이 Gemini를 평가하기 위해 Anthropic의 Claude AI를 사용하는 것은 서비스 약관을 위반할 수 있습니다.
보안에 관해서는 Claude가 Gemini보다 더 엄격한 것 같습니다.
Google DeepMind는 Gemini를 훈련하기 위해 Anthropic 모델을 사용하는 것을 거부하는 동시에 모델 출력을 평가하는 관행을 확인했습니다.
Google의 움직임은 거대 기술 기업 간의 경쟁과 파트너십뿐만 아니라 AI 모델 평가의 표준과 윤리적 문제에 대한 논의를 촉발시켰습니다. 앞으로 유사한 사건이 발생하면 업계는 공정한 경쟁을 보장하고 AI 안전을 유지하기 위해 AI 모델의 평가 방법과 데이터 사용을 더욱 표준화할 수 있습니다. 이번 사건은 또한 AI 기술의 급속한 발전이 보다 완전한 규제 및 윤리적 프레임워크와 조화를 이루어야 함을 상기시켜 줍니다.