近日,TechCrunch曝光Google內部文件,顯示Google正利用承包商對比測試其Gemini AI與Anthropic的Claude AI,引發了關於合規性的爭議。文件顯示,承包商需在多個標準下評估兩款AI的回答質量,並對Claude的安全性給予高度評價。此舉可能違反了Anthropic的服務條款,因為Google是Anthropic的主要投資者,而條款禁止未經授權使用Claude開發競爭產品或訓練競爭AI模型。
根據TechCrunch取得的內部通訊顯示,Google正讓承包商將其Gemini AI與Anthropic的Claude進行對比評測,此舉引發了合規性質疑。
文件顯示,負責改進Gemini的承包商需要在30分鐘內根據真實性和詳盡度等多個標準,對比評估Gemini和Claude的回答品質。承包商近期在Google內部評測平台上發現了明確提及Claude的內容,其中包含"我是Claude,由Anthropic創建"的字樣。
內部討論顯示,承包商注意到Claude在安全方面的表現更為嚴格。有承包商稱"Claude的安全設定是所有AI模型中最嚴格的"。在某些案例中,當Gemini的回答因涉及"裸體和束縛"被標記為"嚴重違反安全規定"時,Claude則直接拒絕回應相關提示。
值得注意的是,身為Anthropic的主要投資者,Google的這項做法可能違反了Anthropic的服務條款。該條款明確禁止未經批准訪問Claude來"構建競爭產品"或"訓練競爭AI模型"。當被問及是否獲得了Anthropic的授權時,Google DeepMind發言人Shira McNamara拒絕正面回應。
McNamara表示,儘管DeepMind確實會"比較模型輸出"用於評估,但否認使用Anthropic模型訓練Gemini。 "這符合業界標準做法,"她說,"但任何聲稱我們用Anthropic模型訓練Gemini的說法都是不準確的。"
先前,Google要求AI產品承包商評估Gemini在其專業領域外的回答,這引發了承包商對於AI在醫療保健等敏感領域可能產生不準確資訊的擔憂。
截至發稿時,Anthropic發言人尚未就此事發表評論。
谷歌對Gemini與Claude的對比測試引發了廣泛關注,其合規性問題及對AI行業的影響仍需進一步觀察。 谷歌方面的回應並未完全消除疑慮,Anthropic的官方回應也尚未發布,事件仍在持續發酵中。