近日,科技媒體TechCrunch爆料稱Google正利用Anthropic公司的Claude AI模型來評估自家Gemini AI模型的效能,此舉引發了業界對其合規性的廣泛質疑。這事件的核心在於Google可能違反了Anthropic的服務條款,該條款明確禁止未經授權使用Claude建構競爭產品或訓練競爭AI模型。同時,事件也凸顯了不同AI模型在安全性上的差異,Claude在安全性上的表現似乎優於Gemini。
據報導,Google承包商將Gemini和Claude的回應進行對比,以評估Gemini的準確性和品質。 Claude在某些情況下表現出更強的安全性,拒絕回答危險提示或給予更謹慎的回應,而Gemini則出現嚴重的安全性違規。谷歌DeepMind否認使用Claude訓練Gemini,但承認會比較不同模型的輸出以進行評估。值得注意的是,Google是Anthropic的主要投資者之一,這使得這起事件更加複雜。
劃重點:
谷歌使用Anthropic的Claude AI評估Gemini,可能違反服務條款。
Claude在安全性方面的表現似乎比Gemini更嚴格。
谷歌DeepMind否認使用Anthropic模型訓練Gemini,同時確認了評估模型輸出的做法。
谷歌此舉引發了關於大型科技公司之間競爭與合作關係的討論,以及AI模型評估的標準和倫理問題。 未來,類似的事件可能會促使業界進一步規範AI模型的評估方法和資料使用,以確保公平競爭和維護AI安全。 這起事件也提醒我們,AI技術的快速發展需要與更完善的監管和倫理框架相符。