近日,TechCrunch曝光谷歌内部文件,显示谷歌正利用承包商对比测试其Gemini AI与Anthropic的Claude AI,引发了关于合规性的争议。文件显示,承包商需在多个标准下评估两款AI的回答质量,并对Claude的安全性给予高度评价。此举可能违反了Anthropic的服务条款,因为谷歌是Anthropic的主要投资者,而条款禁止未经授权使用Claude开发竞争产品或训练竞争AI模型。
据TechCrunch获得的内部通讯显示,谷歌正让承包商将其Gemini AI与Anthropic的Claude进行对比评测,此举引发了合规性质疑。
文件显示,负责改进Gemini的承包商需要在30分钟内根据真实性和详尽度等多个标准,对比评估Gemini和Claude的回答质量。承包商近期在谷歌内部评测平台上发现了明确提及Claude的内容,其中包含"我是Claude,由Anthropic创建"的字样。
内部讨论显示,承包商注意到Claude在安全方面的表现更为严格。有承包商称"Claude的安全设置是所有AI模型中最严格的"。在某些案例中,当Gemini的回答因涉及"裸体和束缚"被标记为"严重违反安全规定"时,Claude则直接拒绝回应相关提示。
值得注意的是,作为Anthropic的主要投资者,谷歌的这一做法可能违反了Anthropic的服务条款。该条款明确禁止未经批准访问Claude来"构建竞争产品"或"训练竞争AI模型"。当被问及是否获得了Anthropic的授权时,Google DeepMind发言人Shira McNamara拒绝正面回应。
McNamara表示,尽管DeepMind确实会"比较模型输出"用于评估,但否认使用Anthropic模型训练Gemini。"这符合行业标准做法,"她说,"但任何声称我们用Anthropic模型训练Gemini的说法都是不准确的。"
此前,谷歌要求AI产品承包商评估Gemini在其专业领域外的回答,这引发了承包商对于AI在医疗保健等敏感领域可能产生不准确信息的担忧。
截至发稿时,Anthropic发言人尚未就此事发表评论。
谷歌对Gemini与Claude的对比测试引发了广泛关注,其合规性问题及对AI行业的影响仍需进一步观察。 谷歌方面的回应并未完全消除疑虑,Anthropic的官方回应也尚未发布,事件仍在持续发酵中。