谷歌近期在其官方AI原则页面上删除了此前承诺不开发用于武器或监控用途的AI相关内容,此举引发了广泛争议与担忧。这一举动标志着谷歌在AI发展战略上的重大转变,其背后原因和未来走向值得深入探讨。此举不仅引发了科技伦理的讨论,也牵涉到国家安全与国际合作等复杂议题。本文将对此事件进行详细分析,解读谷歌此举的潜在影响。
近日,谷歌在其官方网站上删除了此前承诺不开发用于武器或监控的人工智能(AI)的相关内容,此举引发了广泛的讨论和关注。根据彭博社的报道,这一变化出现在谷歌更新其公共 AI 原则页面时,之前在页面中明确提到的 “我们不会追求的应用” 部分已经被完全删除,令人意外。
在被询问对此变动的看法时,谷歌向《科技 Crunch》指出了一篇新的关于 “负责任 AI” 的博客文章。文章中提到,谷歌相信,企业、政府和组织应该共同努力,创造一种保护人类、促进全球增长并支持国家安全的 AI。这样的表态显示出谷歌在 AI 发展方向上的转变,似乎更加强调与国家利益的结合。
在更新后的 AI 原则中,谷歌承诺将致力于 “减轻意外或有害的结果,并避免不公平的偏见”,同时强调与 “国际法和人权的普遍接受原则” 保持一致。近年来,谷歌与美国和以色列军方的云服务合同引发了内部员工的抗议,许多人担心公司的技术可能会被用于军 事目的。尽管谷歌一再强调其 AI 不用于伤害人类,但美国国防部的 AI 负责人曾对外表示,谷歌的一些 AI 模型正在加速美国军方的攻击链,这一言论令外界对谷歌的 AI 应用感到疑虑。
此次承诺的删除,似乎表明谷歌在人工智能领域的立场正在发生变化,可能会在未来的技术发展中更加开放地与军 事和监控项目进行合作。谷歌的这一新动态,无疑将继续引发关于科技伦理与国家安全的深层次讨论。
划重点:
谷歌删除了不开发武器和监控 AI 的承诺,引发公众关注。
公司强调与国家安全的结合,提倡各方合作发展 AI。
新原则强调减轻不良结果与遵循国际法人权,面对军方合作的压力。
谷歌此举引发了关于人工智能伦理和国家安全之间平衡的广泛讨论,其未来发展方向将受到密切关注。这不仅关乎谷歌自身,也对整个AI行业发展具有深远的影响。 如何在技术进步与社会责任之间取得平衡,将成为摆在所有科技公司面前的关键问题。