近日,Downcodes小编获悉,埃隆·马斯克与山姆·阿尔特曼的诉讼,意外曝光了OpenAI早期内部邮件,揭露了公司创始人之间关于人工智能控制权的激烈权力斗争。邮件内容引发了人们对人工智能未来发展方向以及安全性的广泛关注,特别是关于人类级别人工智能(AGI)的控制权归属问题。邮件中,OpenAI联合创始人伊利亚·苏茨克维尔表达了对马斯克过度控制AI的担忧,认为这可能导致AGI独裁的风险,并呼吁建立合理的机制来防止这种情况发生。
图源备注:图片由AI生成,图片授权服务商Midjourney
苏茨克维尔在2017年9月给马斯克和阿尔特曼写的一封邮件中指出,马斯克的控制欲可能会对未来的人类级别人工智能(AGI)带来潜在威胁。他在邮件中强调,“目前的结构为你提供了一条道路,让你最终拥有对 AGI 的单方面绝对控制权。” 虽然马斯克曾表示不希望控制最终的 AGI,但苏茨克维尔认为他的行为显示出对绝对控制的重视。
值得注意的是,这封邮件是在马斯克因与公司的融资方式发生分歧而辞去 OpenAI 职务不到六个月的时间内发出的。苏茨克维尔在邮件中明确表示担忧,“随着公司在 AGI 方面取得真正进展,你可能会选择保持对公司的绝对控制权,即使你现在的意图并非如此。”
在邮件的后半部分,苏茨克维尔进一步指出,OpenAI 的目标是为了创造一个美好的未来,避免出现 AGI 独裁。他提到马斯克对谷歌 DeepMind 创始人德米斯・哈萨比斯(Demis Hassabis)可能创造 AGI 独裁的担忧,认为这种担忧是合理的。因此,他呼吁创造一个避免马斯克成为独裁者的结构,特别是在技术能够实现这一可能性的背景下。
邮件的内容在今天看来尤其引人注目,因为它揭示了在创建具有人类智能的人工智能时,控制权问题是一个复杂且敏感的话题。随着时间的推移,苏茨克维尔自己也离开了 OpenAI,成立了一家新的企业,专注于人工智能安全,这一变化更增加了邮件内容的分量。
这封邮件的曝光,再次提醒我们,在人工智能快速发展之际,对技术伦理和安全性的关注至关重要。我们需要建立更完善的机制,确保人工智能技术能够造福人类,而不是成为威胁人类未来的工具。 Downcodes小编将持续关注人工智能领域的最新动态,为读者带来更多有价值的信息。