OpenAI近日公布了一个内部量表,用于追踪其大型语言模型在通用人工智能(AGI)方面的进展,此举不仅展现了OpenAI在AGI领域的野心,也为业界提供了衡量AI发展的新标准。该量表将AGI的实现分成了五个级别,从目前的聊天机器人到能够执行整个组织工作的AI,每个级别都代表着AI能力的显著提升。Downcodes小编将对此进行详细解读,并分析其意义和潜在影响。
据彭博社消息,OpenAI公司已创建了一个内部量表,用于追踪其大型语言模型在通用人工智能(AGI)方面的进展。这一举措不仅展示了OpenAI在AGI领域的雄心,也为业界提供了一个衡量AI发展的新标准。
该量表共分为五个级别:1. 第一级:当前的聊天机器人,如ChatGPT,属于这一级别。2. 第二级:能够以博士学位水平解决基本问题的系统。OpenAI声称已接近这一级别。3. 第三级:能够代表用户采取行动的AI代理。4. 第四级:能够创造新创新的AI。5. 第五级:可以执行整个组织工作的AI,被视为实现AGI的最后一步。
然而,专家们对AGI实现的时间表存在分歧。OpenAI首席执行官Sam Altman在2023年10月曾表示,距离AGI实现还有五年时间。但即使AGI能够实现,也需要投入数十亿美元的计算资源。
值得注意的是,这一评分标准的公布恰逢OpenAI宣布与洛斯阿拉莫斯国家实验室合作,探索如何安全地利用先进AI模型(如GPT-4)协助生物科学研究。这一合作旨在为美国政府建立一套安全和其他评估因素,未来可用于测试各种AI模型。
尽管OpenAI拒绝就如何将模型分配到这些内部级别提供详细信息,但据彭博社报道,公司领导层最近展示了一个使用GPT-4AI模型的研究项目,认为该项目展现了一些类似人类推理能力的新技能。
这种量化AGI进展的方法有助于对AI发展做出更严格的定义,避免主观解读。然而,它也引发了一些关于AI安全和伦理的担忧。今年5月,OpenAI解散了其安全团队,一些前员工表示公司的安全文化已让位于产品开发,尽管OpenAI否认了这一说法。
OpenAI此举为AGI研究提供了新的方向和标准,但同时也引发了关于安全性和伦理的担忧。AGI的最终实现仍存在不确定性,需要持续关注和谨慎应对。 未来AI的发展方向,将会受到这一量表以及相关研究的影响,值得持续关注。