OpenAI 为了提升人工智能模型的安全性和可靠性,近日宣布了一系列重大举措。这些举措旨在加强内部安全流程,对高风险人工智能模型的开发和部署进行更严格的控制,从而最大限度地降低潜在风险,确保人工智能技术的负责任发展。
人工智能公司OpenAI加强其内部安全流程,成立了安全咨询小组,并赋予董事会对高风险人工智能的否决权。OpenAI更新了预备框架,明确了评估、缓解和决定模型固有风险的路径。公司将模型按照风险等级进行评级,并采取相应缓解措施。对于评估为高风险的模型,将不能进行部署或进一步开发。OpenAI还建立了跨职能安全咨询小组,审查专家报告并提出更高层面建议。董事会和领导层将共同决定是否发布或搁置模型。通过此举,OpenAI试图防止高风险产品或流程在董事会未知或未批准的情况下得到通过。
通过这些新措施,OpenAI展现了其对人工智能安全问题的重视,也为其他人工智能公司树立了良好的榜样。 这标志着人工智能行业正在积极探索更安全、更负责任的开发和部署模式,为人工智能技术的健康发展奠定坚实基础。