OpenAI 為了提升人工智慧模型的安全性和可靠性,最近宣布了一系列重大措施。這些措施旨在加強內部安全流程,對高風險人工智慧模式的開發和部署進行更嚴格的控制,從而最大限度地降低潛在風險,確保人工智慧技術的負責任發展。
人工智慧公司OpenAI加強其內部安全流程,成立了安全諮詢小組,並賦予董事會對高風險人工智慧的否決權。 OpenAI更新了預備框架,明確了評估、緩解和決定模型固有風險的路徑。本公司將模型依照風險等級進行評級,並採取相應緩解措施。對於評估為高風險的模型,將無法進行部署或進一步開發。 OpenAI也建立了跨職能安全諮詢小組,審查專家報告並提出更高層面建議。董事會和領導層將共同決定是否發布或擱置模型。透過此舉,OpenAI試圖防止高風險產品或流程在董事會未知或未批准的情況下通過。
透過這些新措施,OpenAI展現了對人工智慧安全議題的重視,也為其他人工智慧公司樹立了良好的典範。 這標誌著人工智慧產業正在積極探索更安全、更負責任的開發和部署模式,為人工智慧技術的健康發展奠定堅實基礎。