歐盟近期發布了通用人工智慧(GPAI)模型行為準則的初稿,旨在規範人工智慧發展,為企業提供清晰的合規指南,避免巨額罰款。該準則涵蓋了透明度、版權、風險評估以及風險緩解等多個關鍵領域,並對違規行為設置了嚴厲的懲罰。 Downcodes小編將為您詳細解讀這份重要的文件。
GPAI 是經過訓練的、總運算能力超過10²⁵ FLOP 的人工智慧。預計受歐盟指導方針約束的公司包括OpenAI、Google、Meta、Anthropic 和Mistral。
該文件涉及GPAI 制定者的幾個核心領域:透明度、版權合規性、風險評估以及技術/治理風險緩解。該法規強調人工智慧開發的透明度,並要求人工智慧公司提供用於訓練模型的網路爬蟲的資訊。
風險評估部分旨在防止網路犯罪、廣泛的歧視和對人工智慧的控制權喪失。人工智慧製造商應採用安全框架(SSF) 來分解其風險管理政策,並根據系統性風險相應地降低這些政策。
違反《人工智慧法案》的公司將面臨嚴厲處罰,可能被處以最高3,500萬歐元(目前為3,680萬美元)或最高7% 的全球年利潤罰款,以較高者為準。
歐盟邀請利害關係人在11月28日之前透過專用的Futurium 平台提交回饋意見,以協助完善下一稿。規則預計於2025年5月1日完成。
歐盟此舉旨在平衡人工智慧創新與風險管控,為人工智慧的健康發展提供有力保障。 該準則的最終定稿值得業界密切關注,其影響將波及全球人工智慧產業。 Downcodes小編將持續跟進報道相關進度。