欧州連合は最近、汎用人工知能の行動規範 (GPAI) モデルの最初の草案を発表しました。これは、人工知能の開発を標準化し、巨額の罰金を回避するための明確なコンプライアンス ガイドラインを企業に提供することを目的としています。この規範は、透明性、著作権、リスク評価、リスク軽減などの主要分野をカバーしており、遵守しない場合には厳しい罰則を設けています。 Downcodes の編集者がこの重要な文書について詳しく説明します。
GPAI は、合計 10²⁵ FLOP を超える計算能力を持つ、訓練された人工知能です。 EU ガイドラインの対象となると予想される企業には、OpenAI、Google、Meta、Anthropic、Mistral などが含まれます。
この文書は、透明性、著作権順守、リスク評価、技術/ガバナンスのリスク軽減など、GPAI フレーマーのいくつかの中核分野に取り組んでいます。この規制はAI開発の透明性を重視しており、AI企業に対しモデルのトレーニングに使用されるWebクローラーに関する情報の提供を義務付けている。
リスク評価セクションは、サイバー犯罪、広範な差別、人工知能に対する制御の喪失を防ぐことを目的としています。 AI メーカーは、セキュリティ フレームワーク (SSF) を導入して、リスク管理ポリシーを細分化し、システミック リスクに基づいてリスクを軽減する必要があります。
人工知能法に違反した企業は厳しい罰則に直面し、最大3,500万ユーロ(現在3,680万ドル)または世界の年間利益の最大7%のいずれか高い方の罰金が科せられる可能性があります。
EUは、次の草案の改善に役立てるため、11月28日までに専用のFuturiumプラットフォーム経由でフィードバックを提出するよう関係者に呼びかけている。この規則は 2025 年 5 月 1 日までに最終決定される予定です。
EUの動きは、人工知能のイノベーションとリスク管理のバランスをとり、人工知能の健全な発展に対する強力な保証を提供することを目的としている。 このコードの最終草案は業界の注目に値し、その影響は世界の人工知能業界に影響を与えるでしょう。 Downcodes の編集者は引き続きフォローアップし、関連する進捗状況を報告していきます。