カリフォルニア州議会は最近、大規模な AI モデルの開発と展開を規制することを目的とした注目の AI 安全法案 SB1047 を可決し、テクノロジー コミュニティでの激しい議論を引き起こしました。この法案の核心は、訓練に1億ドル以上かかる大規模AIモデルの厳格な安全性テストを義務付けることであり、緊急停止機構の設置と事故後の適時報告を義務付けるものだ。この法案の可決はカリフォルニア州の人工知能安全規制における重要な一歩を示しており、その影響は全米、さらには世界中に広がる可能性がある。
最近、カリフォルニア州の議員らは物議を醸している人工知能安全法案SB1047を可決したが、今後は最終的な手続き上の投票を行うだけで、署名のためにカリフォルニア州知事ギャビン・ニューサムに送付されることになる。この法案の推進はシリコンバレー内で激しい議論を巻き起こし、支持と反対の声が入り混じり、注目を集めている。
画像出典注:画像はAIによって生成され、画像はサービスプロバイダーMidjourneyによって許可されています
カリフォルニア州上院議員スコット・ウィーナーはこの法案を紹介し、法案の背後にある多様な連携を誇りに思っており、イノベーションは安全と同じくらい重要だと誰もが信じていると述べた。彼は、人工知能には世界を変える大きな可能性があり、この法案の施行はこの可能性を安全に解放できることを保証するものであると信じています。
ハイテク大手各社の反応はまちまちで、xAIのイーロン・マスク最高経営責任者(CEO)も支持を表明した。同氏はソーシャルメディアで、カリフォルニア州は人工知能の悪用を防ぐためにSB1047を可決すべきだと指摘した。同氏は、20年以上にわたって人工知能の規制を支持しており、潜在的なリスクを規制する必要があると信じていると述べた。
この法案の核心は、大規模な AI モデル(トレーニング費用が 1 億ドルを超える)を開発する企業に対し、リリース前に包括的なセキュリティ テストを実施するという要件です。同時に、この法案はこれらの企業に対し、危機的状況において「緊急停止」機能を設置し、安全上のインシデント発生後72時間以内にカリフォルニア州司法長官に報告することを義務付けている。新設された「フロンティアモデル局」がコンプライアンスの監視を担当し、違反を繰り返した場合には最高3000万ドルの罰金が科せられる。
支持者には、ジェフリー・ヒントン氏やヨシュア・ベンジオ氏などの人工知能分野の著名人が含まれており、彼らはこの法案が人工知能のリスクと闘うために不可欠であり、AIの安全性に関する国家基準を設定する可能性さえあると信じている。
しかし、反対派は、この法案がイノベーションを阻害し、頭脳流出につながる可能性があると考えており、グーグル、オープンAI、メタなどのカリフォルニアのテクノロジー企業は、中小企業が不当に影響を受け、技術の進歩にも影響が及ぶ可能性があると考え、この法案について懸念を表明している。減速する。彼らは、州間の不一致を避けるために連邦レベルで規制を制定するよう求めた。
法案 SB1047 は修正を加えてカリフォルニア州歳出委員会を通過し、現在州議会での最終投票を待っています。カリフォルニア州知事のニューサムがこの法案に署名すれば、米国初の同様の人工知能規制法となり、世界のテクノロジー業界と将来の人工知能の規制に広範な影響を与える可能性がある。
ハイライト:
? ** 法案可決 **: カリフォルニア州の SB1047 人工知能安全法案が可決され、知事の署名を待っています。
? **安全対策**: この法案では、高コストの AI モデルに安全性テストを実施し、緊急停止機能を設定することが義務付けられています。
? **各方面の反応**: イノベーションや頭脳流出への影響を懸念するテクノロジー大手の間では、支持と反対の声が上がっている。
SB1047 法案の最終的な運命と人工知能の開発に対するその影響は引き続き注目に値します。これはカリフォルニアのテクノロジーの将来に関係するだけでなく、世界的な人工知能規制の重要な参考事例となる可能性もあります。