人工知能テクノロジー、特に大規模言語モデル (LLM) の急速な発展に伴い、そのセキュリティ問題がますます顕著になってきています。しかし、既存の法律や規制、特に米国のコンピュータ詐欺および不正行為に関する法律(CFAA)は、AI セキュリティ研究における法的リスクに対処するには不十分です。ハーバード大学の学者らは最近、ブラックハットカンファレンスで、CFAAがAIセキュリティ研究者を効果的に保護できておらず、むしろ研究者を法的リスクにさらしている可能性があると指摘し、AIセキュリティ研究の法的枠組みについて業界で広範な注目と議論を引き起こしている。この記事では、これについて詳しく分析します。
今日、現代テクノロジーの急速な発展に伴い、人工知能、特に大規模言語モデル (LLM) が徐々に注目を集めています。しかし、米国のサイバーセキュリティ法は、この急速に変化する分野に追いついていないようです。最近、ハーバード大学の学者グループがブラックハットカンファレンスで、現行のコンピュータ詐欺および不正使用法(CFAA)はAIセキュリティ研究に従事する人々を効果的に保護しておらず、むしろ彼らを法的リスクにさらす可能性があると指摘した。
画像出典注:画像はAIにより生成され、画像認証サービスプロバイダMidjourney
これらの学者には、ハーバード大学ロースクールのケンドラ・アルバート、ラム・シャンカール・シヴァ・クマール、ジョナサン・ペニーが含まれます。アルバート氏はインタビューの中で、現行法では「ヒントインジェクション攻撃」などの行為が明確に定義されていないため、研究者が自らの行為が法律に違反するかどうかを判断することが困難になっていると述べた。彼女は、許可なくモデルにアクセスするなどの一部の行為は明らかに違法ですが、AI システムにアクセスした研究者が意図しない方法でそれらのモデルを使用しているかどうかという問題も曖昧になると述べました。
2021年、米国最高裁判所のヴァン・ビューレン対合衆国事件はCFAAの解釈を変更し、この法律はコンピュータ内の情報に不正にアクセスした者にのみ適用されると規定した。この判断は従来のコンピュータ システムでは理にかなっていますが、大規模な言語モデルとなると不十分です。アルバート氏は、AI と対話するために自然言語を使用すると、この法的定義がより複雑になり、多くの場合、AI の応答はデータベースから情報を取得するのと同等ではなくなると指摘しました。
同時に、シヴァクマール氏は、AIセキュリティ研究に関する法的議論は著作権などの問題に比べてはるかに注目されておらず、特定の攻撃テストを実施する際に保護されるかどうかは彼自身も確信が持てないとも述べた。アルバート氏は、現行法の不確実性を考慮すると、この問題は将来法廷での訴訟を通じて明らかにされる可能性があるが、現時点では多くの「善意の」研究者が困惑していると述べた。
このような法的環境において、アルバート氏はセキュリティ研究者に対し、自分たちの行動が法律に違反しないように法的支援を求めるようアドバイスしています。彼女はまた、曖昧な法規定が潜在的な研究者を怖がらせ、悪意のある攻撃者がそれを逃れることを可能にし、より大きなセキュリティリスクを生み出す可能性があると懸念している。
ハイライト:
米国のコンピュータ詐欺および乱用法は、AI セキュリティ研究者に対する保護が不十分であり、法的リスクに直面する可能性があります。
現在の法律にはチップ注射攻撃などの行為に対する明確な定義がないため、研究者が合法性を判断することが困難になっています。
学者らは、関連する法規定を明確にし、誠実な研究者を保護するために、将来的には訴訟手続きが必要になる可能性があると考えている。
全体として、AI セキュリティ研究分野における法的ジレンマには注意が必要です。 大規模な言語モデルの特性を考慮すると、正当な研究者の権利と利益を保護し、AI セキュリティ研究の健全な発展を促進し、悪意のある攻撃に効果的に対抗するために、より明確で対象を絞った法律や規制を策定する必要があります。この方法によってのみ、人工知能技術の健全な発展を確保し、全人類に利益をもたらすことができます。