ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งโมเดลภาษาขนาดใหญ่ (LLM) ปัญหาด้านความปลอดภัยจึงมีความสำคัญมากขึ้น อย่างไรก็ตาม กฎหมายและข้อบังคับที่มีอยู่ โดยเฉพาะกฎหมาย Computer Fraud and Abuse Act (CFAA) ในสหรัฐอเมริกา ยังไม่เพียงพอในการจัดการกับความเสี่ยงทางกฎหมายในการวิจัยด้านความปลอดภัยของ AI นักวิชาการมหาวิทยาลัยฮาร์วาร์ดชี้ให้เห็นเมื่อเร็ว ๆ นี้ในการประชุม Black Hat ว่า CFAA ล้มเหลวในการปกป้องนักวิจัยด้านความปลอดภัยของ AI อย่างมีประสิทธิภาพ และอาจทำให้พวกเขาเสี่ยงทางกฎหมายแทน ทำให้เกิดความสนใจและการอภิปรายอย่างกว้างขวางในอุตสาหกรรมเกี่ยวกับกรอบทางกฎหมายสำหรับการวิจัยด้านความปลอดภัยของ AI บทความนี้จะให้การวิเคราะห์เชิงลึกเกี่ยวกับเรื่องนี้
ปัจจุบัน ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยีสมัยใหม่ ปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งโมเดลภาษาขนาดใหญ่ (LLM) จึงค่อยๆ กลายเป็นจุดสนใจ อย่างไรก็ตาม กฎหมายความปลอดภัยทางไซเบอร์ของสหรัฐอเมริกาดูเหมือนจะล้มเหลวในการติดตามการเปลี่ยนแปลงอย่างรวดเร็วนี้ เมื่อเร็ว ๆ นี้ นักวิชาการกลุ่มหนึ่งจากมหาวิทยาลัยฮาร์วาร์ดชี้ให้เห็นในการประชุม Black Hat ว่าพระราชบัญญัติการฉ้อโกงและการละเมิดคอมพิวเตอร์ (CFAA) ในปัจจุบันไม่ได้ปกป้องผู้ที่มีส่วนร่วมในการวิจัยด้านความปลอดภัยของ AI อย่างมีประสิทธิภาพ และอาจทำให้พวกเขาตกอยู่ในความเสี่ยงทางกฎหมายแทน
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
นักวิชาการเหล่านี้ ได้แก่ Kendra Albert, Ram Shankar Siva Kumar และ Jonathon Penney จาก Harvard Law School อัลเบิร์ตกล่าวในการให้สัมภาษณ์ว่ากฎหมายที่มีอยู่ไม่ได้กำหนดพฤติกรรมไว้อย่างชัดเจน เช่น "การโจมตีแบบฉีดคำใบ้" ซึ่งทำให้นักวิจัยตัดสินได้ยากว่าการกระทำของพวกเขาฝ่าฝืนกฎหมายหรือไม่ เธอกล่าวว่าแม้ว่าการกระทำบางอย่าง เช่น การเข้าถึงโมเดลโดยไม่ได้รับอนุญาต นั้นผิดกฎหมายอย่างเห็นได้ชัด แต่ก็ยังมีคำถามว่านักวิจัยที่สามารถเข้าถึงระบบ AI นั้นกำลังใช้โมเดลเหล่านั้นในลักษณะที่พวกเขาไม่ได้ตั้งใจหรือไม่
ในปี 2021 คดี Van Buren v. United States ของศาลฎีกาได้เปลี่ยนแปลงการตีความ CFAA โดยกำหนดว่ากฎหมายจะใช้กับผู้ที่เข้าถึงข้อมูลภายในคอมพิวเตอร์โดยไม่ได้รับอนุญาตเท่านั้น คำตัดสินนี้สมเหตุสมผลในระบบคอมพิวเตอร์แบบดั้งเดิม แต่ไม่เพียงพอเมื่อพูดถึงโมเดลภาษาขนาดใหญ่ อัลเบิร์ตชี้ให้เห็นว่าการใช้ภาษาธรรมชาติเพื่อโต้ตอบกับ AI ทำให้คำจำกัดความทางกฎหมายนี้ซับซ้อนยิ่งขึ้น และหลายครั้งที่การตอบสนองของ AI ไม่เทียบเท่ากับการดึงข้อมูลจากฐานข้อมูล
ในเวลาเดียวกัน Sivakumar ยังกล่าวด้วยว่าการอภิปรายทางกฎหมายเกี่ยวกับการวิจัยด้านความปลอดภัยของ AI ได้รับความสนใจน้อยกว่าประเด็นต่างๆ เช่น ลิขสิทธิ์ และตัวเขาเองไม่แน่ใจว่าเขาจะได้รับการคุ้มครองหรือไม่เมื่อทำการทดสอบการโจมตีบางอย่าง อัลเบิร์ตกล่าวว่าเนื่องจากความไม่แน่นอนของกฎหมายที่มีอยู่ ปัญหานี้อาจได้รับการชี้แจงผ่านการดำเนินคดีในศาลในอนาคต แต่ในปัจจุบัน นักวิจัยที่มี "เจตนาดี" จำนวนมากรู้สึกสูญเสีย
ในสภาพแวดล้อมทางกฎหมายเช่นนี้ Albert แนะนำให้นักวิจัยด้านความปลอดภัยขอความช่วยเหลือทางกฎหมายเพื่อให้แน่ใจว่าการกระทำของพวกเขาจะไม่ละเมิดกฎหมาย นอกจากนี้เธอยังกังวลว่าบทบัญญัติทางกฎหมายที่คลุมเครืออาจทำให้ผู้มีโอกาสเป็นนักวิจัยหวาดกลัว และเปิดโอกาสให้ผู้โจมตีที่เป็นอันตรายหลบเลี่ยงไปได้ ทำให้เกิดความเสี่ยงด้านความปลอดภัยมากขึ้น
ไฮไลท์:
พระราชบัญญัติการฉ้อโกงและการละเมิดคอมพิวเตอร์ของสหรัฐอเมริกาให้ความคุ้มครองที่ไม่เพียงพอสำหรับนักวิจัยด้านความปลอดภัยของ AI และอาจเผชิญกับความเสี่ยงทางกฎหมาย
กฎหมายปัจจุบันขาดคำจำกัดความที่ชัดเจนสำหรับการดำเนินการ เช่น การโจมตีด้วยการฉีดทิป ทำให้นักวิจัยระบุความถูกต้องตามกฎหมายได้ยาก
นักวิชาการเชื่อว่าอาจจำเป็นต้องมีการพิจารณาคดีของศาลในอนาคตเพื่อชี้แจงบทบัญญัติทางกฎหมายที่เกี่ยวข้องและปกป้องนักวิจัยโดยสุจริต
โดยรวมแล้ว ประเด็นขัดแย้งทางกฎหมายในสาขาการวิจัยด้านความปลอดภัยของ AI จำเป็นต้องได้รับความสนใจ เมื่อพิจารณาถึงคุณลักษณะของแบบจำลองภาษาขนาดใหญ่ จำเป็นต้องมีการกำหนดกฎหมายและข้อบังคับที่ชัดเจนและตรงเป้าหมายมากขึ้นเพื่อปกป้องสิทธิ์และผลประโยชน์ของนักวิจัยที่ถูกกฎหมาย ส่งเสริมการพัฒนาการวิจัยด้านความปลอดภัยของ AI ที่ดี และต่อสู้กับการโจมตีที่เป็นอันตรายได้อย่างมีประสิทธิภาพ ด้วยวิธีนี้เท่านั้นที่เราสามารถรับประกันการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ที่ดีและเป็นประโยชน์ต่อมวลมนุษยชาติ