เมื่อเร็ว ๆ นี้ ข้อโต้แย้งที่โด่งดังเกิดขึ้นในคดีของรัฐบาลกลางในรัฐมินนิโซตาเกี่ยวกับการใช้ Deepfakes เพื่อมีอิทธิพลต่อการเลือกตั้ง ในหลักฐานที่ยื่นโดยอัยการสูงสุดของรัฐ สงสัยว่าการอ้างอิงถึงการวิจัยที่สำคัญบางส่วนถูกสร้างโดยปัญญาประดิษฐ์ ทำให้เกิดการอภิปรายกว้างๆ เกี่ยวกับการประยุกต์ใช้ปัญญาประดิษฐ์ในสาขากฎหมาย และคำถามสำคัญเกี่ยวกับวิธีการรับรองความถูกต้องและความน่าเชื่อถือ ของข้อมูล บรรณาธิการของ Downcodes จะดำเนินการวิเคราะห์เหตุการณ์นี้โดยละเอียด
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
ตามรายงานของ Minnesota Reformer อัยการสูงสุดของรัฐ Keith Ellison ได้ขอให้ Jeff Hancock ผู้อำนวยการผู้ก่อตั้ง Stanford Social Media Lab ให้จัดเตรียมหลักฐานที่เกี่ยวข้อง อย่างไรก็ตาม การศึกษาหลายชิ้นที่กล่าวถึงในคำให้การเป็นลายลักษณ์อักษรของ Hancock ขาดหลักฐานที่สำคัญและแสดงให้เห็น "อาการประสาทหลอน" ที่เป็นไปได้ของ AI
คำให้การเป็นลายลักษณ์อักษรของ Hancock อ้างถึงการศึกษาในปี 2023 ที่ตีพิมพ์ในวารสารเทคโนโลยีสารสนเทศและการเมืองหัวข้อ "ผลกระทบของวิดีโอ Deepfake ต่อทัศนคติและพฤติกรรมทางการเมือง"
อย่างไรก็ตาม ไม่พบบันทึกการศึกษาในวารสารหรือสิ่งพิมพ์อื่นใด รายงานระบุ นอกจากนี้ การศึกษาอีกชิ้นหนึ่งที่กล่าวถึงในคำให้การในชื่อ "ดีพเฟคส์และภาพลวงตาของความถูกต้อง: กระบวนการทางปัญญาเบื้องหลังการยอมรับข้อมูลที่ไม่ถูกต้อง" ก็ขาดพื้นฐานเชิงประจักษ์เช่นกัน
ในการตอบโต้ ทนายความของ Mary Franson ตัวแทนรัฐมินนิโซตาและ YouTuber อนุรักษ์นิยมอย่าง Christopher Khols กล่าวในการยื่นฟ้องว่า "คำพูดเหล่านี้มีผลกระทบอย่างชัดเจนจากฟีเจอร์ 'ภาพลวงตา' ของปัญญาประดิษฐ์ (AI) ซึ่งหมายความว่าอย่างน้อยส่วนหนึ่งของเนื้อหาถูกสร้างขึ้นโดยคนจำนวนมาก แบบจำลองภาษาเช่น ChatGPT” พวกเขาชี้ให้เห็นเพิ่มเติมว่าสถานการณ์ดังกล่าวทำให้เกิดคำถามถึงความน่าเชื่อถือของคำให้การเป็นลายลักษณ์อักษรทั้งหมด โดยเฉพาะอย่างยิ่งเนื่องจากการโต้แย้งหลายประการขาดการสนับสนุนของระเบียบวิธีและตรรกะในการวิเคราะห์
แฮนค็อกไม่ตอบสนองต่อเหตุการณ์นี้ เหตุการณ์นี้กระตุ้นให้เกิดการอภิปรายเกี่ยวกับการประยุกต์ใช้ปัญญาประดิษฐ์ในสาขากฎหมาย โดยเฉพาะอย่างยิ่งเมื่อพูดถึงผลประโยชน์สาธารณะและเรื่องการเลือกตั้ง ทำอย่างไรจึงจะรับรองความถูกต้องและความน่าเชื่อถือของข้อมูลกลายเป็นหัวข้อสำคัญ
เหตุการณ์นี้ไม่เพียงแต่ดึงดูดความสนใจไปที่ผลกระทบของเทคโนโลยี Deepfakes เท่านั้น แต่ยังให้แนวคิดใหม่ๆ แก่ชุมชนกฎหมายเมื่อต้องรับมือกับหลักฐานที่เกี่ยวข้องกับปัญญาประดิษฐ์ วิธีการระบุและตรวจสอบแหล่งข้อมูลอย่างมีประสิทธิภาพกลายเป็นความท้าทายสำคัญที่ต้องเผชิญในการปฏิบัติตามกฎหมาย
เหตุการณ์นี้เผยให้เห็นความเสี่ยงในการใช้เทคโนโลยี AI ในสาขากฎหมาย และยังเตือนเราด้วยว่าเราจำเป็นต้องระมัดระวังเกี่ยวกับเนื้อหาที่สร้างโดย AI โดยเฉพาะอย่างยิ่งในการใช้หลักฐาน และจำเป็นต้องมีการตรวจสอบและยืนยันอย่างเข้มงวดเพื่อให้มั่นใจว่ามีความถูกต้อง และความน่าเชื่อถือของข้อมูล นี่เป็นสิ่งสำคัญในการรักษาความเป็นธรรมและอำนาจของกฎหมาย