เมื่อเร็วๆ นี้ สภาแห่งรัฐแคลิฟอร์เนียได้ผ่านกฎหมายความปลอดภัยด้าน AI ที่มีชื่อเสียงระดับสูง SB1047 ซึ่งมีเป้าหมายเพื่อควบคุมการพัฒนาและการปรับใช้โมเดล AI ขนาดใหญ่ ทำให้เกิดการอภิปรายอย่างดุเดือดในชุมชนเทคโนโลยี สาระสำคัญของร่างกฎหมายนี้คือการกำหนดให้มีการทดสอบความปลอดภัยอย่างเข้มงวดสำหรับโมเดล AI ขนาดใหญ่ซึ่งมีราคาสูงกว่า 100 ล้านดอลลาร์สหรัฐฯ ในการฝึกอบรม และกำหนดให้ต้องมีการจัดตั้งกลไกการหยุดฉุกเฉินและการรายงานอย่างทันท่วงทีหลังเกิดอุบัติเหตุ การผ่านร่างกฎหมายนี้ถือเป็นก้าวสำคัญในกฎระเบียบด้านความปลอดภัยของปัญญาประดิษฐ์ของรัฐแคลิฟอร์เนีย และอิทธิพลของกฎหมายนี้อาจแพร่กระจายไปทั่วประเทศและแม้แต่ทั่วโลก
เมื่อเร็วๆ นี้ สมาชิกสภานิติบัญญัติแห่งรัฐแคลิฟอร์เนียได้ผ่านร่างกฎหมายความปลอดภัยด้านปัญญาประดิษฐ์ SB1047 ที่เป็นที่ถกเถียงกันอยู่ ซึ่งขณะนี้ต้องการเพียงการลงคะแนนขั้นตอนสุดท้ายเท่านั้น ก่อนที่จะถูกส่งไปยังผู้ว่าการรัฐแคลิฟอร์เนีย Gavin Newsom เพื่อลงนาม ความก้าวหน้าของร่างกฎหมายนี้ทำให้เกิดการถกเถียงกันอย่างดุเดือดภายใน Silicon Valley โดยมีเสียงสนับสนุนและฝ่ายค้านเชื่อมโยงกันและกลายเป็นจุดสนใจของทุกคน
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และรูปภาพนั้นได้รับอนุญาตจากผู้ให้บริการ Midjourney
สก็อตต์ วีเนอร์ วุฒิสมาชิกแห่งรัฐแคลิฟอร์เนียเสนอร่างกฎหมายนี้ โดยกล่าวว่าเขาภูมิใจกับแนวร่วมที่หลากหลายที่อยู่เบื้องหลังร่างกฎหมายดังกล่าว และทุกคนเชื่อว่านวัตกรรมมีความสำคัญพอๆ กับความปลอดภัย เขาเชื่อว่าปัญญาประดิษฐ์มีศักยภาพมหาศาลในการเปลี่ยนแปลงโลก และการดำเนินการตามร่างกฎหมายนี้ก็เพื่อให้แน่ใจว่าศักยภาพนี้สามารถถูกปลดปล่อยออกมาได้อย่างปลอดภัย
ยักษ์ใหญ่ด้านเทคโนโลยีมีปฏิกิริยาที่หลากหลาย โดยที่ Elon Musk ซีอีโอของ xAI ก็แสดงการสนับสนุนเช่นกัน เขาชี้ให้เห็นในโซเชียลมีเดียว่าแคลิฟอร์เนียควรผ่าน SB1047 เพื่อป้องกันการใช้ปัญญาประดิษฐ์ในทางที่ผิด เขากล่าวว่าเขาได้สนับสนุนกฎระเบียบด้านปัญญาประดิษฐ์มานานกว่า 20 ปี และเชื่อว่ามีความจำเป็นต้องควบคุมความเสี่ยงที่อาจเกิดขึ้น
หัวใจสำคัญของร่างกฎหมายนี้คือข้อกำหนดสำหรับบริษัทต่างๆ ที่กำลังพัฒนาโมเดล AI ขนาดใหญ่ (ที่มีค่าใช้จ่ายการฝึกอบรมสูงกว่า 100 ล้านดอลลาร์) เพื่อทำการทดสอบความปลอดภัยอย่างครอบคลุมก่อนเผยแพร่ ในเวลาเดียวกัน ร่างกฎหมายดังกล่าวกำหนดให้บริษัทเหล่านี้ต้องจัดให้มี "การหยุดฉุกเฉิน" ในสถานการณ์วิกฤติ และรายงานต่ออัยการสูงสุดของรัฐแคลิฟอร์เนียภายใน 72 ชั่วโมงหลังเกิดเหตุการณ์ด้านความปลอดภัย "Frontier Model Bureau" ที่จัดตั้งขึ้นใหม่จะรับผิดชอบในการติดตามการปฏิบัติตามกฎระเบียบ และการละเมิดซ้ำๆ จะถูกปรับสูงสุด 30 ล้านดอลลาร์
ผู้สนับสนุนประกอบด้วยผู้ทรงคุณวุฒิในด้านปัญญาประดิษฐ์ เช่น Geoffrey Hinton และ Yoshua Bengio ซึ่งเชื่อว่าร่างกฎหมายนี้มีความสำคัญอย่างยิ่งในการต่อสู้กับความเสี่ยงของปัญญาประดิษฐ์ และอาจจัดทำมาตรฐานระดับชาติสำหรับความปลอดภัยของ AI อีกด้วย
อย่างไรก็ตาม ฝ่ายตรงข้ามเชื่อว่าร่างกฎหมายนี้อาจขัดขวางนวัตกรรมและทำให้สมองไหล บริษัทเทคโนโลยีในแคลิฟอร์เนีย เช่น Google, OpenAI และ Meta ได้แสดงความกังวลเกี่ยวกับร่างกฎหมายนี้ โดยเชื่อว่าบริษัทขนาดเล็กจะได้รับผลกระทบอย่างไม่สมส่วน และความก้าวหน้าทางเทคโนโลยีก็อาจได้รับผลกระทบเช่นกัน ช้าลงหน่อย. พวกเขาเรียกร้องให้มีการตรากฎระเบียบในระดับรัฐบาลกลางเพื่อหลีกเลี่ยงความไม่สอดคล้องกันระหว่างรัฐ
Bill SB1047 ผ่านคณะกรรมการจัดสรรของรัฐแคลิฟอร์เนียพร้อมการแก้ไข และขณะนี้กำลังรอการลงคะแนนเสียงครั้งสุดท้ายในสภานิติบัญญัติแห่งรัฐ หากผู้ว่าการรัฐแคลิฟอร์เนียนิวซัมลงนามในร่างกฎหมาย กฎหมายดังกล่าวจะกลายเป็นกฎหมายกำกับดูแลด้านปัญญาประดิษฐ์ฉบับแรกที่คล้ายกันในสหรัฐอเมริกา และอาจมีผลกระทบในวงกว้างต่ออุตสาหกรรมเทคโนโลยีระดับโลกและกฎระเบียบด้านปัญญาประดิษฐ์ในอนาคต
ไฮไลท์:
? ** ผ่านร่างกฎหมาย **: ร่างกฎหมายความปลอดภัยปัญญาประดิษฐ์ SB1047 ของรัฐแคลิฟอร์เนียผ่านแล้ว และกำลังรอการลงนามของผู้ว่าการรัฐ
? **มาตรการความปลอดภัย**: ร่างกฎหมายนี้กำหนดให้ใช้โมเดล AI ที่มีต้นทุนสูงเพื่อผ่านการทดสอบด้านความปลอดภัยและตั้งค่าฟังก์ชันการหยุดฉุกเฉิน
? **ปฏิกิริยาจากทุกฝ่าย**: มีเสียงสนับสนุนและการต่อต้านจากบริษัทยักษ์ใหญ่ด้านเทคโนโลยีที่กังวลเกี่ยวกับผลกระทบต่อนวัตกรรมและภาวะสมองไหล
ชะตากรรมสุดท้ายของร่างกฎหมาย SB1047 และผลกระทบต่อการพัฒนาปัญญาประดิษฐ์สมควรได้รับความสนใจอย่างต่อเนื่อง ไม่เพียงแต่เกี่ยวข้องกับอนาคตทางเทคโนโลยีของรัฐแคลิฟอร์เนียเท่านั้น แต่ยังอาจเป็นกรณีอ้างอิงที่สำคัญสำหรับกฎระเบียบด้านปัญญาประดิษฐ์ระดับโลกอีกด้วย