เมื่อเร็วๆ นี้สหภาพยุโรปได้เปิดตัวร่างแรกของจรรยาบรรณสำหรับแบบจำลองปัญญาประดิษฐ์ทั่วไป (GPAI) ซึ่งมีเป้าหมายเพื่อสร้างมาตรฐานการพัฒนาปัญญาประดิษฐ์ และมอบแนวทางปฏิบัติที่ชัดเจนแก่บริษัทต่างๆ เพื่อหลีกเลี่ยงค่าปรับจำนวนมาก หลักจรรยาบรรณครอบคลุมประเด็นสำคัญต่างๆ เช่น ความโปร่งใส ลิขสิทธิ์ การประเมินความเสี่ยง และการลดความเสี่ยง และกำหนดบทลงโทษที่รุนแรงสำหรับการไม่ปฏิบัติตาม บรรณาธิการของ Downcodes จะอธิบายเอกสารสำคัญนี้โดยละเอียดให้กับคุณ
GPAI คือปัญญาประดิษฐ์ที่ผ่านการฝึกอบรม โดยมีพลังการประมวลผลรวมมากกว่า 10²⁵ FLOP บริษัทที่คาดว่าจะอยู่ภายใต้หลักเกณฑ์ของสหภาพยุโรป ได้แก่ OpenAI, Google, Meta, Anthropic และ Mistral
เอกสารดังกล่าวกล่าวถึงประเด็นหลักหลายประการสำหรับผู้วางกรอบ GPAI ได้แก่ ความโปร่งใส การปฏิบัติตามลิขสิทธิ์ การประเมินความเสี่ยง และการลดความเสี่ยงด้านเทคนิค/การกำกับดูแล กฎระเบียบดังกล่าวเน้นความโปร่งใสในการพัฒนา AI และกำหนดให้บริษัท AI ต้องให้ข้อมูลเกี่ยวกับโปรแกรมรวบรวมข้อมูลเว็บที่ใช้ในการฝึกโมเดล
ส่วนการประเมินความเสี่ยงมีจุดมุ่งหมายเพื่อป้องกันอาชญากรรมในโลกไซเบอร์ การเลือกปฏิบัติอย่างกว้างขวาง และการสูญเสียการควบคุมปัญญาประดิษฐ์ ผู้ผลิต AI ควรใช้กรอบการทำงานด้านความปลอดภัย (SSF) เพื่อแจกแจงนโยบายการบริหารความเสี่ยงและบรรเทาตามความเสี่ยงที่เป็นระบบ
บริษัทที่ฝ่าฝืนพระราชบัญญัติปัญญาประดิษฐ์จะต้องถูกลงโทษอย่างรุนแรง และอาจโดนปรับสูงถึง 35 ล้านยูโร (ปัจจุบันอยู่ที่ 36.8 ล้านดอลลาร์) หรือมากถึง 7% ของกำไรทั่วโลกต่อปี แล้วแต่จำนวนใดจะสูงกว่า
สหภาพยุโรปเชิญชวนผู้มีส่วนได้ส่วนเสียส่งข้อเสนอแนะผ่านแพลตฟอร์ม Futurium โดยเฉพาะภายในวันที่ 28 พฤศจิกายน เพื่อช่วยปรับปรุงร่างต่อไป กฎดังกล่าวคาดว่าจะได้ข้อสรุปภายในวันที่ 1 พฤษภาคม 2025
ความเคลื่อนไหวของสหภาพยุโรปมีเป้าหมายเพื่อสร้างสมดุลระหว่างนวัตกรรมปัญญาประดิษฐ์และการบริหารความเสี่ยง และให้หลักประกันที่แข็งแกร่งสำหรับการพัฒนาปัญญาประดิษฐ์ที่ดี ร่างสุดท้ายของหลักปฏิบัตินี้สมควรได้รับความสนใจอย่างใกล้ชิดจากอุตสาหกรรม และผลกระทบของมันจะส่งผลกระทบต่ออุตสาหกรรมปัญญาประดิษฐ์ทั่วโลก บรรณาธิการของ Downcodes จะยังคงติดตามและรายงานความคืบหน้าที่เกี่ยวข้องต่อไป