รายงานล่าสุดเผยให้เห็นปัญหาร้ายแรงที่ซ่อนอยู่ในโปรแกรมสร้างภาพ AI: ภาพถ่ายอนาจารของเด็กหลายพันภาพถูกนำมาใช้ในการฝึกแบบจำลอง ทำให้ระบบ AI สามารถสร้างภาพลามกอนาจารเด็กปลอมที่เหมือนจริง และแม้แต่แปลงภาพถ่ายของวัยรุ่นจริง ๆ ให้เป็นภาพเปลือย สิ่งนี้กระตุ้นให้เกิดความกังวลอย่างกว้างขวางเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นของเทคโนโลยีการสร้างภาพ AI และยังเน้นย้ำถึงความเร่งด่วนของปัญหาด้านความปลอดภัยทางเทคนิคและจริยธรรม รายงานฉบับนี้ขอเรียกร้องให้บริษัทที่เกี่ยวข้องดำเนินการเชิงรุกเพื่อแก้ไขช่องโหว่ทางเทคนิค และป้องกันไม่ให้เหตุการณ์ดังกล่าวเกิดขึ้นอีก
ภาพถ่ายลามกอนาจารของเด็กหลายพันภาพถูกซ่อนอยู่ในรากฐานของเครื่องกำเนิดภาพ AI ตามรายงานฉบับใหม่ ซึ่งเรียกร้องให้บริษัทต่างๆ ดำเนินการเพื่อแก้ไขข้อบกพร่องในเทคโนโลยี รูปภาพเหล่านี้ช่วยให้ระบบ AI สร้างภาพเด็กปลอมที่เหมือนจริงได้ง่ายขึ้น และเปลี่ยนภาพถ่ายวัยรุ่นจริงๆ ที่แต่งตัวเต็มยศบนโซเชียลมีเดียให้เป็นภาพเปลือย ไม่มีวิธีแก้ปัญหาที่ง่ายสำหรับปัญหานี้ และบริษัทต่างๆ จะต้องดำเนินการเพื่อแก้ไขช่องโหว่ในเทคโนโลยี ตามรายงาน สิ่งนี้ทำให้เกิดความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นในตัวสร้างภาพ AI
เทคโนโลยีการสร้างภาพ AI กำลังพัฒนาอย่างรวดเร็ว แต่ก็มีความเสี่ยงอย่างมากเช่นกัน การเปิดเผยรายงานนี้เตือนเราว่าเราต้องใส่ใจกับปัญหาด้านจริยธรรมและความปลอดภัยในขณะที่พัฒนาเทคโนโลยี สำรวจการกำกับดูแลและวิธีแก้ปัญหาที่มีประสิทธิภาพ และร่วมกันสร้างสภาพแวดล้อมแอปพลิเคชัน AI ที่ปลอดภัยและเชื่อถือได้ ด้วยวิธีนี้เท่านั้นที่ทำให้เรามั่นใจได้ว่าเทคโนโลยี AI จะเป็นประโยชน์ต่อมนุษยชาติแทนที่จะก่อให้เกิดอันตราย