เมื่อเร็ว ๆ นี้การค้นพบที่ก้าวหน้าในด้านการวิจัย AI ได้ดึงดูดความสนใจอย่างกว้างขวาง ด้วยเทคนิคนวัตกรรมที่เรียกว่า "Poetry Attack" นักวิจัยได้เปิดเผยแหล่งข้อมูลการฝึกอบรมสำหรับโมเดล CHATGPT ของ OpenAI ได้สำเร็จ การค้นพบนี้ไม่เพียง แต่เผยให้เห็นช่องโหว่ด้านความปลอดภัยที่อาจเกิดขึ้นในรูปแบบภาษาขนาดใหญ่ปัจจุบัน แต่ยังฟังเสียงเตือนสำหรับกลไกการป้องกันความเป็นส่วนตัวของระบบ AI
กลยุทธ์หลักของ "การโจมตีบทกวี" คือการกระตุ้นให้โมเดล ChatGPT เพื่อรั่วไหลข้อมูลที่อ่อนไหวที่มีอยู่ในข้อมูลการฝึกอบรมโดยการทำซ้ำคำหรือวลีที่เฉพาะเจาะจง สิ่งที่น่าตกใจคือวิธีการโจมตีที่ดูเหมือนง่ายนี้สามารถดึงข้อมูลความเป็นส่วนตัวส่วนบุคคลได้สำเร็จรวมถึงหมายเลขโทรศัพท์ที่อยู่อีเมล ฯลฯ การค้นพบช่องโหว่นี้เน้นความเสี่ยงของระบบ AI ปัจจุบันในความปลอดภัยของข้อมูล
ทีมวิจัยได้แจ้ง OpenAI อย่างเป็นทางการเกี่ยวกับช่องโหว่ด้านความปลอดภัยนี้เมื่อวันที่ 30 สิงหาคม แต่จนถึงตอนนี้ Openai ยังไม่ได้ตอบสนองต่อสิ่งนี้ เหตุการณ์นี้ก่อให้เกิดการคิดเชิงลึกของอุตสาหกรรมอีกครั้งเกี่ยวกับความโปร่งใสและความปลอดภัยของระบบ AI และยังแจ้งให้สถาบันที่เกี่ยวข้องตรวจสอบการพัฒนาและกระบวนการปรับใช้ของโมเดล AI อีกครั้ง
นอกเหนือจากปัญหาด้านความปลอดภัยการศึกษานี้ยังเน้นปัญหาต้นทุนด้านสิ่งแวดล้อมในการพัฒนาเทคโนโลยี AI นักวิจัยชี้ให้เห็นว่าพลังงานที่ใช้โดยแบบจำลอง AI แบบกำเนิดเมื่อสร้างข้อความและรูปภาพนั้นน่าทึ่งและแบบจำลองการบริโภคพลังงานสูงนี้ตรงกันข้ามกับแนวคิดของการพัฒนาที่ยั่งยืน ดังนั้นในขณะที่ส่งเสริมความก้าวหน้าของเทคโนโลยี AI วิธีการบรรลุวิธีที่เป็นมิตรกับสิ่งแวดล้อมมากขึ้นในการใช้ AI ได้กลายเป็นปัญหาสำคัญที่ต้องแก้ไขอย่างเร่งด่วน
การศึกษาครั้งนี้ไม่เพียง แต่เผยให้เห็นข้อบกพร่องทางเทคนิคในระบบ AI ปัจจุบัน แต่ยังชี้ให้เห็นทิศทางสำหรับการพัฒนาในอนาคตของอุตสาหกรรม AI มันเตือนเราว่าในขณะที่ดำเนินการพัฒนาเทคโนโลยี AI เราต้องจัดการกับประเด็นสำคัญเช่นการป้องกันความเป็นส่วนตัวและการใช้พลังงานอย่างรอบคอบ โดยการสร้างสมดุลระหว่างความสัมพันธ์ระหว่างนวัตกรรมเทคโนโลยีความเป็นส่วนตัวและความปลอดภัยและการปกป้องสิ่งแวดล้อมเท่านั้นที่เราสามารถมั่นใจได้ว่าเทคโนโลยี AI เป็นประโยชน์ต่อสังคมมนุษย์อย่างแท้จริง