ล่าสุด ทีมวิจัยของ Google ได้ประกาศผลการวิจัยที่น่าตกใจ: พวกเขาโจมตีโมเดล GPT-3.5-turbo ของ OpenAI ได้สำเร็จด้วยราคาเพียง 150 หยวน วิธีการโจมตีนี้ง่ายและมีประสิทธิภาพ โดยต้องใช้การสืบค้น API น้อยกว่า 2,000 ครั้งเพื่อรับข้อมูลสำคัญของโมเดล การค้นพบนี้เน้นย้ำว่าแม้แต่โมเดลภาษาขนาดใหญ่ก็อาจเผชิญกับภัยคุกคามด้านความปลอดภัยที่ร้ายแรง และยังเตือนให้เราตรวจสอบความจำเป็นและความเร่งด่วนของการป้องกันความปลอดภัยของ AI อีกครั้ง ผลการวิจัยแสดงให้เห็นว่าโมเดลภาษาขนาดใหญ่ไม่สามารถทำลายได้ และกลไกด้านความปลอดภัยจำเป็นต้องได้รับการปรับปรุงอย่างต่อเนื่องเพื่อจัดการกับความเสี่ยงที่อาจเกิดขึ้น
ผลการวิจัยล่าสุดของ Google เผยวิธีโจมตีโมเดล OpenAI GPT-3.5-turbo ที่ประสบความสำเร็จด้วยราคาเพียง 150 หยวน การโจมตีนั้นง่ายและมีประสิทธิภาพ และสามารถรับข้อมูลสำคัญได้ด้วยการสืบค้น API น้อยกว่า 2,000 รายการ การทดลองนี้เตือนว่าแม้แต่โมเดลภาษาขนาดใหญ่ก็อาจเผชิญกับภัยคุกคามด้านความปลอดภัย และ OpenAI ได้ดำเนินการแก้ไข Model API เพื่อป้องกันการโจมตีเพิ่มเติม
การวิจัยของ Google ส่งสัญญาณเตือนภัยในด้านความปลอดภัยของ AI และยังส่งเสริมความพยายามของบริษัทต่างๆ เช่น OpenAI เพื่อเสริมสร้างความปลอดภัยของโมเดล ในอนาคต การวิจัยและพัฒนามาตรการรักษาความปลอดภัยและกลไกการป้องกันที่มีประสิทธิภาพมากขึ้นจะกลายเป็นส่วนสำคัญของการพัฒนา AI เพื่อให้มั่นใจว่าการประยุกต์ใช้เทคโนโลยี AI ปลอดภัยและเชื่อถือได้