การวิจัยใหม่จาก Google DeepMind เผยให้เห็นผลกระทบสองประการของการโจมตีฝ่ายตรงข้ามต่อปัญญาประดิษฐ์และการตัดสินของมนุษย์ การวิจัยพบว่าแม้แต่โมเดล AI ที่ได้รับการฝึกอบรมก็ยังเสี่ยงต่อการรบกวนที่ออกแบบมาอย่างระมัดระวัง (การก่อกวนของฝ่ายตรงข้าม) ซึ่งนำไปสู่การจำแนกภาพที่ไม่ถูกต้อง และข้อผิดพลาดนี้อาจส่งผลต่อการตัดสินใจของมนุษย์ด้วย สิ่งนี้ทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยและความน่าเชื่อถือของระบบ AI และเน้นย้ำถึงความจำเป็นในการวิจัยเพิ่มเติมเกี่ยวกับระบบการมองเห็นของ AI และกลไกการรับรู้ของมนุษย์
บทความนี้มุ่งเน้นไปที่:
การวิจัยล่าสุดจาก Google DeepMind แสดงให้เห็นว่าการโจมตีของฝ่ายตรงข้ามไม่เพียงส่งผลต่อปัญญาประดิษฐ์เท่านั้น แต่ยังส่งผลต่อการตัดสินใจของมนุษย์ด้วย โครงข่ายประสาทเทียมมีความเสี่ยงต่อการก่อกวนจากฝ่ายตรงข้าม ทำให้ทั้งมนุษย์และ AI จำแนกภาพผิดประเภท ผลการวิจัยนี้ชี้ให้เห็นว่า เราจำเป็นต้องมีความเข้าใจอย่างลึกซึ้งยิ่งขึ้นเกี่ยวกับความเหมือนและความแตกต่างระหว่างพฤติกรรมของระบบภาพปัญญาประดิษฐ์และการรับรู้ของมนุษย์ เพื่อสร้างระบบปัญญาประดิษฐ์ที่ปลอดภัยยิ่งขึ้น
งานวิจัยนี้เน้นย้ำถึงความเร่งด่วนในการสร้างระบบ AI ที่แข็งแกร่งและปลอดภัยยิ่งขึ้น การวิจัยในอนาคตจำเป็นต้องมุ่งเน้นไปที่วิธีปรับปรุงความสามารถในการป้องกันการรบกวนของโมเดล AI และวิธีทำความเข้าใจความแตกต่างทางสติปัญญาระหว่างมนุษย์และ AI ภายใต้การโจมตีของฝ่ายตรงข้ามได้ดีขึ้น เพื่อเป็นรากฐานทางทฤษฎีและการสนับสนุนทางเทคนิคสำหรับการพัฒนาเทคโนโลยี AI ที่เชื่อถือได้มากขึ้น . ด้วยวิธีนี้เท่านั้นจึงจะสามารถรับประกันการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ที่ปลอดภัยและเชื่อถือได้และหลีกเลี่ยงความเสี่ยงที่อาจเกิดขึ้น