อาชญากรไซเบอร์ใช้เทคโนโลยีปัญญาประดิษฐ์เพิ่มมากขึ้นเพื่อเพิ่มขีดความสามารถในการโจมตี เมื่อเร็วๆ นี้ บริษัทรักษาความปลอดภัยพบว่าแก๊งอาชญากรไซเบอร์ใช้โมเดลปัญญาประดิษฐ์ Llama2 ของ Meta เพื่อสร้างสคริปต์โจมตีที่มุ่งเป้าไปที่บริษัทผู้ให้บริการทางการเงิน ซึ่งทำให้เกิดความกังวลในอุตสาหกรรมเกี่ยวกับการประยุกต์ใช้ปัญญาประดิษฐ์ที่เป็นอันตราย แม้ว่าความสามารถในการตรวจจับการโจมตีของ AI ในปัจจุบันจะมีจำกัด แต่ผู้เชี่ยวชาญด้านความปลอดภัยคาดการณ์ว่าความสามารถดังกล่าวจะได้รับการปรับปรุงในอนาคต เหตุการณ์นี้เน้นย้ำถึงคุณลักษณะดาบสองคมของเทคโนโลยีปัญญาประดิษฐ์ ซึ่งไม่เพียงแต่ส่งเสริมความก้าวหน้าทางเทคโนโลยีเท่านั้น แต่ยังนำไปใช้ในกิจกรรมที่ผิดกฎหมายอีกด้วย
แก๊งอาชญากรไซเบอร์ใช้ปัญญาประดิษฐ์ Llama2 ของ Meta เพื่อโจมตีและสร้างสคริปต์โจมตีเพื่อกำหนดเป้าหมายบริษัทที่ให้บริการทางการเงิน บริษัทรักษาความปลอดภัยกล่าวว่าความสามารถในการตรวจจับการโจมตีของ AI นั้นมีจำกัด แต่คาดว่าจะเพิ่มขึ้น ความพยายามในการใช้ AI ในทางที่ผิดในอนาคตอาจมีอยู่ แต่ผลลัพธ์ที่ได้อาจไม่ถูกต้อง
แม้ว่าเทคโนโลยีปัญญาประดิษฐ์จะนำมาซึ่งความสะดวกสบายมากมาย แต่ก็จำเป็นต้องตื่นตัวต่อความเสี่ยงของการละเมิดด้วย การเสริมสร้างการป้องกันความปลอดภัยด้านปัญญาประดิษฐ์ การปรับปรุงความสามารถในการตรวจจับการโจมตี และการปรับปรุงกฎหมายและข้อบังคับที่เกี่ยวข้อง มีความสำคัญอย่างยิ่งในการจัดการกับอาชญากรรมด้าน AI ที่อาจเกิดขึ้นในอนาคต ด้วยวิธีนี้เท่านั้นที่เราสามารถลดความเสี่ยงของการใช้เทคโนโลยีปัญญาประดิษฐ์ในทางที่ผิด และรับประกันความปลอดภัยของเครือข่ายและเสถียรภาพทางสังคม