รายงานล่าสุดของการ์ตเนอร์แสดงให้เห็นว่าการโจมตีทางไซเบอร์ที่ขับเคลื่อนด้วย AI ได้กลายเป็นองค์กรที่มีความเสี่ยงมากที่สุดและได้รับการจัดอันดับเป็นสามในสี่ รายงานดังกล่าวมีพื้นฐานมาจากการสำรวจผู้บริหารระดับสูงและผู้บริหารการตรวจสอบอาวุโส 286 คนและ 80% ของผู้ตอบแบบสอบถามแสดงความกังวลเกี่ยวกับการโจมตีที่เป็นอันตราย ผู้โจมตีใช้ AI ในการเขียนมัลแวร์สร้างอีเมลฟิชชิ่งที่สมจริงและแม้แต่ทำการปฏิเสธการโจมตีแบบกระจายขนาดใหญ่ การประยุกต์ใช้ AI ช่วยลดเกณฑ์สำหรับอาชญากรรมไซเบอร์ทำให้ผู้โจมตีมีระดับทางเทคนิคที่ต่ำกว่าเพื่อดำเนินการโจมตีไซเบอร์ที่ซับซ้อนได้อย่างง่ายดายซึ่งก่อให้เกิดความท้าทายอย่างรุนแรงต่อการป้องกันความปลอดภัยขององค์กร
ตามรายงานล่าสุดที่เผยแพร่โดยการ์ตเนอร์การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) ในการโจมตีทางไซเบอร์ได้กลายเป็นองค์กรที่มีความเสี่ยงมากที่สุดที่ต้องเผชิญกับองค์กรสามไตรมาสติดต่อกัน
บริษัท ที่ปรึกษาสำรวจผู้บริหารระดับสูงและผู้บริหารการตรวจสอบจำนวน 286 รายระหว่างเดือนกรกฎาคมถึงกันยายนและพบว่า 80% ของผู้ตอบแบบสอบถามแสดงความกังวลอย่างลึกซึ้งเกี่ยวกับการโจมตีที่เป็นอันตราย แนวโน้มนี้ไม่น่าแปลกใจเนื่องจากมีหลักฐานว่าการโจมตีทางไซเบอร์ที่ใช้ AI กำลังเพิ่มขึ้น
หมายเหตุแหล่งที่มาของภาพ: ภาพถูกสร้างขึ้นโดย AI และผู้ให้บริการที่ได้รับอนุญาตภาพ Midjourney
รายงานยังแสดงรายการความเสี่ยงที่เกิดขึ้นใหม่รวมถึงข้อมูล AI ช่วยทำให้เข้าใจผิดเพิ่มขั้วทางการเมืองและการจัดสรรความสามารถขององค์กรที่ไม่ตรงกัน ผู้โจมตีใช้ AI เพื่อเขียนมัลแวร์สร้างอีเมลฟิชชิ่งและอื่น ๆ นำ HP เป็นตัวอย่างนักวิจัยสกัดกั้นแคมเปญอีเมลที่แพร่กระจายมัลแวร์ในเดือนมิถุนายนโดยสงสัยว่าสคริปต์ถูกเขียนขึ้นด้วยความช่วยเหลือของ AI กำเนิด สคริปต์มีโครงสร้างที่ดีและแต่ละคำสั่งมีความคิดเห็นซึ่งไม่ธรรมดาในการเขียนด้วยตนเอง
จากข้อมูลจาก บริษัท รักษาความปลอดภัย VIPRE จำนวนการโจมตีการฉ้อโกงทางอีเมลของธุรกิจเพิ่มขึ้น 20% ในไตรมาสที่สองของปี 2566 เมื่อเทียบกับช่วงเวลาเดียวกันของปีที่แล้วโดยเกือบ 50% สร้างขึ้นโดย AI CEO, HRS และพนักงานไอทีเป็นเป้าหมายหลัก หัวหน้าผลิตภัณฑ์และเทคโนโลยีของ VIPRE USMAN Choudhary กล่าวว่าอาชญากรกำลังใช้อัลกอริทึม AI ที่ซับซ้อนเพื่อสร้างอีเมลฟิชชิ่งที่น่าสนใจซึ่งเลียนแบบเสียงและรูปแบบของการสื่อสารที่ถูกต้องตามกฎหมาย
นอกจากนี้เว็บไซต์ค้าปลีกได้รับความเดือดร้อนจากการโจมตีโดยเฉลี่ย 569,884 AI ต่อวันตามรายงานการวิจัยภัยคุกคามที่ไม่สมบูรณ์ นักวิจัยตั้งข้อสังเกตว่าเครื่องมือเช่น Chatgpt, Claude และ Gemini รวมถึงหุ่นยนต์ที่เชี่ยวชาญในการรวบรวมข้อมูลเว็บไซต์เพื่อฝึกอบรมแบบจำลองภาษาขนาดใหญ่กำลังถูกนำมาใช้เพื่อดำเนินกิจกรรมเช่นการปฏิเสธการโจมตีบริการและการละเมิดตรรกะทางธุรกิจ
แฮ็กเกอร์ที่มีจริยธรรมมากขึ้นเรื่อย ๆ ก็ยอมรับการใช้ AI Generative โดยมีเปอร์เซ็นต์เพิ่มขึ้นจาก 64% ในปีที่แล้วเป็น 77% นักวิจัยกล่าวว่า AI สามารถช่วยในการโจมตีหลายช่องทางการโจมตีฉีดล้มเหลวและการโจมตีอัตโนมัติซึ่งสามารถโจมตีอุปกรณ์หลายเครื่องพร้อมกัน เช่นนี้หาก "คนดี" คิดว่า AI นั้นมีประโยชน์ "คนเลว" ก็จะใช้เทคโนโลยีนี้เช่นกัน
การเพิ่มขึ้นของ AI นั้นไม่น่าแปลกใจเพราะมันช่วยลดเกณฑ์สำหรับอาชญากรรมไซเบอร์ทำให้อาชญากรที่มีระดับทางเทคนิคต่ำกว่าในการใช้ AI เพื่อสร้างการปลอมแปลงลึกสแกนพอร์ทัลเครือข่ายดำเนินการลาดตระเวน ฯลฯ นักวิจัยที่สถาบันเทคโนโลยีแห่งสหพันธรัฐสวิสเพิ่งพัฒนารูปแบบที่สามารถแก้ปัญหาของ Google Recaptcha v2 ได้ 100% นักวิเคราะห์ที่ Radware บริษัท รักษาความปลอดภัยคาดการณ์เมื่อต้นปีนี้ว่าการเกิดขึ้นของโมเดล GPT ส่วนตัวจะถูกนำมาใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายและจำนวนช่องโหว่ที่เป็นศูนย์ต่อวันและการฉ้อโกงที่ลึกล้ำจะเพิ่มขึ้นตามลำดับ
การ์ตเนอร์ยังตั้งข้อสังเกตว่าประเด็นสำคัญของผู้ขายไอทีอยู่ในรายชื่อผู้บริหารเป็นครั้งแรก Zachary Ginsburg ผู้อำนวยการอาวุโสฝ่ายฝึกหัดความเสี่ยงและการตรวจสอบที่การ์ตเนอร์กล่าวว่าลูกค้าที่ขึ้นอยู่กับซัพพลายเออร์รายเดียวอาจเผชิญกับความเสี่ยงที่สูงขึ้น เช่นเดียวกับเหตุการณ์ที่ DSTRIKE เกิดขึ้นในเดือนกรกฎาคมเป็นอัมพาตอุปกรณ์ Windows 8.5 ล้านเครื่องทั่วโลกทำให้เกิดผลกระทบอย่างมากต่อบริการฉุกเฉินสนามบินและหน่วยงานบังคับใช้กฎหมาย
ในระยะสั้นเอฟเฟกต์ดาบสองคมของเทคโนโลยี AI กำลังโดดเด่นมากขึ้น การโจมตีเครือข่ายและรับรองความปลอดภัยของตนเองในยุคดิจิตอล