ในช่วงไม่กี่ปีที่ผ่านมา เทคโนโลยีปัญญาประดิษฐ์ (AI) มีการพัฒนาอย่างรวดเร็ว ซึ่งนำโอกาสมหาศาลมาสู่องค์กร แต่ยังแฝงความเสี่ยงมากมายไว้ด้วย บรรณาธิการของ Downcodes รวบรวมรายงานเกี่ยวกับวิธีที่องค์กรต่างๆ ควรจัดการกับความเสี่ยงด้าน AI ที่เกิดขึ้น รายงานชี้ให้เห็นว่าองค์กรส่วนใหญ่ยังไม่ได้กำหนดกลยุทธ์การตอบสนองที่มีประสิทธิภาพสำหรับความเสี่ยงด้าน AI โดยเฉพาะอย่างยิ่งในแง่ของความปลอดภัยของเครือข่าย การฉ้อโกงเครือข่ายที่ขับเคลื่อนด้วย AI ฯลฯ ภัยคุกคามเริ่มรุนแรงขึ้นเรื่อยๆ และสมควรได้รับความสนใจจากองค์กรต่างๆ
ในช่วงไม่กี่ปีที่ผ่านมา การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ได้นำโอกาสมากมายมาสู่องค์กรต่างๆ แต่ในขณะเดียวกัน ภัยคุกคามที่อาจเกิดขึ้นก็ปรากฏชัดเจนมากขึ้น จากรายงาน "รายงานความเสี่ยงของคนรุ่นใหม่" ล่าสุดประจำปี 2024 พบว่า 80% ของบริษัทที่สำรวจยังไม่ได้กำหนดแผนรับมือพิเศษสำหรับความเสี่ยงที่เกิดจาก AI ซึ่งรวมถึงความเสี่ยงด้านความปลอดภัย เช่น การฉ้อโกงออนไลน์ที่ขับเคลื่อนด้วย AI
การสำรวจนี้จัดทำโดยบริษัทซอฟต์แวร์บริหารความเสี่ยง Riskconnect ซึ่งประกอบด้วยผู้เชี่ยวชาญด้านการปฏิบัติตามความเสี่ยงและความยืดหยุ่นระดับโลก 218 คน ผลการวิจัยพบว่า 24% ของผู้ตอบแบบสอบถามเชื่อว่าภัยคุกคามความปลอดภัยทางไซเบอร์ที่ขับเคลื่อนด้วย AI (เช่น แรนซัมแวร์ ฟิชชิ่ง และดีฟเฟค) จะมีผลกระทบสำคัญต่อองค์กรต่างๆ ในอีก 12 เดือนข้างหน้า ในขณะเดียวกัน 72% ของผู้ตอบแบบสอบถามกล่าวว่าความเสี่ยงด้านความปลอดภัยทางไซเบอร์มีผลกระทบอย่างมีนัยสำคัญหรือรุนแรงต่อองค์กรของพวกเขา เพิ่มขึ้นจาก 47% ในปีที่แล้ว
เนื่องจากความกังวลในประเด็นต่างๆ เช่น จริยธรรมของ AI ความเป็นส่วนตัว และความปลอดภัยทวีความรุนแรงมากขึ้น รายงานชี้ให้เห็นว่าแม้ว่าบริษัทต่างๆ จะกังวลเรื่อง AI เพิ่มมากขึ้น แต่พวกเขาล้มเหลวในการติดตามกลยุทธ์การบริหารความเสี่ยงได้ทันท่วงที และยังคงมีช่องว่างที่สำคัญมากมาย . ตัวอย่างเช่น 65% ของบริษัทไม่มีนโยบายเกี่ยวกับการใช้ generative AI โดยพันธมิตรและผู้ขาย แม้ว่าบุคคลที่สามจะเป็นช่องทางทั่วไปสำหรับผู้ฉ้อโกงทางไซเบอร์ก็ตาม
ภัยคุกคามภายในก็ไม่สามารถประมาทได้เช่นกัน ยกตัวอย่างการใช้ generative AI ของบริษัทต่างๆ ในการผลิตเนื้อหาทางการตลาด ผู้เชี่ยวชาญด้านการตลาด Anthony Miyazaki เตือนว่าแม้ว่า generative AI จะเก่งในการเขียนข้อความ แต่สำเนาสุดท้ายยังคงต้องได้รับการแก้ไขด้วยตนเองเพื่อให้มั่นใจในความโน้มน้าวใจและความถูกต้อง นอกจากนี้ การอาศัย AI ในการสร้างเนื้อหาเว็บไซต์ก็อาจส่งผลเสียเช่นกัน ตัวอย่างเช่น Google ระบุไว้ชัดเจนว่าหากใช้เนื้อหา AI เพื่อจัดการกระบวนการค้นหา อันดับการค้นหาจะลดลงซึ่งจะมีผลกระทบร้ายแรง เกี่ยวกับการเพิ่มประสิทธิภาพกลไกค้นหา (SEO) ขององค์กร
เพื่อจัดการกับความท้าทายเหล่านี้ บริษัทจำเป็นต้องรับประกันความครอบคลุมที่ครอบคลุมของนโยบายภายใน รักษาความปลอดภัยข้อมูลที่ละเอียดอ่อน และปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง John Skimoni ประธานเจ้าหน้าที่ฝ่ายรักษาความปลอดภัยของ Del Technology กล่าวว่าพวกเขากำหนดหลักการที่เกี่ยวข้องก่อนที่จะเกิดกระแส AI เจนเนอเรชั่นนี้ เพื่อให้แน่ใจว่าการพัฒนาแอปพลิเคชัน AI นั้นยุติธรรม โปร่งใส และมีความรับผิดชอบ
ที่ Empathy First Media ซึ่งเป็นเอเจนซี่การตลาดดิจิทัล รองประธาน Ryan Doser ยังเน้นย้ำถึงมาตรการที่เข้มงวดที่บริษัทได้ดำเนินการกับการใช้ AI ของพนักงาน รวมถึงการห้ามไม่ให้ป้อนข้อมูลลูกค้าที่ละเอียดอ่อนลงในเครื่องมือ AI เชิงสร้างสรรค์ และกำหนดให้ต้องมีการตรวจสอบเนื้อหาที่สร้างโดย AI ด้วยตนเอง มาตรการเหล่านี้ได้รับการออกแบบมาเพื่อเพิ่มความโปร่งใสและสร้างความไว้วางใจของลูกค้า
โดยรวมแล้ว องค์กรต่างๆ จำเป็นต้องตอบสนองอย่างแข็งขันต่อความเสี่ยงด้านความปลอดภัยที่เกิดจาก generative AI กำหนดกลยุทธ์การบริหารความเสี่ยงที่ครอบคลุม และเสริมสร้างการฝึกอบรมพนักงานเพื่อให้สามารถแข่งขันได้และมั่นใจในความปลอดภัยทางธุรกิจในยุค AI บรรณาธิการของ Downcodes แนะนำให้องค์กรต่างๆ อ้างอิงข้อเสนอแนะในรายงาน และใช้มาตรการอย่างจริงจังเพื่อป้องกันปัญหาที่เกิดขึ้น