ความก้าวหน้าอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์กำลังปรับโครงสร้างของอุตสาหกรรมเทคโนโลยีและยักษ์ใหญ่ด้านเทคโนโลยีจำนวนมากได้ทุ่มเทให้กับการวิจัยและพัฒนาและปรับใช้ระบบ "AI Agent" ระบบอัจฉริยะเหล่านี้สามารถทำงานที่ซับซ้อนได้อย่างอิสระโดยไม่จำเป็นต้องมีการแทรกแซงของมนุษย์อย่างต่อเนื่องซึ่งแสดงให้เห็นถึงศักยภาพระบบอัตโนมัติที่ไม่เคยเกิดขึ้นมาก่อน บริษัท ต่างๆเช่น Microsoft และ Manthropic เป็นผู้นำในการเปิดตัวโซลูชั่นพร็อกซี AI ของพวกเขา การตัดสินใจ. .
ตามสื่อเทคโนโลยีที่มีอำนาจ "ข้อมูล" ทัศนคติที่ระมัดระวังของ Openai ส่วนใหญ่เกิดจากความกังวลเกี่ยวกับการโจมตี "การฉีดทันที" การโจมตีทางไซเบอร์รูปแบบใหม่นี้สามารถชักนำให้ระบบ AI ดำเนินการคำแนะนำที่เป็นอันตรายซึ่งทำให้เกิดความเสี่ยงด้านความปลอดภัยที่ร้ายแรง ตัวอย่างเช่นเมื่อผู้ใช้อนุญาตให้ตัวแทน AI ซื้อสินค้าออนไลน์ระบบอาจถูกชักนำให้เข้าถึงเว็บไซต์ที่เป็นอันตรายและดำเนินการอันตรายเช่นการขโมยข้อมูลอีเมลผู้ใช้หรือข้อมูลบัตรเครดิต ช่องโหว่ด้านความปลอดภัยนี้อาจไม่เพียง แต่นำไปสู่การรั่วไหลของความเป็นส่วนตัวของผู้ใช้เท่านั้น แต่ยังทำให้เกิดความเสียหายต่อชื่อเสียงของแบรนด์ของ Openai
สิ่งที่ไม่เหมือนใครเกี่ยวกับระบบพร็อกซี AI คือพวกเขามีความสามารถในการใช้งานคอมพิวเตอร์อย่างอิสระซึ่งทำให้พวกเขาเผชิญกับความเสี่ยงด้านความปลอดภัยมากกว่าระบบ AI แบบดั้งเดิม เมื่อแฮ็คเอเจนต์เหล่านี้อาจทำให้เกิดความเสียหายอย่างเป็นระบบต่อสินทรัพย์ดิจิทัลของผู้ใช้ ช่างเทคนิคภายใน OpenAI ยอมรับว่าแม้ว่าแบบจำลองภาษาขนาดใหญ่ทั้งหมดจะถูกโจมตี แต่ลักษณะอิสระของตัวแทน AI จะขยายความเสี่ยงนี้อย่างมีนัยสำคัญ
การคุกคามของการโจมตีแบบฉีดนั้นไม่ได้ไม่มีเหตุผลและความเสี่ยงนี้ได้รับการตรวจสอบอย่างเต็มที่บนแพลตฟอร์มอื่น ๆ เมื่อปีที่แล้วผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ได้แสดงให้เห็นถึงวิธีการจัดการระบบ Copilot AI ของ Microsoft เพื่อรั่วไหลข้อมูลที่เป็นความลับจากองค์กรรวมถึงเนื้อหาอีเมลและบันทึกธุรกรรมของธนาคาร ที่น่าตกใจยิ่งกว่านั้นคือผู้โจมตีสามารถส่งอีเมลปลอมเลียนแบบรูปแบบการเขียนของพนักงานที่เฉพาะเจาะจงโดยเน้นถึงความเสี่ยงของระบบ AI ในแง่ของการป้องกันความปลอดภัย
CHATGPT ผลิตภัณฑ์เรือธงของ Openai ได้รับการทดสอบด้วยการโจมตีแบบฉีดทันที นักวิจัยประสบความสำเร็จในการปลูกฝัง "หน่วยความจำ" เท็จโดยการอัปโหลดไฟล์บุคคลที่สาม (เช่นเอกสาร Word) และการทดลองนี้ได้เปิดเผยช่องโหว่ที่อาจเกิดขึ้นอย่างเต็มที่ในระบบ AI ต้องเผชิญกับความท้าทายด้านความปลอดภัยที่รุนแรงทีม Openai แสดงความประหลาดใจต่อทัศนคติที่หลวมของมานุษยวิทยาคู่แข่งเมื่อมันปล่อยตัวแทน AI มานุษยวิทยาแนะนำให้นักพัฒนา "ใช้มาตรการในการแยก Claude ออกจากข้อมูลที่ละเอียดอ่อน" ซึ่งเป็นมาตรการรักษาความปลอดภัยที่ค่อนข้างง่ายซึ่งยากที่จะจัดการกับภัยคุกคามไซเบอร์ที่ซับซ้อนมากขึ้น
มีรายงานว่า OpenAI อาจเปิดตัวผลิตภัณฑ์พร็อกซี AI ในเดือนนี้ อย่างไรก็ตามคำถามของความกังวลร่วมกันในอุตสาหกรรมคือ: เวลาเพิ่มเติมที่ทีมพัฒนาได้รับเพียงพอที่จะสร้างระบบการป้องกันความปลอดภัยที่แข็งแกร่งเพียงพอหรือไม่? ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI วิธีการค้นหาความสมดุลระหว่างนวัตกรรมและความปลอดภัยจะเป็นประเด็นสำคัญที่ต้องเผชิญกับ บริษัท AI ทั้งหมด
จุดหลัก:
Openai ชะลอการเปิดตัวตัวแทน AI เนื่องจากความเสี่ยงด้านความปลอดภัยของการโจมตีการโจมตีโดยเน้นถึงความเสี่ยงที่อาจเกิดขึ้นของระบบ AI
แม้ว่า บริษัท ต่างๆเช่น Microsoft และ Manthropic ได้เปิดตัวผลิตภัณฑ์ AI Agent แต่มาตรการป้องกันความปลอดภัยก็ยังไม่เพียงพอ
OpenAI กำลังทำงานเพื่อเพิ่มประสิทธิภาพความปลอดภัยของผลิตภัณฑ์เพื่อจัดการกับภัยคุกคามทางไซเบอร์ที่ซับซ้อนมากขึ้น