เมื่อเร็วๆ นี้ ปัญหาด้านความปลอดภัยของโมเดล AI ได้รับความสนใจเพิ่มมากขึ้น นักวิจัยจากมหาวิทยาลัยแห่งรัฐนอร์ธแคโรไลนาได้ค้นพบความก้าวหน้าครั้งสำคัญเมื่อพวกเขาพัฒนาวิธีการดึงโมเดล AI ออกมาโดยการจับสัญญาณแม่เหล็กไฟฟ้าจากคอมพิวเตอร์ที่มีความแม่นยำมากกว่า 99% การค้นพบนี้ทำให้เกิดความกังวลในอุตสาหกรรมเกี่ยวกับการคุ้มครองสิทธิ์ในทรัพย์สินทางปัญญาในโมเดล AI โดยเฉพาะอย่างยิ่งในบริบทที่บริษัทต่างๆ เช่น OpenAI, Anthropic และ Google ได้ลงทุนมหาศาลในการพัฒนาโมเดลที่เป็นกรรมสิทธิ์ บทความนี้สำรวจผลกระทบที่อาจเกิดขึ้นจากเทคโนโลยีใหม่นี้ และวิธีที่องค์กรต่างๆ สามารถตอบสนองต่อความเสี่ยงที่เพิ่มขึ้นของการขโมยโมเดล AI รวมถึงการวิเคราะห์มาตรการรักษาความปลอดภัยที่เกี่ยวข้องและแนวโน้มการพัฒนาในอนาคต
เมื่อเร็วๆ นี้ นักวิจัยจากมหาวิทยาลัยแห่งรัฐนอร์ทแคโรไลนาเสนอวิธีการใหม่ในการแยกแบบจำลองปัญญาประดิษฐ์ (AI) โดยการจับสัญญาณแม่เหล็กไฟฟ้าที่ปล่อยออกมาจากคอมพิวเตอร์ ด้วยความแม่นยำมากกว่า 99% การค้นพบนี้อาจเป็นความท้าทายต่อการพัฒนา AI เชิงพาณิชย์ โดยเฉพาะอย่างยิ่งบริษัทต่างๆ เช่น OpenAI, Anthropic และ Google ได้ลงทุนมหาศาลในโมเดลที่เป็นกรรมสิทธิ์ อย่างไรก็ตาม ผู้เชี่ยวชาญตั้งข้อสังเกตว่าผลกระทบที่เกิดขึ้นจริงในโลกแห่งความเป็นจริงของเทคโนโลยีนี้ รวมถึงมาตรการป้องกันยังไม่ชัดเจน
Lars Nyman ประธานเจ้าหน้าที่ฝ่ายการตลาดของ CUDO Compute กล่าวว่าการขโมย AI ไม่ใช่แค่การสูญเสียโมเดลเท่านั้น แต่ยังอาจกระตุ้นให้เกิดปฏิกิริยาลูกโซ่หลายอย่าง เช่น คู่แข่งที่ใช้ผลการวิจัยและพัฒนามานานหลายปี และหน่วยงานกำกับดูแลที่ตรวจสอบทรัพย์สินทางปัญญา สิทธิในทรัพย์สิน การจัดการที่ผิดพลาด และแม้แต่การฟ้องร้องจากลูกค้าที่ค้นพบว่า “เอกลักษณ์” ของ AI ของพวกเขานั้นไม่ซ้ำกัน สถานการณ์นี้อาจนำไปสู่การผลักดันในอุตสาหกรรมให้มีการตรวจสอบที่เป็นมาตรฐาน เช่น การรับรอง SOC2 หรือ ISO เพื่อแยกแยะบริษัทที่ปลอดภัยจากบริษัทที่ไม่รับผิดชอบ
ในช่วงไม่กี่ปีที่ผ่านมา ภัยคุกคามจากการโจมตีของแฮ็กเกอร์ต่อโมเดล AI ได้กลายเป็นเรื่องร้ายแรงมากขึ้น การพึ่งพา AI ของโลกธุรกิจทำให้ปัญหานี้รุนแรงยิ่งขึ้น รายงานล่าสุดแสดงให้เห็นว่าไฟล์ที่เป็นอันตรายหลายพันไฟล์ถูกอัปโหลดไปยัง Hugging Face ซึ่งเป็นแหล่งเก็บข้อมูลสำคัญของเครื่องมือ AI ซึ่งเป็นโมเดลที่ประนีประนอมอย่างรุนแรงซึ่งใช้ในอุตสาหกรรมต่างๆ เช่น การค้าปลีก โลจิสติกส์ และการเงิน ผู้เชี่ยวชาญด้านความมั่นคงแห่งชาติเตือนว่ามาตรการรักษาความปลอดภัยที่อ่อนแออาจทำให้ระบบที่เป็นกรรมสิทธิ์เสี่ยงต่อการถูกขโมย ดังที่แสดงโดยข้อบกพร่องด้านความปลอดภัยของ OpenAI โมเดล AI ที่ถูกขโมยสามารถวิศวกรรมย้อนกลับหรือขายได้ ซึ่งจะบั่นทอนการลงทุนของธุรกิจและบ่อนทำลายความไว้วางใจ ช่วยให้คู่แข่งตามทันได้อย่างรวดเร็ว
ทีมวิจัยของมหาวิทยาลัยแห่งรัฐนอร์ธแคโรไลนาเปิดเผยข้อมูลสำคัญเกี่ยวกับโครงสร้างของแบบจำลองโดยการวางโพรบไว้ใกล้กับหน่วยประมวลผลเทนเซอร์เอดจ์ (TPU) ของ Google และวิเคราะห์สัญญาณ วิธีการโจมตีนี้ไม่ต้องการการเข้าถึงระบบโดยตรง ซึ่งทำให้ทรัพย์สินทางปัญญาของ AI มีความเสี่ยงด้านความปลอดภัยอย่างร้ายแรง ผู้เขียนร่วม Aydin Aysu รองศาสตราจารย์ด้านวิศวกรรมไฟฟ้าและคอมพิวเตอร์ เน้นย้ำว่าการสร้างแบบจำลอง AI มีราคาแพงและต้องใช้ทรัพยากรในการประมวลผลจำนวนมาก ดังนั้นจึงเป็นสิ่งสำคัญที่จะป้องกันไม่ให้โมเดลถูกขโมย
เนื่องจากเทคโนโลยี AI มีการใช้กันอย่างแพร่หลายมากขึ้น บริษัทต่างๆ จึงต้องตรวจสอบอุปกรณ์บางอย่างที่ใช้ในการประมวลผล AI อีกครั้ง ที่ปรึกษาด้านเทคโนโลยี Suriel Arellano เชื่อว่าบริษัทต่างๆ อาจเปลี่ยนไปใช้การประมวลผลแบบรวมศูนย์และปลอดภัยมากขึ้น หรือพิจารณาเทคโนโลยีทางเลือกที่เสี่ยงต่อการถูกขโมยน้อยกว่า ในขณะที่มีความเสี่ยงของการโจรกรรม AI ยังปรับปรุงความปลอดภัยทางไซเบอร์ ปรับปรุงประสิทธิภาพการตอบสนองผ่านการตรวจจับภัยคุกคามอัตโนมัติและการวิเคราะห์ข้อมูล ช่วยระบุภัยคุกคามที่อาจเกิดขึ้นและเรียนรู้ที่จะตอบสนองต่อการโจมตีใหม่ๆ
ไฮไลท์:
นักวิจัยสาธิตวิธีการแยกโมเดล AI โดยจับสัญญาณแม่เหล็กไฟฟ้าด้วยความแม่นยำมากกว่า 99%
การขโมยโมเดล AI อาจทำให้คู่แข่งใช้ประโยชน์จากผลการวิจัยและพัฒนาของบริษัทที่สั่งสมมาหลายปี ซึ่งส่งผลต่อความมั่นคงทางธุรกิจ
องค์กรต่างๆ จำเป็นต้องเสริมสร้างการป้องกันความปลอดภัยของโมเดล AI เพื่อรับมือกับภัยคุกคามจากการโจมตีของแฮ็กเกอร์ที่เพิ่มขึ้น
โดยรวมแล้ว ความปลอดภัยของโมเดล AI ได้กลายเป็นจุดสนใจสำหรับองค์กรต่างๆ เมื่อเผชิญกับภัยคุกคามความปลอดภัยทางไซเบอร์ที่ซับซ้อนมากขึ้น องค์กรต่างๆ จำเป็นต้องดำเนินมาตรการอย่างจริงจังเพื่อเสริมสร้างการป้องกันโมเดล AI และสำรวจเทคโนโลยี AI ที่ปลอดภัยยิ่งขึ้น เพื่อปกป้องสิทธิ์ในทรัพย์สินทางปัญญาและผลประโยชน์เชิงพาณิชย์