ในช่วงวันหยุดวันชาติปีนี้ วิดีโอล้อเลียน "การพากย์เสียง Lei Jun AI" จำนวนมากปรากฏบน Douyin, Bilibili และแพลตฟอร์มอื่นๆ ซึ่งสร้างปัญหาใหญ่ให้กับ Lei Jun เองและ Xiaomi
ในวิดีโอล้อเลียนเหล่านี้ "Lei Jun" แสดงความคิดเห็นที่คมชัดในหัวข้อยอดนิยม เช่น รถติดและวันหยุด รวมถึงการละเมิดที่ไม่เหมาะสม วิดีโอล้อเลียนสั้นบางรายการมียอดดูหลายร้อยล้านครั้งภายในไม่กี่วัน เพื่อตอบสนองต่อสิ่งนี้ Lei Jun เองก็ได้ปล่อยวิดีโอสั้น ๆ เมื่อปลายเดือนตุลาคมโดยบอกว่าเขาหวังว่าทุกคนจะหยุดเล่น "ชาวเน็ตบางคนบ่นว่าฉันถูกดุเป็นเวลาเจ็ดวันติดต่อกันในช่วงวันชาติซึ่งทำให้ฉันรำคาญจริงๆ ฉันรู้สึกอึดอัดมาก ใช่ นี่ไม่ใช่เรื่องดี”
เมื่อพูดถึงเหตุการณ์ข้างต้น Gao Ting รองประธานฝ่ายวิจัยของ Gartner บอกกับ Jiemian News ว่าข้อมูลเท็จยังคงเป็นข้อมูลปลอมในสาระสำคัญ แต่อันตรายได้ขยายออกไปในยุคของโมเดลขนาดใหญ่
ผู้ปฏิบัติงานด้านความปลอดภัยข้อมูลระบุว่า มีวิดีโอล้อเลียน "เสียงพากย์ AI ของ Lei Jun" เพิ่มมากขึ้นเรื่อยๆ สาเหตุหลักมาจากบริษัท AI ภายนอกกำลังส่งเสริมฟังก์ชันการโคลนเสียงของตน มีมประเภทนี้เป็นที่รู้จักของสาธารณชนว่าเป็นการเลียนแบบโดย AI และมีความเสี่ยงเพียงเล็กน้อยที่จะเผยแพร่ข้อมูลเท็จ ความยากในการกำกับดูแลแพลตฟอร์มคือ เป็นไปไม่ได้ที่จะตัดสินว่าคนดังไม่เห็นด้วยกับการหลอกลวงของชาวเน็ตหรือไม่ หรือว่าพวกเขายินดีที่เห็นผลเพื่อวัตถุประสงค์ทางการตลาดหรือไม่ เป็นเรื่องยากสำหรับแพลตฟอร์มที่จะกำหนดกลยุทธ์การกำกับดูแลต่อหน้าทั้งสองฝ่ายอย่างชัดเจน แสดงความเห็นชอบหรือคัดค้าน
ในทางตรงกันข้าม ข่าวลือเกี่ยวกับ AI ที่เป็นข่าวมักจะสร้างความเสียหายให้กับสังคมมากกว่า การค้นหาในข่าว Jiemian พบว่ามีเหตุการณ์คล้ายคลึงกันเกิดขึ้นหลายครั้งในปีนี้
เมื่อเร็วๆ นี้ บทความเรื่อง "ป้าคนหนึ่งในซานตงถูกปรับ 160,000 หยวนจากการขายผลไม้ที่แผงขายผลไม้ สำนักงานกำกับดูแลตอบว่าเธอไม่ได้จ่ายค่าปรับ 1.45 ล้านหยวน และศาลก็ตัดสินลงโทษ" และแพลตฟอร์มอื่นๆ และยังก่อให้เกิดการถกเถียงกันมากมายในหมู่ชาวเน็ต อย่างไรก็ตาม หลังจากการตรวจสอบโดยแผนกที่เกี่ยวข้อง บทความนี้ถูกสร้างขึ้นโดยบริษัท MCN ในฉางชา เพื่อเพิ่มปริมาณการอ่านบัญชีสาธารณะและรายได้ของบริษัท โดยใช้เนื้อหาที่สร้างโดย AI เพื่อดึงดูดความสนใจ ก่อนหน้านี้ แพลตฟอร์มวิดีโอสั้นหลายแห่งยังใช้ AI เพื่อสร้างข่าว เช่น "แผ่นดินไหว" และ "การโจรกรรมรถบรรทุกเงินสด" เนื้อหาเหล่านี้สร้างความตื่นตระหนกให้กับชาวเน็ตที่ไม่ทราบความจริง
สำหรับข่าวปลอมที่เกิดจาก generative AI นั้น แพลตฟอร์มเนื้อหาต่างๆ ได้แสดงให้เห็นชัดเจนว่าพวกเขาจะปราบปราม บุคคลที่เกี่ยวข้องซึ่งรับผิดชอบศูนย์รักษาความปลอดภัย Douyin กล่าวว่าแพลตฟอร์มดังกล่าวจะจัดการกับข้อมูลเท็จอย่างรุนแรงเมื่อค้นพบ ไม่ว่าจะถูกสร้างขึ้นโดย AI หรือไม่ก็ตาม ในเวลาเดียวกัน สำหรับเนื้อหาที่สร้างโดย AI บนพื้นฐานการปฏิบัติตามกฎเนื้อหาของชุมชน Douyin กำหนดให้ผู้เผยแพร่ทำเครื่องหมายเนื้อหาอย่างเด่นชัด เพื่อช่วยให้ผู้ใช้รายอื่นแยกแยะความเป็นจริงเสมือนจากความเป็นจริง โดยเฉพาะอย่างยิ่งในฉากที่สับสน
อย่างไรก็ตาม ตามรายงานของ Jiemian News ความยากลำบากในการควบคุมข่าวปลอมที่สร้างโดย AI นั้นอยู่ที่ค่าใช้จ่ายในการตรวจสอบที่สูง เป็นเรื่องยากสำหรับแพลตฟอร์มที่จะตัดสินความถูกต้องของข้อมูลด้วยตัวเอง ในหลายกรณี หน่วยงานกำกับดูแลจำเป็นต้องดำเนินการ เข้ามาแทรกแซงแต่ข้อมูลที่เกี่ยวข้องไม่ได้รับการตรวจสอบในระหว่างกระบวนการตรวจสอบ มีการแพร่กระจายอย่างรวดเร็ว
นอกจากผลกระทบด้านลบที่ข้อมูลเท็จมีต่อชื่อเสียงขององค์กรและลำดับชีวิตทางสังคมตามปกติแล้ว ยังมีผลกระทบต่อความปลอดภัยของเครือข่ายองค์กร เช่น "ฟิชชิ่ง" หรือ "การครอบครองบัญชี" ก่อนหน้านี้มีเหตุการณ์ในอุตสาหกรรมที่ผู้ฉ้อโกงใช้เทคโนโลยี AI เพื่อเลียนแบบเสียงของ CEO ของบริษัทพลังงานแห่งหนึ่ง และฉ้อโกงผู้บริหารของบริษัทเป็นเงินหลายล้านดอลลาร์ เสียงต่ำ น้ำเสียง และสำเนียงที่สร้างโดย AI นั้นเหมือนจริงมากจนผู้บริหารไม่รู้ว่าเป็นการฉ้อโกง
Gao Ting กล่าวว่า generative AI ได้นำไปสู่การโจมตีแบบทำลายล้างและสมจริงมากขึ้น ซึ่งยากต่อการระบุโดยมนุษย์และถูกบล็อกด้วยเทคโนโลยีแบบดั้งเดิม และจะสร้างความสูญเสียให้กับองค์กรมากขึ้น
ต้นทุนในการผลิตข้อมูลเท็จกำลังลดลงเรื่อยๆ แต่ผลกระทบด้านลบกลับชัดเจนมากขึ้นเรื่อยๆ เป็นเรื่องยากที่จะแก้ไขปัญหาให้สมบูรณ์ด้วยวิธีการตรวจสอบด้วยตนเองแบบเดิมๆ เท่านั้น ผู้เชี่ยวชาญด้านความปลอดภัยทางเทคนิคที่กล่าวมาข้างต้นกล่าวว่าเราต้องการเทคโนโลยีใหม่ ๆ มากขึ้นเพื่อแก้ไขปัญหาการจัดการข้อมูลเท็จ บางคนใช้วิธีการทางเทคนิคเพื่อสร้างข้อมูลเท็จ ผู้เชี่ยวชาญด้านความปลอดภัยทางเทคนิคควรจะสามารถระบุลักษณะของข้อมูลเท็จเหล่านี้ ต่อสู้กับมันด้วยวิธีทางเทคนิค และแก้ไขปัญหาจากแหล่งที่มาได้อย่างแท้จริง
ในด้านความปลอดภัยของข้อมูล ผู้เชี่ยวชาญด้านเทคนิคจำนวนมากได้บรรลุฉันทามติเบื้องต้นเกี่ยวกับการกำกับดูแลข้อมูลที่เป็นเท็จ และถือว่า "ความปลอดภัยของข้อมูลที่เป็นเท็จ" เป็นทิศทางการวิจัยทางเทคนิคใหม่
โดยเฉพาะอย่างยิ่ง "การรักษาความปลอดภัยของข้อมูลที่บิดเบือน" รวมถึงชุดของเทคโนโลยีที่สามารถรับประกันความสมบูรณ์ ประเมินความถูกต้อง และป้องกันการแอบอ้างบุคคลอื่น และติดตามการแพร่กระจายของข้อมูลที่เป็นอันตรายในการเผยแพร่ข้อมูล หลักการเบื้องหลังคือการใช้โมเดลภาษาขนาดใหญ่เพื่อติดตามเนื้อหาบนโซเชียลมีเดีย ตรวจสอบความสมบูรณ์ของการสื่อสารแบบเรียลไทม์ ตรวจสอบความถูกต้องของสื่อบุคคลที่สาม ฯลฯ
Gartner ยก "ความปลอดภัยของข้อมูลเท็จ" เป็นหนึ่งในแนวโน้มเทคโนโลยีที่สำคัญจากแนวโน้มเทคโนโลยีเชิงกลยุทธ์ 10 อันดับแรกที่คาดการณ์ไว้ในปี 2568 หน่วยงานเชื่อว่าเทคโนโลยี "การรักษาความปลอดภัยของข้อมูลที่เป็นเท็จ" จะก่อให้เกิดประโยชน์เชิงพาณิชย์ที่สำคัญในอีก 1 ถึง 3 ปีข้างหน้า
จากมุมมองของการปฏิบัติการวิจัย เทคโนโลยีบางอย่างได้รับการพิสูจน์แล้วว่ามีประสิทธิภาพ การศึกษาจากมหาวิทยาลัยแคลิฟอร์เนียแสดงให้เห็นว่าแท็กตามบริบทที่ให้รายละเอียดแก่ผู้ใช้ เช่น บริบท คำอธิบายข้อผิดพลาด และเนื้อหาที่เชื่อถือได้ที่เกี่ยวข้อง สามารถช่วยลดการแพร่กระจายของเนื้อหาเท็จได้ แพลตฟอร์มเนื้อหาในต่างประเทศ เช่น Facebook และ X กำลังใช้ปัญญาประดิษฐ์และวิธีการทางเทคนิคอื่นๆ ในการฝึกระบบให้ตรวจจับและติดป้ายกำกับข้อมูลจำนวนมหาศาลโดยอัตโนมัติ เพื่อเอาชนะข้อจำกัดของการตรวจสอบด้วยตนเอง การศึกษาและแนวปฏิบัติเหล่านี้มีความสำคัญในการอ้างอิงอย่างมากสำหรับแพลตฟอร์มเนื้อหาในประเทศ
สำหรับปัญหาต่างๆ เช่น การหลอกลวงแบบฟิชชิ่งที่เกิดจาก generative AI องค์กรและองค์กรต่างๆ สามารถตอบสนองได้ด้วยโซลูชันทางเทคนิคที่ครบถ้วน Jiemian News ได้เรียนรู้ว่าบริษัทอินเทอร์เน็ตในประเทศหลายแห่ง เช่น 360 และ Ant Financial กำลังพัฒนาโซลูชันโดยใช้โมเดลขนาดใหญ่อยู่แล้ว โดยพยายามระบุความเสี่ยงมากขึ้นผ่านการเข้าถึงและการวิเคราะห์ข้อมูล การวิเคราะห์และการตัดสินใจ และการตรวจสอบย้อนกลับ