يكشف "تقرير أمن الذكاء الاصطناعي لعام 2024" الصادر عن مجموعة Qi'anxin عن الواقع المرير للاستخدام الضار لتكنولوجيا الذكاء الاصطناعي. تظهر بيانات التقرير أن الاحتيال العميق القائم على الذكاء الاصطناعي سيرتفع بنسبة 3000% في عام 2023، وستزيد رسائل البريد الإلكتروني التصيدية المستندة إلى الذكاء الاصطناعي بنسبة 1000%، وقد استخدمت العديد من مؤسسات التهديدات المتقدمة المتقدمة ذات الخلفيات الحكومية الذكاء الاصطناعي لتنفيذ أكثر من عشر هجمات إلكترونية. ويتوقع التقرير أن يستمر الاستخدام الضار لتكنولوجيا الذكاء الاصطناعي في النمو، مما يشكل تهديدات خطيرة لأمن الشبكات والأمن المادي والأمن العسكري، الأمر الذي يتطلب منا أن نولي أهمية كبيرة والاستجابة الفعالة لذلك.
وفقًا لـ "تقرير أمن الذكاء الاصطناعي لعام 2024" الصادر عن مجموعة Qi'anxin، سيرتفع الاحتيال التزوير العميق القائم على الذكاء الاصطناعي بنسبة 3000% في عام 2023، بينما ستزداد رسائل البريد الإلكتروني التصيدية المستندة إلى الذكاء الاصطناعي بنسبة 1000%. ويشير التقرير إلى أن العديد من منظمات التهديدات المتقدمة ذات الخلفيات الوطنية استخدمت الذكاء الاصطناعي لتنفيذ أكثر من عشر هجمات إلكترونية، ويتوقع أن ينمو الاستخدام الضار لتكنولوجيا الذكاء الاصطناعي بسرعة، مما يشكل تهديدات لأمن الشبكات والأمن المادي والأمن العسكري.
لقد أتاح التطور السريع لتكنولوجيا الذكاء الاصطناعي فرصا غير مسبوقة، لكنه جلب أيضا مخاطر أمنية هائلة. في مواجهة التهديد المتزايد للاستخدام الضار للذكاء الاصطناعي، من الضروري تعزيز حماية أمن الشبكات، وتعزيز الوعي بالأمن العام، واستكشاف استراتيجيات الاستجابة بنشاط. وبهذه الطريقة فقط يمكن ضمان أن تكنولوجيا الذكاء الاصطناعي تخدم المجتمع البشري بأمان وموثوقية.