يستخدم مجرمو الإنترنت بشكل متزايد تكنولوجيا الذكاء الاصطناعي لتعزيز قدراتهم الهجومية. اكتشفت شركات الأمن مؤخرًا أن عصابات الجرائم الإلكترونية استخدمت نموذج الذكاء الاصطناعي Llama2 التابع لشركة Meta لإنشاء نصوص هجومية تستهدف شركات الخدمات المالية، مما أثار مخاوف في الصناعة بشأن التطبيق الضار للذكاء الاصطناعي. على الرغم من أن قدرات الكشف عن هجمات الذكاء الاصطناعي محدودة حاليًا، إلا أن خبراء الأمن يتوقعون تحسين هذه القدرات في المستقبل. يسلط هذا الحادث الضوء على خصائص السيف ذو الحدين لتكنولوجيا الذكاء الاصطناعي، والتي لا يمكنها تعزيز التقدم التكنولوجي فحسب، بل يمكن استخدامها أيضًا في أنشطة غير قانونية.
تستخدم عصابات الجريمة الإلكترونية الذكاء الاصطناعي Llama2 الخاص بشركة Meta لشن هجمات وإنشاء نصوص هجومية لاستهداف شركات الخدمات المالية. تقول شركات الأمن إن قدرات الكشف عن هجمات الذكاء الاصطناعي محدودة ولكن من المتوقع أن تزداد. قد تكون هناك محاولات مستقبلية لاستخدام الذكاء الاصطناعي بشكل ضار، ولكن النتائج الناتجة قد لا تكون صالحة.
على الرغم من أن تكنولوجيا الذكاء الاصطناعي توفر العديد من وسائل الراحة، إلا أنها تحتاج أيضًا إلى الحذر من مخاطر إساءة استخدامها. يعد تعزيز الحماية الأمنية للذكاء الاصطناعي، وتحسين قدرات اكتشاف الهجمات، وتحسين القوانين واللوائح ذات الصلة أمرًا بالغ الأهمية للتعامل مع جرائم الذكاء الاصطناعي المحتملة في المستقبل. وبهذه الطريقة فقط يمكننا تقليل مخاطر الاستخدام الضار لتكنولوجيا الذكاء الاصطناعي وضمان أمن الشبكة والاستقرار الاجتماعي.