لقد جلب التطور السريع لتكنولوجيا الذكاء الاصطناعي فرصًا غير مسبوقة للمؤسسات ، لكنه جلب أيضًا مخاطر وتحديات جديدة. جذبت صعود الذكاء الاصطناعى التوليدي اهتمامًا خاصًا لمخاطرها الأمنية المحتملة. ستقوم هذه المقالة بتحليل أحدث تقارير المخاطر التي تم إصدارها لاستكشاف الصعوبات التي تواجهها المؤسسات في التعامل مع مخاطر الذكاء الاصطناعي وكيفية اتخاذ تدابير فعالة لضمان سلامتها وامتثالها.
في السنوات الأخيرة ، جلب التطور السريع للذكاء الاصطناعي (AI) العديد من الفرص للمؤسسات ، ولكن في الوقت نفسه ، أصبحت تهديداتها المحتملة واضحة بشكل متزايد. وفقًا لأحدث "تقرير مخاطر الجيل الجديد" لعام 2024 ، أظهر الاستطلاع أن ما يصل إلى 80 ٪ من الشركات التي شملتها الاستطلاع لم تصمم بعد خطط استجابة خاصة لمخاطر الذكاء الاصطناعى التوليدي ، بما في ذلك المخاطر الأمنية مثل الاحتيال عبر الإنترنت AI.
تم إجراء المسح من قبل Risk Connect ، وشركة برمجيات لإدارة المخاطر ، وشملت المجيبين 218 متخصصين في الامتثال العالمي للمخاطر والمرونة. أظهرت النتائج أن 24 ٪ من المجيبين يعتقدون أن تهديدات الأمن السيبراني التي تحركها الذكاء الاصطناعي مثل الفدية والتصيد والتزوير العميق سيكون لها تأثير كبير على المؤسسات في الأشهر الـ 12 المقبلة. وفي الوقت نفسه ، قال 72 ٪ من المجيبين أن مخاطر الأمن السيبراني كان لها تأثير كبير أو خطير على منظماتهم ، بزيادة من 47 ٪ من بيانات العام الماضي.
نظرًا لتكثيف المخاوف بشأن أخلاقيات الذكاء الاصطناعي والخصوصية والأمن ، أشار التقرير إلى أنه على الرغم من أن مخاوف الشركات بشأن الذكاء الاصطناعى قد زادت ، إلا أنها فشلت في المتابعة في الوقت المناسب في استراتيجيات إدارة المخاطر ، وما زالت هناك العديد من الثغرات الرئيسية. على سبيل المثال ، لا تملك 65 ٪ من الشركات سياسات لاستخدام الذكاء الاصطناعى التوليدي في الشركاء والموردين ، على الرغم من أن أطراف ثالثة هي قنوات شائعة للتسلل للمحتالين السيبرانيين.
لا ينبغي التقليل من التهديدات الداخلية. أخذ مثال على استخدام الذكاء الاصطناعى التوليدي لإنتاج محتوى تسويقي ، يذكر خبير التسويق أنتوني ميازاكي أنه على الرغم من أن الذكاء الاصطناعى الأداء يعمل بشكل جيد في الكتابة ، إلا أن النسخة النهائية لا تزال بحاجة إلى تحريرها يدويًا لضمان إقناعها ودقتها. بالإضافة إلى ذلك ، يمكن أن يؤدي الاعتماد على الذكاء الاصطناعي لإنشاء محتوى الموقع إلى آثار سلبية على سبيل المثال. تحسين المحرك (SEO).
لمواجهة هذه التحديات ، تحتاج الشركات إلى ضمان التغطية الكاملة للسياسات الداخلية ، وضمان أمان البيانات الحساسة والامتثال للوائح ذات الصلة. وقال جون سكايمون ، كبير مسؤولي الأمن في Del Technology ، إنهم صاغوا مبادئ قبل طفرة الذكاء الاصطناعى التوليدي لضمان أن تكون تطبيقات الذكاء الاصطناعى نزيهة وشفافة ومسؤولة.
في وسائل الإعلام الأولى ، أكد نائب الرئيس ريان دوجر على التدابير الصارمة التي اتخذتها الشركة لاستخدام الذكاء الاصطناعى من قبل الموظفين ، بما في ذلك حظر مدخلات البيانات الحساسة للعميل ، والتي تتطلب مراجعة يدوية للمحتوى الذي تم إنشاؤه من الذكاء الاصطناعى ، وما إلى ذلك. تم تصميم هذه التدابير لزيادة الشفافية وبناء ثقة العملاء.
النقاط الرئيسية:
80 ٪ من المؤسسات لم وضعت خططًا متخصصة لمخاطر الذكاء الاصطناعي التوليدي ومواجهة المخاطر الأمنية المحتملة.
يعتقد 72 ٪ من الشركات أن مخاطر الأمن السيبراني كان لها تأثير كبير عليها ودعت إلى تعزيز إدارة المخاطر.
يجب أن تتخذ المؤسسات تدابير إيجابية لضمان أمان وامتثال تطبيقات الذكاء الاصطناعي وتجنب التهديدات الداخلية والخارجية.
خلاصة القول ، تحتاج المؤسسات إلى الاستجابة بنشاط للمخاطر الأمنية التي تثيرها الذكاء الاصطناعي ، وصياغة استراتيجيات كاملة لإدارة المخاطر ، وتعزيز الضوابط الأمنية الداخلية من أجل الحفاظ على القدرة التنافسية في عصر الذكاء الاصطناعى ومواصلة التطور الصحي. من المحتمل أن يؤدي تجاهل مخاطر الذكاء الاصطناعي إلى حوادث سلامة خطيرة وخسائر اقتصادية.