في السنوات الأخيرة، تطورت تكنولوجيا الذكاء الاصطناعي بسرعة، مما أتاح فرصًا هائلة للشركات، ولكنه ينطوي أيضًا على العديد من المخاطر. قام محرر موقع Downcodes بتجميع تقرير حول كيفية تعامل المؤسسات مع مخاطر الذكاء الاصطناعي التوليدي. وأشار التقرير إلى أن معظم المؤسسات لم تقم بعد بصياغة استراتيجيات استجابة فعالة لمخاطر الذكاء الاصطناعي التوليدي، خاصة فيما يتعلق بأمن الشبكات، والاحتيال على الشبكات التي تعتمد على الذكاء الاصطناعي، وما إلى ذلك. لقد أصبح التهديد خطيرًا بشكل متزايد ويستحق اهتمام الشركات.
في السنوات الأخيرة، أتاح التطور السريع للذكاء الاصطناعي العديد من الفرص للشركات، ولكن في الوقت نفسه، أصبحت تهديداته المحتملة واضحة بشكل متزايد. وفقًا لأحدث "تقرير مخاطر الجيل الجديد" لعام 2024، يُظهر الاستطلاع أن ما يصل إلى 80% من الشركات التي شملها الاستطلاع لم تقم بعد بصياغة خطة استجابة خاصة لمخاطر الذكاء الاصطناعي التوليدية، والتي تشمل المخاطر الأمنية مثل الاحتيال عبر الإنترنت القائم على الذكاء الاصطناعي.
وشمل الاستطلاع، الذي أجرته شركة برمجيات إدارة المخاطر Riskconnect، 218 متخصصًا في مجال الامتثال للمخاطر العالمية والمرونة. وتظهر النتائج أن 24% من المشاركين يعتقدون أن تهديدات الأمن السيبراني المستندة إلى الذكاء الاصطناعي (مثل برامج الفدية والتصيد الاحتيالي والتزييف العميق) سيكون لها تأثير كبير على المؤسسات في الأشهر الـ 12 المقبلة. وفي الوقت نفسه، قال 72% من المشاركين أن مخاطر الأمن السيبراني كان لها تأثير كبير أو شديد على مؤسساتهم، مقارنة بـ 47% في العام الماضي.
ومع تزايد المخاوف بشأن قضايا مثل أخلاقيات الذكاء الاصطناعي والخصوصية والأمن، يشير التقرير إلى أنه على الرغم من تزايد مخاوف الشركات بشأن الذكاء الاصطناعي، إلا أنها فشلت في متابعة استراتيجيات إدارة المخاطر في الوقت المناسب، ولا يزال هناك العديد من الثغرات الرئيسية. . على سبيل المثال، ليس لدى 65% من الشركات سياسة معمول بها فيما يتعلق باستخدام الذكاء الاصطناعي التوليدي من قبل الشركاء والبائعين، على الرغم من أن الأطراف الثالثة تمثل قناة دخول شائعة للمحتالين عبر الإنترنت.
ولا يمكن الاستهانة بالتهديدات الداخلية أيضًا. وبأخذ استخدام الشركات للذكاء الاصطناعي التوليدي لإنتاج محتوى تسويقي كمثال، ذكر خبير التسويق أنتوني ميازاكي أنه على الرغم من أن الذكاء الاصطناعي التوليدي ممتاز في كتابة النص، إلا أن النسخة النهائية لا تزال بحاجة إلى تحريرها يدويًا لضمان إقناعها ودقتها. بالإضافة إلى ذلك، فإن الاعتماد على الذكاء الاصطناعي لإنشاء محتوى موقع الويب قد يؤدي أيضًا إلى تأثيرات سلبية، على سبيل المثال، أوضحت جوجل أنه إذا تم استخدام محتوى الذكاء الاصطناعي للتلاعب في عملية البحث، فسيتم تخفيض تصنيفاته في البحث، مما سيكون له تأثير خطير. على تحسين محركات البحث (SEO) للمؤسسات.
ولمواجهة هذه التحديات، تحتاج الشركات إلى ضمان التغطية الشاملة للسياسات الداخلية، وتأمين البيانات الحساسة، والامتثال للوائح ذات الصلة. قال جون سكيموني، كبير مسؤولي الأمن في شركة Del Technology، إنهم قاموا بصياغة المبادئ ذات الصلة قبل جنون الذكاء الاصطناعي التوليدي لضمان أن يكون تطوير تطبيقات الذكاء الاصطناعي عادلاً وشفافًا ومسؤولًا.
في وكالة التسويق الرقمي Empathy First Media، أكد نائب الرئيس Ryan Doser أيضًا على الإجراءات الصارمة التي اتخذتها الشركة بشأن استخدام الموظفين للذكاء الاصطناعي، بما في ذلك حظر إدخال بيانات العملاء الحساسة في أدوات الذكاء الاصطناعي التوليدية والمطالبة بمراجعة يدوية للمحتوى الناتج عن الذكاء الاصطناعي. وتهدف هذه التدابير إلى زيادة الشفافية وبناء ثقة العملاء.
بشكل عام، تحتاج الشركات إلى الاستجابة بفعالية للمخاطر الأمنية التي يجلبها الذكاء الاصطناعي التوليدي، وصياغة استراتيجيات شاملة لإدارة المخاطر، وتعزيز تدريب الموظفين من أجل الحفاظ على قدرتها التنافسية وضمان أمن الأعمال في عصر الذكاء الاصطناعي. يوصي محرر Downcodes المؤسسات بالرجوع إلى الاقتراحات الواردة في التقرير واتخاذ الإجراءات اللازمة لمنع حدوث مشكلات في مهدها.