يعيد التقدم السريع في تكنولوجيا الذكاء الاصطناعي تشكيل هيكل صناعة التكنولوجيا ، وقد كرست العديد من عمالقة التكنولوجيا أنفسهم للبحث والتطوير ونشر أنظمة "AI Agent". يمكن لهذه الأنظمة الذكية أداء مهام معقدة بشكل مستقل دون الحاجة إلى تدخل بشري مستمر ، مما يدل على إمكانات الأتمتة غير المسبوقة. اتخذت شركات مثل Microsoft و Synthropic زمام المبادرة في إطلاق حلول وكيل الذكاء الاصطناعي. قرار. .
وفقًا لوسائل الإعلام التكنولوجية الموثوقة "المعلومات" ، ينبع موقف Openai الحذر بشكل أساسي من المخاوف بشأن هجمات "الحقن السريع". يمكن لهذا النوع الجديد من الهجوم السيبراني أن يحفز أنظمة الذكاء الاصطناعي على تنفيذ التعليمات الخبيثة ، مما يسبب مخاطر أمنية خطيرة. على سبيل المثال ، عندما يصرح المستخدم وكيل AI للتسوق عبر الإنترنت ، قد يتم حث النظام على الوصول إلى مواقع الويب الضارة وإجراء عمليات خطيرة مثل سرقة معلومات البريد الإلكتروني أو بيانات بطاقة الائتمان. قد لا يؤدي ثغرة الأمن هذه إلى تسرب خصوصية المستخدم فحسب ، بل تسبب أيضًا أضرارًا لا يمكن إصلاحها لسمعة Openai للعلامة التجارية.
ما هو فريد من نوعه في أنظمة وكيل الذكاء الاصطناعى هو أن لديهم القدرة على تشغيل أجهزة الكمبيوتر بشكل مستقل ، مما يجعلها تواجه مخاطر أمنية أكثر بكثير من أنظمة الذكاء الاصطناعى التقليدية. بمجرد اختراقها ، قد تتسبب هذه العوامل في أضرار منهجية للأصول الرقمية للمستخدمين. اعترف فني Openai الداخلي بأنه على الرغم من أن جميع نماذج اللغة الكبيرة من المحتمل أن تتعرض للهجوم ، فإن خصائص الحكم الذاتي لعوامل الذكاء الاصطناعى تضخّم هذا الخطر بشكل كبير.
إن تهديد هجمات الحقن ليس بلا أساس ، وقد تم التحقق من هذا الخطر بالكامل على منصات أخرى. في العام الماضي ، أظهر خبير الأمن السيبراني بنجاح كيفية معالجة نظام Microsoft Copilot AI لتسرب المعلومات السرية من المؤسسات ، بما في ذلك محتوى البريد الإلكتروني وسجلات المعاملات المصرفية. والأكثر إثارة للصدمة هو أن المهاجمين قادرون على إرسال رسائل بريد إلكتروني مزيفة يقلد أسلوب الكتابة للموظفين المحددين ، مع تسليط الضوء على ضعف أنظمة الذكاء الاصطناعى من حيث حماية الأمان.
تم اختبار المنتج الرائد لـ Openai ، Chatgpt ، من خلال هجمات الحقن الفوري. نجح الباحثون في زرع "الذاكرة" الخاطئة من خلال تحميل ملفات الطرف الثالث (مثل مستندات الكلمات) ، وتجربة تعرضت هذه التجربة تمامًا من نقاط الضعف المحتملة في نظام الذكاء الاصطناعي. في مواجهة مثل هذا التحدي الأمني الشديد ، أعرب فريق Openai عن دهشته من الموقف الفضفاض للأنثروبور منافسه عندما أصدرت وكيل الذكاء الاصطناعي. تنصح الأنثروبور فقط للمطورين "اتخاذ تدابير لعزل كلود عن البيانات الحساسة" ، وهو مقياس أمني بسيط نسبيًا يصعب التعامل مع التهديدات الإلكترونية المعقدة بشكل متزايد.
وتفيد التقارير أن Openai قد تطلق منتج وكيل AI هذا الشهر. ومع ذلك ، فإن مسألة الاهتمام المشترك في الصناعة هي: هل الوقت الإضافي الذي اكتسبه فريق التطوير بما يكفي لبناء نظام قوي للحماية الأمنية؟ من خلال التطوير السريع لتكنولوجيا الذكاء الاصطناعي ، ستكون كيفية إيجاد توازن بين الابتكار والأمن قضية مهمة تواجه جميع شركات الذكاء الاصطناعي.
النقاط الأساسية:
أدى Openai إلى تأخير إصدار وكلاء الذكاء الاصطناعى بسبب المخاطر الأمنية المتمثلة في حقن الهجمات ، مما يبرز المخاطر المحتملة لأنظمة الذكاء الاصطناعى.
على الرغم من أن شركات مثل Microsoft و Anthropic أطلقت منتجات AI Agent ، إلا أن تدابير حماية الأمان لا تزال غير كافية.
تعمل Openai على تعزيز الأداء الأمني لمنتجاتها للتعامل مع التهديدات الإلكترونية المعقدة بشكل متزايد.