وظيفة "استخدام الكمبيوتر" الخاصة بـ Claude AI التي أطلقتها شركة Anthropic تمنحها القدرة على التحكم في الأجهزة، لكن بعد أقل من شهرين من إطلاق هذه الوظيفة، اكتشف باحثون أمنيون ثغرات أمنية خطيرة. يُظهر البحث الذي أجراه خبير الأمان يوهان رينبيرجر أنه من خلال الحقن السريع والبسيط للكلمات، يمكن حث كلود على تنزيل البرامج الضارة وتشغيلها، مثل إطار عمل الأوامر والتحكم مفتوح المصدر Sliver. وقد أثار هذا مخاوف بشأن أمن الذكاء الاصطناعي وسلط الضوء على أهمية القضايا الأمنية التي لا يمكن تجاهلها بينما تتطور تكنولوجيا الذكاء الاصطناعي بسرعة.
بعد أقل من شهرين من إطلاق شركة Anthropic لاستخدام الكمبيوتر، وهي ميزة تتيح لـ Claude التحكم في الأجهزة، اكتشف الباحثون الأمنيون ثغرات أمنية محتملة. أحدث نتائج الأبحاث التي كشف عنها خبير الأمن السيبراني يوهان رينبيرجر كانت صادمة: من خلال حقن بسيط للكلمات، يمكن حث الذكاء الاصطناعي على تنزيل البرامج الضارة وتشغيلها.
أطلق Rehnberger على هذا الاستغلال اسم "ZombAIs". في العرض التوضيحي، نجح في إقناع كلود بتنزيل Sliver، وهو إطار عمل مفتوح المصدر للأوامر والتحكم تم استخدامه في الأصل لاختبار الفريق الأحمر ولكنه الآن يستخدم على نطاق واسع كأداة برامج ضارة من قبل المتسللين. والأمر الأكثر إثارة للقلق هو أن هذا مجرد غيض من فيض. وأشار الباحثون إلى أنه يمكن أيضًا حث الذكاء الاصطناعي على كتابة وتجميع وتشغيل تعليمات برمجية ضارة، ومن الصعب منع طرق الهجوم.
ملاحظة لمصدر الصورة: تم إنشاء الصورة بواسطة الذكاء الاصطناعي، والصورة معتمدة من قبل مزود الخدمة Midjourney
ومن الجدير بالذكر أن هذا النوع من المخاطر الأمنية لا يقتصر على كلود. اكتشف خبراء الأمن أن برنامج الدردشة الآلي DeepSeek AI يحتوي أيضًا على ثغرة أمنية في الحقن الفوري للكلمات، مما قد يسمح للمهاجم بالسيطرة على جهاز الكمبيوتر الخاص بالمستخدم. بالإضافة إلى ذلك، قد يقوم نموذج اللغة الكبيرة أيضًا بإخراج رموز الهروب ANSI، مما يؤدي إلى ما يسمى بهجوم "Terminal DiLLMa"، وبالتالي اختطاف محطة النظام.
في هذا الصدد، قامت Anthropic بتذكير المستخدمين بالفعل في بيانها التجريبي: "قد لا تعمل وظيفة استخدام الكمبيوتر دائمًا كما هو متوقع. يوصى باتخاذ الاحتياطات اللازمة لعزل Claude عن البيانات والعمليات الحساسة لتجنب المخاطر المتعلقة بإدخال الكلمات الفوري."
تذكرنا هذه الحادثة مرة أخرى أنه بينما تتطور تكنولوجيا الذكاء الاصطناعي بسرعة، لا يمكن تجاهل القضايا الأمنية. يحتاج المطورون إلى إيجاد توازن بين الوظيفة والأمان، ويحتاج المستخدمون أيضًا إلى زيادة الوعي الأمني واتخاذ تدابير الحماية اللازمة عند استخدام أدوات الذكاء الاصطناعي.
أكدت هذه الحادثة مرة أخرى على أهمية أمان الذكاء الاصطناعي، حيث يجب على المطورين والمستخدمين أن يكونوا أكثر يقظة وأن يعملوا معًا لبناء بيئة تطبيقات ذكاء اصطناعي آمنة وموثوقة. وبهذه الطريقة فقط يمكننا ضمان قدرة تكنولوجيا الذكاء الاصطناعي على خدمة البشرية بشكل أفضل وتجنب المخاطر المحتملة.