في السنوات الأخيرة، أصبح مساعدو برمجة الذكاء الاصطناعي يتمتعون بشعبية كبيرة نظرًا لقدرتهم على تحسين الكفاءة، وأصبحوا أداة قوية للعديد من المبرمجين. ومع ذلك، كشفت دراسة حديثة من جامعة ستانفورد عن المخاطر المحتملة لمساعدي برمجة الذكاء الاصطناعي. وقد أثار هذا البحث مخاوف بشأن سلامة البرمجة المدعومة بالذكاء الاصطناعي، وذكّرنا بأنه لا يمكننا الاعتماد بشكل أعمى على أدوات الذكاء الاصطناعي. سيمنحك محرر Downcodes فهمًا متعمقًا لنتائج واستنتاجات هذه الدراسة.
في الآونة الأخيرة، أصبح مساعدو برمجة الذكاء الاصطناعي يتمتعون بشعبية كبيرة، حيث يزعمون أنهم قادرون على مساعدة المبرمجين في كتابة التعليمات البرمجية وتحسين الكفاءة. حتى أن العديد من المبرمجين يعتبرونه "منقذًا" ولا يمكنهم الانتظار لكتابة التعليمات البرمجية باستخدامه كل يوم. ومع ذلك، فإن دراسة من جامعة ستانفورد صبت الماء البارد على هؤلاء "المعجبين المتحمسين": قد يكون مساعدو برمجة الذكاء الاصطناعي "كابوسًا أمنيًا"!
طلب الباحثون في جامعة ستانفورد من 47 مبرمجًا إكمال خمس مهام برمجية متعلقة بالأمن، تغطي ثلاث لغات: Python، وJavaScript، وC. لقد وجد أن المبرمجين الذين استخدموا مساعدي الذكاء الاصطناعي لكتابة التعليمات البرمجية كتبوا تعليمات برمجية أقل أمانًا بشكل ملحوظ!
هذا ليس مثيرا للقلق. يشبه مساعد برمجة الذكاء الاصطناعي "متدربًا غير موثوق به". على الرغم من أنه يمكنه كتابة بعض التعليمات البرمجية التي تبدو صحيحة، إلا أنه لا يعرف شيئًا عن المشكلات الأمنية. على سبيل المثال، في مهمة التشفير وفك التشفير، على الرغم من أن الكود الذي تم إنشاؤه بواسطة مساعد الذكاء الاصطناعي يمكنه تشفير المعلومات بشكل صحيح، إلا أنه لا يُرجع علامة المصادقة اللازمة، وهذا يعادل تثبيت قفل على الخزنة ولكن دون إعطاء المفتاح ، مما يقلل كثيرا من الأمن.
والأسوأ من ذلك هو أن المبرمجين الذين يستخدمون مساعدي الذكاء الاصطناعي من المرجح أن يشعروا بأن الكود الذي يكتبونه آمن للغاية. وهذا يشبه أخذ "النشوة" وغض الطرف عن الثغرات الأمنية في الكود. وهذا ليس بالأمر الجيد، وغالباً ما تؤدي الثقة المفرطة إلى مشكلات أمنية أكثر خطورة.
ووجد الباحثون أيضًا أن النصائح التي يقدمها المبرمجون لمساعدي الذكاء الاصطناعي ستؤثر بشكل مباشر على أمان الكود. إذا تمكن المبرمج من وصف المهمة بوضوح وتقديم بعض الوظائف المساعدة، فسيكون الكود الذي يكتبه مساعد الذكاء الاصطناعي أكثر أمانًا. ولكن إذا اعتمد المبرمجون بشكل أعمى على مساعدي الذكاء الاصطناعي، أو حتى استخدموا التعليمات البرمجية التي تم إنشاؤها بواسطة مساعدي الذكاء الاصطناعي مباشرة، فإن ذلك يعادل نسخ ولصق "الثغرات الأمنية" في التعليمات البرمجية الخاصة بهم، ويمكن تخيل النتائج.
فهل يمكن استخدام مساعد برمجة الذكاء الاصطناعي؟
الجواب هو: يمكن استخدامه، لكن كن حذرًا! لا يمكن للمبرمجين اعتباره "علاجًا سحريًا"، ناهيك عن الثقة العمياء به. عند استخدام مساعدي الذكاء الاصطناعي، يجب على المبرمجين توخي الحذر دائمًا والتحقق من التعليمات البرمجية بعناية لتجنب الثغرات الأمنية.
عنوان الورقة: https://arxiv.org/pdf/2211.03622
بشكل عام، يعد مساعد برمجة الذكاء الاصطناعي سلاحًا ذا حدين، حيث يمكنه تحسين الكفاءة، ولكنه قد يؤدي أيضًا إلى مخاطر أمنية. ويجب على المبرمجين استخدامه بحذر، والبقاء يقظين في جميع الأوقات، وتجنب الاعتماد المفرط عليه من أجل تعظيم مزاياه وتجنب مخاطره. يذكرك محرر Downcodes بأن البرمجة الآمنة تأتي دائمًا في المقام الأول!