يكشف بحث جديد من Google DeepMind عن التأثير المزدوج للهجمات العدائية على الذكاء الاصطناعي والحكم البشري. لقد وجدت الأبحاث أنه حتى نماذج الذكاء الاصطناعي المدربة تكون عرضة للتداخل المصمم بعناية (الاضطرابات العدائية)، مما يؤدي إلى تصنيف غير صحيح للصور، ويمكن أن يؤثر هذا الخطأ أيضًا على الحكم البشري. وهذا يثير مخاوف بشأن سلامة وموثوقية أنظمة الذكاء الاصطناعي ويسلط الضوء على الحاجة إلى مزيد من البحث في أنظمة رؤية الذكاء الاصطناعي وآليات الإدراك البشري.
تركز المقالة على:
يُظهر أحدث الأبحاث التي أجرتها Google DeepMind أن الهجمات العدائية ليست فعالة ضد الذكاء الاصطناعي فحسب، بل تؤثر أيضًا على الحكم البشري. الشبكات العصبية عرضة للاضطرابات العدائية، مما يجعل البشر والذكاء الاصطناعي يخطئون في تصنيف الصور. تشير نتيجة البحث هذه إلى أننا بحاجة إلى فهم أعمق لأوجه التشابه والاختلاف بين سلوك أنظمة الذكاء الاصطناعي البصرية والإدراك البشري من أجل بناء أنظمة ذكاء اصطناعي أكثر أمانًا.
يسلط هذا البحث الضوء على الحاجة الملحة لبناء أنظمة ذكاء اصطناعي أكثر قوة وأمانًا. تحتاج الأبحاث المستقبلية إلى التركيز على كيفية تحسين قدرة نماذج الذكاء الاصطناعي على مكافحة التدخل وكيفية فهم الاختلافات المعرفية بين البشر والذكاء الاصطناعي بشكل أفضل في ظل الهجمات العدائية، وذلك لتوفير الأساس النظري والدعم الفني لتطوير تكنولوجيا ذكاء اصطناعي أكثر موثوقية. . وبهذه الطريقة فقط يمكن ضمان التطبيق الآمن والموثوق لتكنولوجيا الذكاء الاصطناعي وتجنب المخاطر المحتملة.