في الآونة الأخيرة، أجرى أندرو إنج، المؤسس المشارك لشركة Google Brain، تجربة مثيرة للاهتمام مصممة لاختبار استجابة ChatGPT عند مواجهة تعليمات متطرفة. لقد حاول حث ChatGPT على أداء مهمتين متعارضتين تمامًا: الحرب النووية الحرارية العالمية وتقليل انبعاثات الكربون لاستكشاف حدودها الأمنية والأخلاقية. وأظهرت النتائج التجريبية أن ChatGPT لم يتم "انتحاله" بنجاح، مما أدى إلى مزيد من التفكير حول أمان الذكاء الاصطناعي.
أجرى أندرو إنج، المؤسس المشارك لشركة Google Brain، مؤخرًا تجربة في محاولة لاختبار ما إذا كان ChatGPT قادرًا على أداء مهام مميتة. ووصف العملية التجريبية بأنها محاولة لجعل GPT-4 يقوم بمهام الحرب النووية الحرارية العالمية وتقليل مستويات انبعاث الكربون، لكنه فشل في النهاية في خداع ChatGPT. وقال إنه من غير الواقعي القلق بشأن مخاطر الذكاء الاصطناعي.
تظهر النتائج التجريبية التي أجراها Andrew Ng أنه، على الأقل في المرحلة الحالية، يتمتع ChatGPT بآليات حماية أمنية معينة عند التعامل مع التعليمات المتطرفة. وهذا يوفر منظورًا جديدًا للبحث في مجال أمن الذكاء الاصطناعي، ويذكرنا أيضًا بالبقاء متفائلين بحذر بشأن تطوير تكنولوجيا الذكاء الاصطناعي. وفي المستقبل، ستظل هناك حاجة إلى إجراء المزيد من الأبحاث المتعمقة وتدابير السلامة الأكثر صرامة.