أصدر مهندسو Microsoft الداخليون مؤخرًا تحذيرًا، مشيرين إلى أن مصمم منشئ الصور AI الخاص بالشركة لديه مخاطر أمنية محتملة وأن الأداة قد تولد محتوى ضارًا. وقد تم تقديم هذا التحذير إلى الهيئات التنظيمية ومجالس الإدارة، مما أثار مخاوف بشأن سلامة نماذج الذكاء الاصطناعي. ومن المفهوم أن أداة المصمم تعتمد على نموذج DALL-E الخاص بشركة OpenAI، وقد تنبع مخاطرها المحتملة من عيوب في النموذج نفسه. يسلط الحادث الضوء على التأثير السلبي المحتمل لنماذج اللغات الكبيرة وأهمية السلامة والأخلاق في تطبيق تكنولوجيا الذكاء الاصطناعي.
حذر مهندسو مايكروسوفت الجهات التنظيمية ومجلس الإدارة من المخاطر المحتملة المرتبطة بمولد صور الذكاء الاصطناعي الخاص بالشركة. ويقول المهندسون إن أداة المصمم قد تولد محتوى ضارًا، بسبب مشكلة في نموذج DALL-E الخاص بشركة OpenAI. وحث على معالجة المخاطر الأمنية ولفت الانتباه.
يذكرنا هذا الحادث مرة أخرى أنه بينما تتطور تكنولوجيا الذكاء الاصطناعي بسرعة، يجب علينا الاهتمام بمخاطرها المحتملة وتعزيز تدابير الإشراف والسلامة لضمان التطور الصحي لتكنولوجيا الذكاء الاصطناعي وتجنب إساءة استخدامها. وفي المستقبل، ستصبح كيفية الموازنة بين الابتكار التكنولوجي والمخاطر الأمنية قضية مهمة.