تواجه صياغة سياسات الذكاء الاصطناعي تحديات وفرص جديدة. قدم لي فيايفي ، عالم الكمبيوتر في جامعة ستانفورد ، ثلاثة مبادئ أساسية لصياغة السياسة المستقبلية وأكد أن السياسات يجب أن تستند إلى العلوم بدلاً من الخيال العلمي.
اقترح Li Feifei ، عالم الكمبيوتر ومؤسس جامعة ستانفورد ، المعروف باسم "عرابة الذكاء الاصطناعي" ، "ثلاثة مبادئ أساسية لصياغة سياسة الذكاء الاصطناعي في المستقبل" قبل قمة عمل الذكاء الاصطناعي في باريس الأسبوع المقبل. وأكدت أن سياسات الذكاء الاصطناعى يجب أن تستند إلى "العلم بدلاً من الخيال العلمي".
يعتقد Li Feifei أن صانعي السياسات يجب أن يركزوا على واقع الذكاء الاصطناعي بدلاً من بناء سيناريو مستقبلي كبير تصوره يوتوبيا أو نهاية العالم. وأشارت على وجه التحديد إلى أن برامج chatbots وبرامج الطيور المشتركة ليست "أشكالًا ذكية من النية أو الإرادة الحرة أو الوعي" وأن صانعي السياسة يجب أن يتجنبوا "السيناريوهات بعيدة المنال" والتركيز على "التحديات الكبيرة". ثانياً ، تؤكد على "الطبيعة البراغماتية" للسياسات بدلاً من الأيديولوجية أولاً. يجب أن "صياغة السياسة" تقلل من العواقب غير المتوقعة مع إلهام الابتكار ". أخيرًا ، أكد Li Feifei دور تمكين السياسات في "النظام الإيكولوجي للذكاء الاصطناعي بأكمله - بما في ذلك مجتمع المصادر المفتوحة والأوساط الأكاديمية". وقالت "إن فتح نماذج الذكاء الاصطناعي وأدوات الحوسبة أمر بالغ الأهمية. صياغة سياسات الذكاء الاصطناعي ، مع التركيز على أهمية القائمة على الواقع ، وتشجيع الابتكار وتمكين النظم الإيكولوجية.
توفر آراء Li Feifei إطارًا مرجعيًا مهمًا لصياغة سياسات الذكاء الاصطناعي ، مع التركيز على أهمية الواقع على الواقع ، وتشجيع الابتكار وتمكين النظم الإيكولوجية.
تذكرنا هذه الآراء بأن تطور الذكاء الاصطناعي يتطلب إرشادات علمية وواقعية لتعزيز التقدم التكنولوجي والرفاه الاجتماعي.