كيف يمكن تنظيم استخدام تكنولوجيا الذكاء الاصطناعي في أنشطة البحث العلمي؟ أصدرت الأكاديمية الصينية للعلوم ثمانية رسائل تذكيرية
الكاتب:Eve Cole
وقت التحديث:2024-11-22 16:18:01
في 10 سبتمبر، أصدرت لجنة أخلاقيات البحث العلمي التابعة للأكاديمية الصينية للعلوم علنًا "تذكير النزاهة بشأن الاستخدام الموحد لتكنولوجيا الذكاء الاصطناعي في أنشطة البحث العلمي" (المشار إليه فيما يلي باسم "تذكير النزاهة") لتذكير العلماء والتكنولوجيين العاملين والطلاب في الأكاديمية الصينية للعلوم. في السنوات الأخيرة، أدى التطور السريع والتطبيق الواسع النطاق لتكنولوجيا الذكاء الاصطناعي إلى تغييرات وابتكارات جديدة في البحث العلمي، في حين فرض أيضًا تحديات خطيرة على الممارسات الحالية التي تدعم نزاهة البحث العلمي. على سبيل المثال، يمكن أن يؤدي استخدام خوارزميات الذكاء الاصطناعي لتزوير البيانات وإنشاء أوراق بحثية خادعة بسهولة إلى أشكال جديدة من سوء السلوك الأكاديمي مثل الكتابة الخفية، والسرقة الأدبية، وتنظيف المخطوطات، مما يضر بشكل كبير بمصداقية البحث العلمي. تم تنظيم "تذكير النزاهة" من قبل لجنة أخلاقيات البحث العلمي التابعة للأكاديمية الصينية للعلوم وخبراء داخليين وخارجيين للتركيز على المشاكل والتحديات المحتملة في تطبيق تكنولوجيا الذكاء الاصطناعي في عملية أنشطة البحث العلمي بأكملها بعد مناقشات متعمقة والتماس واسع النطاق للآراء، ويتكون من ثمانية مقالات. هذا هو العام السابع على التوالي منذ عام 2018 الذي تصدر فيه لجنة أخلاقيات البحث العلمي التابعة للأكاديمية الصينية للعلوم تذكيرات بالنزاهة، مع التركيز على الجوانب الرئيسية مثل المراجعة الأكاديمية، والتوصية بجوائز العلوم والتكنولوجيا، وإصدار النتائج الأكاديمية، والسجلات الأصلية للأبحاث العلمية. البحث، وأخلاقيات البحث العلمي، والتوقيع على الأوراق، والدعوة للباحثين العلميين، وقد أثارت الصدق والأمانة استجابة إيجابية. ويوضح "تذكير النزاهة" أنه خلال بحث اختيار الموضوع، واسترجاع الأدبيات، وجمع البيانات، يمكن استخدام تكنولوجيا الذكاء الاصطناعي لتتبع اتجاهات البحث، وجمع المراجع وتنظيمها، وتحديد صحة ودقة وموثوقية المعلومات الناتجة عن الذكاء الاصطناعي. الذكاء يعارض الاستخدام المباشر للتقارير البحثية التي لم يتم التحقق منها، واقتراحات المواضيع، ومراجعات الأدبيات، وما إلى ذلك الناتجة عن الذكاء الاصطناعي. عند كتابة مواد التطبيق، إذا كنت تستخدم محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، فيجب أن تكون مسؤولاً عن المحتوى وتعلن بشكل كامل وصادق عن الاستخدام أنك تعارض الاستخدام المباشر لمواد التطبيق التي لم يتم التحقق منها والتي تم إنشاؤها بواسطة الذكاء الاصطناعي. عند جمع البيانات واستخدامها، إذا تم استخدام بيانات المحاكاة وبيانات الاختبار وما إلى ذلك الناتجة عن الذكاء الاصطناعي، أو تم استخدام تكنولوجيا الذكاء الاصطناعي لإجراء تحليل إحصائي للبيانات الأولية، فيجب الإعلان عن الاستخدام بشكل كامل وصادق، وهو ما يعارض الاستخدام البيانات الناتجة عن الذكاء الاصطناعي كبيانات تجريبية. عند إنتاج الصوت والفيديو والرسومات، يمكن استخدام تكنولوجيا الذكاء الاصطناعي للمساعدة، وينبغي تصنيف المحتوى الناتج والإعلان عن الاستخدام بشكل كامل وصادق. ويعارض استخدام الذكاء الاصطناعي لإنشاء الصوت والفيديو والرسومات بشكل مباشر. عند كتابة النتائج، يمكن استخدام تقنية الذكاء الاصطناعي للمساعدة في فرز النظريات والمواد والأساليب الموجودة وما إلى ذلك، ويمكن استخدامها لصقل اللغة والترجمة والتحقق من المعايير، ويعارض استخدام الذكاء الاصطناعي لإنشاء المحتوى الإنجاز الابتكاري الأساسي، واستخدام الذكاء الاصطناعي لتوليد النتائج والمراجع بأكملها. في مراجعة النظراء، يُعارض استخدام تكنولوجيا الذكاء الاصطناعي لكتابة آراء مراجعة النظراء، ويجب عدم تحميل معلومات المراجعة على منصات الأدوات التي لم تتم الموافقة عليها من قبل منظم المراجعة. في أنشطة البحث العلمي، في حالة استخدام تقنية الذكاء الاصطناعي، يجب ذكر اسم الأداة وإصدارها وتاريخها وعملية استخدامها في الملاحظات أو الإقرارات أو المراجع أو الملاحق، ويعارض الاستخدام المباشر دون بيان. عند اختيار تقنية الذكاء الاصطناعي، يجب عليك استخدام أدوات الخدمة التي تم تسجيلها من قبل الدولة، ومعارضة إساءة استخدام تقنية الذكاء الاصطناعي لتعريض أمن البيانات للخطر، وانتهاك حقوق الملكية الفكرية، وتسريب الخصوصية الشخصية، وما إلى ذلك.