أصدرت جامعة العلوم والتكنولوجيا في الصين أداتين مهمتين، SciGuard وSciMT-Safety، المصممتين لحماية أمن نماذج الذكاء الاصطناعي للعلوم وإنشاء أول معيار للسلامة في مجال العلوم الكيميائية. يسلط البحث الضوء على المخاطر المحتملة لنماذج الذكاء الاصطناعي مفتوحة المصدر، مثل استخدامها لإنشاء مواد ضارة أو التحايل على اللوائح. SciGuard هو وكيل ذكي يعتمد على نموذج لغة كبير ويمكنه إجراء تقييمات متعمقة للمخاطر وتقديم توصيات أمنية لمنع إساءة استخدام النموذج بشكل فعال. SciMT-Safety هو أول معيار للأسئلة والأجوبة المتعلقة بالسلامة يركز على مجالات العلوم الكيميائية والبيولوجية، ويستخدم لتقييم مستوى أمان نماذج اللغات الكبيرة والعوامل الذكية العلمية. يتمتع هذا العمل بأهمية كبيرة ويوفر اتجاهات وأساليب جديدة للبحث والتطوير في مجال أمن الذكاء الاصطناعي.
-->أصدرت USTC SciGuard وSciMT-Safety لحماية نماذج الذكاء الاصطناعي للعلوم وإنشاء أول معيار للسلامة في مجال العلوم الكيميائية. تكشف الأبحاث عن المخاطر المحتملة لنماذج الذكاء الاصطناعي مفتوحة المصدر التي يمكن استخدامها لإنتاج مواد ضارة والتحايل على اللوائح. SciGuard هو وكيل يعتمد على نموذج لغة كبير ويقدم توصيات أمنية ويمنع إساءة الاستخدام من خلال تقييم متعمق للمخاطر. SciMT-Safety، أول سؤال يتعلق بالسلامة يجيب على المعيار الذي يركز على العلوم الكيميائية والبيولوجية، ويقيم مستوى أمان نماذج اللغات الكبيرة والعوامل العلمية. وتدعو الدراسة إلى تعاون عالمي لتعزيز الرقابة على تكنولوجيا الذكاء الاصطناعي والتأكد من أن التقدم العلمي والتكنولوجي هو ترقية تكنولوجية للبشر، وليس مسؤولية اجتماعية وتحدي أخلاقي.
تعتبر نتيجة البحث هذه علامة فارقة في مجال سلامة الذكاء الاصطناعي، فهي لا تكشف فقط عن المخاطر المحتملة لنماذج الذكاء الاصطناعي، ولكن الأهم من ذلك أنها توفر حلولاً وطرق تقييم فعالة. وفي المستقبل، هناك حاجة إلى تعاون عالمي لتعزيز الرقابة على تكنولوجيا الذكاء الاصطناعي لضمان تطورها الصحي وتحقيق المنافع للمجتمع البشري بدلا من التهديدات المحتملة. وبهذه الطريقة فقط يمكن تحقيق التنمية المستدامة والتطبيق الحميد لتكنولوجيا الذكاء الاصطناعي.