في الوقت الحالي ، تتطور تكنولوجيا الذكاء الاصطناعي بسرعة ، لكن مشكلات الموثوقية والأمنية تجذب أيضًا اهتمامًا متزايدًا. تساءل البروفيسور إريك بوتن ، أستاذ الأمن السيبراني بجامعة دي مونتفورد ، عن موثوقية أنظمة الذكاء الاصطناعى الحالية ، معتقدًا أنها معرضة لخطر التطبيقات المهمة. وأشار إلى أن الذكاء الاصطناعى التوليدي ونماذج اللغة الكبيرة القائمة على الشبكات العصبية الكبيرة ، مثل ChatGPT ، لديها تعقيدات تجعل من الصعب التنبؤ بسلوكها والتحقق منها ، مما يجعلها محفوفة بالمخاطر في التطبيقات التي تتطلب شعورًا بالمسؤولية.
في البيئة التكنولوجية الحالية ، أثارت الذكاء الاصطناعي (AI) مناقشة واسعة النطاق. قال Eerke Boiten ، أستاذ الأمن السيبراني بجامعة دي مونتفورد ، إن أنظمة الذكاء الاصطناعى الحالية لها أوجه قصور أساسية في الإدارة والموثوقية ويجب عدم استخدامها في التطبيقات المهمة.
أشار البروفيسور بويتن إلى أن معظم أنظمة الذكاء الاصطناعى الحالية تعتمد على الشبكات العصبية الكبيرة ، وخاصة الذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة (مثل chatgpt). مبدأ عمل هذه الأنظمة معقد نسبيًا.
من منظور هندسة البرمجيات ، أكد البروفيسور بوتن على أن أنظمة الذكاء الاصطناعى تفتقر إلى القدرة على التوافق ولا يمكن تطويرها بشكل معياري مثل البرامج التقليدية. بدون وجود بنية داخلية واضحة ، لا يمكن للمطورين تقسيم وإدارة التعقيد بشكل فعال ، كما أنه من الصعب عليهم إجراء تطوير خطوة بخطوة أو اختبار فعال. هذا يجعل التحقق من أنظمة الذكاء الاصطناعى يقتصر على الاختبار الكلي ، وهو أمر صعب للغاية بسبب الإفراط في المدخلات ومساحة الحالة.
بالإضافة إلى ذلك ، غالبًا ما يصعب التنبؤ بالسلوك الخاطئ لأنظمة الذكاء الاصطناعي. هذا يعني أنه حتى إذا تم العثور على أخطاء أثناء التدريب ، فإن إعادة التدريب لا تضمن أن هذه الأخطاء سيتم تصحيحها بشكل فعال وقد تضع مشاكل جديدة. لذلك ، يعتقد البروفيسور بوتن أنه في أي تطبيق يتطلب شعورًا بالمسؤولية ، ينبغي تجنب أنظمة الذكاء الاصطناعى الحالية.
ومع ذلك ، لم يفقد البروفيسور بوتن الأمل تمامًا. وهو يعتقد أنه على الرغم من أن أنظمة الذكاء الاصطناعى الحالية قد تكون قد وصلت إلى عنق الزجاجة ، من خلال الجمع بين الذكاء الرمزي و AI القائم على بديهية ، إلا أنه لا يزال من الممكن تطوير أنظمة AI أكثر موثوقية في المستقبل. قد تولد هذه الأنظمة الجديدة بعض نماذج المعرفة الواضحة أو مستويات الثقة التي تعزز موثوقية الذكاء الاصطناعي في التطبيقات العملية.
أثارت آراء البروفيسور بويتن تفكير الناس العميق في نطاق الموثوقية والتطبيق للذكاء الاصطناعي ، كما أشار إلى طريق جديد لاتجاه التنمية المستقبلية لتكنولوجيا الذكاء الاصطناعي. أثناء متابعة التقدم في تكنولوجيا الذكاء الاصطناعي ، نحتاج إلى ربط أهمية كبيرة بأمنها وموثوقيتها للتأكد من أنه يمكن التحكم فيه وإدارته بشكل فعال في التطبيقات وتجنب المخاطر المحتملة.