أطلقت Nvidia مؤخرًا ثلاث خدمات صغيرة جديدة NIM (Nvidia Infrastructure Microservices) كامتداد لمجموعة أدوات NeMo Guardrails مفتوحة المصدر، بهدف تعزيز قدرات الحماية الأمنية لتطبيقات وكيل الذكاء الاصطناعي للمؤسسات. تركز هذه الخدمات الثلاث على التوالي على أمان المحتوى، والحد من موضوع المحادثة، ومنع كسر حماية وكيل الذكاء الاصطناعي، وهي تعوض بشكل فعال الثغرات المحتملة في سياسة الأمان العالمية وتوفر ضمانات أمنية أكثر دقة للمؤسسات لنشر عملاء الذكاء الاصطناعي. تشبه هذه النماذج خفيفة الوزن حواجز الأمان، وهي ذات أهمية خاصة في سياق الشعبية المتزايدة لتطبيقات الذكاء الاصطناعي.
أصدرت Nvidia مؤخرًا ثلاث خدمات صغيرة جديدة NIM (Nvidia Infrastructure Microservices) كامتداد لمجموعة أدوات NeMo Guardrails مفتوحة المصدر، والتي تهدف إلى توفير إمكانات تحكم أمني أكثر دقة لتطبيقات وكيل الذكاء الاصطناعي للمؤسسات.
تتمتع هذه الخدمات الثلاث الجديدة بخصائصها الخاصة: الأولى تتعلق بأمن المحتوى لمنع الذكاء الاصطناعي من إنشاء محتوى ضار أو متحيز؛ والثانية هي التأكد من أن المحادثات تقتصر على الموضوعات المعتمدة؛ والثالثة هي منع عملاء الذكاء الاصطناعي من اختراق قيود النظام أو كسر الحماية. ومن خلال نشر هذه النماذج المتخصصة خفيفة الوزن كحواجز أمنية، يمكن للمطورين سد فجوات الحماية التي قد تكون موجودة في السياسات العالمية.
تعكس هذه الخطوة التحديات العملية في تنفيذ الذكاء الاصطناعي. على الرغم من أن مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، توقع أن تضم منصته أكثر من مليار وكيل للذكاء الاصطناعي في العام المقبل، إلا أن أحدث الأبحاث التي أجرتها شركة Deloitte تظهر أن وتيرة اعتماد المؤسسات أكثر حذرًا: من المتوقع أن تستخدم 25٪ فقط من المؤسسات وكلاء الذكاء الاصطناعي في عام 2025. وبحلول عام 2027 سترتفع هذه النسبة إلى 50% في عام 2018.
تظهر هذه البيانات أن الشركات حذرة بشأن تكنولوجيا وكيل الذكاء الاصطناعي، وأن سرعة الاعتماد أبطأ بكثير من وتيرة الابتكار التكنولوجي. تهدف خدمة الأمان التي أصدرتها Nvidia هذه المرة إلى تقليل مخاوف المؤسسات التي تستخدم عملاء الذكاء الاصطناعي من خلال تعزيز الأمان وإمكانية التحكم.
ومع ذلك، يبقى أن نرى ما إذا كانت هذه الأدوات الجديدة يمكنها تسريع تنفيذ الذكاء الاصطناعي المؤسسي بشكل فعال.
تهدف خطوة Nvidia إلى معالجة مخاوف المؤسسات بشأن أمن عملاء الذكاء الاصطناعي، وتعزيز مصداقية تطبيقات الذكاء الاصطناعي، وبالتالي تعزيز التطبيق الأوسع لتكنولوجيا الذكاء الاصطناعي في مجال المؤسسات. ومع ذلك، فإن نجاحها في نهاية المطاف في تعزيز تنفيذ الذكاء الاصطناعي المؤسسي يتطلب المزيد من الاختبارات العملية والاهتمام المستمر بتعليقات السوق.