أعلنت شركة OpenAI مؤخرًا عن مقياس داخلي لتتبع التقدم المحرز في نماذجها اللغوية الكبيرة في مجال الذكاء الاصطناعي العام (AGI). ولا توضح هذه الخطوة طموحات OpenAI في مجال الذكاء الاصطناعي العام فحسب، بل تزود الصناعة أيضًا بمعيار جديد لقياس تطور الذكاء الاصطناعي. يقسم هذا المقياس تطبيق الذكاء الاصطناعي العام إلى خمسة مستويات، بدءًا من روبوتات الدردشة الحالية وحتى الذكاء الاصطناعي الذي يمكنه أداء عمل المؤسسة بأكملها. ويمثل كل مستوى تحسنًا كبيرًا في قدرات الذكاء الاصطناعي. سيقوم محرر Downcodes بشرح ذلك بالتفصيل وتحليل أهميته وتأثيره المحتمل.
وفقًا لبلومبرج، أنشأت OpenAI مقياسًا داخليًا لتتبع التقدم المحرز في نماذجها اللغوية الكبيرة في الذكاء الاصطناعي العام (AGI). لا توضح هذه الخطوة طموحات OpenAI في مجال الذكاء الاصطناعي العام فحسب، بل تزود الصناعة أيضًا بمعيار جديد لقياس تطور الذكاء الاصطناعي.
ينقسم المقياس إلى خمسة مستويات: 1. المستوى 1: تنتمي روبوتات الدردشة الحالية، مثل ChatGPT، إلى هذا المستوى. 2. المستوى الثاني: الأنظمة القادرة على حل المشكلات الأساسية على مستوى الدكتوراه. تدعي OpenAI أنها قريبة من هذا المستوى. 3. المستوى 3: وكلاء الذكاء الاصطناعي القادرون على اتخاذ الإجراءات نيابة عن المستخدمين. 4. المستوى الرابع: الذكاء الاصطناعي القادر على خلق ابتكارات جديدة. 5. المستوى الخامس: الذكاء الاصطناعي الذي يمكنه أداء عمل المنظمة بأكملها ويعتبر الخطوة الأخيرة نحو تحقيق الذكاء الاصطناعي العام.
ومع ذلك، يختلف الخبراء حول الجدول الزمني لتنفيذ الذكاء الاصطناعي العام. قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في أكتوبر 2023، إن الذكاء الاصطناعي العام لا يزال على بعد خمس سنوات. ولكن حتى لو أمكن تحقيق الذكاء الاصطناعي العام، فسوف يتطلب الأمر استثمار مليارات الدولارات في موارد الحوسبة.
ومن الجدير بالذكر أن الإعلان عن معيار التسجيل هذا يتزامن مع إعلان OpenAI عن التعاون مع مختبر لوس ألاموس الوطني لاستكشاف كيفية الاستخدام الآمن لنماذج الذكاء الاصطناعي المتقدمة (مثل GPT-4) لمساعدة الأبحاث البيولوجية. ويهدف التعاون إلى إنشاء مجموعة من عوامل السلامة وعوامل التقييم الأخرى للحكومة الأمريكية والتي يمكن استخدامها لاختبار نماذج الذكاء الاصطناعي المختلفة في المستقبل.
على الرغم من رفض OpenAI تقديم تفاصيل حول كيفية تعيين النماذج لهذه المستويات الداخلية، فقد ذكرت بلومبرج أن قيادة الشركة أظهرت مؤخرًا مشروعًا بحثيًا باستخدام نموذج GPT-4 AI، بحجة أن المشروع أظهر بعض المهارات الجديدة المشابهة لقدرات التفكير البشري.
تساعد هذه الطريقة لقياس التقدم في الذكاء الاصطناعي العام على تقديم تعريف أكثر صرامة لتطوير الذكاء الاصطناعي وتجنب التفسير الذاتي. ومع ذلك، فإنه يثير أيضًا بعض المخاوف بشأن سلامة الذكاء الاصطناعي وأخلاقياته. في شهر مايو، قامت شركة OpenAI بحل فريقها الأمني، حيث قال بعض الموظفين السابقين إن الثقافة الأمنية للشركة قد أخذت مقعدًا خلفيًا في تطوير المنتجات، على الرغم من نفي شركة OpenAI ذلك.
توفر خطوة OpenAI اتجاهات ومعايير جديدة لأبحاث الذكاء الاصطناعي العام، ولكنها تثير أيضًا مخاوف بشأن الأمن والأخلاق. لا يزال التنفيذ النهائي للذكاء الاصطناعي العام غير مؤكد ويتطلب اهتمامًا وحذرًا مستمرين. سوف يتأثر اتجاه التطوير المستقبلي للذكاء الاصطناعي بهذا النطاق والأبحاث ذات الصلة، ويستحق الاهتمام المستمر.