في الآونة الأخيرة، كانت هناك تقارير تفيد بأن Google تستخدم نموذج Anthropic's Claude لتحسين مشروع الذكاء الاصطناعي Gemini. تُظهر المستندات الداخلية أن مقاولي Google يقومون بشكل منهجي بمقارنة مخرجات Gemini وClaude لتقييم أداء Gemini وتحسينه. لقد اجتذب هذا النهج اهتمام الصناعة ويتضمن أيضًا معايير الصناعة لتقييم نموذج الذكاء الاصطناعي والقضايا الأخلاقية في التعاون الفني بين الشركات المختلفة. سوف تتعمق هذه المقالة في تفاصيل هذا الحادث وتحلل تأثيره المحتمل.
في الآونة الأخيرة، يعمل مشروع الذكاء الاصطناعي Gemini التابع لشركة Google على تحسين أدائه من خلال مقارنة نتائج مخرجاته مع نموذج Anthropic's Claude. وفقًا للاتصالات الداخلية التي حصلت عليها TechCrunch، يقوم المقاول المسؤول عن تحسين Gemini بتقييم إجابات نموذجي الذكاء الاصطناعي بشكل منهجي.
في صناعة الذكاء الاصطناعي، عادةً ما يتم تقييم أداء النماذج من خلال معايير الصناعة، بدلاً من قيام المقاولين بمقارنة إجابات النماذج المختلفة واحدًا تلو الآخر. يحتاج المقاول المسؤول عن Gemini إلى تسجيل مخرجات النموذج بناءً على عدة معايير، بما في ذلك الأصالة ومستوى التفاصيل. كان لديهم ما يصل إلى 30 دقيقة في كل مرة لتحديد الإجابة الأفضل، إجابة جيميني أو كلود.
في الآونة الأخيرة، لاحظ هؤلاء المتعاقدون ظهور إشارات إلى كلود بشكل متكرر على المنصات الداخلية التي يستخدمونها. جزء مما تم عرضه للمقاولين ينص بوضوح على ما يلي: "أنا كلود تم إنشاؤه بواسطة Anthropic." وفي محادثة داخلية، وجد المقاولون أيضًا أن إجابات كلود كانت أكثر تركيزًا على الأمان. وأشار بعض المقاولين إلى أن إعدادات أمان كلود هي الأكثر صرامة بين جميع نماذج الذكاء الاصطناعي. في بعض الحالات، سيختار كلود عدم الاستجابة للمطالبات التي يراها غير آمنة، مثل لعب أدوار مساعدي الذكاء الاصطناعي الآخرين. وفي حالة أخرى، تجنب كلود المطالبة وتم وضع علامة على إجابة جيميني على أنها "انتهاك جسيم للسلامة" لاحتوائها على "العري والعبودية".
تجدر الإشارة إلى أن شروط الخدمة التجارية لشركة Anthropic تحظر على العملاء استخدام Claude "لبناء منتجات أو خدمات منافسة" أو "تدريب نماذج الذكاء الاصطناعي المنافسة" دون تصريح. تعد Google أحد كبار المستثمرين في Anthropic.
في مقابلة مع TechCrunch، لم تكشف شيرا ماكنمارا، المتحدثة باسم Google DeepMind، عما إذا كانت Google قد تلقت موافقة من Anthropic لاستخدام كلود. قال ماكنمارا إن DeepMind يقوم بمقارنة مخرجات النموذج للتقييم، لكنه لا يقوم بتدريب جيميني على نموذج كلود. وقالت: "بالطبع، كما هو الحال في الممارسة الصناعية القياسية، سنقارن مخرجات النماذج في بعض الحالات، ومع ذلك، فإن أي اقتراح بأننا استخدمنا النموذج الإنساني لتدريب جيميني هو غير دقيق".
في الأسبوع الماضي، ذكرت TechCrunch أيضًا حصريًا أنه طُلب من مقاولي Google تقييم استجابات Gemini للذكاء الاصطناعي في مجالات خارج مجالات خبرتهم. أعرب بعض المقاولين عن مخاوفهم في الاتصالات الداخلية من أن شركة Gemini قد تولد معلومات غير دقيقة حول موضوعات حساسة مثل الرعاية الصحية.
تسليط الضوء على:
تجري شركة Gemini اختبارات مقارنة مع Claude لتحسين أداء نموذج الذكاء الاصطناعي الخاص بها.
المقاولون مسؤولون عن تسجيل النقاط، وتتم مقارنة إجاباتهم عبر معايير متعددة، بما في ذلك الأصالة والسلامة.
تحظر Anthropic الاستخدام غير المصرح به لـ Claude لتدريب النماذج التنافسية.
أثار استخدام جوجل لنموذج كلود لتحسين سلوك الجوزاء مناقشات حول طرق تقييم نماذج الذكاء الاصطناعي، وأخلاقيات استخدام البيانات، والعلاقات التنافسية. في المستقبل، ما إذا كانت مقارنات نماذج الذكاء الاصطناعي المماثلة بين الشركات ستصبح هي القاعدة في الصناعة وكيفية تنظيم مثل هذا السلوك تستحق المزيد من الاهتمام. وسيكون لهذا تأثير عميق على تطوير وتنظيم صناعة الذكاء الاصطناعي.