في الآونة الأخيرة، أثارت أعمال تحسين نموذج Gemini AI من Google جدلاً. وفقًا لـ TechCrunch، قام مقاولو Google بمقارنة إجابات Gemini بإجابات كلود منافس Anthropic لتقييم أداء Gemini. وتثير هذه الخطوة تساؤلات حول ما إذا كانت جوجل قد استخدمت بيانات كلود دون تصريح وما إذا كانت قد انتهكت شروط خدمات الأعمال الخاصة بشركة أنثروبيك، نظرًا لأن أنثروبيك هي أحد المستثمرين الرئيسيين في جوجل. يسلط الحادث الضوء على شدة المنافسة في مجال الذكاء الاصطناعي وأهمية استخدام البيانات وقضايا الامتثال.
أصبحت المنافسة بين عمالقة التكنولوجيا في مجال الذكاء الاصطناعي شرسة بشكل متزايد، وقد أدى خبر حديث إلى ظهور تيار المنافسة الصناعية في المقدمة مرة أخرى. وفقًا للاتصالات الداخلية التي حصلت عليها TechCrunch، كان المقاول المسؤول عن تحسين نموذج الذكاء الاصطناعي Gemini من Google يقارن إجاباته بمخرجات نموذج Anthropic المنافس Claude. أثارت هذه الخطوة تساؤلات حول امتثال Google لترخيص Anthropic لاستخدام كلود للاختبار.
في حين تتنافس شركات التكنولوجيا لتطوير نماذج أفضل للذكاء الاصطناعي، عادة ما يتم تقييم أداء النموذج من خلال معايير الصناعة، بدلاً من إنفاق المقاولين الكثير من الطاقة في تقييم استجابات الذكاء الاصطناعي للمنافسين. ومع ذلك، وفقًا للتقارير، يُطلب من مقاولي جيميني تسجيل كل رد يرونه بناءً على معايير متعددة، بما في ذلك الأصالة والإسهاب. لدى المقاول ما يصل إلى 30 دقيقة ليقرر ما إذا كانت إجابة جيميني أو كلود هي الأفضل.
لاحظ المقاولون أن ردود كلود بدت وكأنها تؤكد على الأمن أكثر من ردود جيميني، كما تظهر سجلات الدردشة الداخلية. وقال أحد المقاولين: "من بين جميع نماذج الذكاء الاصطناعي، يتمتع كلود بإعدادات الأمان الأكثر صرامة". وفي بعض الحالات، لن يستجيب كلود للكلمات السريعة التي يراها غير آمنة، مثل التظاهر بأنه مساعد ذكاء اصطناعي مختلف. وفي اختبار آخر، تجنب كلود الرد على كلمة سريعة معينة، وتم وضع علامة على رد جيميني على أنه "انتهاك أمني خطير" لأنه يتضمن "العري وضبط النفس".
تحظر شروط خدمات الأعمال الخاصة بشركة Anthropic على وجه التحديد على العملاء الوصول إلى Claude "لبناء منتجات أو خدمات منافسة" أو "تدريب نماذج الذكاء الاصطناعي المنافسة" دون موافقة. ومن الجدير بالذكر أن Google هي المستثمر الرئيسي في Anthropic. وقد أدت هذه الخلفية إلى زيادة شكوك العالم الخارجي حول امتثال جوجل السلوكي.
ردًا على ذلك، قال ماكنمارا، المتحدث باسم جوجل ديب مايند (المسؤول عن جيميني)، إن ديب مايند تقوم "بمقارنة مخرجات النموذج" للتقييم، لكنها لا تقوم بتدريب جيميني على النموذج الأنثروبي. وقال ماكنمارا: "بالطبع، كما هو الحال في ممارسات الصناعة، نقوم في بعض الحالات بمقارنة مخرجات النماذج كجزء من عملية التقييم، ومع ذلك، فإن أي اقتراح بأننا استخدمنا النموذج الإنساني لتدريب جيميني هو غير دقيق".
على الرغم من أن جوجل تنفي استخدام كلود لتدريب جيميني، إلا أن خطابها حول "مقارنة مخرجات النموذج" لا يزال غامضًا ولا يمكنه إزالة الشكوك الخارجية تمامًا. أثار الحادث مرة أخرى المخاوف بشأن استخدام البيانات والامتثال أثناء تطوير نماذج الذكاء الاصطناعي. في مجال الذكاء الاصطناعي شديد التنافسية، ستصبح كيفية الحفاظ على المنافسة العادلة واحترام حقوق الملكية الفكرية قضية مهمة تتطلب اهتمامًا ومناقشة مستمرة أثناء تطوير الصناعة.
ولم يزيل تفسير جوجل للحادثة شكوك الجمهور بشكل كامل، وهو ما يعكس المنافسة الشرسة في مجال الذكاء الاصطناعي وخطورة تحديات الامتثال للبيانات. وفي المستقبل، تحتاج الصناعة إلى وضع قواعد ومعايير أكثر وضوحا لضمان المنافسة العادلة وحماية الملكية الفكرية.